Articles

Libre de coder sur des plateformes low-code.

Libre de coder sans limites sur des plateformes low-code, découvrez les avantages de cette nouvelle façon de développer des applications !

## Les plateformes low-code offrent une visibilité, une extensibilité et une propriété partielle ou complète du code. Ces caractéristiques varient considérablement d’un fournisseur à l’autre. Les développeurs professionnels peuvent réaliser leur plein potentiel sur les plateformes low-code uniquement avec une liberté complète pour accéder et modifier le code.

Low-code development platforms provide a database-driven approach to application development. This means that the data used in the application is stored in a database, and the application is built on top of this data. This approach allows for faster development, as the data can be accessed quickly and easily. Additionally, it allows for better scalability, as the application can be easily adapted to different databases or data sources.

Les plates-formes de développement low-code offrent une variété significative en termes d’accès, de visibilité, d’extensibilité et de propriété du code. Les développeurs professionnels peuvent réaliser leur plein potentiel sur ces plates-formes low-code uniquement s’ils ont la liberté complète d’accéder et de modifier le code.

Ces dernières années, les plates-formes de développement low-code ont gagné en popularité, permettant aux utilisateurs de créer des applications avec un minimum de connaissances ou d’expérience en programmation. Elles abstraient une grande partie de la complexité impliquée dans le codage traditionnel en fournissant des composants préconstruits et des interfaces visuelles.

Les plates-formes de développement low-code offrent une approche basée sur une base de données pour le développement d’applications. Cela signifie que les données utilisées dans l’application sont stockées dans une base de données et que l’application est construite à partir de ces données. Cette approche permet un développement plus rapide, car les données peuvent être facilement et rapidement accessibles. De plus, elle permet une meilleure évolutivité, car l’application peut être facilement adaptée à différentes bases de données ou sources de données.

En outre, les plates-formes de développement low-code offrent une flexibilité supplémentaire en ce qui concerne la gestion des bases de données. Les utilisateurs peuvent choisir entre différents types de bases de données, ce qui leur permet d’adapter leur application à leurs besoins spécifiques. Les plates-formes low-code offrent également des outils pour gérer et maintenir la base de données, ce qui permet aux utilisateurs de garantir que leurs données sont sûres et à jour.

Enfin, les plates-formes low-code offrent une variété d’outils pour faciliter le développement et la gestion des applications. Ces outils comprennent des outils pour la gestion des versions, la surveillance des performances et la gestion des erreurs. Ces outils permettent aux développeurs de créer des applications plus robustes et fiables, ce qui améliore l’expérience utilisateur finale.

En conclusion, les plates-formes de développement low-code offrent aux développeurs une variété d’avantages en matière de base de données et d’outils pour le développement et la gestion des applications. Ces avantages permettent aux développeurs de créer des applications plus rapides, plus flexibles et plus fiables qui répondent aux besoins spécifiques des utilisateurs.

Source de l’article sur DZONE

Valider les archives et identifier les documents invalides en Java

Valider les archives et identifier les documents invalides en Java est une tâche complexe, mais qui peut être simplifiée grâce à l’utilisation des outils adéquats.

Dans notre paysage contemporain de cybersécurité, les menaces cachées de contenu personnalisé menaces commencent à pénétrer nos politiques de sécurité des e-mails et nos pare-feux / proxies de numérisation des virus avec une plus grande cohérence. Les fichiers habilement dissimulés peuvent facilement se faufiler dans nos boîtes de réception et nos emplacements de stockage de fichiers les plus sensibles, et ils peuvent y rester pendant de longues périodes, attendant patiemment des victimes sans méfiance pour télécharger et exécuter leurs charges utiles malveillantes.  

Apparemment, plus nous nous précipitons pour comprendre et atténuer une itération d’une menace cachée de contenu, plus vite cette menace évolue en quelque chose de complètement nouveau, nous prenant à nouveau par surprise encore et encore.

The only way to stay ahead of the game is to deploy a comprehensive software solution that can detect and block malicious content before it reaches its intended target. Such a solution should be able to detect threats that are hidden in plain sight, as well as those that are disguised as legitimate files. It should also be able to identify and block malicious content that is embedded in emails, webpages, and other digital documents.

Dans le paysage de la cybersécurité contemporaine, des menaces de contenu personnalisées insidieuses commencent à pénétrer nos politiques de sécurité des courriels et nos pare-feux / proxies de numérisation des virus avec une plus grande cohérence. Les fichiers habilement dissimulés peuvent facilement se faufiler dans nos boîtes de réception et dans nos emplacements de stockage de fichiers les plus sensibles, et ils peuvent y rester pendant de longues périodes, attendant patiemment que des victimes sans méfiance les téléchargent et exécutent leurs charges utiles malveillantes.

Apparemment, plus nous nous précipitons pour comprendre et atténuer une itération d’une menace de contenu cachée, plus vite cette menace évolue en quelque chose de complètement nouveau, nous prenant à nouveau par surprise encore et encore.

La seule façon de rester en tête est de déployer une solution logicielle complète qui peut détecter et bloquer le contenu malveillant avant qu’il n’atteigne sa cible. Une telle solution devrait être capable de détecter les menaces cachées en pleine vue, ainsi que celles qui sont dissimulées sous forme de fichiers légitimes. Il devrait également être capable d’identifier et de bloquer le contenu malveillant qui est intégré dans des courriels, des pages Web et d’autres documents numériques.

Source de l’article sur DZONE

Cycle de test automatisé

Le cycle de test automatisé est une méthode efficace pour vérifier la qualité et la fiabilité des logiciels. Il permet d’accélérer le processus de développement et de réduire les coûts.

Rapport de tendances sur les tests automatisés de DZone 2023

Selon le rapport de DZone 2023 sur les tendances en matière de tests automatisés, le marché des tests automatisés a dépassé les 20 milliards de dollars (USD) en 2022 et devrait connaître une croissance annuelle composée (CAGR) de plus de 15 % entre 2023 et 2032. Cela peut être attribué à la volonté des organisations d’utiliser des techniques sophistiquées de test automatisé dans le cadre du processus d’assurance qualité (QAOps). En réduisant le temps nécessaire à l’automatisation des fonctionnalités, cela accélère la commercialisation des solutions logicielles. Il offre également une extermination rapide des bogues et un débogage post-déploiement et aide à l’intégrité du logiciel grâce à des notifications précoces de changements imprévus.

Les tests automatisés sont une partie essentielle du processus de développement logiciel. Les tests automatisés aident à réduire les coûts et à améliorer la qualité du logiciel. Les outils de test automatisés sont conçus pour exécuter des tests répétitifs et répétitifs, ce qui permet aux développeurs de se concentrer sur le codage et l’amélioration du produit. Les outils de test automatisés peuvent être utilisés pour tester l’intégration, le déploiement, la sécurité, le codage, les performances et l’accessibilité. Les outils de test automatisés peuvent être intégrés à des outils d’intégration continue (CI) pour fournir des résultats plus précis et plus rapides. Les outils de test automatisés peuvent être utilisés pour tester les applications Web, mobiles et natives.

Les tests automatisés sont également utiles pour tester les API et les microservices. Les tests automatisés peuvent être utilisés pour tester les API et les microservices en exécutant des tests unitaires, des tests d’intégration et des tests d’acceptation. Les tests automatisés peuvent également être utilisés pour tester les API REST et SOAP. Les tests automatisés peuvent être utilisés pour tester les performances, la sécurité et la fiabilité des API et des microservices. Les tests automatisés peuvent également être utilisés pour vérifier la conformité aux normes et aux réglementations.

En conclusion, les tests automatisés sont essentiels pour assurer la qualité du logiciel et améliorer l’efficacité des processus de développement logiciel. Les outils de test automatisés peuvent être intégrés à des outils d’intégration continue pour fournir des résultats plus précis et plus rapides. Les tests automatisés peuvent être utilisés pour tester l’intégration, le déploiement, la sécurité, le codage, les performances et l’accessibilité. Les tests automatisés peuvent également être utilisés pour tester les API et les microservices en exécutant des tests unitaires, des tests d’intégration et des tests d’acceptation.

Source de l’article sur DZONE

Analyse de log avec grep

L’analyse de log avec grep est une méthode très pratique pour trouver des informations importantes dans les fichiers de log.

Mon récent voyage avec Linux et comment j’utilise grep pour analyser les journaux

Récemment, j’ai commencé un nouveau rôle en tant qu’ingénieur logiciel et, dans mon poste actuel, je passe beaucoup de temps dans le terminal. Bien que je sois un utilisateur Linux depuis longtemps, j’ai entamé mon voyage Linux après avoir été frustré par la configuration d’un environnement Node.js sous Windows pendant mes études universitaires. C’est à ce moment-là que j’ai découvert Ubuntu et que je suis tombé amoureux de la simplicité et de la puissance du terminal Linux. Malgré le fait que j’ai commencé mon voyage Linux avec Ubuntu, ma curiosité m’a poussé à essayer d’autres distributions, telles que Manjaro Linux et, finalement, Arch Linux. Sans aucun doute, j’ai une profonde affection pour Arch Linux. Cependant, au travail, j’utilisais macOS et, progressivement, j’ai également développé un amour pour macOS. Maintenant, j’ai basculé sur macOS comme pilote quotidien. Néanmoins, mon amour pour Linux, en particulier Arch Linux et la personnalisation étendue qu’il offre, reste inchangé.

Quoi qu’il en soit, dans ce post, je vais discuter de grep et de la façon dont je l’utilise pour analyser les journaux et découvrir des informations. Sans aucun doute, grep s’est avéré être un outil exceptionnellement puissant. Cependant, avant de plonger dans grep, voyons d’abord ce qu’est grep et comment il fonctionne.

Grep est un outil de ligne de commande qui peut être utilisé pour rechercher des chaînes de caractères spécifiques dans un fichier ou un ensemble de fichiers. Il est très utile pour rechercher des mots ou des expressions spécifiques dans un fichier. Grep prend en charge une variété d’options qui peuvent être utilisées pour affiner les résultats de recherche. Par exemple, l’option -i peut être utilisée pour ignorer la casse lors de la recherche d’une chaîne de caractères spécifique. L’option -v peut être utilisée pour afficher toutes les lignes qui ne contiennent pas la chaîne de caractères spécifique. Il existe également des options supplémentaires qui peuvent être utilisées pour affiner les résultats.

J’utilise principalement grep pour analyser les journaux et découvrir des informations. Par exemple, je peux utiliser grep pour rechercher des erreurs spécifiques dans les journaux afin de trouver des indices sur les causes possibles des erreurs. J’utilise également grep pour rechercher des chaînes de caractères spécifiques dans les journaux afin de trouver des informations sur l’utilisation et le comportement des utilisateurs. En outre, j’utilise grep pour tester le code source afin de trouver des erreurs ou des bogues potentiels. Enfin, j’utilise grep pour rechercher des informations spécifiques dans les fichiers de configuration afin de vérifier si les paramètres sont correctement configurés.

En bref, grep est un outil extrêmement puissant qui peut être utilisé pour rechercher des chaînes de caractères spécifiques dans un f

Source de l’article sur DZONE

Exploration des aspects techniques des API météo

L’exploration des aspects techniques des API météo est une tâche complexe et passionnante. Dans cet article, nous allons examiner en détail les différentes possibilités offertes par ces API.

Intégration des applications avec des données météorologiques en temps réel

Pour intégrer des applications avec des données météorologiques en temps réel, les interfaces de programmation d’applications (API) pour la météo sont des outils essentiels. Dans les coulisses, ces API météorologiques dépendent de divers composants et procédures technologiques pour fournir aux développeurs des informations météorologiques fiables et à jour. Voyons plus en détail les nombreuses facettes de la technologie qui composent les API météorologiques.

La compilation des données et ses sources

Les données fournies par les API météorologiques proviennent de diverses sources, notamment les stations météorologiques, les satellites et les modèles météorologiques informatiques. Les données brutes peuvent être obtenues à partir de ces sources: température, humidité, vitesse du vent et précipitations. Ces données brutes sont traitées par le backend de l’API, qui génère ensuite des prédictions et des rapports détaillés sur l’état actuel.

Une fois que les données brutes sont collectées et traitées, elles sont organisées en différents formats pour être utilisables par les développeurs. Les API météorologiques offrent généralement des données structurées sous forme de tableaux ou de fichiers XML et JSON. Ces formats sont faciles à intégrer dans les applications et à lire par les machines, ce qui permet aux développeurs d’accéder rapidement aux données dont ils ont besoin.

Enfin, pour assurer la qualité et la fiabilité des données fournies par les API météorologiques, des algorithmes complexes sont utilisés pour traiter et analyser les données brutes. Ces algorithmes peuvent être utilisés pour corriger les erreurs ou pour combiner plusieurs sources de données pour obtenir des résultats plus précis. Les algorithmes peuvent également être utilisés pour générer des prévisions météorologiques à court terme ou à long terme.

Source de l’article sur DZONE

Apache Druid: 1000+ QPS Facile pour l'Analyse

des Données

Apache Druid offre une puissance de 1000+ QPS pour l’analyse des données, ce qui rend plus facile et plus rapide que jamais la prise de décision basée sur des données.

Les cas d’utilisation des analytics évoluent avec une augmentation du volume et des requêtes à faible latence. Mais l’échelle des analytics pour les requêtes à haut QPS nécessite une certaine considération. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors virtuellement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez en construire une) qui exécute beaucoup d’agrégations et de filtres sur des données à haute dimension et à haute cardinalité à grande échelle. Le genre d’application où beaucoup d’utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Testing is a key factor in scaling analytics for high QPS. It’s important to understand the performance of your analytics application under different scenarios. This will help you identify bottlenecks and optimize your queries for better performance.

Les cas d’utilisation d’analytique évoluent avec des requêtes à haut volume et à faible latence. Mais le passage à l’échelle des analyses pour des requêtes élevées par seconde (QPS) nécessite une certaine prise en compte. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors pratiquement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez d’en construire une) qui exécute de nombreuses agrégations et filtres sur des données à haute dimension et à haute cardinalité à l’échelle. Le genre d’application où de nombreux utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Le test est un facteur clé pour passer à l’échelle des analyses pour des QPS élevés. Il est important de comprendre les performances de votre application d’analytique dans différents scénarios. Cela vous aidera à identifier les goulots d’étranglement et à optimiser vos requêtes pour une meilleure performance.

Source de l’article sur DZONE

Construire des architectures analytiques pour alimenter des applications temps réel

Construire des architectures analytiques pour alimenter des applications temps réel est une tâche complexe qui nécessite une planification minutieuse et une mise en œuvre rigoureuse.

Comprendre le rôle des analyses hors ligne

Testing the Efficiency of Offline Analytics

In order to ensure that an offline analytics architecture is efficient and cost-effective, it’s important to test its performance and scalability. This can be done by running a series of tests that measure the time it takes to process a given dataset, as well as the accuracy of the results. These tests should be conducted on a regular basis to ensure that the architecture is able to handle the increasing volume and complexity of data. Additionally, it’s important to test the architecture’s ability to integrate with existing systems and applications, as well as its ability to scale up or down as needed.

Conclusion

Offline analytics architectures are essential for preparing and enhancing data before it’s ready for real-time application. Testing the efficiency and scalability of such architectures is key to ensuring that they can handle the increasing volume and complexity of data. By running regular tests and monitoring the performance of the architecture, businesses can ensure that their data is ready for real-time insights and applications.

Comprendre le rôle des analyses hors ligne

Les analyses hors ligne impliquent le processus de collecte, de traitement et d’analyse de grands volumes de données de manière par lots, souvent sur des périodes plus longues. Cela contraste avec les analyses en temps réel, qui se concentrent sur l’analyse des données lorsqu’elles sont générées, avec des résultats immédiats. Bien que les analyses en temps réel offrent l’avantage d’une prise de conscience rapide, les analyses hors ligne fournissent la base sur laquelle ces informations sont construites. Les architectures d’analyse hors ligne sont conçues pour gérer des jeux de données volumineux, nettoyer et transformer les données et générer des résultats agrégés qui peuvent ensuite être exploités dans des applications en temps réel.

Tester l’efficacité des analyses hors ligne

Pour s’assurer que les architectures d’analyse hors ligne sont efficaces et rentables, il est important de tester leurs performances et leur évolutivité. Cela peut être fait en exécutant une série de tests qui mesurent le temps nécessaire pour traiter un jeu de données donné, ainsi que la précision des résultats. Ces tests doivent être effectués régulièrement pour s’assurer que l’architecture est capable de gérer le volume et la complexité croissants des données. De plus, il est important de tester la capacité de l’architecture à s’intégrer aux systèmes et applications existants, ainsi qu’à son aptitude à évoluer vers le haut ou vers le bas selon les besoins.

Conclusion

Les architectures d’analyse hors ligne sont essentielles pour préparer et améliorer les données avant qu’elles ne soient prêtes pour une application en temps réel. Tester l’efficacité et la scalabilité de ces architectures est essentiel pour s’assurer qu’elles peuvent gérer le volume et la complexité croissants des données. En exécutant des tests réguliers et en surveillant les performances de l’architecture, les entreprises peuvent s’assurer que leurs données sont prêtes pour des informations et des applications en temps réel.

Source de l’article sur DZONE

Déclaration/Instruction attendue à la fin de l'entrée en C résolue

Bienvenue à la fin de l’entrée en C! Nous allons maintenant passer à la déclaration/instruction attendue pour compléter cette résolution.

Programmer en C nécessite une attention particulière aux détails, car même de petites erreurs de syntaxe peuvent causer des problèmes inattendus dans votre code. Un message d’erreur commun que les développeurs peuvent rencontrer lors de l’écriture de code C est « Déclaration ou instruction attendue à la fin de l’entrée« . Ce message d’erreur peut être frustrant à gérer, mais heureusement, il est généralement facile à diagnostiquer et à corriger. Dans cet article, vous apprendrez comment identifier où se trouve le problème, comment le gérer et comment l’éviter.

The most common cause of this error is a missing semicolon at the end of a line. This is because the semicolon is used to indicate the end of a statement in C. If the semicolon is missing, then the compiler will not be able to recognize the end of the statement and will report an error.

Another potential cause of this error is a missing curly brace. Curly braces are used to indicate the beginning and end of a block of code in C. If a curly brace is missing, then the compiler will not be able to recognize the end of the block and will report an error.

Deal with the Problem

Once you have identified the source of the problem, it is usually straightforward to fix. If the problem is a missing semicolon, then simply add the missing semicolon to the end of the line. If the problem is a missing curly brace, then add the missing brace to the beginning or end of the block of code.

If you are still having trouble identifying the source of the problem, then you can try using a debugging tool such as GDB or Valgrind. These tools can help you identify where in your code the problem is occurring and can provide additional information that can help you diagnose and fix the issue.

Avoiding the Problem

The best way to avoid this error is to pay close attention to your code and make sure that all statements and declarations are properly terminated with a semicolon and all blocks of code are properly enclosed in curly braces. Additionally, you should use a linter such as Clang or GCC to check your code for potential errors before compiling it.

You should also make sure that you are using a text editor that is designed for programming in C. A good text editor will provide syntax highlighting, which can help you identify potential errors in your code before they become an issue.

Finally, you should make sure that you are using a compiler that is compatible with your version of C. Different compilers may have different rules for how they interpret certain statements or declarations, so it is important to make sure that you are using a compiler that is compatible with your version of C.

Conclusion

The « Expected declaration or statement at the end of input » error message can be frustrating to deal with, but fortunately, it is usually straightforward to diagnose and fix. In most cases, the problem is a missing semicolon or curly brace. Once you have identified the source of the problem, it is usually easy to fix. Additionally, there are steps you can take to avoid this error in the future, such as using a linter and a text editor designed for programming in C.

Programmation en C : Comment traiter l’erreur « Déclaration ou instruction attendue à la fin de l’entrée »

La programmation en C nécessite une attention minutieuse aux détails car même de petites erreurs de syntaxe peuvent entraîner des problèmes inattendus dans votre code. Un message d’erreur courant que les développeurs peuvent rencontrer lors de l’écriture de code C est « Déclaration ou instruction attendue à la fin de l’entrée« . Ce message d’erreur peut être frustrant à gérer, mais heureusement, il est généralement facile à diagnostiquer et à corriger. Dans cet article, vous apprendrez comment identifier où se trouve le problème, comment le résoudre et comment l’éviter.

Identifier le problème

Lorsque l’erreur « Déclaration ou instruction attendue à la fin de l’entrée » se produit, cela signifie que le compilateur est arrivé à la fin du fichier ou de la fonction sans trouver une déclaration ou une instruction complète. En d’autres termes, le compilateur s’attend à trouver du

Source de l’article sur DZONE

Apprendre le développement logiciel sans diplôme

Apprendre le développement logiciel sans diplôme est possible ! Avec des ressources en ligne, des tutoriels et des communautés de développeurs, vous pouvez acquérir les compétences nécessaires pour devenir un développeur logiciel.

Le développement de logiciels est devenu l’une des compétences les plus recherchées

Learn the Architecture of Software Development

Once you have a basic understanding of programming languages, it is time to learn about software development architecture. This includes learning about the different components of a software system, such as databases, user interfaces, and APIs. You should also understand the different types of software development models, such as Waterfall, Agile, and DevOps. Understanding the architecture of software development will help you make informed decisions when designing and building software systems.

Gain Practical Experience

The best way to learn software development is to gain practical experience. You can start by building small projects and gradually increase the complexity. You can also participate in open-source projects or join online coding challenges. Working on real-world projects will help you understand the nuances of software development and gain valuable insights into the industry.

Comprendre les bases

Le développement de logiciels est devenu l’une des compétences les plus recherchées. La demande de développeurs de logiciels qualifiés continue de croître et de nombreux candidats ambitieux sont impatients d’apprendre cette compétence, même s’ils n’ont pas de diplôme en informatique ou dans un domaine connexe. Si vous êtes passionné par le développement de logiciels et que vous vous demandez comment vous y prendre sans diplôme, cet article est là pour vous guider. Nous allons explorer diverses stratégies et ressources qui peuvent vous aider à entreprendre un voyage réussi dans le monde du développement de logiciels.

Apprendre l’architecture du développement de logiciels

Une fois que vous avez une compréhension de base des langages de programmation, il est temps d’apprendre l’architecture du développement de logiciels. Cela inclut l’apprentissage des différents composants d’un système logiciel, tels que les bases de données, les interfaces utilisateur et les API. Vous devriez également comprendre les différents types de modèles de développement de logiciels, tels que Waterfall, Agile et DevOps. Comprendre l’architecture du développement de logiciels vous aidera à prendre des décisions éclairées lors de la conception et de la construction de systèmes logiciels.

Gagner une expérience pratique

La meilleure façon d’apprendre le développement de logiciels est de gagner une expérience pratique. Vous pouvez commencer par créer de petits projets et augmenter progressivement la complexité. Vous pouvez également participer à des projets open source ou rejoindre des défis de codage en ligne. Travailler sur des projets réels vous aidera à comprendre les subtilités du développement de logiciels et à acquérir des connaissances précieuses sur l’industrie.

Source de l’article sur DZONE

Architecture TDD pour Services

Web

L’architecture TDD pour les services web est une méthode de développement qui permet de construire des applications robustes et fiables. Elle offre une grande flexibilité et des tests automatisés.

Au-delà des tests unitaires

It doesn’t have to be this way. By leveraging the same TDD techniques used for unit tests, developers can create tests that span services and data stores, while still providing the same level of confidence and quality. Such tests can be written in the same language as the codebase, using the same tools, and can be managed as part of the same process. This approach also provides a more complete view of the system under test, allowing for more comprehensive testing, earlier detection of errors, and a better overall development process.

Au-delà du test unitaire

Le développement piloté par les tests (TDD) est une technique bien reconnue pour améliorer le processus de développement, que ce soit pour le développement de nouveau code ou pour la correction de bogues. Tout d’abord, écrivez un test qui échoue, puis faites-le fonctionner de manière minimale, puis faites-le fonctionner correctement ; rincez et répétez. Ce processus maintient l’accent sur le travail à valeur ajoutée et tire parti du processus de test comme un défi pour améliorer la conception testée plutôt que de vérifier uniquement son comportement. Cela améliore également la qualité de vos tests, qui deviennent une partie plus précieuse du processus global plutôt qu’une pensée après coup.

Le discours commun sur le TDD tourne autour des unités relativement petites et en cours de traitement, souvent d’une seule classe. Cela fonctionne très bien, mais qu’en est-il des unités «livrables» plus importantes ? Lors de l’écriture d’un microservice, ce sont les services qui sont primordiaux, tandis que les différentes constructions d’implémentation sont simplement des outils pour atteindre cet objectif. Le test des services est souvent considéré comme étant hors du champ d’un développeur travaillant dans une seule base de code. Ces tests sont souvent gérés séparément, peut-être par une équipe distincte, à l’aide d’outils et de langages différents. Cela rend souvent ces tests opaques et de moins bonne qualité et ajoute des inefficacités en nécessitant un commit/deploy ainsi qu’une coordination avec une équipe distincte.

Cela n’a pas à être ainsi. En utilisant les mêmes techniques TDD utilisées pour les tests unitaires, les développeurs peuvent créer des tests qui couvrent les services et les magasins de données, tout en fournissant le même niveau de confiance et de qualité. Ces tests peuvent être écrits dans le même langage que la base de code, à l’aide des mêmes outils, et peuvent être gérés dans le cadre du même processus. Cette approche fournit également une vue plus complète du système sous test, permettant un test plus complet, une détection plus précoce des erreurs et un meilleur processus de développement global.

Source de l’article sur DZONE