Articles

REST vs. Messagerie pour Microservices

Les microservices sont devenus une technologie populaire pour le développement d’applications. REST et Messagerie sont des méthodes populaires pour communiquer entre les microservices. Voyons les avantages et les inconvénients de chacun.

Rapport des tendances en matière d’intégration de logiciels de DZone 2023 : lire le rapport

En tant qu’informaticien enthousiaste, je suis très intéressé par l’architecture microservices. Cette architecture est une tendance très populaire dans le développement logiciel et elle est de plus en plus utilisée pour construire des systèmes complexes. La principale raison de son succès est qu’elle permet de découper un système complexe en petits modules indépendants qui peuvent être gérés plus facilement.

Cependant, il est important de noter que l’utilisation d’une architecture microservices nécessite une planification et une conception minutieuses. Les développeurs doivent prendre en compte plusieurs facteurs, notamment le nombre de services à créer, leur interdépendance et la façon dont ils communiquent entre eux. De plus, les tests sont essentiels pour s’assurer que chaque service fonctionne correctement et qu’il n’y a pas de problèmes de compatibilité entre les services.

Pour tirer le meilleur parti de l’architecture microservices, les développeurs doivent également mettre en place des outils et des processus de test efficaces. Ces outils peuvent être utilisés pour tester chaque service individuellement et pour vérifier que tous les services fonctionnent correctement ensemble. Les tests peuvent également être utilisés pour vérifier la sécurité et la fiabilité des services. Enfin, les tests peuvent être utilisés pour s’assurer que les performances des services sont optimales.

En conclusion, l’architecture microservices est une tendance très populaire dans le développement logiciel et elle peut être très utile pour construire des systèmes complexes. Cependant, il est important de bien planifier et concevoir l’architecture et d’utiliser des outils et des processus de test efficaces pour s’assurer que chaque service fonctionne correctement et qu’il n’y a pas de problèmes de compatibilité entre les services.

Source de l’article sur DZONE

Surveillance Linux OS avec HertzBeat Open Source en temps réel.

Surveiller votre système Linux avec HertzBeat Open Source en temps réel pour une meilleure sécurité et une plus grande efficacité!

## Introduction à HertzBeat

Introduction à HertzBeat

HertzBeat est un système de surveillance en temps réel open source, facile à utiliser et convivial qui ne nécessite pas d’agent et dispose de puissantes fonctionnalités de surveillance personnalisée. Il intègre la surveillance, l’alarme et la notification, prend en charge la surveillance des services applicatifs, des bases de données, des systèmes d’exploitation, du middleware, du cloud natif, etc., des alarmes seuil et des notifications d’alarme (e-mail WeChat Dingding Feishu SMS Slack Discord Telegram). Il possède des spécifications de protocole configurables telles que Http, Jmx, Ssh, Snmp, Jdbc, etc. Vous n’avez qu’à configurer YML pour utiliser ces protocoles afin de personnaliser et de collecter n’importe quel indicateur que vous souhaitez collecter. Pouvez-vous croire que vous pouvez adapter immédiatement un nouveau type de surveillance, tel que K8s ou Docker, simplement en configurant YML?

La puissante personnalisation, le support multi-types, l’expansion facile et le faible couplage d’HertzBeat espèrent aider les développeurs et les petites et moyennes équipes à construire rapidement leur propre système de surveillance. En tant qu’informaticien enthousiaste, je suis très intéressé par l’architecture HertzBeat et je suis impatient de l’essayer. HertzBeat est une excellente solution pour les développeurs qui souhaitent créer leur propre système de surveillance. Il est facile à installer et à configurer et offre une variété de fonctionnalités pour surveiller les performances des applications. Les utilisateurs peuvent surveiller les performances des applications et recevoir des notifications en cas de problème. HertzBeat est également très flexible et peut être configuré pour surveiller n’importe quel type d’application ou de service. La puissance de l’architecture HertzBeat permet aux développeurs de créer des systèmes de surveillance personnalisés pour leurs applications.

Source de l’article sur DZONE

Fargate vs Lambda : Qui sera le vainqueur ?

Fargate et Lambda sont deux technologies très populaires parmi les développeurs cloud. Quel est le meilleur pour votre projet ? Découvrons qui sera le vainqueur !

## Comparaison Fargate vs Lambda dans l’espace sans serveur

Quelles sont les différences entre Fargate et Lambda ?

Fargate et Lambda sont deux options de calcul sans serveur populaires disponibles dans l’écosystème AWS. Bien que les deux outils offrent un calcul sans serveur, ils diffèrent en ce qui concerne les cas d’utilisation, les limites opérationnelles, les allocations de ressources d’exécution, le prix et les performances. Fargate est une moteur de calcul sans serveur proposé par Amazon qui vous permet de gérer efficacement les conteneurs sans les tracas de la mise en provision des serveurs et de l’infrastructure sous-jacente. Lambda, quant à lui, est une plateforme de calcul sans serveur qui vous permet d’exécuter du code sans avoir à gérer des serveurs. Lambda est conçu pour prendre en charge des charges de travail à courtes durées et à faible consommation de ressources.

Quelle est la meilleure option pour l’architecture ?

Lorsqu’il s’agit de choisir entre Fargate et Lambda, il est important de comprendre leurs différences et leurs avantages. Pour les applications à longue durée et à haute consommation de ressources, Fargate est la meilleure option car il offre une gestion des conteneurs plus efficace et une meilleure performance. Cependant, pour les applications à courtes durées et à faible consommation de ressources, Lambda est la meilleure option car il offre une exécution plus rapide et une meilleure utilisation des ressources. En fin de compte, le choix entre Fargate et Lambda dépend des exigences spécifiques de votre application et de votre architecture. Il est important de prendre en compte le coût, la performance et les fonctionnalités avant de prendre une décision finale.

Quelle que soit l’application ou l’architecture que vous souhaitez mettre en place, Fargate et Lambda sont tous deux des outils puissants qui peuvent vous aider à atteindre vos objectifs. En tant qu’informaticien enthousiaste, je trouve que ces outils sont très utiles pour créer des applications modernes et évolutives. Fargate et Lambda offrent tous les deux des fonctionnalités avancées qui peuvent être utilisées pour créer des architectures robustes et flexibles. Les deux outils sont faciles à utiliser et peuvent être intégrés à d’autres services AWS pour offrir une expérience utilisateur optimale. En fin de compte, le choix entre Fargate et Lambda dépendra des exigences spécifiques de votre application et de votre architecture.

Source de l’article sur DZONE

L'Intelligence Artificielle et la Modernisation des Applications Héritées.

L’Intelligence Artificielle est en train de révolutionner la modernisation des applications héritées. Elle offre de nouvelles possibilités pour améliorer les performances et l’efficacité.

Comment l’intelligence artificielle (IA) peut-elle moderniser les applications héritées ?

En tant qu’informaticien enthousiaste, je sais que les entreprises sont constamment à la recherche de moyens pour rester compétitives et pertinentes sur le marché. L’un des principaux défis qu’elles doivent relever est de moderniser leurs applications héritées afin de répondre aux besoins des clients modernes.

La modernisation des applications héritées peut impliquer un investissement important en termes de temps, de ressources et d’argent. Cependant, avec les avancées technologiques en matière d’intelligence artificielle (IA), les entreprises peuvent désormais moderniser leurs applications héritées plus efficacement et plus efficacement que jamais. Dans ce blog, nous discuterons du rôle de l’IA dans la modernisation des applications héritées et des avantages qu’elle peut apporter.

L’IA est un outil puissant qui peut aider les entreprises à moderniser leurs applications héritées. Les technologies d’IA peuvent être utilisées pour analyser les données des applications héritées et identifier les zones qui nécessitent une modernisation. Les technologies d’IA peuvent également être utilisées pour générer des modèles qui peuvent être utilisés pour mettre à jour les applications héritées. De plus, l’IA peut être utilisée pour automatiser certaines tâches, ce qui permet aux entreprises de gagner du temps et de l’argent.

Les technologies d’IA peuvent également être utilisées pour améliorer la gestion des bases de données. Les technologies d’IA peuvent être utilisées pour analyser les données stockées dans la base de données et identifier les anomalies. Cela permet aux entreprises de mieux comprendre leurs données et de prendre des décisions plus éclairées. De plus, l’IA peut être utilisée pour améliorer la sécurité des bases de données en détectant et en corrigeant les erreurs et en empêchant les attaques malveillantes.

En résumé, l’IA est un outil puissant qui peut aider les entreprises à moderniser leurs applications héritées. Les technologies d’IA peuvent être utilisées pour analyser les données des applications héritées, générer des modèles pour mettre à jour ces applications et automatiser certaines tâches. De plus, l’IA peut être utilisée pour améliorer la gestion des bases de données et la sécurité des bases de données. Les entreprises qui investissent dans l’IA pour moderniser leurs applications héritées peuvent bénéficier d’une meilleure efficacité et d’une meilleure sécurité.

Source de l’article sur DZONE

Atelier Prometheus : Installation de Prometheus

Bienvenue à l’Atelier Prometheus ! Nous vous guiderons à travers l’installation de Prometheus et vous aiderons à surveiller vos systèmes.

Êtes-vous à la recherche d’un moyen de vous éloigner des instruments propriétaires? Êtes-vous intéressé par l’observabilité open source, mais manquez-vous de connaissances pour vous y lancer? Ce workshop est fait pour vous et a été conçu pour élargir vos connaissances et votre compréhension des outils d’observabilité open source disponibles aujourd’hui. Plongez-vous dans un atelier gratuit, en ligne et à votre rythme, pour vous familiariser avec Prometheus. Prometheus est un kit d’outils de surveillance et d’alerte open source qui vous permet de démarrer rapidement la découverte, la collecte et l’interrogation de votre observabilité. Au cours de ce workshop, vous apprendrez ce qu’est Prometheus, ce qu’il n’est pas, comment l’installer, comment commencer à collecter des métriques et tout ce que vous devez savoir pour devenir efficace dans l’utilisation de Prometheus dans votre pile d’observabilité.

## Découvrez Prometheus avec un atelier en ligne gratuit et à votre rythme

En tant qu’informaticien enthousiaste, je cherche à m’éloigner des instruments propriétaires ? Vous êtes intéressé par l’observabilité open source, mais manquez de connaissances pour vous y lancer ? Ce workshop est fait pour vous, conçu pour élargir vos connaissances et votre compréhension des outils d’observabilité open source disponibles aujourd’hui. Plongez directement dans un atelier en ligne gratuit, à votre rythme et pratique, vous introduisant à Prometheus. Prometheus est un kit d’outils open source de surveillance et d’alerte des systèmes qui vous permet de démarrer rapidement avec la découverte, la collecte et l’interrogation de votre observabilité aujourd’hui. Au cours de ce workshop, vous apprendrez ce qu’est Prometheus, ce qu’il n’est pas, comment l’installer, comment collecter des métriques et tout ce que vous devez savoir pour devenir efficace dans l’utilisation de Prometheus dans votre pile d’observabilité.

Afin de tester vos connaissances, le workshop comprend des exercices pratiques qui vous permettront de mettre en pratique ce que vous avez appris. Vous apprendrez à configurer Prometheus et à créer des alertes, à utiliser des outils tels que Grafana pour afficher les métriques et à utiliser des outils tels que PromQL pour interroger les métriques. Vous apprendrez également à surveiller des applications web et à utiliser des exposants pour exposer les métriques à Prometheus.

Une fois le workshop terminé, vous serez en mesure de mettre en œuvre Prometheus dans votre environnement et de commencer à surveiller et à alerter sur les performances de votre système. Vous serez également en mesure de développer des outils personnalisés pour collecter et afficher des métriques spécifiques à votre application. Vous aurez acquis une solide base de connaissances sur l’utilisation de Prometheus et serez prêt à l’utiliser pour améliorer votre observabilité.

Source de l’article sur DZONE

Utiliser GPT-3 dans nos applications.

GPT-3 est une technologie révolutionnaire qui peut être intégrée dans nos applications pour améliorer leurs performances et leur fonctionnalité. Découvrons comment l’utiliser !

Bienvenue à un nouvel épisode sur l’intelligence artificielle. Comme je l’ai expliqué dans mon précédent article, GPT-3 (Generative Pretrained Transformer 3) est un modèle de traitement du langage de pointe développé par OpenAI. Il a été entraîné sur une grande quantité de données et peut générer du texte similaire à celui des humains sur une large gamme de sujets. L’une des façons d’accéder aux capacités de GPT-3 est via son API, qui permet aux développeurs d’intégrer facilement GPT-3 dans leurs applications.

Dans cet article, nous fournirons un guide détaillé sur la façon d’utiliser l’API GPT-3, y compris comment configurer votre clé API, générer des réponses et accéder au texte généré. À la fin de cet article, nous aurons une base pour savoir comment utiliser GPT-3 dans nos propres projets et applications.

## Guide détaillé pour utiliser l’API GPT-3

Bienvenue dans un nouvel article sur l’intelligence artificielle. Comme je l’ai expliqué dans mon précédent article, GPT-3 (Generative Pretrained Transformer 3) est un modèle de traitement du langage de pointe développé par OpenAI. Il a été entraîné sur une grande quantité de données et peut générer du texte similaire à celui des humains sur une large gamme de sujets. L’une des façons d’accéder aux capacités de GPT-3 est via son API, qui permet aux développeurs d’intégrer facilement GPT-3 dans leurs applications.

Dans cet article, nous fournirons un guide détaillé sur la façon d’utiliser l’API GPT-3, y compris comment configurer votre clé API, générer des réponses et accéder au texte généré. À la fin de cet article, nous aurons une base pour savoir comment utiliser GPT-3 dans nos propres projets et applications.

En tant qu’informaticien enthousiaste, je voudrais partager mon expérience avec l’API GPT-3. Pour commencer, vous devez créer un compte OpenAI et obtenir votre clé API. Une fois que vous avez votre clé API, vous pouvez l’utiliser pour accéder à l’API GPT-3 et générer des réponses à partir de données textuelles. Vous pouvez également spécifier des paramètres supplémentaires pour contrôler le type de réponse que vous souhaitez obtenir. Par exemple, vous pouvez spécifier le nombre de mots que vous souhaitez générer, le type de langage à utiliser et le type de contenu que vous souhaitez obtenir.

Une fois que vous avez généré des réponses à partir de l’API GPT-3, vous pouvez les afficher dans votre application ou les enregistrer dans un fichier pour une utilisation ultérieure. Vous pouvez également utiliser ces réponses pour entraîner un modèle personnalisé qui peut être utilisé pour générer des réponses plus spécifiques à des questions spécifiques. Enfin, vous pouvez également utiliser ces réponses pour créer des applications plus intelligentes qui peuvent comprendre et répondre aux questions des utilisateurs.

En conclusion, l’API GPT-3 est un outil puissant qui peut être utilisé pour créer des applications plus intelligentes et plus interactives. Il offre aux développeurs une façon simple et rapide d’accéder aux capacités de GPT-3 et de générer des réponses à partir de données textuelles. En utilisant cette API, les développeurs peuvent créer des applications plus intelligentes et plus interactives qui peuvent comprendre et répondre aux questions des utilisateurs.

Source de l’article sur DZONE

Développement collaboratif de nouvelles fonctionnalités avec microservices

Le développement collaboratif de nouvelles fonctionnalités avec microservices offre une solution flexible et évolutive pour répondre aux besoins des entreprises.

Dans une architecture de microservices, le code est divisé en petites unités. Ces morceaux de code peuvent être développés en isolation et expédiés indépendamment en production, ce qui réduit les dépendances entre les équipes – le résultat: un développement de fonctionnalités rapide et un temps de mise sur le marché plus rapide.

Bien que l’architecture des microservices apporte de nombreux avantages, la réalité est que ces avantages tendent à diminuer à l’échelle. En particulier, plus un organisme a de microservices, plus il est difficile de s’assurer que les modifications fonctionnent ensemble dans leur ensemble.

En tant qu’informaticien enthousiaste, je sais que l’architecture microservices est une solution très populaire pour les développeurs. Cette architecture consiste à diviser le code en petites unités qui peuvent être développées et mises en production indépendamment, ce qui réduit les dépendances entre les équipes et permet un développement plus rapide des fonctionnalités et une plus grande rapidité sur le marché.

Cependant, il est important de comprendre que ces avantages diminuent à mesure que la taille de l’organisation augmente. Plus il y a de microservices, plus il est difficile de s’assurer que les changements fonctionnent ensemble. C’est pourquoi il est important d’utiliser une base de données pour gérer ces microservices. Une base de données permet d’organiser et de stocker les informations sur les microservices, ce qui facilite leur gestion et leur maintenance. Elle permet également aux développeurs de voir comment les différents microservices interagissent entre eux et comment les changements affectent le système dans son ensemble.

Enfin, une base de données peut également être utilisée pour surveiller et analyser l’utilisation des microservices. Les développeurs peuvent ainsi suivre l’utilisation des microservices et identifier les problèmes potentiels avant qu’ils ne deviennent trop importants. De plus, les données collectées peuvent être utilisées pour améliorer les performances des microservices et pour prendre des décisions basées sur des données. En bref, une base de données est un outil essentiel pour gérer et surveiller les microservices à grande échelle.

Source de l’article sur DZONE

Construire le prochain Data Lakehouse : 10X Performance

Construire le prochain Data Lakehouse pour obtenir une performance 10X plus rapide est un défi passionnant. Nous devons trouver des moyens innovants pour exploiter les technologies de données modernes.

Unification: La Nouvelle Paradigme du Data Lakehouse

unifying data, unifying analytics, and unifying governance.

En tant que scientifique informatique enthousiaste, je peux dire que le concept de data lakehouse est un paradigme révolutionnaire. Il a été défini par Bill Inmon il y a plus de 30 ans comme « une collection intégrée, non volatile et à temps variable de données à des fins de prise de décision ». Cependant, les premiers data warehouses étaient incapables de stocker des données hétérogènes massives, ce qui a conduit à la création des data lakes.

Aujourd’hui, le data lakehouse est une architecture de gestion de données ouverte dotée de puissantes capacités d’analyse et de gouvernance des données, d’une grande flexibilité et d’un stockage ouvert. Si je devais utiliser un seul mot pour décrire le data lakehouse de nouvelle génération, ce serait unification : unifier les données, unifier l’analyse et unifier la gouvernance.

Le data lakehouse est une solution idéale pour les entreprises qui souhaitent tirer parti de leurs données. Il permet aux entreprises d’accéder à des informations précieuses et d’utiliser des outils d’analyse avancés pour prendre des décisions plus éclairées. Grâce au data lakehouse, les entreprises peuvent facilement intégrer des données hétérogènes et obtenir des informations exploitables pour leurs activités. De plus, le data lakehouse offre une meilleure visibilité sur les données et une meilleure sécurité grâce à des fonctionnalités de codage avancées.

En conclusion, le data lakehouse est une solution innovante qui offre aux entreprises une meilleure gestion et une meilleure analyse des données. Il permet aux entreprises de tirer parti de leurs données pour prendre des décisions plus éclairées et améliorer leurs activités. Le data lakehouse est une solution idéale pour les entreprises qui cherchent à intégrer des données hétérogènes et à utiliser des outils d’analyse avancés pour améliorer leurs performances.

Source de l’article sur DZONE

Structures et Algos Clés pour Ingénieurs Données

Les structures de données et les algorithmes sont des outils essentiels pour les ingénieurs en données. Découvrez comment les maîtriser pour optimiser vos performances !

Données d’ingénierie : gérer efficacement de grandes quantités de données

En tant qu’informaticien enthousiaste, je vais explorer dans cet article les structures de données et les algorithmes les plus importants que les ingénieurs en données devraient connaître, ainsi que leurs utilisations et leurs avantages. La gestion des grandes quantités de données est une pratique essentielle pour un ingénieur en données, allant de l’entreposage et du traitement à l’analyse et à la visualisation. Par conséquent, les ingénieurs en données doivent être bien informés des structures de données et des algorithmes qui peuvent les aider à gérer et à manipuler les données efficacement.

Les bases de données sont l’un des outils les plus importants pour les ingénieurs en données. Les bases de données sont des systèmes de gestion de données qui permettent de stocker, de manipuler et d’analyser des données. Elles sont conçues pour être faciles à utiliser et à mettre à jour, et offrent une grande flexibilité et une grande scalabilité. Les bases de données peuvent être utilisées pour stocker des données à court terme ou à long terme, et peuvent être utilisées pour stocker des données structurées ou non structurées. Les bases de données sont également très utiles pour effectuer des analyses complexes sur des jeux de données volumineux.

Les algorithmes sont également très importants pour les ingénieurs en données. Les algorithmes sont des instructions qui décrivent comment une tâche doit être effectuée. Les algorithmes peuvent être utilisés pour effectuer des opérations sur des jeux de données, tels que le tri, le filtrage et la recherche. Les algorithmes peuvent également être utilisés pour effectuer des analyses complexes sur des jeux de données volumineux. Les algorithmes peuvent être implémentés dans des bases de données ou dans des applications logicielles pour améliorer leur performance et leur efficacité.

En conclusion, les bases de données et les algorithmes sont essentiels pour les ingénieurs en données. Les bases de données sont utiles pour stocker et manipuler des données, tandis que les algorithmes sont utiles pour effectuer des opérations sur ces données et pour effectuer des analyses complexes. Les ingénieurs en données doivent être bien informés des structures de données et des algorithmes qui peuvent les aider à gérer et à manipuler les données efficacement.

Source de l’article sur DZONE

Guide de conception de tests pour votre pipeline CI/CD

Découvrez comment optimiser votre pipeline CI/CD grâce à notre guide de conception de tests complet et facile à suivre !

Lors de la livraison plus rapide du logiciel sur le marché, il est essentiel d’intégrer des tests automatisés dans votre pipeline de livraison continue pour vérifier que le logiciel respecte les normes attendues par vos clients. Votre pipeline de livraison continue peut également comporter de nombreuses étapes qui doivent déclencher ces tests automatisés pour vérifier les portes de qualité définies avant que le logiciel ne puisse passer à la prochaine étape et finalement être mis en production (voir la figure 1). Selon l’étape de votre pipeline, vos tests automatisés peuvent varier en complexité, allant des tests unitaires, d’intégration, fonctionnels et de performances. En tenant compte de la quantité et de la complexité des tests, ainsi que de la possibilité d’avoir plusieurs étapes dans votre pipeline, il peut y avoir de nombreux défis lors de l’intégration, de l’exécution et de l’évaluation de la qualité de votre logiciel avant sa sortie. 

Comment intégrer des tests automatisés pour accélérer la livraison du logiciel sur le marché tout en maintenant la qualité ?

En tant qu’informaticien enthousiaste, je sais que pour livrer plus rapidement des logiciels sur le marché, il est essentiel d’intégrer des tests automatisés dans votre pipeline de livraison continue afin de vérifier que le logiciel répond aux normes attendues par vos clients. Votre pipeline de livraison continue peut également comporter de nombreuses étapes qui doivent déclencher ces tests automatisés pour vérifier les portes de qualité définies avant que le logiciel ne puisse passer à l’étape suivante et finalement être mis en production (voir la figure 1). Selon l’étape de votre pipeline, vos tests automatisés peuvent aller de la simplicité des tests unitaires, d’intégration, d’extrémité à extrémité et de performances. En tenant compte de la quantité et de la complexité des tests, ainsi que de la possibilité d’avoir plusieurs étapes dans votre pipeline, il peut y avoir de nombreux défis à relever lors de l’intégration, de l’exécution et de l’évaluation de la qualité de votre logiciel avant sa mise en production.

Cet article décrira certains de ces défis. Je fournirai également des lignes directrices sur les meilleures pratiques à suivre pour que vos tests automatisés respectent un contrat afin d’accroître la livraison de votre logiciel sur le marché tout en maintenant la qualité. Suivre un contrat aide à intégrer vos tests de manière opportune et plus efficace. Cela aide également lorsque d’autres personnes de votre organisation doivent résoudre des problèmes dans le pipeline.

En tant qu’informaticien passionné, je sais que le codage est un élément essentiel pour intégrer des tests automatisés dans un pipeline de livraison continue. Les tests automatisés peuvent être codés pour vérifier que le logiciel répond aux normes attendues par les clients et que les portes de qualité sont respectées avant que le logiciel ne puisse passer à l’étape suivante et être mis en production. Cependant, lorsque vous codifiez des tests automatisés, il est important de tenir compte des problèmes liés à la qualité et à la fiabilité des tests. Par exemple, les tests peuvent être codés pour s’exécuter plus rapidement, mais cela peut entraîner une baisse de la qualité des résultats. Il est donc important de trouver un équilibre entre la vitesse et la qualité des tests pour garantir que le logiciel répond aux normes attendues par les clients. De plus, il est important de s’assurer que les tests automatisés sont suffisamment robustes pour pouvoir être exécutés sur différents systèmes et environnements. Cela garantit que les tests sont fiables et peuvent être utilisés pour vérifier la qualité du logiciel avant sa mise en production.

Source de l’article sur DZONE