Articles

Apache Druid: 1000+ QPS Facile pour l'Analyse

des Données

Apache Druid offre une puissance de 1000+ QPS pour l’analyse des données, ce qui rend plus facile et plus rapide que jamais la prise de décision basée sur des données.

Les cas d’utilisation des analytics évoluent avec une augmentation du volume et des requêtes à faible latence. Mais l’échelle des analytics pour les requêtes à haut QPS nécessite une certaine considération. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors virtuellement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez en construire une) qui exécute beaucoup d’agrégations et de filtres sur des données à haute dimension et à haute cardinalité à grande échelle. Le genre d’application où beaucoup d’utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Testing is a key factor in scaling analytics for high QPS. It’s important to understand the performance of your analytics application under different scenarios. This will help you identify bottlenecks and optimize your queries for better performance.

Les cas d’utilisation d’analytique évoluent avec des requêtes à haut volume et à faible latence. Mais le passage à l’échelle des analyses pour des requêtes élevées par seconde (QPS) nécessite une certaine prise en compte. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors pratiquement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez d’en construire une) qui exécute de nombreuses agrégations et filtres sur des données à haute dimension et à haute cardinalité à l’échelle. Le genre d’application où de nombreux utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Le test est un facteur clé pour passer à l’échelle des analyses pour des QPS élevés. Il est important de comprendre les performances de votre application d’analytique dans différents scénarios. Cela vous aidera à identifier les goulots d’étranglement et à optimiser vos requêtes pour une meilleure performance.

Source de l’article sur DZONE

Construire des architectures analytiques pour alimenter des applications temps réel

Construire des architectures analytiques pour alimenter des applications temps réel est une tâche complexe qui nécessite une planification minutieuse et une mise en œuvre rigoureuse.

Comprendre le rôle des analyses hors ligne

Testing the Efficiency of Offline Analytics

In order to ensure that an offline analytics architecture is efficient and cost-effective, it’s important to test its performance and scalability. This can be done by running a series of tests that measure the time it takes to process a given dataset, as well as the accuracy of the results. These tests should be conducted on a regular basis to ensure that the architecture is able to handle the increasing volume and complexity of data. Additionally, it’s important to test the architecture’s ability to integrate with existing systems and applications, as well as its ability to scale up or down as needed.

Conclusion

Offline analytics architectures are essential for preparing and enhancing data before it’s ready for real-time application. Testing the efficiency and scalability of such architectures is key to ensuring that they can handle the increasing volume and complexity of data. By running regular tests and monitoring the performance of the architecture, businesses can ensure that their data is ready for real-time insights and applications.

Comprendre le rôle des analyses hors ligne

Les analyses hors ligne impliquent le processus de collecte, de traitement et d’analyse de grands volumes de données de manière par lots, souvent sur des périodes plus longues. Cela contraste avec les analyses en temps réel, qui se concentrent sur l’analyse des données lorsqu’elles sont générées, avec des résultats immédiats. Bien que les analyses en temps réel offrent l’avantage d’une prise de conscience rapide, les analyses hors ligne fournissent la base sur laquelle ces informations sont construites. Les architectures d’analyse hors ligne sont conçues pour gérer des jeux de données volumineux, nettoyer et transformer les données et générer des résultats agrégés qui peuvent ensuite être exploités dans des applications en temps réel.

Tester l’efficacité des analyses hors ligne

Pour s’assurer que les architectures d’analyse hors ligne sont efficaces et rentables, il est important de tester leurs performances et leur évolutivité. Cela peut être fait en exécutant une série de tests qui mesurent le temps nécessaire pour traiter un jeu de données donné, ainsi que la précision des résultats. Ces tests doivent être effectués régulièrement pour s’assurer que l’architecture est capable de gérer le volume et la complexité croissants des données. De plus, il est important de tester la capacité de l’architecture à s’intégrer aux systèmes et applications existants, ainsi qu’à son aptitude à évoluer vers le haut ou vers le bas selon les besoins.

Conclusion

Les architectures d’analyse hors ligne sont essentielles pour préparer et améliorer les données avant qu’elles ne soient prêtes pour une application en temps réel. Tester l’efficacité et la scalabilité de ces architectures est essentiel pour s’assurer qu’elles peuvent gérer le volume et la complexité croissants des données. En exécutant des tests réguliers et en surveillant les performances de l’architecture, les entreprises peuvent s’assurer que leurs données sont prêtes pour des informations et des applications en temps réel.

Source de l’article sur DZONE

Déclaration/Instruction attendue à la fin de l'entrée en C résolue

Bienvenue à la fin de l’entrée en C! Nous allons maintenant passer à la déclaration/instruction attendue pour compléter cette résolution.

Programmer en C nécessite une attention particulière aux détails, car même de petites erreurs de syntaxe peuvent causer des problèmes inattendus dans votre code. Un message d’erreur commun que les développeurs peuvent rencontrer lors de l’écriture de code C est « Déclaration ou instruction attendue à la fin de l’entrée« . Ce message d’erreur peut être frustrant à gérer, mais heureusement, il est généralement facile à diagnostiquer et à corriger. Dans cet article, vous apprendrez comment identifier où se trouve le problème, comment le gérer et comment l’éviter.

The most common cause of this error is a missing semicolon at the end of a line. This is because the semicolon is used to indicate the end of a statement in C. If the semicolon is missing, then the compiler will not be able to recognize the end of the statement and will report an error.

Another potential cause of this error is a missing curly brace. Curly braces are used to indicate the beginning and end of a block of code in C. If a curly brace is missing, then the compiler will not be able to recognize the end of the block and will report an error.

Deal with the Problem

Once you have identified the source of the problem, it is usually straightforward to fix. If the problem is a missing semicolon, then simply add the missing semicolon to the end of the line. If the problem is a missing curly brace, then add the missing brace to the beginning or end of the block of code.

If you are still having trouble identifying the source of the problem, then you can try using a debugging tool such as GDB or Valgrind. These tools can help you identify where in your code the problem is occurring and can provide additional information that can help you diagnose and fix the issue.

Avoiding the Problem

The best way to avoid this error is to pay close attention to your code and make sure that all statements and declarations are properly terminated with a semicolon and all blocks of code are properly enclosed in curly braces. Additionally, you should use a linter such as Clang or GCC to check your code for potential errors before compiling it.

You should also make sure that you are using a text editor that is designed for programming in C. A good text editor will provide syntax highlighting, which can help you identify potential errors in your code before they become an issue.

Finally, you should make sure that you are using a compiler that is compatible with your version of C. Different compilers may have different rules for how they interpret certain statements or declarations, so it is important to make sure that you are using a compiler that is compatible with your version of C.

Conclusion

The « Expected declaration or statement at the end of input » error message can be frustrating to deal with, but fortunately, it is usually straightforward to diagnose and fix. In most cases, the problem is a missing semicolon or curly brace. Once you have identified the source of the problem, it is usually easy to fix. Additionally, there are steps you can take to avoid this error in the future, such as using a linter and a text editor designed for programming in C.

Programmation en C : Comment traiter l’erreur « Déclaration ou instruction attendue à la fin de l’entrée »

La programmation en C nécessite une attention minutieuse aux détails car même de petites erreurs de syntaxe peuvent entraîner des problèmes inattendus dans votre code. Un message d’erreur courant que les développeurs peuvent rencontrer lors de l’écriture de code C est « Déclaration ou instruction attendue à la fin de l’entrée« . Ce message d’erreur peut être frustrant à gérer, mais heureusement, il est généralement facile à diagnostiquer et à corriger. Dans cet article, vous apprendrez comment identifier où se trouve le problème, comment le résoudre et comment l’éviter.

Identifier le problème

Lorsque l’erreur « Déclaration ou instruction attendue à la fin de l’entrée » se produit, cela signifie que le compilateur est arrivé à la fin du fichier ou de la fonction sans trouver une déclaration ou une instruction complète. En d’autres termes, le compilateur s’attend à trouver du

Source de l’article sur DZONE

: Utilisation et applicationConception de modèles: Utilisation et application

des modèles sont des méthodes essentielles pour comprendre et prédire le comportement des systèmes complexes. Découvrons comment ces modèles peuvent être appliqués.

Les modèles de conception fournissent une base fondamentale pour la construction de logiciels maintenables et évolutifs. Comprendre comment fonctionnent les modèles, pourquoi ils offrent un avantage et quand les utiliser permet de s’assurer que le logiciel est construit à partir de composants orientés objet réutilisables. Dans cette Refcard, nous plongerons dans les concepts qui sous-tendent les modèles de conception, examinerons les 23 modèles Gang of Four (GoF) qui ont entraîné la prolifération des modèles de conception et examinerons certains modèles courants qui ont évolué depuis la publication des modèles GoF.

Les modèles de conception offrent une base fondamentale pour la construction de logiciels maintenables et évolutifs. Comprendre comment fonctionnent les modèles, pourquoi ils offrent un avantage et quand les utiliser permet de s’assurer que le logiciel est construit à partir de composants orientés objet réutilisables. Dans cette Refcard, nous plongerons dans les concepts qui sous-tendent les modèles de conception, nous examinerons les 23 modèles Gang of Four (GoF) qui ont entraîné la prolifération des modèles de conception et nous examinerons quelques modèles communs qui ont évolué depuis la publication des modèles GoF.

Le codage est une partie importante de la conception des modèles. Les concepteurs doivent comprendre comment le code peut être décomposé en composants réutilisables et comment ces composants peuvent être combinés pour créer des solutions plus complexes. Les modèles de conception fournissent des moyens pour structurer le code et le rendre plus facile à maintenir et à modifier à l’avenir. Les modèles de conception peuvent également aider à réduire les dépendances entre les composants, ce qui permet aux concepteurs de modifier un composant sans affecter les autres composants.

Le codage est également important pour l’implémentation des modèles de conception. Les concepteurs doivent comprendre comment le code peut être structuré pour implémenter un modèle de conception et comment le code peut être optimisé pour réduire la complexité et améliorer les performances. Les concepteurs doivent également comprendre comment le code peut être testé pour s’assurer qu’il fonctionne correctement et qu’il est conforme aux spécifications. Les outils de test automatisés peuvent aider à vérifier que le code est conforme aux spécifications et à détecter les bogues avant la mise en production.

Source de l’article sur DZONE

Astuces efficaces pour déboguer du code complexe en Java

Déboguer du code complexe en Java peut être un défi. Découvrez ici quelques astuces efficaces pour vous aider à résoudre vos problèmes rapidement.

Déboguer du code complexe en Java est une compétence essentielle pour chaque développeur

Using a debugger can help you quickly identify and isolate the root cause of an issue. For example, if you suspect that a particular method is causing an exception, you can set a breakpoint at the beginning of the method and step through it until the exception occurs. This will help you pinpoint the exact line of code that’s causing the problem.

2. Logging

Logging is another essential tool for debugging Java code. By adding log statements to your code, you can track the flow of execution and pinpoint the source of an issue. Logging is also useful for tracking down problems in production environments, as it allows you to collect data without having to manually debug the code.

When logging, it’s important to be selective about what information you log. Too much information can make it difficult to find the root cause of an issue, while too little information can make it impossible to identify the source of the problem. As a general rule, it’s best to log only the data that is necessary to diagnose an issue.

3. Unit Testing

Unit testing is another effective strategy for debugging complex Java code. By writing unit tests for each component of your application, you can quickly identify and isolate any issues that arise. Unit tests also provide a valuable safety net, as they allow you to catch bugs before they reach production.

When writing unit tests, it’s important to focus on testing the behavior of your code rather than its implementation. This will help ensure that your tests are robust and reliable, and will also make them easier to maintain over time.

En déboguant du code complexe en Java, il est essentiel d’avoir les bonnes compétences pour chaque développeur. À mesure que les projets grandissent en taille et en complexité, la probabilité de rencontrer des bogues et des problèmes augmente. Cependant, le débogage ne consiste pas seulement à corriger les problèmes ; c’est également une expérience d’apprentissage précieuse qui améliore vos compétences en codage. Dans cet article, nous explorerons des stratégies et des techniques efficaces pour déboguer du code Java complexe, ainsi que des exemples pratiques pour illustrer chaque point.

1. Utiliser un débogueur

L’un des outils les plus fondamentaux pour le débogage en Java est le débogueur. Les environnements de développement intégrés modernes (IDE) tels qu’IntelliJ IDEA, Eclipse et NetBeans fournissent des fonctionnalités de débogage puissantes qui vous permettent de définir des points d’arrêt, d’inspecter des variables et de parcourir votre code ligne par ligne.

L’utilisation d’un débogueur peut vous aider à identifier et à isoler rapidement la cause racine d’un problème. Par exemple, si vous soupçonnez qu’une méthode particulière provoque une exception, vous pouvez définir un point d’arrêt au début de la méthode et le parcourir jusqu’à ce que l’exception se produise. Cela vous aidera à repérer la ligne exacte de code qui est à l’origine du problème.

2. Journalisation

La journalisation est un autre outil essentiel pour le débogage de code Java. En ajoutant des instructions de journalisation à votre code, vous pouvez suivre le flux d’exécution et repérer la source d’un problème. La journalisation est également utile pour localiser les problèmes dans les environnements de production, car elle vous permet de collecter des données sans avoir à déboguer manuellement le code.

<

Source de l’article sur DZONE

Optimisation des lignes d'objet d'email et mobile avec AI et ML

Les entreprises peuvent désormais optimiser leurs lignes d’objet d’email et mobile grâce à l’intelligence artificielle et au machine learning. Une nouvelle ère de marketing commence !

Méthodologie

Architecture

La ligne d’objet et les titres des e-mails et des notifications push jouent un rôle important dans la détermination des taux d’engagement. La communication numérique nécessite la compétence de la conception de lignes d’objet convaincantes et de titres de notifications push concis qui captent l’attention de l’utilisateur. Les marketeurs conçoivent des lignes d’objet en fonction du ton du message à transmettre et du public cible visé. En «enseignant» efficacement cette compétence et en l’optimisant pour la communication numérique, les modèles d’IA générative offrent une avenue passionnante pour automatiser ce processus. L’article examine quelques approches pour créer des lignes d’objet et des titres de notifications push efficaces tout en les combinant avec des modèles classiques d’apprentissage automatique pour prédire les taux d’ouverture avec l’IA générative (Large Language Models).

Il ne s’agit pas seulement de créer des lignes d’objet accrocheuses que les LLM peuvent facilement générer avec le bon déclencheur. L’objectif est de générer un candidat idéal pour le contexte et le contenu qui incitera le destinataire à cliquer et à afficher le message. Les modèles d’apprentissage machine (ML), en particulier les algorithmes de forêt aléatoire, peuvent prédire avec une grande confiance la probabilité qu’un destinataire clique sur un message s’ils sont correctement formés. En combinant les LLM avec des modèles ML prédictifs, il est possible de générer des lignes d’objet et des titres de notifications push de haute qualité. Voici quelques moyens possibles.

La première approche consiste à entraîner un modèle ML prédictif sur un jeu de données historiques. Le modèle apprend à prédire le taux d’ouverture en fonction des caractéristiques telles que le sujet, le contenu et le public cible. Une fois le modèle formé, il peut être utilisé pour générer des lignes d’objet et des titres de notifications push optimaux pour chaque message. La seconde approche consiste à entraîner un modèle ML prédictif sur un jeu de données historiques tout en utilisant un modèle LLM pour générer des lignes d’objet et des titres de notifications push. Le modèle ML apprend à prédire le taux d’ouverture en fonction des caractéristiques telles que le sujet, le contenu et le public cible, tandis que le modèle LLM génère des lignes d’objet et des titres de notifications push optimaux pour chaque message. Enfin, la troisième approche consiste à entraîner un modèle ML prédictif sur un jeu de données historiques tout en utilisant un modèle LLM pour générer des lignes d’objet et des titres de notifications push optimaux pour chaque message. Le modèle ML apprend à prédire le taux d’ouverture en fonction des caractéristiques telles que le sujet, le contenu et le public cible, tandis que le modèle LLM génère des lignes d’objet et des titres de notifications

Source de l’article sur DZONE

Analyse de log : Elasticsearch vs Apache Doris

L’analyse de log est un domaine très important pour comprendre le comportement des utilisateurs. Découvrons comment Elasticsearch et Apache Doris se comparent dans ce domaine.

Les journaux : une partie majeure des actifs de données d’une entreprise

1. Logs should be collected from all sources in a timely manner. This includes both system logs and application logs.

2. Logs should be normalized, so that they can be easily searched and analyzed.

3. Logs should be stored in a secure and reliable way.

4. Logs should be analyzed in real-time, so that any suspicious activities can be detected quickly.

5. Logs should be used for data analysis, so that trends and patterns can be identified.

Le testing est une partie importante de l’actif de données d’une entreprise et apporte des avantages à celle-ci sur trois aspects : l’observabilité du système, la sécurité informatique et l’analyse des données. Les logs sont le premier recours pour le dépannage, la référence pour améliorer la sécurité du système et le gisement de données à partir duquel vous pouvez extraire des informations qui mènent à la croissance de l’entreprise.

Les logs sont les enregistrements séquentiels des événements dans le système informatique. Si vous réfléchissez à la façon dont les logs sont générés et utilisés, vous saurez à quoi devrait ressembler un système d’analyse des logs idéal :

1. Les logs doivent être collectés de toutes les sources de manière opportune. Cela inclut à la fois les logs système et les logs applicatifs.

2. Les logs doivent être normalisés, de sorte qu’ils puissent être facilement recherchés et analysés.

3. Les logs doivent être stockés de manière sûre et fiable.

4. Les logs doivent être analysés en temps réel, afin que toute activité suspecte puisse être détectée rapidement.

5. Les logs doivent être utilisés pour l’analyse des données, afin que les tendances et les modèles puissent être identifiés.

Le testing est un outil essentiel pour garantir que les logs sont collectés, normalisés, stockés et analysés correctement. En effet, le testing peut vous aider à identifier les problèmes qui peuvent affecter la qualité des données et à vérifier que les processus sont correctement mis en œuvre. Le testing peut également vous aider à déterminer si votre système est capable de réagir rapidement aux événements critiques et de détecter les activités suspectes.

Le testing peut également être utilisé pour vérifier que les données collectées sont cohérentes et complètes, afin que les analyses puissent être effectuées de manière fiable et précise. Enfin, le testing peut être utilisé pour vérifier que les données sont stockées de manière sûre et fiable, ce qui est essentiel pour une analyse des données fiable.

En conclusion, le testing est un outil essentiel pour garantir que les logs sont collectés, normalisés, stockés et analysés correctement. Il permet également de vérifier que les données collectées sont cohérentes et complètes, afin que les analyses puissent être effectuées de manière fiable et précise. Enfin, le testing peut être utilisé pour vérifier que les donné

Source de l’article sur DZONE

Comparer Podman Compose et Docker Compose

Podman Compose et Docker Compose sont des outils puissants qui permettent de gérer des applications multi-conteneurs. Découvrons comment les comparer !

Explorer Podman Compose

Test de Podman Compose

Lors du test de Podman Compose, nous avons constaté que les fonctionnalités sont limitées par rapport à Docker Compose. Nous avons également constaté que l’utilisation de fichiers YAML Kubernetes est recommandée pour ce type de tâches. Nous avons également constaté que le Podman team peut corriger les problèmes rencontrés avec Podman Compose. Enfin, nous avons constaté que Docker Compose peut être utilisé en combinaison avec Podman.

Conclusion

En conclusion, Podman Compose est une bonne solution pour les utilisateurs qui souhaitent utiliser des fichiers Compose selon la spécification Compose avec un backend Podman. Cependant, il est important de garder à l’esprit que les fonctionnalités sont limitées par rapport à Docker Compose et que l’utilisation de fichiers YAML Kubernetes est recommandée. Il est également possible d’utiliser Docker Compose en combinaison avec Podman. Enfin, le Podman team peut corriger les problèmes rencontrés avec Podman Compose.

Source de l’article sur DZONE

Expliquer les modèles d'apprentissage machine: renforcer la confiance et la compréhension des systèmes IA

.

Comprendre comment fonctionnent les modèles d’apprentissage machine est essentiel pour renforcer la confiance et la compréhension des systèmes IA. Découvrons ensemble comment ces modèles fonctionnent!

## Expliquer la signification de l’explicabilité des modèles d’apprentissage automatique

L’explicabilité des modèles est devenue un domaine de recherche très important ces dernières années, car elle permet de comprendre comment fonctionnent les systèmes d’intelligence artificielle et de machine learning. Elle est également essentielle pour garantir la transparence et la responsabilité des systèmes d’IA. Cet article explore la signification de l’explicabilité des modèles, ses applications à divers domaines et l’influence qu’elle a sur la fiabilité des systèmes d’intelligence artificielle.

L’explicabilité des modèles est particulièrement importante pour les domaines qui traitent des questions sensibles ou critiques, tels que le secteur de la santé, où les prises de décision doivent être fondées sur des données fiables et compréhensibles. La capacité des systèmes d’IA à fournir des explications compréhensibles par les humains est essentielle pour garantir la confiance et l’adoption responsable des systèmes d’IA.

Les chercheurs ont mis au point plusieurs méthodes pour améliorer l’explicabilité des modèles d’intelligence artificielle et de machine learning. Ces méthodes peuvent être classées en trois catégories : l’analyse de l’architecture du modèle, l’analyse des poids et l’analyse des résultats. L’analyse de l’architecture du modèle consiste à étudier la structure du modèle et à déterminer comment les différents composants interagissent entre eux. L’analyse des poids consiste à examiner les poids assignés aux différents composants du modèle pour comprendre leur influence sur les résultats. Enfin, l’analyse des résultats consiste à étudier les résultats du modèle et à déterminer quelles variables sont les plus importantes pour expliquer le comportement du modèle. Ces méthodes peuvent être utilisées pour améliorer la transparence et la responsabilité des systèmes d’IA.

Source de l’article sur DZONE

Programmation efficace avec observabilité Java

La programmation efficace et l’observabilité Java sont des outils essentiels pour développer des applications modernes. Découvrez comment les mettre en pratique!

Les erreurs courantes que j’ai vues répétées au fil des ans lors de la mise en œuvre de initiatives d’observabilité ne sont pas rares. Cependant, la plus critique et fondamentale de ces erreurs organisationnelles est l’irrésistible infatuation avec la technologie et les outils eux-mêmes.

The answer is simple: observability is not about the tools, it’s about the architecture. It’s about the ability to instrument your code and make it observable, and to have the right data available at the right time. It’s about having the right data and the right tools to make sense of it. It’s about understanding what data is important and what data is not. It’s about understanding the context of the data and how it relates to other data. It’s about understanding how to use the data to make better decisions.

Il y a beaucoup d’erreurs courantes que j’ai vues répétées au fil des ans lors de la mise en œuvre de initiatives d’observabilité. Cependant, le plus critique et le plus fondamental de ces erreurs organisationnelles est l’irrésistible fascination pour la technologie et les outils eux-mêmes.

Cela ne devrait pas être une surprise. De nombreux projets «ajoutons la plateforme d’observabilité X» démarrent avec beaucoup de faste mais aussi un sens de direction très flou et des critères de réussite extrêmement confus. La vision de ce que l’observabilité efficace peut faire pour aider réellement les développeurs à travailler mieux est suspectée d’être absente des prêches de nombreux fournisseurs commerciaux et oracles. Demandez-vous : à quelle fréquence vous trouvez-vous en train de quitter le code dans l’IDE pour voir ce que vous pouvez apprendre de ses données d’exécution?

La réponse est simple : l’observabilité ne concerne pas les outils, mais l’architecture. Il s’agit de la capacité d’instrumenter votre code et de le rendre observable, et d’avoir les bonnes données disponibles au bon moment. Il s’agit d’avoir les bonnes données et les bons outils pour en tirer des conclusions. Il s’agit de comprendre quelles données sont importantes et quelles données ne le sont pas. Il s’agit de comprendre le contexte des données et comment elles se rapportent à d’autres données. Il s’agit de comprendre comment utiliser les données pour prendre de meilleures décisions.

Lorsque vous concevez une architecture d’observabilité, vous devez prendre en compte tous ces aspects. Vous devez comprendre comment les données sont collectées, comment elles sont stockées, comment elles sont analysées et comment elles sont utilisées pour prendre des décisions. Vous devez également comprendre comment les outils peuvent vous aider à atteindre ces objectifs. Une architecture d’observabilité réussie doit être conçue pour fournir une vue complète des performances et des problèmes logiciels, ainsi que des informations sur la façon dont le code est exécuté.

Une fois que vous avez une architecture solide en place, vous pouvez alors commencer à choisir les outils appropriés pour collecter, stocker et analyser les données. Vous pouvez également choisir des outils pour vous aider à prendre des décisions informées sur la façon dont votre code est exécuté. Enfin, une fois que vous avez mis en place une architecture solide et choisi les bons outils, vous pouvez commencer à tirer parti des avantages de l’observabilité.

Source de l’article sur DZONE