Articles

Construire des architectures analytiques pour alimenter des applications temps réel

Construire des architectures analytiques pour alimenter des applications temps réel est une tâche complexe qui nécessite une planification minutieuse et une mise en œuvre rigoureuse.

Comprendre le rôle des analyses hors ligne

Testing the Efficiency of Offline Analytics

In order to ensure that an offline analytics architecture is efficient and cost-effective, it’s important to test its performance and scalability. This can be done by running a series of tests that measure the time it takes to process a given dataset, as well as the accuracy of the results. These tests should be conducted on a regular basis to ensure that the architecture is able to handle the increasing volume and complexity of data. Additionally, it’s important to test the architecture’s ability to integrate with existing systems and applications, as well as its ability to scale up or down as needed.

Conclusion

Offline analytics architectures are essential for preparing and enhancing data before it’s ready for real-time application. Testing the efficiency and scalability of such architectures is key to ensuring that they can handle the increasing volume and complexity of data. By running regular tests and monitoring the performance of the architecture, businesses can ensure that their data is ready for real-time insights and applications.

Comprendre le rôle des analyses hors ligne

Les analyses hors ligne impliquent le processus de collecte, de traitement et d’analyse de grands volumes de données de manière par lots, souvent sur des périodes plus longues. Cela contraste avec les analyses en temps réel, qui se concentrent sur l’analyse des données lorsqu’elles sont générées, avec des résultats immédiats. Bien que les analyses en temps réel offrent l’avantage d’une prise de conscience rapide, les analyses hors ligne fournissent la base sur laquelle ces informations sont construites. Les architectures d’analyse hors ligne sont conçues pour gérer des jeux de données volumineux, nettoyer et transformer les données et générer des résultats agrégés qui peuvent ensuite être exploités dans des applications en temps réel.

Tester l’efficacité des analyses hors ligne

Pour s’assurer que les architectures d’analyse hors ligne sont efficaces et rentables, il est important de tester leurs performances et leur évolutivité. Cela peut être fait en exécutant une série de tests qui mesurent le temps nécessaire pour traiter un jeu de données donné, ainsi que la précision des résultats. Ces tests doivent être effectués régulièrement pour s’assurer que l’architecture est capable de gérer le volume et la complexité croissants des données. De plus, il est important de tester la capacité de l’architecture à s’intégrer aux systèmes et applications existants, ainsi qu’à son aptitude à évoluer vers le haut ou vers le bas selon les besoins.

Conclusion

Les architectures d’analyse hors ligne sont essentielles pour préparer et améliorer les données avant qu’elles ne soient prêtes pour une application en temps réel. Tester l’efficacité et la scalabilité de ces architectures est essentiel pour s’assurer qu’elles peuvent gérer le volume et la complexité croissants des données. En exécutant des tests réguliers et en surveillant les performances de l’architecture, les entreprises peuvent s’assurer que leurs données sont prêtes pour des informations et des applications en temps réel.

Source de l’article sur DZONE

Expliquer les modèles d'apprentissage machine: renforcer la confiance et la compréhension des systèmes IA

.

Comprendre comment fonctionnent les modèles d’apprentissage machine est essentiel pour renforcer la confiance et la compréhension des systèmes IA. Découvrons ensemble comment ces modèles fonctionnent!

## Expliquer la signification de l’explicabilité des modèles d’apprentissage automatique

L’explicabilité des modèles est devenue un domaine de recherche très important ces dernières années, car elle permet de comprendre comment fonctionnent les systèmes d’intelligence artificielle et de machine learning. Elle est également essentielle pour garantir la transparence et la responsabilité des systèmes d’IA. Cet article explore la signification de l’explicabilité des modèles, ses applications à divers domaines et l’influence qu’elle a sur la fiabilité des systèmes d’intelligence artificielle.

L’explicabilité des modèles est particulièrement importante pour les domaines qui traitent des questions sensibles ou critiques, tels que le secteur de la santé, où les prises de décision doivent être fondées sur des données fiables et compréhensibles. La capacité des systèmes d’IA à fournir des explications compréhensibles par les humains est essentielle pour garantir la confiance et l’adoption responsable des systèmes d’IA.

Les chercheurs ont mis au point plusieurs méthodes pour améliorer l’explicabilité des modèles d’intelligence artificielle et de machine learning. Ces méthodes peuvent être classées en trois catégories : l’analyse de l’architecture du modèle, l’analyse des poids et l’analyse des résultats. L’analyse de l’architecture du modèle consiste à étudier la structure du modèle et à déterminer comment les différents composants interagissent entre eux. L’analyse des poids consiste à examiner les poids assignés aux différents composants du modèle pour comprendre leur influence sur les résultats. Enfin, l’analyse des résultats consiste à étudier les résultats du modèle et à déterminer quelles variables sont les plus importantes pour expliquer le comportement du modèle. Ces méthodes peuvent être utilisées pour améliorer la transparence et la responsabilité des systèmes d’IA.

Source de l’article sur DZONE

Architecture d'observabilité: Exemple de calculs financiers

L’architecture d’observabilité permet de calculer des données financières avec précision et efficacité. Découvrez un exemple de calculs financiers à travers cet article.

Technologies Cloud-Native : Comment les services de paiement sont-ils architecturés ? En 2020, j’ai présenté une série avec des insights issus de mises en œuvre réelles adoptant des technologies open-source et cloud-native pour moderniser les services de paiement. Les architectures présentées étaient basées sur des technologies cloud-native open-source, telles que des conteneurs, des microservices et une plateforme de conteneurs basée sur Kubernetes. La principale omission dans cette série était d’éviter de discuter de tout aspect de l’observabilité cloud-native. Cette série examinera comment corriger cette omission avec une plateforme d’observabilité cloud-native open-source basée sur des normes qui aide les équipes DevOps à contrôler la vitesse, l’échelle et la complexité d’un monde cloud-native pour leur architecture de paiements financiers.

La technologie cloud-native a changé la façon dont les services de paiement sont architecturés. En 2020, j’ai présenté une série d’informations issues de mises en œuvre réelles adoptant la technologie open-source et cloud-native pour moderniser les services de paiement.

Les architectures présentées étaient basées sur des technologies cloud-native open-source, telles que des conteneurs, des microservices et une plateforme de conteneurs basée sur Kubernetes. La principale omission dans cette série était d’éviter tout aspect de l’observabilité cloud-native. Cette série examinera comment corriger cette omission avec une plateforme d’observabilité cloud-native open-source basée sur des normes qui aide les équipes DevOps à contrôler la vitesse, l’échelle et la complexité d’un monde cloud-native pour leur architecture de paiement financier.

Les données sont le moteur de l’observabilité cloud-native. Les données peuvent être collectées à partir de sources telles que les journaux, les métriques et les traces. Ces données peuvent être utilisées pour comprendre le comportement des applications et des services, identifier les problèmes et prendre des décisions informées. Une plateforme d’observabilité cloud-native open-source peut fournir des outils pour collecter, stocker, analyser et visualiser ces données.

L’utilisation d’une plateforme d’observabilité cloud-native open-source peut aider les équipes DevOps à gérer la vitesse, l’échelle et la complexité de leur architecture de paiement financier. Les outils de cette plateforme peuvent être utilisés pour surveiller les performances des applications et des services, déboguer les problèmes et comprendre le comportement des utilisateurs. Les données collectées peuvent également être utilisées pour optimiser les performances et améliorer la qualité du service. Enfin, cette plateforme peut être utilisée pour alimenter des applications d’intelligence artificielle et d’apprentissage automatique afin d’améliorer encore plus le service.

En conclusion, l’utilisation d’une plateforme d’observabilité cloud-native open-source peut aider les équipes DevOps à gérer la vitesse, l’échelle et la complexité de leur architecture de paiement financier. Les outils de cette plateforme peuvent être utilisés pour collecter, stocker, analyser et visualiser des données afin de surveiller les performances des applications et des services, déboguer les problèmes et comprendre le comportement des utilisateurs. Les données collectées peuvent également être utilisées pour optimiser les performances et améliorer la qualité du service. Enfin, cette plateforme peut être utilisée pour alimenter des applications d’intelligence artificielle et d’apprentissage automatique afin d’améliorer encore plus le service.

Source de l’article sur DZONE

Produire et consommer des messages Avro avec Redpanda Schema Registry

Produire et consommer des messages Avro avec Redpanda Schema Registry est une tâche essentielle pour les applications modernes. Découvrez comment le faire facilement!

Si vous êtes familier avec Apache Kafka®, vous avez peut-être rencontré un registre de schémas compatible avec Kafka – un composant distinct que vous déployez en dehors de votre cluster Kafka, car Kafka n’en a pas intégré. 

Essentiellement, un schéma est une description logique de la façon dont vos données sont organisées, et donc un registre de schémas fournit un référentiel central pour ces schémas, permettant aux producteurs et aux consommateurs d’envoyer et de recevoir des données entre eux de manière transparente. Pour les architectures orientées événements, cela peut devenir complexe et difficile à gérer à mesure que vous évoluez, car les schémas de données peuvent changer et évoluer au fil du temps (pouvant potentiellement tout casser plus tard). 

## Utilisation d’un registre de schémas compatible avec Apache Kafka®

L’architecture Apache Kafka® est bien connue et il est possible de rencontrer un registre de schémas compatible avec Kafka, qui est un composant distinct que l’on déploie en dehors du cluster Kafka, car celui-ci n’en comporte pas.

Essentiellement, un schéma est une description logique de la façon dont vos données sont organisées et un registre de schémas fournit donc un référentiel central pour ces schémas, permettant aux producteurs et aux consommateurs d’envoyer et de recevoir des données entre eux sans heurts. Pour les architectures orientées événements, cela peut devenir complexe et difficile à gérer à mesure que l’on se développe, car les schémas de données peuvent changer et évoluer dans le temps (pouvant potentiellement provoquer des dysfonctionnements plus tard).

Un registre de schémas est donc une solution très pratique pour gérer ce type d’architecture. Il permet aux producteurs et aux consommateurs d’accéder facilement aux schémas des données, ce qui leur permet de s’assurer que les données envoyées et reçues sont cohérentes et conformes. De plus, le registre de schémas permet de conserver l’historique des versions des schémas, ce qui peut être très utile pour le débogage et le développement.

Enfin, le registre de schémas peut également être utilisé pour aider à la validation des données. Les producteurs peuvent envoyer des données à un registre de schémas avant de les envoyer à Kafka, ce qui permet de s’assurer que les données sont conformes aux schémas attendus. De même, les consommateurs peuvent également valider les données reçues avant de les traiter, ce qui permet d’assurer la qualité des données et d’améliorer l’efficacité des processus.

En somme, le registre de schémas est un outil très pratique pour gérer les architectures orientées événements. Il permet aux producteurs et aux consommateurs d’accéder facilement aux schémas des données, ce qui leur permet de s’assurer que les données envoyées et reçues sont cohérentes et conformes. De plus, il permet également d’aider à la validation des données, ce qui permet d’améliorer la qualité et l’efficacité des processus.

Source de l’article sur DZONE

Analyser et Classer le Sentiment des Textes en Java

Découvrez comment analyser et classer le sentiment des textes en Java grâce à cet article ! Nous allons vous guider pas à pas pour vous aider à maîtriser cette technique.

L’empathie mutuelle joue un rôle clé dans la définition du succès de la relation entre une entreprise et ses clients

De la même manière que l’empathie mutuelle définit le développement de relations à long terme avec nos amis, elle joue également un rôle clé dans la définition du succès de la relation de notre entreprise avec ses clients. Lorsque les clients prennent le temps de taper leurs pensées et leurs sentiments dans une critique d’un produit ou d’un service, partager leurs sentiments via une plate-forme de médias sociaux ou fournir des commentaires via un médium similaire, il est de notre devoir d’éprouver de l’empathie pour eux en tant qu’êtres humains et de déterminer collectivement comment ils se sentent par rapport à ce qu’ils ont vécu. En utilisant des solutions programmatiques, nous pouvons rapidement analyser et ensuite ajuster (ou maintenir) l’expérience que nous offrons à nos clients à grande échelle, améliorant efficacement les relations des clients avec notre marque.

Bien sûr, contrairement au cerveau humain, les ordinateurs ne sont pas élevés et socialisés pour tirer des conclusions émotionnelles spécifiques d’une langue humaine en évolution. Ils doivent être formés pour le faire – et c’est là que le domaine de l’analyse et de la classification des sentiments entre en jeu. En utilisant des techniques de traitement du langage naturel (NLP), nous pouvons former des algorithmes d’apprentissage automatique pour analyser et classer des sentiments uniques dans le texte. Ces algorithmes peuvent être entraînés sur des jeux de données étiquetés qui contiennent des exemples de phrases et de leurs sentiments associés. Une fois entraînés, ces algorithmes peuvent être appliqués à des données non étiquetées pour prédire le sentiment associé à chaque phrase.

Les algorithmes d’analyse et de classification des sentiments peuvent être utilisés pour comprendre les sentiments des clients à l’égard de votre marque, produit ou service. Les données collectées peuvent être analysées pour déterminer si les clients sont satisfaits ou insatisfaits, et pourquoi. Les données peuvent également être utilisées pour identifier les points forts et les points faibles du produit ou du service, ainsi que pour comprendre les tendances et les préférences des clients. Les données peuvent également être utilisées pour améliorer l’expérience client en répondant aux besoins et aux préférences des clients. Enfin, les données peuvent être utilisées pour aider à développer des stratégies marketing plus efficaces et plus ciblées.

Source de l’article sur DZONE

Résoudre le casse-tête de sécurité Kubernetes.

Kubernetes est une technologie de sécurité complexe, mais résoudre le casse-tête peut être réalisé avec une bonne compréhension des principes de base et une planification adéquate.

Les avantages de l’adoption des pratiques cloud-native ont été discutés par des professionnels de l’industrie ad nauseam, chacun vantant sa capacité à réduire les coûts, à facilement évoluer et à stimuler l’innovation comme jamais auparavant. Facile à dire qu’à faire.

En tant que scientifique informatique enthousiaste, je suis convaincu que l’adoption des pratiques natives du cloud est un pas important vers le développement et l’innovation. Les avantages de cette adoption sont nombreux et ont été abondamment discutés par les professionnels de l’industrie : réduction des coûts, possibilité de scalabilité et de stimulation de l’innovation. Mais, comme on dit, c’est plus facile à dire qu’à faire.

Le développement et l’utilisation de logiciels natives du cloud est une étape essentielle pour tirer pleinement parti des avantages du cloud. Les logiciels natives du cloud sont conçus pour être exécutés sur un environnement cloud et sont conçus pour tirer parti des fonctionnalités spécifiques du cloud. Les logiciels natives du cloud offrent une plus grande flexibilité et une meilleure scalabilité que les solutions traditionnelles, ce qui permet aux entreprises de réduire leurs coûts et de répondre plus rapidement aux besoins changeants des clients.

En outre, les logiciels natives du cloud permettent aux entreprises de bénéficier d’une plus grande sécurité et d’une meilleure disponibilité. Les logiciels natives du cloud sont conçus pour être exécutés sur un environnement cloud sécurisé et peuvent être mis à jour en temps réel pour répondre aux exigences de sécurité les plus strictes. De plus, les logiciels natives du cloud peuvent être mis à l’échelle en fonction des besoins changeants des entreprises, ce qui permet aux entreprises de bénéficier d’une meilleure disponibilité et d’une plus grande fiabilité.

Enfin, les logiciels natives du cloud permettent aux entreprises de bénéficier d’une plus grande flexibilité et d’une plus grande agilité. Les logiciels natives du cloud peuvent être déployés rapidement et à moindre coût, ce qui permet aux entreprises de répondre rapidement aux besoins changeants des clients et de s’adapter rapidement aux nouvelles technologies. De plus, les logiciels natives du cloud peuvent être intégrés facilement avec d’autres systèmes et applications, ce qui permet aux entreprises de tirer pleinement parti des avantages du cloud.

En conclusion, l’adoption des pratiques natives du cloud est essentielle pour tirer pleinement parti des avantages du cloud. Les logiciels natives du cloud offrent une plus grande flexibilité, une meilleure scalabilité, une meilleure sécurité et une meilleure disponibilité. De plus, ils permettent aux entreprises de bénéficier d’une plus grande agilité et d’une plus grande flexibilité pour répondre aux besoins changeants des clients.

Source de l’article sur DZONE

Développement collaboratif de nouvelles fonctionnalités avec microservices

Le développement collaboratif de nouvelles fonctionnalités avec microservices offre une solution flexible et évolutive pour répondre aux besoins des entreprises.

Dans une architecture de microservices, le code est divisé en petites unités. Ces morceaux de code peuvent être développés en isolation et expédiés indépendamment en production, ce qui réduit les dépendances entre les équipes – le résultat: un développement de fonctionnalités rapide et un temps de mise sur le marché plus rapide.

Bien que l’architecture des microservices apporte de nombreux avantages, la réalité est que ces avantages tendent à diminuer à l’échelle. En particulier, plus un organisme a de microservices, plus il est difficile de s’assurer que les modifications fonctionnent ensemble dans leur ensemble.

En tant qu’informaticien enthousiaste, je sais que l’architecture microservices est une solution très populaire pour les développeurs. Cette architecture consiste à diviser le code en petites unités qui peuvent être développées et mises en production indépendamment, ce qui réduit les dépendances entre les équipes et permet un développement plus rapide des fonctionnalités et une plus grande rapidité sur le marché.

Cependant, il est important de comprendre que ces avantages diminuent à mesure que la taille de l’organisation augmente. Plus il y a de microservices, plus il est difficile de s’assurer que les changements fonctionnent ensemble. C’est pourquoi il est important d’utiliser une base de données pour gérer ces microservices. Une base de données permet d’organiser et de stocker les informations sur les microservices, ce qui facilite leur gestion et leur maintenance. Elle permet également aux développeurs de voir comment les différents microservices interagissent entre eux et comment les changements affectent le système dans son ensemble.

Enfin, une base de données peut également être utilisée pour surveiller et analyser l’utilisation des microservices. Les développeurs peuvent ainsi suivre l’utilisation des microservices et identifier les problèmes potentiels avant qu’ils ne deviennent trop importants. De plus, les données collectées peuvent être utilisées pour améliorer les performances des microservices et pour prendre des décisions basées sur des données. En bref, une base de données est un outil essentiel pour gérer et surveiller les microservices à grande échelle.

Source de l’article sur DZONE

Le 27 février 2023, SAP France (SAP:SE) et Neobrain s’unissent en intégrant les solutions clés de la 1ère Talent Marketplace Européenne au sein du SAP Store, leur objectif étant de proposer aux clients SAP les outils cruciaux pour détecter, mobiliser et anticiper les compétences.

SAP Store est la marketplace en ligne où les clients SAP du monde entier peuvent découvrir, essayer, acheter et renouveler les solutions de SAP, mais aussi celles de ses partenaires de confiance. Disponible dans plus de 200 pays et territoires dans le monde, le SAP Store permet d’accéder à des solutions innovantes afin que chaque entreprise devienne plus intelligente et puisse accélérer ou transformer ses usages et activités.

Conscients de l’enjeu déterminant de proposer aux entreprises les outils les plus adaptés pour valoriser le travail des collaborateurs, suivre leurs évolutions et faire coïncider les enjeux RH et la croissance, SAP innove et intègre Neobrain dont les solutions répondent à ces besoins essentiels.

Neobrain offre en effet trois solutions permettant de répondre aux besoins urgents des RH et des managers : AI Skills ManagementTalent Marketplace et Strategic Workforce Planning pour apporter des réponses aux besoins suivants :

  • Visualiser en temps réel les compétences disponibles ou émergentes des Talents sur son secteur d’activité
  • Rendre plus accessibles et transparentes les opportunités internes (formations, postes ouverts, passerelles métiers possibles, etc.)
  • Mettre en place les stratégies RH visant à assurer la croissance de l’entreprise

 

Thierry Mathoulin, Head of HXM at SAP SuccessFactors France, déclare : « L’intégration de Neobrain au SAP Store est une étape clé dans la démarche de SAP qui vise à offrir à nos clients des services complets pour répondre à chacun de leurs besoins. Avec des assets et outils RH aussi reconnus, nous offrons désormais la possibilité à tous de faire du Talent Management un levier au service de leur croissance. »

« Que de chemin parcouru en 5 ans ! Nous sommes fiers de la reconnaissance et de la confiance accordées par SAP. Cette présence sur la marketplace SAP Store matérialise notre parfaite intégration avec les solutions SAP SuccessFactors. Neobrain se positionne comme le moteur d’intelligence embarquée pour construire une organisation basée sur les compétences. » précise Paul Courtaud, CEO de Neobrain

Pour plus d’informations, visitez le site www.sap.com. 

Contact presse : sylvie.lechevin@sap.com

 

A propos de Neobrain

Fondée en 2018 par Paul Courtaud, jeune entrepreneur âgé de seulement 22 ans à l’époque, NEOBRAIN est une scale-up spécialisée dans l’utilisation de l’IA au service de la gestion des compétences et du Workforce Planning. Elle est à l’origine d’une technologie (plateformes et application) permettant d’anticiper les compétences qui émergent et d’identifier les gaps avec les ressources disponibles. Parmi ses 120 clients : SAGE, TotalEnergies ou encore BOSCH… En 2022, la société réalise une levée de fonds de plus de 20M€ et rachète WiserSkills. Aujourd’hui, Neobrain compte 140 Neobrainers répartis entre Paris, Lisbonne et Francfort.

Plus d’infos sur neobrain.io

The post SAP intègre Neobrain, la 1ère Talent Marketplace d’Europe, sur son SAP Store appeared first on SAP France News.

Source de l’article sur sap.com

Événement sourcing dépassera-t-il la base de données ?

L’Event sourcing est une méthode de plus en plus populaire pour trouver des informations, mais dépassera-t-il la base de données ? Découvrons-le ensemble !

Event sourcing n’est pas un nouveau terme. Si vous travaillez dans le secteur de la technologie, vous avez certainement entendu parler de l’Event sourcing. L’Event sourcing est un outil puissant et est adopté par de nombreuses grandes organisations comme modèle architectural de base de données. Il a la capacité de s’étendre et de répondre aux besoins de l’industrie des données modernes.

Dans cet article, nous allons en apprendre davantage sur l’Event sourcing et pourquoi il gagne en popularité. Nous discuterons également de la question populaire : l’Event sourcing va-t-il surpasser les bases de données ?

L’Event sourcing n’est pas un terme nouveau. Si vous travaillez dans le secteur de la technologie, vous avez sûrement déjà entendu parler de l’Event sourcing. L’Event sourcing est un outil puissant et de nombreuses grandes organisations l’utilisent comme modèle architectural de base de données. Il a la capacité de s’adapter à l’industrie des données modernes et à ses besoins.

Dans cet article, nous allons en apprendre davantage sur l’Event sourcing et comprendre pourquoi il gagne en popularité. Nous discuterons également de la question populaire : l’Event sourcing va-t-il surpasser les bases de données ?

En tant que scientifique enthousiaste qui vient de faire une découverte sensationnelle, je peux affirmer que l’Event sourcing est un outil très puissant pour traiter les données. Il est très flexible et peut être facilement adapté aux besoins des entreprises modernes. De plus, il est très facile à mettre en œuvre et à maintenir. Cela signifie que les entreprises peuvent facilement adapter leurs processus pour s’adapter aux changements constants des données.

De plus, l’Event sourcing offre une meilleure sécurité et une meilleure fiabilité que les bases de données traditionnelles. Les données sont stockées sous forme d’événements, ce qui signifie qu’elles ne peuvent pas être modifiées ou supprimées. Cela permet aux entreprises de garantir la confidentialité et l’intégrité des données.

Enfin, l’Event sourcing est très efficace pour traiter les données à grande échelle. Il peut être facilement adapté aux besoins des entreprises et peut être utilisé pour traiter des volumes massifs de données. De plus, il est très facile à mettre en œuvre et à maintenir, ce qui signifie que les entreprises peuvent facilement adapter leurs processus pour s’adapter aux changements constants des données.

En conclusion, l’Event sourcing est un outil puissant qui peut être utilisé pour traiter les données à grande échelle. Il offre une meilleure sécurité et une meilleure fiabilité que les bases de données traditionnelles et peut être facilement adapté aux besoins des entreprises modernes. Bien qu’il ne soit pas encore aussi populaire que les bases de données traditionnelles, il est en train de gagner en popularité et pourrait bientôt surpasser les bases de données traditionnelles pour traiter les données.

Source de l’article sur DZONE

Database sharding is the process of dividing data into smaller pieces called « shards. » Sharding is typically introduced when there’s a need to scale writes. During the lifespan of a successful application, the database server will hit the maximum number of writes it can perform either at the processing or capacity level. Slicing the data into multiple shards—each one on its own database server—reduces the stress on each individual node, effectively increasing the write capacity of the overall database. This is what database sharding is.

Distributed SQL is the new way to scale relational databases with a sharding-like strategy that’s fully automated and transparent to applications. Distributed SQL databases are designed from the ground up to scale almost linearly. In this article, you’ll learn the basics of distributed SQL and how to get started.

Source de l’article sur DZONE