Articles

Après une première série de podcasts qui a mobilisé des experts pour décrypter les principaux enjeux RH des entreprises, SAP donne cette fois la parole au terrain. Au programme de cette deuxième saison d’« HR Pulse », toujours animée par Thomas Dorynek, HXM Value Advisor : des retours d’expérience mêlés de souvenirs personnels, riches d’enseignements pour leurs pairs.

 

La crise sanitaire a représenté, pour bon nombre de DRH, un moment marquant de leur carrière. Le souvenir peut être plus ou moins bon, selon le contexte dans lequel s’est invitée la pandémie et la manière dont ce défi a pu être relevé. Dans le cas de Fernanda Ribeiro, VP RH en charge de l’excellence opérationnelle et de la transformation digitale chez Bureau Veritas, l’expérience a été largement positive : « En travaillant avec la direction générale, la DAF et les opérationnels, nous avons réussi à gérer les mobilités internes en un temps record, en monitorant nos carnets de commande et en ajustant les réponses en termes de compétences disponibles ». Avec, à la clé, l’atteinte des objectifs business et un impact social très favorable.

La crise sanitaire, un défi d’inventivité et d’agilité

De son côté, Delphine Isal, Digital learning & HR innovation Director chez Air France, garde le souvenir d’une pandémie globale qui a, du jour au lendemain, mis l’intégralité de la flotte à l’arrêt. L’enjeu a été de maintenir les liens et l’engagement, mais aussi de « faire preuve d’inventivité et d’agilité, pour développer une offre de formation répondant aux besoins actuels des apprenants. »

Ces deux retours d’expérience, passionnants et révélateurs, illustrent la diversité des missions des sept professionnels RH de haut niveau interrogés par SAP ; la multitude des enjeux auxquels ils et elles sont confrontés ; et les spécificités de l’environnement économique et social dans lequel ces décideurs interviennent.

Tirer des leçons des personnalités inspirantes

Cette saison 2 de « HR Pulse » est riche en retours d’expérience, qui permettent de découvrir ce qui anime ces professionnels très investis dans leurs missions. Leurs propres sources d’inspiration méritent d’ailleurs d’être partagées, à l’image de Bruno Frankiel, DRH de Giphar, qui évoque deux grands champions de tennis, Arthur Ashe et Yannick Noah. Le premier, afro-américain né dans un milieu modeste, a réussi à s’imposer dans un milieu majoritairement riche et blanc, à force de talent et de persévérance. Lors d’une visite au Cameroun, il rencontre le jeune Yannick, chez qui il décèle un potentiel et qu’il va soutenir. Un double exemple, pour Bruno Frankiel, de « leadership, charisme, rigueur et valeurs ».

Pour sa part, Maïté Bouchez, DRH adjointe chez AP-HP, a choisi un extrait du dernier discours de l’ex-première ministre de Nouvelle-Zélande, Jacinda Ardern : « J’espère, qu’en retour, je laisserai derrière moi la conviction que l’on peut être gentil mais fort, empathique mais décidé, optimiste mais concentré, et que l’on peut être son propre leader ». Découvrez, dans les épisodes « HR Pulse », d’autres témoignages et role models tout aussi inspirants !

The post « HR Pulse » saison 2 : sept DRH partagent les leçons de leurs expériences appeared first on SAP France News.

Source de l’article sur sap.com

Verrouillage pessimiste et optimiste avec MySQL, jOOQ et Kotlin.

Découvrez comment MySQL, jOOQ et Kotlin peuvent être utilisés pour mettre en œuvre des verrouillages pessimistes et optimistes !

Gérer l’accès concurrent à des données partagées peut être un défi, mais en utilisant la bonne stratégie de verrouillage, vous pouvez vous assurer que vos applications fonctionnent correctement et éviter les conflits qui pourraient entraîner une corruption des données ou des résultats incohérents.

Dans cet article, nous explorerons comment mettre en œuvre le verrouillage pessimiste et optimiste à l’aide de Kotlin, Ktor et jOOQ et fournirons des exemples pratiques pour vous aider à comprendre quand utiliser chaque approche.

Gérer l’accès concurrent à des données partagées peut être un défi, mais en utilisant la bonne stratégie de verrouillage, vous pouvez vous assurer que vos applications fonctionnent correctement et éviter les conflits qui pourraient entraîner une corruption de données ou des résultats incohérents. Dans cet article, nous explorerons comment implémenter le verrouillage pessimiste et optimiste en utilisant Kotlin, Ktor et jOOQ et fournirons des exemples pratiques pour vous aider à comprendre quand utiliser chaque approche.

Le verrouillage pessimiste est une stratégie de verrouillage qui bloque les données partagées lorsqu’un thread tente d’y accéder. Cela signifie que tout autre thread qui tente d’accéder aux mêmes données sera bloqué jusqu’à ce que le premier thread ait terminé son traitement. Cette approche est utile lorsque vous souhaitez éviter tout conflit entre les threads et garantir que les données restent cohérentes.

Pour implémenter le verrouillage pessimiste avec Kotlin, Ktor et jOOQ, vous pouvez créer une méthode qui prend en charge le verrouillage des données partagées. Dans cette méthode, vous pouvez utiliser la classe jOOQ Lock pour verrouiller les données partagées et la classe Ktor Transaction pour gérer la transaction. Une fois que les données sont verrouillées, vous pouvez effectuer des opérations sur les données partagées sans craindre de conflit entre les threads. Lorsque vous avez terminé, vous pouvez déverrouiller les données et terminer la transaction.

Le verrouillage optimiste est une stratégie de verrouillage qui ne bloque pas les données partagées lorsqu’un thread tente d’y accéder. Au lieu de cela, il compare les données partagées avec une version antérieure pour s’assurer qu’elles n’ont pas été modifiées par un autre thread pendant que le thread courant y accède. Si les données ont été modifiées, le thread courant est bloqué jusqu’à ce que les données soient mises à jour. Cette approche est utile lorsque vous souhaitez minimiser le temps de verrouillage et éviter les conflits entre les threads.

Pour implémenter le verrouillage optimiste avec Kotlin, Ktor et jOOQ, vous pouvez créer une méthode qui prend en charge le verrouillage des données partagées. Dans cette méthode, vous pouvez utiliser la classe jOOQ Lock pour récupérer la version actuelle des données partagées et la classe Ktor Transaction pour gérer la transaction. Vous pouvez ensuite comparer la version actuelle des données à la version antérieure pour s’assurer qu’elles n’ont pas été modifiées par un autre thread. Si elles ont été modifiées, vous pouvez récupérer la version mise à jour des données et continuer à traiter la transaction. Une fois que vous avez terminé, vous pouvez déverrouiller les données et terminer la transaction.

En conclusion, le choix entre le verrouillage pessimiste et optimiste dépend de votre application et de ses exigences. Si vous souhaitez éviter tout conflit entre les threads et garantir que les données restent coh

Source de l’article sur DZONE

GitHub: Une Clé SSH Privée Dévoilée: Que Faut-il Savoir?

GitHub est une plateforme très populaire pour le partage et le développement de logiciels. Mais que faut-il savoir si une clé SSH privée est dévoilée? Découvrons-le ensemble!

« Déclaration sur les fuites de secrets: GitHub a récemment découvert une exposition de clé privée SSH RSA »

GitHub a récemment annoncé sur son blog une exposition de clé privée SSH :

La semaine dernière, GitHub a découvert que la clé privée RSA SSH de GitHub.com était brièvement exposée dans un dépôt GitHub public.

La société a rassuré le public en expliquant que cette clé n’était utilisée que pour sécuriser les opérations Git via SSH à l’aide de RSA, ce qui signifie que aucun système interne, aucune donnée client ni aucune connexion TLS sécurisée n’était en danger. Ils ont réagi immédiatement en détectant l’incident et en changeant la clé :

GitHub a également annoncé qu’ils allaient mener des tests supplémentaires pour s’assurer que leur infrastructure est sûre et qu’il n’y a pas d’autres problèmes de sécurité. Ils ont déclaré qu’ils allaient travailler avec des experts externes pour vérifier leurs systèmes et leurs pratiques de sécurité.

GitHub a également déclaré qu’ils allaient mettre en place des mesures supplémentaires pour s’assurer que ce type d’incident ne se reproduise pas. Ils ont déclaré qu’ils allaient améliorer leurs processus de contrôle et de surveillance, et qu’ils allaient tester leurs systèmes plus fréquemment. Ils ont également annoncé qu’ils allaient former leurs employés à la sécurité et à la confidentialité des données.

Source de l’article sur DZONE

SAP met en lumière les retours d’expérience d’acteurs de terrain dans cette nouvelle série de podcasts, toujours animée par Thomas Dorynek, HXM Value Advisor. Ils évoquent notamment les évolutions récentes de leur fonction et les enjeux auxquels ils doivent désormais répondre.

 

Comment les professionnels RH peuvent-ils prendre place à la table des décisions ? Cette question transparaît, en filigrane, dans les témoignages de la plupart des DRH qui s’expriment dans « HR Pulse » saison 2. Pour illustrer la manière dont ce rôle stratégique peut se manifester, Nawal Mrani Alaoui, DRH Mars Petcare & Food France, explique par exemple le fonctionnement du trio décisionnaire, qu’elle compose avec le directeur général et le directeur financier.

L’évolution du métier de RH tient aussi au contexte et au secteur d’activité. Ainsi Maïté Bouchez, DRH adjointe chez AP-HP, explique la situation de l’hôpital public et son indispensable transformation, appelant à travailler sur l’attractivité des métiers et l’expérience collaborateur. Par exemple, avec des conditions de prise de poste sereines, « pour impulser une dynamique positive d’un point de vue managérial et de sentiment d’appartenance ».

Transformation digitale : une opportunité et un challenge

Les DRH partagent également leur vision des grands défis qui les attendent, avec là encore de nombreux sujets en commun, comme l’engagement, la fidélisation, le sens au travail et la QVT.  Bruno Frankiel, DRH de Giphar, cite de son côté l’hybridation de l’organisation du travail, à laquelle tous les métiers ne sont pas éligibles : « Comment gère-t-on l’équité et préserve-t-on l’unité de l’organisation ? ».

Pour sa part, Pierre-Michel Bataillard, DRH de SGD Pharma, évoque les défis posés par le digital, « à la fois une opportunité et un challenge ». Il s’agit notamment de travailler avec la DSI pour établir les priorités d’investissement et mettre en place les conditions d’un déploiement réussi. Cette saison 2 de « HR Pulse » met aussi en évidence l’importance du dialogue social, dans un contexte de culture politique et syndicale moins marquée chez les jeunes générations, et appelant de la réinvention – par exemple, avec des moyens d’interaction plus directs avec les collaborateurs.

Une palette de compétences au service de multiples enjeux

Pour accompagner l’évolution de leur fonction et relever les défis qui les attendent, quelles qualités sont aujourd’hui attendues chez les DRH ? A cette question, les professionnels répondent en mettant en avant l’humilité ou encore l’agilité. La capacité à naviguer entre différentes dimensions – temps court et temps, opérationnel et stratégique, problématiques individuelles et collectives, etc. – et à établir des compromis ressort aussi comme essentielle.

Quant à Jean-Luc Minard, DRH du groupe Framatome, il met en avant « la capacité de conviction, pour faire passer les messages en CODIR ou vis-à-vis des représentants du personnel, l’exemplarité, la curiosité, pour s’ouvrir à des idées différentes, et la modestie, pour remettre sans cesse le métier sur l’ouvrage ». Autant de compétences essentielles à la réalisation des missions stratégiques des DRH, dont les podcasts d’« HR Pulse » se font aujourd’hui le relais.

 

The post « HR Pulse » saison 2 : sept DRH exposent leurs principaux défis appeared first on SAP France News.

Source de l’article sur sap.com

Optimiser les performances Cloud : Guide approfondi de tests et avantages

Découvrez comment optimiser les performances Cloud grâce à notre guide approfondi de tests et d’avantages ! Apprenez à tirer le meilleur parti de votre Cloud.

Êtes-vous confronté à des problèmes lors de la mesure de la scalabilité d’une organisation et d’autres facteurs de performance? Les utilisateurs peuvent accéder à leurs ressources à partir de n’importe quel appareil doté d’une connexion Internet, ce qui est l’un des principaux avantages des tests de performance en nuage. Cela implique que les investissements en matériel et en logiciel ne sont plus une préoccupation majeure lors de l’évaluation des exigences de scalabilité et de performance optimales d’une organisation. Les débits et les temps de latence de votre système sont mesurés par des tests de performance en nuage lorsque le nombre d’utilisateurs simultanés utilisant votre application change. Plusieurs caractéristiques de performances et différents modèles de charge sont également mesurés.

Les données sont devenues un élément essentiel pour les entreprises modernes. Les entreprises doivent mesurer la scalabilité et les autres facteurs de performance de leur organisation afin d’assurer leur croissance. Cependant, cette tâche peut s’avérer difficile et coûteuse. Heureusement, le test de performance en nuage offre une solution rentable et efficace pour mesurer la scalabilité et les performances d’une organisation.

Le test de performance en nuage est une méthode qui permet aux utilisateurs d’accéder à leurs ressources depuis n’importe quel appareil doté d’une connexion Internet. Cela signifie que l’investissement en matériel et en logiciels n’est plus une préoccupation majeure lors de l’évaluation de la scalabilité et des exigences optimales de performance d’une organisation. Le débit et la latence du système sont mesurés à mesure que le nombre d’utilisateurs simultanés utilisant l’application change. De plus, plusieurs caractéristiques de performance et différents modèles de charge sont également mesurés.

Le test de performance en nuage est une méthode très pratique pour les entreprises qui cherchent à mesurer leurs performances et leur scalabilité. Il permet aux entreprises de tester leurs applications à grande échelle sans avoir à investir dans des serveurs et des logiciels coûteux. De plus, il offre une précision et une fiabilité inégalées pour mesurer les performances et la scalabilité des applications. Enfin, le test de performance en nuage est une méthode rapide et rentable pour mesurer la scalabilité et les performances d’une organisation.

Source de l’article sur DZONE

Créer une architecture de microservices avec Java

Créer une architecture de microservices avec Java est une tâche complexe, mais qui peut offrir des avantages considérables. Découvrons comment le faire !

« Approche de l’Architecture des Microservices »

En premier lieu, l’architecture des microservices est une approche où un système logiciel est décomposé en services plus petits et indépendants qui communiquent entre eux via des API. Chaque service est responsable d’une fonction commerciale spécifique et peut être développé, déployé et mis à l’échelle indépendamment. Cela facilite la maintenance et la modification du système, car les modifications apportées à un service n’affectent pas l’ensemble du système.

Les avantages de l’architecture des microservices sont nombreux. Tout d’abord, elle permet une plus grande flexibilité et une plus grande évolutivité. Les services peuvent être développés, déployés et mis à l’échelle indépendamment les uns des autres, ce qui permet d’ajouter ou de supprimer des fonctionnalités sans affecter le reste du système. De plus, les microservices sont plus faciles à tester et à maintenir car ils sont isolés et peuvent être testés individuellement.

Java est un excellent choix pour la construction de microservices. Java est une plate-forme très populaire et très répandue, ce qui signifie qu’il y a une grande communauté de développeurs qui peuvent aider à résoudre les problèmes. De plus, Java est très bien adapté pour la construction de microservices car il prend en charge les tests unitaires et intégrés, ce qui permet aux développeurs de tester facilement leurs services. Enfin, Java est très flexible et peut être utilisé pour construire des services basés sur des conteneurs ou des machines virtuelles.

En résumé, l’architecture des microservices est une approche moderne pour construire des systèmes logiciels flexibles, évolutifs et faciles à maintenir. Les avantages de cette approche sont nombreux, notamment une plus grande flexibilité et une plus grande évolutivité. Java est un excellent choix pour la construction de microservices car il prend en charge les tests unitaires et intégrés et est très flexible.

Source de l’article sur DZONE

Créer une chaîne de données optimisée sur Azure avec Spark, Data Factory, Databricks et Synapse Analytics

Créer une chaîne de données optimisée sur Azure n’est pas une tâche facile. Heureusement, avec Spark, Data Factory, Databricks et Synapse Analytics, vous pouvez le faire rapidement et efficacement.

Intégration de données avec Azure Data Factory

Processing Data With Apache Spark 

Apache Spark is an open-source distributed computing framework used for big data processing. It is designed to process data in memory, making it much faster than traditional disk-based processing. Spark can be used to process data from various sources such as databases, file systems, and cloud storage. It also provides a rich set of APIs and libraries for data manipulation, machine learning, and graph processing.

Analyzing Data With Azure Synapse Analytics 

Azure Synapse Analytics is a cloud-based analytics platform that enables you to analyze data from various sources. It provides a unified workspace for data preparation, data warehousing, and advanced analytics. It also offers a wide range of features such as data virtualization, machine learning, and natural language processing.

Le traitement des données dans le cloud est devenu de plus en plus populaire en raison de sa scalabilité, de sa flexibilité et de son efficacité économique. Les stacks technologiques modernes tels que Apache Spark, Azure Data Factory, Azure Databricks et Azure Synapse Analytics offrent des outils puissants pour créer des pipelines de données optimisés qui peuvent ingérer et traiter efficacement les données dans le cloud. Cet article explorera comment ces technologies peuvent être utilisées ensemble pour créer un pipeline de données optimisé pour le traitement des données dans le cloud.

Ingestion des données avec Azure Data Factory 

Azure Data Factory est un service d’intégration de données basé sur le cloud qui vous permet d’ingérer des données à partir de diverses sources vers un lac ou un entrepôt de données basé sur le cloud. Il fournit des connecteurs intégrés pour diverses sources de données telles que des bases de données, des systèmes de fichiers, un stockage dans le cloud et plus encore. En outre, vous pouvez configurer Data Factory pour planifier et orchestrer les processus d’ingestion de données et définir les transformations des flux de données.

Traitement des données avec Apache Spark 

Apache Spark est un cadre de calcul distribué open source utilisé pour le traitement des données volumineuses. Il est conçu pour traiter les données en mémoire, ce qui le rend beaucoup plus rapide que le traitement traditionnel basé sur le disque. Spark peut être utilisé pour traiter des données provenant de diverses sources telles que des bases de données, des systèmes de fichiers et un stockage dans le cloud. Il fournit également une riche gamme d’API et de bibliothèques pour la manipulation des données, l’apprentissage automatique et le traitement des graphes.

Analyse des données avec Azure Synapse Analytics 

Azure Synapse Analytics est une plateforme d’analyse basée sur le cloud qui vous permet d’analyser des données provenant de diverses sources. Il fournit un espace de travail unifié pour la préparation des données, le stockage des données et l’analyse avancée. Il offre également une large gamme de fonctionnalités telles que la virtualisation des données, l’apprentissage automatique et le traitement du langage naturel.

Le logiciel est l’outil principal pour le traitement des données dans le cloud. Les technologies modernes telles qu’Apache Spark, Azure Data Factory, Azure Databricks et Azure Synapse Analytics offrent aux développeurs et aux entreprises une variété d’options pour créer des pipelines de données optimisés qui peuvent ingérer et traiter efficacement les données dans le cloud. Apache Spark est un cadre open source qui permet un traitement rapide des données volumineuses en m

Source de l’article sur DZONE

Chasse au trésor Agile-DevOps : réaliser la transition DevOps

avec succès

La chasse au trésor Agile-DevOps est une méthodologie innovante qui permet aux organisations de réaliser la transition DevOps avec succès. Découvrez comment!

Les flux de valeur ont été un principe central de la pensée Lean depuis des décennies, à commencer par Toyota et le mouvement Lean Manufacturing, et sont désormais largement adoptés dans tous les secteurs. Malgré cela, de nombreuses entreprises doivent encore exploiter pleinement le potentiel des flux de valeur pour provoquer un changement organisationnel et atteindre une plus grande efficacité et efficience. Au lieu de cela, elles peuvent se concentrer uniquement sur des métriques telles que la vitesse d’équipe ou la vitesse du pipeline de production, en manquant le tableau plus large du système de bout en bout.

Dans le développement de produits modernes, la compréhension des flux de valeur est cruciale pour optimiser nos modes de travail et fournir de la valeur aux clients. En cartographiant le chemin vers la valeur, nous pouvons obtenir une visibilité sur nos processus et identifier les domaines d’amélioration, tels que les goulots d’étranglement du déploiement du code ou les incompatibilités entre les personnels et les rôles.

L’architecture des flux de valeur a été un principe central de la pensée Lean depuis des décennies, à partir de Toyota et du mouvement Lean Manufacturing, et est maintenant largement adoptée dans tous les secteurs. Malgré cela, de nombreuses entreprises doivent encore exploiter pleinement le potentiel des flux de valeur pour stimuler le changement organisationnel et atteindre une plus grande efficacité et efficience. Au lieu de cela, ils peuvent se concentrer uniquement sur des métriques telles que la vitesse d’équipe ou la vitesse du pipeline de production, en manquant le tableau d’ensemble du système de bout en bout.

Dans le développement de produits modernes, comprendre les flux de valeur est essentiel pour optimiser nos modes de travail et livrer de la valeur aux clients. En cartographiant le chemin vers la valeur, nous pouvons obtenir une visibilité sur nos processus et identifier les domaines d’amélioration, tels que les goulots d’étranglement du déploiement du code ou les incompatibilités entre le personnel et les rôles.

En outre, en comprenant les flux de valeur, nous pouvons mieux aligner les équipes et les processus sur l’objectif de livrer de la valeur à nos clients. Nous pouvons également identifier les points d’accélération et les points de friction dans le système et prendre des mesures pour améliorer la qualité et la rapidité des livraisons. Enfin, en surveillant les flux de valeur, nous pouvons mieux comprendre comment les changements apportés à l’architecture affectent la capacité de l’organisation à livrer de la valeur à ses clients.

Source de l’article sur DZONE

Étapes pour les développeurs vers l'IT durable.

Les développeurs sont à la pointe de l’innovation technologique. Mais comment peuvent-ils adopter une approche durable pour leurs projets IT ? Découvrez les étapes à suivre !

Les conséquences réelles de quelque chose d’aussi abstrait que le logiciel

Même quelque chose d’aussi abstrait que le logiciel a des conséquences concrètes. Les centres de données consomment environ 1 % de l’énergie mondiale et ces serveurs à haute consommation représentent une fraction minime de l’utilisation totale de l’énergie informatique. Il est temps pour les développeurs informatiques de prendre au sérieux la réduction de leur empreinte carbone.

Aller vert peut prendre plusieurs formes, y compris l’écriture de meilleurs codes, des modifications matérielles et des changements dans la culture du lieu de travail. Les professionnels de l’informatique peuvent utiliser les techniques suivantes pour minimiser l’impact environnemental.

La première étape consiste à optimiser les bases de données. Les bases de données sont un élément essentiel des systèmes informatiques et peuvent consommer une quantité significative d’énergie. Les développeurs peuvent réduire la consommation d’énergie en optimisant leur base de données. Cela peut être fait en réduisant le nombre de requêtes, en réduisant le nombre de tables et en supprimant les données non utilisées. Les développeurs peuvent également améliorer l’efficacité des bases de données en utilisant des outils tels que l’indexation et la compression des données.

Deuxièmement, les développeurs peuvent réduire leur empreinte carbone en réduisant le nombre de serveurs nécessaires. Les serveurs sont l’un des principaux consommateurs d’énergie dans les centres de données et peuvent facilement être réduits en consolidant plusieurs serveurs sur un seul serveur. Les développeurs peuvent également réduire le nombre de serveurs en utilisant des technologies telles que le cloud computing et le virtualisation. Ces technologies permettent aux développeurs d’utiliser plusieurs serveurs virtuels sur un seul serveur physique, ce qui permet une meilleure utilisation des ressources et une réduction des coûts.

Enfin, les développeurs peuvent également réduire leur empreinte carbone en modifiant leur culture de travail. Les développeurs peuvent encourager l’utilisation de technologies plus écologiques telles que les écrans à LED et les imprimantes à faible consommation d’énergie. Ils peuvent également encourager l’utilisation des transports publics ou du covoiturage pour se rendre au travail et encourager le télétravail pour les employés qui le peuvent. Enfin, ils peuvent encourager les employés à recycler et à adopter des pratiques plus respectueuses de l’environnement.

Même si le logiciel est abstrait, il a des conséquences concrètes sur l’environnement. Les professionnels de l’informatique peuvent réduire leur empreinte carbone en optimisant leurs bases de données, en réduisant le nombre de serveurs nécessaires et en modifiant leur culture de travail. En adoptant ces techniques, les développeurs informatiques peuvent contribuer à la protection de l’environnement et à la préservation des ressources naturelles pour les générations futures.

Source de l’article sur DZONE

Architecture Data Mesh : Changement de Paradigme en Ingénierie des Données

L’Architecture Data Mesh représente un changement de paradigme dans l’ingénierie des données, offrant une nouvelle approche pour tirer le meilleur parti des données.

## Data Mesh : Une architecture de données répartie et orientée domaine qui fait évoluer le paradigme de l’ingénierie des données

Data Mesh is based on the idea of a “data mesh”, which is an interconnected network of data services that are designed to be loosely coupled and highly distributed. Data Mesh focuses on the domain-oriented design of data services, which allows for greater agility and flexibility in data engineering. Additionally, Data Mesh emphasizes the use of open source software and cloud-native technologies, which can help organizations reduce costs and increase scalability.

Le Data engineering est un domaine en constante évolution qui est constamment mis à l’épreuve par le volume croissant, la vitesse et la variété des données générées et traitées par les organisations. Les approches traditionnelles de data engineering sont souvent centralisées et monolithiques, ce qui peut entraîner des difficultés en matière d’évolutivité, d’agilité et de flexibilité. Ces dernières années, un nouveau paradigme architectural appelé Data Mesh a émergé comme une nouvelle façon de relever ces défis et de permettre une data engineering plus efficace et plus efficace.

Data Mesh est une architecture de données distribuée et orientée vers le domaine qui prône un changement de paradigme dans la façon dont le data engineering est abordé au sein des organisations. Il a été introduit pour la première fois par Zhamak Dehghani, un leader de pensée dans la communauté du data engineering, et a suscité un intérêt considérable en tant qu’approche prometteuse pour le data engineering moderne.

Data Mesh repose sur l’idée d’un «maillage de données», qui est un réseau interconnecté de services de données conçus pour être faiblement couplés et hautement distribués. Data Mesh se concentre sur la conception orientée vers le domaine des services de données, ce qui permet une plus grande agilité et flexibilité dans le data engineering. En outre, Data Mesh met l’accent sur l’utilisation de logiciels open source et de technologies natives du cloud, ce qui peut aider les organisations à réduire leurs coûts et à augmenter leur évolutivité.

Source de l’article sur DZONE