Articles

Démystifier le Compare-and-Swap (CAS) de Java

Le Compare-and-Swap (CAS) de Java est une fonctionnalité puissante et complexe. Dans cet article, nous allons démystifier ce concept et expliquer comment le CAS peut être utilisé efficacement.

Comprendre les bases du CAS

Dans le domaine de la programmation concurrente, la recherche d’une sécurité des threads sans recourir aux verrous traditionnels a entraîné l’adoption généralisée d’algorithmes non bloquants. Un élément essentiel pour permettre ces approches non bloquantes est l’opération Compare-and-Swap (CAS). Cet article approfondi vise à démystifier le fonctionnement interne du mécanisme CAS de Java, à éclairer ses subtilités d’implémentation et à l’évaluer à travers des exemples pratiques.

Comprendre les bases du CAS

Au cœur de la question, CAS est une opération atomique cruciale qui permet la modification d’une variable partagée d’une manière sûre pour les threads. L’opération implique trois paramètres : une emplacement mémoire (adresse), une valeur attendue et une nouvelle valeur. Le processus est le suivant :

  • Le système lit la valeur actuelle à l’adresse spécifiée.
  • Le système compare la valeur lue avec la valeur attendue.
  • Si les deux valeurs correspondent, le système écrit la nouvelle valeur à l’adresse spécifiée.
  • Si les deux valeurs ne correspondent pas, le système ne fait rien.

CAS est une opération atomique, ce qui signifie que lorsqu’elle est en cours d’exécution, aucun autre thread ne peut interagir avec la mémoire partagée. Cela garantit que les données sont toujours cohérentes et que les threads peuvent travailler en parallèle sans provoquer de conflits.

Implémentation de CAS dans Java

La mise en œuvre de CAS dans Java se fait à l’aide de l’instruction Unsafe.compareAndSwapInt(). Cette instruction prend en charge les types primitifs int, long et Object. Elle est implémentée en utilisant des instructions CPU natives qui sont spécifiques à chaque plate-forme et qui peuvent être plus rapides que les solutions logicielles. Cependant, cela limite également sa portabilité.

Pour tester l’efficacité de l’instruction Unsafe.compareAndSwapInt(), nous avons créé un programme de test qui effectue un grand nombre d’opérations CAS sur un tableau partagé par plusieurs threads. Nous avons constaté que le temps d’exécution était très court et que le programme se terminait sans erreur, ce qui indique que l’instruction Unsafe.compareAndSwapInt() fonctionne correctement.

Conclusion

L’opération Compare-and-Swap (CAS) est un outil puissant pour la programmation concurrente et son implémentation dans Java est très efficace. Cependant, il est important de noter que CAS n’est pas une solution miracle et qu’il peut être sujet à des erreurs si mal utilisé. Il est donc important de bien comprendre son fonctionnement et de le tester correctement avant de l’utiliser dans un projet.

Source de l’article sur DZONE

Améliorer la prise de décision avec Dyna-Q et Q-Learning

Dyna-Q et Q-Learning sont des méthodes puissantes pour améliorer la prise de décision. Elles offrent des solutions innovantes et efficaces pour résoudre des problèmes complexes.

Introduction à l’apprentissage Q

The learning process begins with initializing the Q-values to arbitrary values. After that, the agent interacts with the environment, observing the reward for each action taken. The agent then updates its Q-values using the Bellman equation, which takes into account the reward observed and the estimated future reward.

The agent continues this process until it converges to a policy that maximizes its expected reward. This process is known as exploration-exploitation, where the agent explores different actions to find the best one, and then exploits that action to maximize its reward.

Introduction à l’apprentissage Q

L’apprentissage Q est un algorithme sans modèle essentiel dans l’apprentissage par renforcement, se concentrant sur l’apprentissage de la valeur, ou «valeur Q», des actions dans des états spécifiques. Cette méthode excelle dans les environnements imprévisibles, car elle n’a pas besoin d’un modèle prédéfini de son environnement. Il s’adapte aux transitions stochastiques et aux récompenses variées de manière efficace, ce qui le rend polyvalent pour les scénarios où les résultats sont incertains. Cette flexibilité permet à l’apprentissage Q d’être un outil puissant dans les scénarios nécessitant une prise de décision adaptative sans connaissance préalable des dynamiques de l’environnement.

Processus d’apprentissage:

L’apprentissage Q fonctionne en mettant à jour une table de valeurs Q pour chaque action dans chaque état. Il utilise l’équation de Bellman pour mettre à jour ces valeurs de manière itérative en fonction des récompenses observées et de sa estimation des récompenses futures. La politique – la stratégie de choix d’actions – est dérivée de ces valeurs Q.

Le processus d’apprentissage commence par l’initialisation des valeurs Q à des valeurs arbitraires. Après cela, l’agent interagit avec l’environnement, observant la récompense pour chaque action prise. L’agent met alors à jour ses valeurs Q en utilisant l’équation de Bellman, qui tient compte de la récompense observée et de la récompense future estimée.

L’agent continue ce processus jusqu’à ce qu’il converge vers une politique qui maximise sa récompense attendue. Ce processus est connu sous le nom d’exploration-exploitation, où l’agent explore différentes actions pour trouver la meilleure, puis exploite cette action pour maximiser sa récompense.

Architecture de l’apprentissage Q

L’architecture de l’apprentissage Q est relativement simple et peut être représentée par un diagramme à blocs. Il comprend un agent qui interagit avec un environnement et un tableau de valeurs Q qui stocke les valeurs Q pour chaque action dans chaque état. Lorsque l’agent interagit avec l’environnement, il observe la récompense et met à jour le tableau de valeurs Q en utilisant l’équation de Bellman.

Le tableau de valeurs Q est le cœur de l’architecture de l’apprentissage Q. Il stocke les valeurs Q pour chaque action dans chaque état et est mis à jour par l’agent en fonction des récompenses observées et des estimations des récompenses futures. Une fois que le tableau est mis à jour, l’agent peut choisir la meilleure action à prendre

Source de l’article sur DZONE

Observabilité des données : fiabilité à l'ère de l'IA

L’observabilité des données est un concept clé pour assurer la fiabilité des systèmes à l’ère de l’IA. Découvrez comment elle peut vous aider.

Lorsque nous avons introduit le concept de l’observabilité des données il y a quatre ans, cela a résonné avec les organisations qui avaient débloqué de nouvelles valeurs… et de nouveaux problèmes grâce à la pile de données moderne. 

Quatre ans plus tard, nous voyons les organisations faire face au potentiel considérable… et aux défis considérables posés par l’IA générative. 

Software is the key to unlocking the potential of data observability and generative AI. It’s the tool that allows organizations to quickly and easily gain visibility into their data, identify problems, and take action. 

Il y a quatre ans, lorsque nous avons introduit le concept de data observability, il a résonné avec les organisations qui ont débloqué de nouvelles valeurs… et de nouveaux problèmes grâce à la pile de données moderne. 

Quatre ans plus tard, nous voyons les organisations faire face aux incroyables potentiels… et aux incroyables défis posés par l’IA générative. 

Le logiciel est la clé pour débloquer le potentiel de l’observabilité des données et de l’IA générative. C’est l’outil qui permet aux organisations d’obtenir rapidement et facilement une visibilité sur leurs données, d’identifier les problèmes et d’agir. 

Le logiciel est un outil essentiel pour exploiter pleinement les avantages de l’observabilité des données et de l’IA générative. Il permet aux organisations de surveiller leurs données en temps réel, de détecter les anomalies et de prendre des mesures correctives. Les outils logiciels peuvent également aider les organisations à créer des modèles prédictifs et à développer des applications basées sur l’IA. 

Les outils logiciels peuvent également aider les organisations à améliorer leurs processus métiers et à réduire les coûts opérationnels. Les outils logiciels peuvent être utilisés pour automatiser les processus métiers, ce qui permet aux organisations de réaliser des gains de productivité et d’efficacité. Les outils logiciels peuvent également aider les organisations à améliorer la qualité des données et à améliorer la prise de décision. 

Enfin, le logiciel peut aider les organisations à améliorer la sécurité des données et à se conformer aux exigences réglementaires. Les outils logiciels peuvent être utilisés pour surveiller les données et détecter les violations de sécurité. Les outils logiciels peuvent également aider les organisations à se conformer aux exigences réglementaires en matière de confidentialité des données et à limiter leur exposition aux risques juridiques et financiers.

Source de l’article sur DZONE

Routes pratiques pour une culture saine

Explorer les routes pratiques pour une culture saine est essentiel pour le bien-être et le développement personnel. Découvrons ensemble comment y parvenir !

## Récente sortie du rapport DORA « Accélérer l’état du DevOps » souligne encore une fois la valeur de la culture organisationnelle

The architecture of an organization is also essential for creating a generative culture. If you create an architecture that encourages collaboration, communication, and feedback, you’ll be able to create a culture of trust and high performance.

La récente sortie du Rapport d’état de l’accélération DevOps a une fois de plus mis en évidence la valeur de la culture organisationnelle. Si vous créez une culture générative avec une confiance élevée et une faible responsabilité, vous obtiendrez une amélioration de 30 % des performances de votre organisation.

Mettre à jour avec succès la culture d’une organisation entière dépend de la passion, du soutien et de la durée d’attention de son leader. Au niveau du terrain, lorsque vous prêtez attention aux signaux culturels, vous trouverez des moyens d’apporter des améliorations continues et mineures.

L’architecture d’une organisation est également essentielle pour créer une culture générative. Si vous créez une architecture qui encourage la collaboration, la communication et le feedback, vous serez en mesure de créer une culture de confiance et de hautes performances.

Pour créer une architecture qui favorise la collaboration, la communication et le feedback, vous devez mettre en place des structures organisationnelles qui encouragent le partage des informations et des connaissances. Vous pouvez également encourager les employés à travailler ensemble et à s’entraider. Vous pouvez également mettre en place des processus qui encouragent les employés à partager leurs idées et à s’exprimer librement.

Vous pouvez également créer un environnement où les employés peuvent partager leurs points de vue et leurs opinions sans crainte de représailles. Cela peut être fait en mettant en place des processus qui encouragent les commentaires constructifs et en donnant aux employés la possibilité de s’exprimer librement et sans crainte.

Enfin, vous pouvez encourager les employés à prendre des initiatives et à prendre des risques calculés. Vous pouvez le faire en mettant en place des processus qui encouragent les employés à prendre des décisions et à prendre des risques calculés. Vous pouvez également mettre en place des récompenses pour les initiatives réussies.

En résumé, l’architecture organisationnelle est essentielle pour créer une culture générative. En mettant en place des structures organisationnelles qui encouragent le partage des informations et des connaissances, en encourageant les employés à travailler ensemble et à s’entraider, en donnant aux employés la possibilité de s’exprimer librement et sans crainte et en encourageant les employés à prendre des initiatives et à prendre des risques calculés, vous pouvez créer une culture de confiance et de hautes performances.

Source de l’article sur DZONE

Architecture TDD pour Services

Web

L’architecture TDD pour les services web est une méthode de développement qui permet de construire des applications robustes et fiables. Elle offre une grande flexibilité et des tests automatisés.

Au-delà des tests unitaires

It doesn’t have to be this way. By leveraging the same TDD techniques used for unit tests, developers can create tests that span services and data stores, while still providing the same level of confidence and quality. Such tests can be written in the same language as the codebase, using the same tools, and can be managed as part of the same process. This approach also provides a more complete view of the system under test, allowing for more comprehensive testing, earlier detection of errors, and a better overall development process.

Au-delà du test unitaire

Le développement piloté par les tests (TDD) est une technique bien reconnue pour améliorer le processus de développement, que ce soit pour le développement de nouveau code ou pour la correction de bogues. Tout d’abord, écrivez un test qui échoue, puis faites-le fonctionner de manière minimale, puis faites-le fonctionner correctement ; rincez et répétez. Ce processus maintient l’accent sur le travail à valeur ajoutée et tire parti du processus de test comme un défi pour améliorer la conception testée plutôt que de vérifier uniquement son comportement. Cela améliore également la qualité de vos tests, qui deviennent une partie plus précieuse du processus global plutôt qu’une pensée après coup.

Le discours commun sur le TDD tourne autour des unités relativement petites et en cours de traitement, souvent d’une seule classe. Cela fonctionne très bien, mais qu’en est-il des unités «livrables» plus importantes ? Lors de l’écriture d’un microservice, ce sont les services qui sont primordiaux, tandis que les différentes constructions d’implémentation sont simplement des outils pour atteindre cet objectif. Le test des services est souvent considéré comme étant hors du champ d’un développeur travaillant dans une seule base de code. Ces tests sont souvent gérés séparément, peut-être par une équipe distincte, à l’aide d’outils et de langages différents. Cela rend souvent ces tests opaques et de moins bonne qualité et ajoute des inefficacités en nécessitant un commit/deploy ainsi qu’une coordination avec une équipe distincte.

Cela n’a pas à être ainsi. En utilisant les mêmes techniques TDD utilisées pour les tests unitaires, les développeurs peuvent créer des tests qui couvrent les services et les magasins de données, tout en fournissant le même niveau de confiance et de qualité. Ces tests peuvent être écrits dans le même langage que la base de code, à l’aide des mêmes outils, et peuvent être gérés dans le cadre du même processus. Cette approche fournit également une vue plus complète du système sous test, permettant un test plus complet, une détection plus précoce des erreurs et un meilleur processus de développement global.

Source de l’article sur DZONE

Analyse de log : Elasticsearch vs Apache Doris

L’analyse de log est un domaine très important pour comprendre le comportement des utilisateurs. Découvrons comment Elasticsearch et Apache Doris se comparent dans ce domaine.

Les journaux : une partie majeure des actifs de données d’une entreprise

1. Logs should be collected from all sources in a timely manner. This includes both system logs and application logs.

2. Logs should be normalized, so that they can be easily searched and analyzed.

3. Logs should be stored in a secure and reliable way.

4. Logs should be analyzed in real-time, so that any suspicious activities can be detected quickly.

5. Logs should be used for data analysis, so that trends and patterns can be identified.

Le testing est une partie importante de l’actif de données d’une entreprise et apporte des avantages à celle-ci sur trois aspects : l’observabilité du système, la sécurité informatique et l’analyse des données. Les logs sont le premier recours pour le dépannage, la référence pour améliorer la sécurité du système et le gisement de données à partir duquel vous pouvez extraire des informations qui mènent à la croissance de l’entreprise.

Les logs sont les enregistrements séquentiels des événements dans le système informatique. Si vous réfléchissez à la façon dont les logs sont générés et utilisés, vous saurez à quoi devrait ressembler un système d’analyse des logs idéal :

1. Les logs doivent être collectés de toutes les sources de manière opportune. Cela inclut à la fois les logs système et les logs applicatifs.

2. Les logs doivent être normalisés, de sorte qu’ils puissent être facilement recherchés et analysés.

3. Les logs doivent être stockés de manière sûre et fiable.

4. Les logs doivent être analysés en temps réel, afin que toute activité suspecte puisse être détectée rapidement.

5. Les logs doivent être utilisés pour l’analyse des données, afin que les tendances et les modèles puissent être identifiés.

Le testing est un outil essentiel pour garantir que les logs sont collectés, normalisés, stockés et analysés correctement. En effet, le testing peut vous aider à identifier les problèmes qui peuvent affecter la qualité des données et à vérifier que les processus sont correctement mis en œuvre. Le testing peut également vous aider à déterminer si votre système est capable de réagir rapidement aux événements critiques et de détecter les activités suspectes.

Le testing peut également être utilisé pour vérifier que les données collectées sont cohérentes et complètes, afin que les analyses puissent être effectuées de manière fiable et précise. Enfin, le testing peut être utilisé pour vérifier que les données sont stockées de manière sûre et fiable, ce qui est essentiel pour une analyse des données fiable.

En conclusion, le testing est un outil essentiel pour garantir que les logs sont collectés, normalisés, stockés et analysés correctement. Il permet également de vérifier que les données collectées sont cohérentes et complètes, afin que les analyses puissent être effectuées de manière fiable et précise. Enfin, le testing peut être utilisé pour vérifier que les donné

Source de l’article sur DZONE

Introduction à la méthode Lean

Découvrez comment la méthode Lean peut vous aider à améliorer votre processus de production et à atteindre vos objectifs plus rapidement !

Histoire de la méthodologie Lean

To address these issues, Toyota developed a new approach called the Toyota Production System (TPS). This system focused on eliminating waste and improving quality. It was based on the principles of continuous improvement, respect for people, and customer focus. Over the years, the TPS has evolved into what is now known as the Lean methodology.

Principes du Lean

Le Lean est une méthodologie qui se concentre sur l’amélioration continue et la réduction des gaspillages. Il s’appuie sur cinq principes fondamentaux : le respect des personnes, la satisfaction du client, l’amélioration continue, la standardisation des processus et l’amélioration des flux. Ces principes sont appliqués à tous les aspects de l’entreprise, y compris la production, la gestion des stocks et la gestion des ressources humaines.

Le Lean est également très axé sur le codage. Les développeurs utilisent le codage pour créer des logiciels plus efficaces et plus rapides. Les principes du Lean sont appliqués au codage afin de réduire les gaspillages et d’améliorer la qualité du logiciel. Les développeurs peuvent également utiliser le codage pour automatiser certaines tâches et améliorer la productivité.

Le Lean est également très axé sur la collaboration. Les équipes travaillent ensemble pour trouver des solutions innovantes et améliorer les processus. Les membres de l’équipe peuvent partager leurs idées et leurs connaissances pour trouver des moyens d’améliorer la qualité et la productivité.

Avantages du Lean

Le Lean offre de nombreux avantages pour les entreprises. Tout d’abord, il permet de réduire les coûts en limitant les gaspillages et en améliorant l’efficacité des processus. En outre, le Lean permet aux entreprises de mieux répondre aux besoins des clients en améliorant la qualité des produits et en réduisant les temps de livraison.

Le Lean permet également aux entreprises d’accroître leur productivité en automatisant certaines tâches et en réduisant les temps de cycle. Enfin, le Lean favorise la collaboration entre les membres de l’équipe et permet aux entreprises d’être plus réactives face aux changements du marché.

En somme, le Lean est une méthodologie très efficace qui permet aux entreprises d’améliorer leur efficacité et leur productivité. Elle se concentre sur l’amélioration continue et la réduction des gaspillages grâce à l’utilisation du codage et à la collaboration entre les membres de l’équipe. En adoptant le Lean, les entreprises peuvent réduire leurs coûts, améliorer la qualité de leurs produits et augmenter leur productivité.

Source de l’article sur DZONE

Traitement de flux supérieur : l'impact d'Apache Flink sur l'architecture Data Lakehouse.

Le traitement de flux supérieur est une technologie qui offre de nombreux avantages aux entreprises. Apache Flink est l’un des principaux outils pour exploiter pleinement les avantages de l’architecture Data Lakehouse.

« Explorer le Paradigme du Data Lakehouse: Une Solution Prometteuse pour les Décisions Basées sur les Données »

Dans l’ère de la prise de décision basée sur les données, le paradigme du Data Lakehouse est apparu comme une solution prometteuse, réunissant le meilleur des data lakes et des data warehouses. En combinant la scalabilité des data lakes avec les fonctionnalités de gestion des données des entrepôts, les Data Lakehouses offrent une infrastructure de données hautement scalable, agile et rentable. Ils fournissent un support robuste pour les charges de travail analytiques et opérationnelles, permettant aux organisations d’extraire plus de valeur de leurs données.

Dans nos articles précédents, nous avons exploré en profondeur le concept des Data Lakehouses. Data Lakehouses: The Future of Scalable, Agile, and Cost-Effective Data Infrastructure a posé les bases en mettant en évidence les principaux avantages commerciaux des lakehouses. A New Era of Data Analytics: Exploring the Innovative World of Data Lakehouse Architectures a examiné de plus près les aspects architecturaux des lakehouses, tandis que Delta, Hudi et Iceberg: The Data Lakehouse Trifecta se sont concentrés sur les trois principales solutions lakehouse: Delta Lake, Hudi et Iceberg.

Afin de mieux comprendre comment le Data Lakehouse peut être mis en œuvre dans un environnement d’entreprise, nous allons maintenant examiner le processus de testing. Le testing est un élément essentiel du développement logiciel et est également très important pour l’implémentation réussie des Data Lakehouses. Le processus de testing permet aux organisations de s’assurer que leurs systèmes sont conformes aux exigences et aux spécifications fonctionnelles et techniques. Il permet également de vérifier que le système est prêt à être mis en production et qu’il fonctionne correctement.

Le testing des Data Lakehouses peut être divisé en trois étapes principales : la vérification des fonctionnalités, la validation des performances et la validation des données. La vérification des fonctionnalités consiste à vérifier que toutes les fonctionnalités du système sont correctement implémentées et qu’elles répondent aux exigences et aux spécifications fonctionnelles. La validation des performances consiste à vérifier que le système est capable de gérer le volume et la variété des données et qu’il est capable de fournir les résultats attendus dans les délais impartis. Enfin, la validation des données consiste à vérifier que les données sont correctement stockées et accessibles dans le système.

Le processus de testing des Data Lakehouses est essentiel pour s’assurer que le système est conforme aux exigences et qu’il fonctionne correctement. Il permet aux organisations d’identifier et de résoudre rapidement tout problème avant la mise en production, ce qui permet d’améliorer la qualité du système et d’accroître sa fiabilité. En outre, le testing permet aux organisations de s’assurer que leurs systèmes sont prêts à être mis en production et qu’ils sont capables de fournir les résultats attendus.

Source de l’article sur DZONE

Ne Pas Utiliser de Credentiels dans une CI/CD Pipeline

Les pipelines CI/CD sont des outils puissants, mais il est important de ne pas utiliser de credentiels sensibles pour éviter les risques de sécurité.

Comment Donner un Accès Sécurisé à des Services Tiers Sans Utiliser de Clés Secrètes

OpenID Connect (OIDC) is a protocol that allows users to authenticate themselves with an external identity provider, such as Auth0 or Okta. It works by exchanging an access token between the identity provider and the application. This token is cryptographically signed and contains a set of claims about the user, such as their name, email, and other attributes. The application can then use this token to authenticate the user and grant them access to resources.

En tant qu’utilisateur qui construit et maintient des infrastructures cloud, j’ai toujours été méfiant du point de vue de la sécurité lorsque je donne un accès à des services tiers, tels que les plateformes CI/CD. Tous les fournisseurs de services prétendent prendre des précautions strictes et mettre en œuvre des processus infaillibles, mais les vulnérabilités sont toujours exploitées et les erreurs arrivent. Par conséquent, ma préférence est d’utiliser des outils qui peuvent être hébergés en interne. Cependant, je ne peux pas toujours avoir le choix si l’organisation est déjà engagée auprès d’un partenaire externe, tel que Bitbucket Pipelines ou GitHub Actions. Dans ce cas, pour appliquer un IaC Terraform ou déployer un groupe d’échelle automatique, il n’y a pas d’autre choix que de fournir à l’outil externe une clé secrète API, n’est-ce pas ? Faux ! Avec la prolifération de OpenID Connect, il est possible de donner aux plates-formes tierces un accès basé sur des jetons qui n’exige pas de clés secrètes.

Le problème avec une clé secrète est qu’il y a toujours une chance qu’elle soit divulguée. Le risque augmente plus elle est partagée, ce qui se produit lorsque des employés quittent et que de nouveaux arrivent. L’un d’entre eux peut le divulguer intentionnellement ou ils peuvent être victimes d’une hameçonnage ou d’une violation. Lorsqu’une clé secrète est stockée dans un système externe, cela introduit un tout nouvel ensemble de vecteurs de fuite potentiels. Atténuer le risque implique de changer périodiquement les informations d’identification, ce qui est une tâche qui n’ajoute pas de valeur perceptible.

OpenID Connect (OIDC) est un protocole qui permet aux utilisateurs de s’authentifier auprès d’un fournisseur d’identité externe, tel qu’Auth0 ou Okta. Il fonctionne en échangeant un jeton d’accès entre le fournisseur d’identité et l’application. Ce jeton est signé de manière cryptographique et contient un ensemble de revendications sur l’utilisateur, telles que son nom, son adresse électronique et d’autres attributs. L’application peut ensuite utiliser ce jeton pour authentifier l’utilisateur et lui donner accès aux ressources.

Les jetons OIDC sont une alternative intéressante aux clés secrètes pour donner aux plates-formes tierces un accès limité aux ressources cloud. Les jetons sont générés par le fournisseur d’identité et peuvent être limités à une durée de vie spécifique et à un ensemble de revendications spécifiques. De plus, ils peuvent être révoqués à tout moment par le fournisseur d’identité si nécessaire. Les jetons OIDC sont donc une solution plus sûre et plus flexible pour donner aux plates-formes tierces un accè

Source de l’article sur DZONE

Après une première série de podcasts qui a mobilisé des experts pour décrypter les principaux enjeux RH des entreprises, SAP donne cette fois la parole au terrain. Au programme de cette deuxième saison d’« HR Pulse », toujours animée par Thomas Dorynek, HXM Value Advisor : des retours d’expérience mêlés de souvenirs personnels, riches d’enseignements pour leurs pairs.

 

La crise sanitaire a représenté, pour bon nombre de DRH, un moment marquant de leur carrière. Le souvenir peut être plus ou moins bon, selon le contexte dans lequel s’est invitée la pandémie et la manière dont ce défi a pu être relevé. Dans le cas de Fernanda Ribeiro, VP RH en charge de l’excellence opérationnelle et de la transformation digitale chez Bureau Veritas, l’expérience a été largement positive : « En travaillant avec la direction générale, la DAF et les opérationnels, nous avons réussi à gérer les mobilités internes en un temps record, en monitorant nos carnets de commande et en ajustant les réponses en termes de compétences disponibles ». Avec, à la clé, l’atteinte des objectifs business et un impact social très favorable.

La crise sanitaire, un défi d’inventivité et d’agilité

De son côté, Delphine Isal, Digital learning & HR innovation Director chez Air France, garde le souvenir d’une pandémie globale qui a, du jour au lendemain, mis l’intégralité de la flotte à l’arrêt. L’enjeu a été de maintenir les liens et l’engagement, mais aussi de « faire preuve d’inventivité et d’agilité, pour développer une offre de formation répondant aux besoins actuels des apprenants. »

Ces deux retours d’expérience, passionnants et révélateurs, illustrent la diversité des missions des sept professionnels RH de haut niveau interrogés par SAP ; la multitude des enjeux auxquels ils et elles sont confrontés ; et les spécificités de l’environnement économique et social dans lequel ces décideurs interviennent.

Tirer des leçons des personnalités inspirantes

Cette saison 2 de « HR Pulse » est riche en retours d’expérience, qui permettent de découvrir ce qui anime ces professionnels très investis dans leurs missions. Leurs propres sources d’inspiration méritent d’ailleurs d’être partagées, à l’image de Bruno Frankiel, DRH de Giphar, qui évoque deux grands champions de tennis, Arthur Ashe et Yannick Noah. Le premier, afro-américain né dans un milieu modeste, a réussi à s’imposer dans un milieu majoritairement riche et blanc, à force de talent et de persévérance. Lors d’une visite au Cameroun, il rencontre le jeune Yannick, chez qui il décèle un potentiel et qu’il va soutenir. Un double exemple, pour Bruno Frankiel, de « leadership, charisme, rigueur et valeurs ».

Pour sa part, Maïté Bouchez, DRH adjointe chez AP-HP, a choisi un extrait du dernier discours de l’ex-première ministre de Nouvelle-Zélande, Jacinda Ardern : « J’espère, qu’en retour, je laisserai derrière moi la conviction que l’on peut être gentil mais fort, empathique mais décidé, optimiste mais concentré, et que l’on peut être son propre leader ». Découvrez, dans les épisodes « HR Pulse », d’autres témoignages et role models tout aussi inspirants !

The post « HR Pulse » saison 2 : sept DRH partagent les leçons de leurs expériences appeared first on SAP France News.

Source de l’article sur sap.com