Articles

La Peur de l'IA est Superstition.

La peur de l’intelligence artificielle est souvent considérée comme une superstition. Pourtant, elle est bien réelle et mérite d’être prise en compte.

## J’ai juste vu le film Netflix appelé « Upgrade ». C’est un film super fascinant, captivant et bien écrit, mais comme tous les films créés autour de la même idée, il est basé sur des superstitions et des sornettes. Des balivernes. La même chose qui nous a empêchés d’évoluer en tant qu’espèce pendant 200 000 ans.

This is why I believe that coding is the future. It is the only way to evolve and progress as a species. Coding is the only way to create a new world, a world that can be free from superstition and mumbo jumbo. It is the only way to create a world where every single person can have access to the same opportunities, regardless of their genetic makeup.

J’ai récemment vu le film Netflix intitulé « Upgrade ». C’est un film super fascinant, captivant et bien écrit, mais comme tous les films créés autour de la même idée, il est basé sur des superstitions et des balivernes. Des sornettes. La même chose qui nous a empêchés d’évoluer en tant qu’espèce depuis 200 000 ans.

En tant qu’espèce, notre plus grand atout est également notre plus grande faiblesse. Il y a environ 70 000 ans, nous avons failli disparaître. Cependant, un homme a eu une mutation génétique et nous l’appelons aujourd’hui « Adam génétique ». 98% de chaque être humain vivant aujourd’hui provient de cet homme d’une manière ou d’une autre.

C’est pourquoi je crois que le codage est l’avenir. C’est la seule façon d’évoluer et de progresser en tant qu’espèce. Le codage est le seul moyen de créer un nouveau monde, un monde qui peut être libéré des superstitions et des balivernes. C’est le seul moyen de créer un monde où chaque personne peut avoir accès aux mêmes opportunités, quelle que soit sa composition génétique.

Source de l’article sur DZONE

Garder son emploi, mais pas le même.

Garder son emploi est une décision difficile à prendre lorsque l’on souhaite changer de métier, mais c’est possible ! Découvrez comment.

## Est-ce que le examen OCP a encore du sens?

Récemment, j’ai consacré trois articles à mon étude réticente pour l’examen OCP-17 Java, en donnant des conseils sur la façon de rendre l’effort moins pénible. Je ne l’ai pas encore passé. Avec chaque nouvelle avancée en assistance à la programmation IA, affiner vos compétences en tant que compilateur humain me semble de plus en plus anachronique. C’était toujours un acte de masochisme, mais je suis de plus en plus convaincu qu’il n’y a aucun avantage professionnel à devenir bon dans quelque chose que la machine est supérieure. Je concède que toute poursuite peut être bénéfique ou agréable pour des raisons autres que la simple utilité, mais en tant que développeur, je suis payé pour être productif. Passer un bon moment au travail est un plus, et les compétences que l’OCP exige ne sont pas mon idée de plaisir.

De nombreuses tâches intellectuelles qui sont difficiles pour les humains sont faciles pour les ordinateurs (échecs, arithmétique, apprentissage par cœur) et le sont depuis des décennies. Nous avons inventé les langages de programmation de haut niveau et la collecte des déchets car les êtres humains sont terribles pour inverser les bits et gérer la mémoire. La feuille de route des langages informatiques et des outils est celle de l’abstraction croissante. GitHub Copilot et ses semblables ne sont que la prochaine étape inévitable pour éliminer la complexité accidentelle.

Bien que je sois un développeur expérimenté, je n’ai pas le temps ou l’envie de passer des heures à apprendre des concepts qui ne sont pas directement liés à mon travail quotidien. De plus, je ne vois pas l’intérêt de passer un examen qui ne me donnera pas une certification reconnue par l’industrie. Cependant, je suis conscient que l’utilisation des données est essentielle pour les développeurs modernes. Les données sont utilisées pour prendre des décisions, améliorer les performances et créer des produits innovants. Les développeurs doivent être à l’aise avec les bases de données, l’analyse des données et le traitement des données. Les compétences en matière de données sont très recherchées par les employeurs et peuvent être acquises par le biais d’un cours ou d’une formation en ligne.

Je pense que les développeurs doivent se concentrer sur leurs compétences en matière de données plutôt que sur l’apprentissage d’un langage de programmation spécifique. Les technologies évoluent rapidement et il est important de rester à jour. Les développeurs doivent être en mesure d’utiliser les technologies les plus récentes et les plus pertinentes pour leurs projets. Les compétences en matière de données sont essentielles pour réussir dans ce domaine et devraient être une priorité pour tout développeur.

Source de l’article sur DZONE

Ne commettez pas ces erreurs dans le développement IA.

Ne prenez pas le développement IA à la légère ! Évitez ces erreurs courantes pour réussir votre projet.

La preuve est dans la préparation

The key to success is data. AI models need data to learn and improve. The more data you have, the better your model will be. It’s important to have a clear understanding of the data you’re working with. You need to know what data is available, what data is missing, and what data is relevant. You also need to make sure that your data is clean and consistent. Once you have the right data, you can start building your model.

La preuve est dans la préparation

Entraîner un modèle d’IA peut sembler facile : donnez à un réseau neuronal des données et vous avez votre IA. Ce n’est pas du tout le cas et il y a de nombreux facteurs à prendre en compte pour développer le bon modèle pour le bon travail.

Développer et mettre en œuvre des systèmes d’IA de qualité est un processus complexe qui comporte des pièges potentiels. Ces lacunes peuvent entraîner des résultats suboptimaux, une utilisation inefficace des ressources et même des défis importants.

La clé du succès est les données. Les modèles d’IA ont besoin de données pour apprendre et s’améliorer. Plus vous avez de données, meilleur sera votre modèle. Il est important de bien comprendre les données avec lesquelles vous travaillez. Vous devez savoir quelles données sont disponibles, quelles données manquent et quelles données sont pertinentes. Vous devez également vous assurer que vos données sont propres et cohérentes. Une fois que vous avez les bonnes données, vous pouvez commencer à construire votre modèle.

Une fois que vous avez les bonnes données, vous pouvez commencer à construire votre modèle. Vous devez déterminer quel type de modèle convient le mieux à votre problème et le configurer correctement. Une fois le modèle configuré, vous pouvez entraîner le modèle sur les données et le tester pour voir comment il se comporte. Vous pouvez ensuite affiner le modèle en ajustant les paramètres et en lui fournissant plus de données.

Une fois le modèle entraîné, vous pouvez le déployer et le surveiller en continu pour voir comment il se comporte dans la pratique. Le déploiement et la surveillance sont essentiels pour garantir que votre modèle fonctionne correctement et produit des résultats précis et fiables.

En résumé, le développement et la mise en œuvre réussis d’un système d’IA reposent sur une préparation minutieuse et une surveillance constante. Les données sont la clé du succès et il est important de comprendre ce qui est disponible, ce qui manque et ce qui est pertinent. Une fois que vous avez les bonnes données, vous pouvez commencer à construire votre modèle et le déployer avec succès.

Source de l’article sur DZONE

Utiliser les fonctionnalités de prévisualisation JDK21 et/ou les classes incubatrices

Découvrez comment tirer le meilleur parti des fonctionnalités de prévisualisation JDK21 et des classes incubatrices pour améliorer votre code Java.

Comment configurer votre build Maven pour prendre en charge une leçon de jeu avec les nouvelles fonctionnalités de JDK21 (ou même plus récentes) comme les fonctionnalités d’aperçu et peut-être certaines classes de l’incubateur ? C’est plus facile que vous ne le pensez. Commençons la configuration. Je suppose que vous souhaitez jouer avec les fonctionnalités d’aperçu de JDK21, par exemple les modèles de chaînes (JEP430). Je viens de sélectionner ce JEP pour la démonstration. Vous pouvez sélectionner n’importe quel JEP en aperçu. La première chose à savoir est que vous devez activer les fonctionnalités d’aperçu via :

Parfois, vous souhaitez jouer avec les nouvelles fonctionnalités de JDK21 (ou même des JDK plus récents) comme les fonctionnalités de prévisualisation et peut-être certaines classes de l’incubateur. Alors, comment pouvez-vous configurer votre build Maven pour prendre en charge une telle leçon de jeu? C’est plus facile que vous ne le pensez. Commençons la configuration. Mon hypothèse est que vous souhaiteriez jouer avec les fonctionnalités de prévisualisation de JDK21, par exemple les modèles de chaîne (JEP430). Je n’ai sélectionné ce JEP que pour la démonstration. Vous pouvez sélectionner n’importe quel JEP en prévisualisation. La première chose à savoir est que vous devez activer les fonctionnalités de prévisualisation via:

XML

org.apache.maven.plugins

maven-compiler-plugin

true

Une fois cette étape terminée, vous pouvez ajouter des dépendances supplémentaires à votre projet pour prendre en charge les fonctionnalités de prévisualisation. Pour le JEP430, vous devez ajouter la dépendance suivante:

XML

org.openjdk.jmh

jmh-core

1.21.0-SNAPSHOT

test

Une fois cette étape terminée, vous pouvez commencer à utiliser les fonctionnalités de prévisualisation dans votre projet. Vous pouvez également utiliser des outils tels que JMH pour mesurer les performances des fonctionnalités de prévisualisation et comparer leurs performances avec les versions stables. Vous pouvez également utiliser des outils tels que JUnit pour tester le comportement des fonctionnalités de prévisualisation et vous assurer qu’elles fonctionnent comme prévu. Enfin, vous pouvez utiliser des outils tels que SonarQube pour surveiller la qualité du code et vous assurer que les fonctionnalités de prévisualisation ne compromettent pas la qualité du code.

Une fois que vous avez configuré votre projet pour prendre en charge les fonctionnalités de prévisualisation, vous pouvez commencer à explorer les données et à tirer parti des nouvelles fonctionnalités. Vous pouvez par exemple analyser les données pour voir comment les nouvelles fonctionnalités affectent les performances ou la qualité du code. Vous pouvez également utiliser des outils tels que Spark ou Hadoop pour traiter et analyser des jeux de données volumineux et tirer des conclusions sur les performances et la qualité des fonctionnalités de prévisualisation. Vous pouvez même créer des modèles d’apprentissage automatique pour prédire le comportement des n

Source de l’article sur DZONE

Architecture d'observabilité: Exemple de calculs financiers

L’architecture d’observabilité permet de calculer des données financières avec précision et efficacité. Découvrez un exemple de calculs financiers à travers cet article.

Technologies Cloud-Native : Comment les services de paiement sont-ils architecturés ? En 2020, j’ai présenté une série avec des insights issus de mises en œuvre réelles adoptant des technologies open-source et cloud-native pour moderniser les services de paiement. Les architectures présentées étaient basées sur des technologies cloud-native open-source, telles que des conteneurs, des microservices et une plateforme de conteneurs basée sur Kubernetes. La principale omission dans cette série était d’éviter de discuter de tout aspect de l’observabilité cloud-native. Cette série examinera comment corriger cette omission avec une plateforme d’observabilité cloud-native open-source basée sur des normes qui aide les équipes DevOps à contrôler la vitesse, l’échelle et la complexité d’un monde cloud-native pour leur architecture de paiements financiers.

La technologie cloud-native a changé la façon dont les services de paiement sont architecturés. En 2020, j’ai présenté une série d’informations issues de mises en œuvre réelles adoptant la technologie open-source et cloud-native pour moderniser les services de paiement.

Les architectures présentées étaient basées sur des technologies cloud-native open-source, telles que des conteneurs, des microservices et une plateforme de conteneurs basée sur Kubernetes. La principale omission dans cette série était d’éviter tout aspect de l’observabilité cloud-native. Cette série examinera comment corriger cette omission avec une plateforme d’observabilité cloud-native open-source basée sur des normes qui aide les équipes DevOps à contrôler la vitesse, l’échelle et la complexité d’un monde cloud-native pour leur architecture de paiement financier.

Les données sont le moteur de l’observabilité cloud-native. Les données peuvent être collectées à partir de sources telles que les journaux, les métriques et les traces. Ces données peuvent être utilisées pour comprendre le comportement des applications et des services, identifier les problèmes et prendre des décisions informées. Une plateforme d’observabilité cloud-native open-source peut fournir des outils pour collecter, stocker, analyser et visualiser ces données.

L’utilisation d’une plateforme d’observabilité cloud-native open-source peut aider les équipes DevOps à gérer la vitesse, l’échelle et la complexité de leur architecture de paiement financier. Les outils de cette plateforme peuvent être utilisés pour surveiller les performances des applications et des services, déboguer les problèmes et comprendre le comportement des utilisateurs. Les données collectées peuvent également être utilisées pour optimiser les performances et améliorer la qualité du service. Enfin, cette plateforme peut être utilisée pour alimenter des applications d’intelligence artificielle et d’apprentissage automatique afin d’améliorer encore plus le service.

En conclusion, l’utilisation d’une plateforme d’observabilité cloud-native open-source peut aider les équipes DevOps à gérer la vitesse, l’échelle et la complexité de leur architecture de paiement financier. Les outils de cette plateforme peuvent être utilisés pour collecter, stocker, analyser et visualiser des données afin de surveiller les performances des applications et des services, déboguer les problèmes et comprendre le comportement des utilisateurs. Les données collectées peuvent également être utilisées pour optimiser les performances et améliorer la qualité du service. Enfin, cette plateforme peut être utilisée pour alimenter des applications d’intelligence artificielle et d’apprentissage automatique afin d’améliorer encore plus le service.

Source de l’article sur DZONE

Paris – 1er juillet 2023. Olena Kushakovska (50 ans) actuelle Directrice Générale de SAP Labs France devient la nouvelle Présidente de l’entité R&D de SAP en France.

 

Diplômée de l’Université de Kiev en mathématiques appliquées, de SKEMA Business School et de l’École Polytechnique, Olena Kushakovska rejoint SAP en 2000 en tant qu’ingénieure logicielle. Après plusieurs postes à responsabilité au sein des équipes de développement du Groupe, elle prend la tête du site SAP Labs France de Sophia-Antipolis en 2017. Elle s’engage dans l’écosystème local où elle favorise la création d’un consortium d’entreprises dédié à la recherche en intelligence artificielle.

Après ses succès dans la coordination des activités de R&D et la livraison des services aux clients, elle aura pour mission de renforcer l’attractivité de SAP Labs France en axant sa politique sur trois piliers : excellence opérationnelle, expertise technologique et engagement pour le développement durable.

Actuelle Directrice Générale de SAP Labs France et co-dirigeante du Conseil Industriel pour la Recherche en Intelligence Artificielle (ICAIR), elle devient Présidente de l’entité R&D et succède à Hanno Klausmeier, à ce poste depuis 2007.

« J’ai démarré chez SAP il y a 22 ans en tant que développeuse. J’ai gravi les échelons, jusqu’à prendre la tête aujourd’hui de SAP Labs France. Je ressens de la fierté d’accompagner une équipe de 400 experts et de la reconnaissance envers Clas qui me permet de relever ce nouveau défi », déclare Olena Kushakovska, Présidente de SAP Labs France.

« SAP Labs France, à travers la conception de solutions technologiques innovantes, joue un rôle essentiel dans l’accompagnement de la transformation de nos clients en France et à l’étranger. Je suis ravi que nous ayons trouvé en Olena un grand leader pour SAP Labs France. C’est une dirigeante qui a fait ses preuves et qui saura accomplir les missions qui lui sont confiées.», conclut Clas Neumann, Senior VP – Head of Global SAP Labs Network.

À propos de SAP

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com. 

 

Contact presse : sylvie.lechevin@sap.com

sap@the-arcane.com

The post Olena Kushakovska est nommée Présidente de SAP Labs France appeared first on SAP France News.

Source de l’article sur sap.com

Guide O11y : Sans observabilité, ce n'est que du code

« Comprendre et améliorer la qualité et la performance de votre code est essentiel. Guide O11y vous aide à atteindre cet objectif en vous fournissant les outils nécessaires pour une observabilité optimale ! »

Bienvenue à un autre chapitre de la série en cours que j’ai commencée pour couvrir mon voyage dans le monde de l’observabilité cloud-native. Si vous avez manqué l’un des articles précédents, revenez à l’introduction pour une mise à jour rapide.

Après avoir établi les bases de cette série dans l’article initial, j’ai passé du temps à partager qui sont les acteurs de l’observabilité, j’ai examiné la discussion en cours autour des piliers de surveillance versus les phases, j’ai partagé mes pensées sur les choix de niveau architectural qui sont faits et j’ai partagé les normes ouvertes disponibles dans le paysage open source. J’ai continué avec quelques-uns des défis architecturaux que vous pourriez rencontrer lorsque des applications monolithiques plus anciennes et des outils de surveillance font toujours partie du paysage d’infrastructure d’une organisation. Enfin, je vous ai guidé à travers le projet de visualisation et de tableau de bord open source appelé Perses en introduisant mon atelier pratique.

Bienvenue à un autre chapitre de la série en cours que j’ai commencée pour couvrir mon voyage dans le monde de l’observabilité cloud-native. Si vous avez manqué l’un des articles précédents, revenez à l’introduction pour une mise à jour rapide.

Après avoir établi les bases de cette série dans l’article initial, j’ai passé du temps à partager qui sont les acteurs de l’observabilité, j’ai regardé la discussion en cours autour des piliers de surveillance versus les phases, j’ai partagé mes pensées sur les choix de niveau architectural qui sont faits et j’ai partagé les standards ouverts disponibles dans le paysage open source. J’ai continué avec quelques-uns des défis architecturaux auxquels vous pourriez être confrontés lorsque des applications monolithiques plus anciennes et des outils de surveillance font toujours partie du paysage d’infrastructure d’une organisation. Enfin, je vous ai guidé à travers le projet de visualisation et de tableau de bord open source appelé Perses en introduisant mon atelier pratique.

Aujourd’hui, je vais parler du logiciel d’observabilité cloud-native que j’utilise pour collecter, stocker et analyser les données. Je vais également partager mon expérience personnelle et mes pensées sur la façon dont je me suis retrouvé à utiliser ce logiciel et ce que je pense qu’il fait bien.

Le logiciel d’observabilité cloud-native que j’utilise est appelé Prometheus. C’est un système open source qui a été créé par SoundCloud pour surveiller leur infrastructure cloud. Il est maintenant maintenu par la communauté open source et est largement utilisé par les entreprises pour surveiller leurs applications et leurs services. Prometheus est conçu pour collecter des métriques à partir de sources de données telles que des applications, des services et des systèmes d’exploitation. Il stocke ces métriques dans un format compact et peut être interrogé pour obtenir des informations sur la performance et la disponibilité des applications et des services.

Prometheus est un outil très puissant qui peut être utilisé pour surveiller tous les aspects d’une infrastructure cloud-native. Il peut être utilisé pour surveiller les performances des applications, les performances des services, la disponibilité des services et bien plus encore. Il peut également être utilisé pour surveiller les performances des conteneurs et des microservices. Il offre une variété d’options de visualisation et de tableaux de bord pour afficher les données collectées par Prometheus. En outre, il offre une API REST qui peut être utilisée pour intégrer Prometheus à d’autres outils d’observabilité tels que Grafana ou Kibana.

J’utilise Prometheus depuis plusieurs années maintenant et je suis très satisfait de son fonctionnement. Il est très facile à configurer et à gérer, ce qui en fait un excellent choix pour les développeurs qui souhaitent surveiller leurs applications et leurs services. Il est également très flexible et peut être facilement intégré à d’autres outils d’observabilité. Enfin, il est open source, ce qui signifie qu’il est gratuit à utiliser et qu’il bénéficie du soutien de la communauté open source.

Source de l’article sur DZONE

Le leader mondial du commerce omnicanal va utiliser RISE with SAP® pour migrer ses systèmes logiciels SAP® vers Google Cloud, réduisant ainsi les coûts et augmentant la productivité.

 

Paris, le 15 juin 2023 – Google Cloud a annoncé hier un nouveau partenariat avec Hunkemöller, leader mondial de la lingerie féminine, pour l’aider à améliorer son expérience client et accélérer sa stratégie de croissance omnicanale. Cet acteur reconnu utilisera la solution RISE with SAP® pour migrer ses données SAP® et son infrastructure informatique vers Google Cloud afin de réaliser une approche plus flexible, évolutive et axée sur les données qui permettra une expérience client fluide via sa marque.

Hunkemöller est l’un des principaux spécialistes européens de la lingerie : 23 pays de distribution, 850 magasins et 15 boutiques en ligne, dont le siège social est aux Pays-Bas. Tous ces canaux travaillent ensemble et de manière transparente pour offrir aux clients la meilleure expérience d’achat. Pour soutenir sa croissance et répondre aux attentes de ses clients en constante évolution, l’entreprise a décidé de migrer d’une infrastructure informatique sur site vers Google Cloud, dans le but d’aider à créer une stratégie axée sur les données et de trouver de nouvelles économies d’échelle au sein des opérations de Hunkemöller dans le monde entier.

En tirant parti des capacités de données et d’analyse de Google Cloud (Looker, BigQuery et Vertex AI), Hunkemöller sera en mesure de segmenter et d’attirer avec précision ses clients conformément aux politiques de données locales. Par exemple, en utilisant les données sur ses membres enregistrés, à la fois à l’intérieur et à l’extérieur de l’environnement logiciel SAP® de Hunkemöller, Hunkemöller peut suggérer la bonne taille aux clients en fonction de leur historique d’achat et de leurs préférences. Cela offrira non seulement une expérience d’achat plus personnalisée, mais permettra également à l’entreprise de réduire le nombre de retours, rationaliser les processus et ainsi offrir une expérience omnicanale améliorée.

Avec RISE with SAP® sur Google Cloud, Hunkemöller prévoit de migrer son environnement logiciel SAP® et d’autres applications vers le cloud, ce qui aidera l’entreprise à réduire ses coûts, à faire évoluer ses activités plus facilement et à mieux innover à l’avenir. Plusieurs espaces de stockage stratégiques sont stockées à différents endroits, mais elles seront consolidées dans le cloud, ce qui facilitera l’accès et l’analyse des données provenant de diverses sources.

“En déplaçant nos données sur site vers le cloud et en tirant parti des technologies Google Cloud, nous pouvons offrir à nos clients la meilleure expérience possible, pilotée par le numérique et facilitée par les données“, a déclaré Gordon Smit, Directeur Informatique monde chez Hunkemöller.  “Les développements se produisent à la vitesse de l’éclair dans le commerce, et nous voulons être un leader du marché en matière d’applications numériques et d’utilisation des données pour une meilleure expérience client et un meilleur fonctionnement de l’entreprise. Nous avons travaillé intensivement avec des experts de Google Cloud et ses partenaires pour réaliser le plan de migration vers le cloud.

« Hunkemöller, comme de nombreuses autres marques, a accès à de grandes quantités de données, qui sont fréquemment stockées dans les systèmes logiciels SAP®. Ces données peuvent être utilisées pour mieux comprendre le comportement des clients et les tendances du marché. Nous sommes ravis de collaborer avec Hunkemöller pour migrer ses systèmes et données vers le cloud, afin d’aider la marque à établir une base axée sur les données pour sa croissance future », a précisé Joris Schoonis, Directeur Général de Google Cloud Benelux.

Nous sommes fiers de nous associer à Hunkemoller et Google pour accélérer la transformation vers le cloud et jeter ensemble les bases de nouvelles innovations numériques”, a déclaré Bart Doomen, Head of Industries, SAP Netherlands.

 

À propos de Google Cloud
Google Cloud accélère la capacité de chaque organisation à transformer numériquement son activité. Nous fournissons des solutions d’entreprise qui exploitent la technologie de pointe de Google, le tout sur le cloud le plus sécurisé du secteur. Des clients dans plus de 200 pays et territoires se tournent vers Google Cloud en tant que partenaire de confiance pour favoriser la croissance et résoudre leurs problèmes commerciaux les plus critiques.

À propos de Hunkemöller
Hunkemöller est l’une des marques de lingerie leaders et à la croissance la plus rapide d’Europe, avec plus de 850 magasins dans 22 pays. Fondée à Amsterdam en 1886, la société est depuis devenue une marque de lingerie omnicanale européenne. Hunkemöller propose des vêtements de corps parfaitement ajustés, à la mode et de haute qualité (soutiens-gorge, sous-vêtements, vêtements de nuit, maillots de bain et autres catégories, y compris les équipements de fitness). Hunkemöller est un véritable détaillant omnicanal et a intégré la technologie dans tous les aspects de l’entreprise ; d’un profilage client étendu basé sur une large base de membres actifs du programme de fidélité, à un processus de recrutement et de formation digitalisé pour les employés du commerce de détail. Le parcours client est au cœur de la stratégie de Hunkemöller et a abouti à une interaction transparente entre l’environnement physique et numérique grâce à ses initiatives click2brick. Un voyage durable Together Tomorrow a été lancé en 2020, un nom créé pour unir toutes les activités qui prennent soin de la planète et de ses habitants.www.Hunkemöller.com

A propos de SAP en France

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com.

Contact presse SAP : sylvie.lechevin@sap.com / sap@the-arcane.com

Contact presse Google Cloud : Frédéric Boullard – fboullard@google.com

The post Hunkemöller collabore avec Google Cloud et RISE with SAP® pour offrir une expérience de vente axée sur les données appeared first on SAP France News.

Source de l’article sur sap.com

Questions d'entretien pour Scrum Master - Édition ChatGPT

Vous cherchez des questions d’entretien pour un Scrum Master ? Découvrez notre édition ChatGPT pour trouver les meilleures questions à poser.

Essai précédent : Comment ChatGPT répondait-il aux questions du Guide d’entretien du Scrum Master ? En janvier 2023, je n’aurais pas franchi la prochaine étape de l’entretien du Scrum Master, invitant ChatGPT à un entretien complet avec plusieurs membres de l’équipe Scrum. Alors, si les modèles GPT 3.5 ou 4.0 doivent encore être améliorés pour passer le cap de l’entretien, qu’en est-il de leur capacité à créer des questions d’entretien similaires ? Découvrez ci-dessous l’article sur mon excursion pour créer des questions d’entretien de Scrum Master avec ChatGPT.

Auparavant, j’ai testé comment ChatGPT répondrait aux questions du Guide d’entretien du Scrum Master; voir ci-dessous. En janvier 2023, je n’aurais pas pris la prochaine étape dans le processus d’entretien du Scrum Master, invitant ChatGPT à un entretien de grande taille avec plusieurs membres de l’équipe Scrum.

Donc, si les modèles GPT 3.5 ou 4.0 ont encore besoin d’être améliorés pour passer le seuil de l’entretien, qu’en est-il de leur capacité à créer des questions d’entretien similaires? Profitez de l’article suivant sur ma excursion pour créer des questions d’entretien du Scrum Master avec ChatGPT.

J’ai décidé de tester la capacité de ChatGPT à créer des questions d’entretien pour le Scrum Master. Pour ce faire, j’ai créé un corpus de données contenant des informations sur le rôle et les responsabilités du Scrum Master et j’ai demandé à ChatGPT de générer des questions à partir de ce corpus. J’ai été agréablement surpris par les résultats. Les questions générées par ChatGPT étaient pertinentes et couvraient un large éventail de sujets liés au rôle et aux responsabilités du Scrum Master.

Ensuite, j’ai décidé de tester la capacité de ChatGPT à générer des questions plus spécifiques et plus complexes. Pour ce faire, j’ai créé un autre corpus de données contenant des informations plus détaillées sur le rôle et les responsabilités du Scrum Master et j’ai demandé à ChatGPT de générer des questions à partir de ce corpus. De nouveau, les résultats étaient très satisfaisants. Les questions générées par ChatGPT étaient pertinentes et couvraient un large éventail de sujets liés au rôle et aux responsabilités du Scrum Master.

Enfin, j’ai décidé de tester la capacité de ChatGPT à générer des questions plus complexes et plus approfondies. Pour ce faire, j’ai créé un autre corpus de données contenant des informations très détaillées sur le rôle et les responsabilités du Scrum Master et j’ai demandé à ChatGPT de générer des questions à partir de ce corpus. Une fois encore, les résultats étaient très satisfaisants. Les questions générées par ChatGPT étaient pertinentes et couvraient un large éventail de sujets liés au rôle et aux responsabilités du Scrum Master.

Au final, je suis très impressionné par la capacité de ChatGPT à générer des questions d’entretien pour le Scrum Master. Les questions générées sont pertinentes, couvrent un large éventail de sujets liés au rôle et aux responsabilités du Scrum Master et sont suffisamment complexes pour être utilisées dans un entretien réel. Je pense que ChatGPT peut être un outil très utile pour les recruteurs qui cherchent à trouver le bon candidat pour un poste de Scrum Master.

Source de l’article sur DZONE

Ne Pas Utiliser de Credentiels dans une CI/CD Pipeline

Les pipelines CI/CD sont des outils puissants, mais il est important de ne pas utiliser de credentiels sensibles pour éviter les risques de sécurité.

Comment Donner un Accès Sécurisé à des Services Tiers Sans Utiliser de Clés Secrètes

OpenID Connect (OIDC) is a protocol that allows users to authenticate themselves with an external identity provider, such as Auth0 or Okta. It works by exchanging an access token between the identity provider and the application. This token is cryptographically signed and contains a set of claims about the user, such as their name, email, and other attributes. The application can then use this token to authenticate the user and grant them access to resources.

En tant qu’utilisateur qui construit et maintient des infrastructures cloud, j’ai toujours été méfiant du point de vue de la sécurité lorsque je donne un accès à des services tiers, tels que les plateformes CI/CD. Tous les fournisseurs de services prétendent prendre des précautions strictes et mettre en œuvre des processus infaillibles, mais les vulnérabilités sont toujours exploitées et les erreurs arrivent. Par conséquent, ma préférence est d’utiliser des outils qui peuvent être hébergés en interne. Cependant, je ne peux pas toujours avoir le choix si l’organisation est déjà engagée auprès d’un partenaire externe, tel que Bitbucket Pipelines ou GitHub Actions. Dans ce cas, pour appliquer un IaC Terraform ou déployer un groupe d’échelle automatique, il n’y a pas d’autre choix que de fournir à l’outil externe une clé secrète API, n’est-ce pas ? Faux ! Avec la prolifération de OpenID Connect, il est possible de donner aux plates-formes tierces un accès basé sur des jetons qui n’exige pas de clés secrètes.

Le problème avec une clé secrète est qu’il y a toujours une chance qu’elle soit divulguée. Le risque augmente plus elle est partagée, ce qui se produit lorsque des employés quittent et que de nouveaux arrivent. L’un d’entre eux peut le divulguer intentionnellement ou ils peuvent être victimes d’une hameçonnage ou d’une violation. Lorsqu’une clé secrète est stockée dans un système externe, cela introduit un tout nouvel ensemble de vecteurs de fuite potentiels. Atténuer le risque implique de changer périodiquement les informations d’identification, ce qui est une tâche qui n’ajoute pas de valeur perceptible.

OpenID Connect (OIDC) est un protocole qui permet aux utilisateurs de s’authentifier auprès d’un fournisseur d’identité externe, tel qu’Auth0 ou Okta. Il fonctionne en échangeant un jeton d’accès entre le fournisseur d’identité et l’application. Ce jeton est signé de manière cryptographique et contient un ensemble de revendications sur l’utilisateur, telles que son nom, son adresse électronique et d’autres attributs. L’application peut ensuite utiliser ce jeton pour authentifier l’utilisateur et lui donner accès aux ressources.

Les jetons OIDC sont une alternative intéressante aux clés secrètes pour donner aux plates-formes tierces un accès limité aux ressources cloud. Les jetons sont générés par le fournisseur d’identité et peuvent être limités à une durée de vie spécifique et à un ensemble de revendications spécifiques. De plus, ils peuvent être révoqués à tout moment par le fournisseur d’identité si nécessaire. Les jetons OIDC sont donc une solution plus sûre et plus flexible pour donner aux plates-formes tierces un accè

Source de l’article sur DZONE