Articles

Paris, le 2 mai 2024 — SAP annonce que la société suédoise DeLaval, du groupe Tetra Laval, a choisi SAP S/4HANA Cloud pour mettre en place son nouveau système ERP hébergé dans le cloud, dans le cadre de son programme de transformation globale.

 

Le producteur mondial de machines laitières et agricoles, qui compte aujourd’hui 18 usines dans le monde, a choisi de construire sa nouvelle architecture technologique dans le cloud. Un choix stratégique visant à standardiser les systèmes du Groupe ; à harmoniser les différentes nomenclatures et processus, ainsi que les données nécessaires au développement des nouvelles solutions pour ses clients. Une initiative qui s’inscrit dans la stratégie de DeLaval à devenir un partenaire encore plus performant pour ses clients, et à se transformer en une organisation « data-driven[1] ».

 

« Un ERP complètement nouveau, est plus qu’une simple mise à jour technique, c’est un véritable processus de changement et une transformation de l’ensemble de l’entreprise », a déclaré Niklas Falkeling, Directeur du programme informatique de DeLaval. « Nous avions besoin de repartir à zéro et de profiter des solutions standardisées qu’offre actuellement SAP et ses services cloud. Cela est nécessaire pour que nous puissions continuer à développer l’entreprise et devenir plus flexibles et agiles. »

 

Avec l’objectif de rendre la production alimentaire aussi durable et efficace que possible, la mise en œuvre de SAP S/4HANA Cloud est un programme mondial, pluriannuel et multi-business unit, visant à attirer davantage de talents, à améliorer les processus métiers et à tirer parti d’une technologie innovante. La prochaine étape pour accompagner DeLaval dans l’accélération de sa stratégie de croissance, est de renforcer son équipe avec des compétences SAP à Tumba en Suède, Gallin en Allemagne et Wroclaw en Pologne.

 

« Il s’agit d’un exemple concret de la façon de mener un programme de transformation globale », a déclaré Helle Dochedahl, Directrice Générale de SAP Nordic et Baltic. « DeLaval a une stratégie bien définie pour standardiser les dernières solutions business de SAP et unifier les processus internes, en engageant toutes ses parties prenantes. »

 

À propos de SAP :  

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 26 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun. Pour plus d’information, visitez www.sap.com.

 

Contact presse :  

Sylvie Léchevin : sylvie.lechevin@sap.com / sap@the-arcane.com

[1] Organisation pilotée par les données

The post DeLaval choisit SAP S/4HANA Cloud pour exploiter les avantages du cloud appeared first on SAP France News.

Source de l’article sur sap.com

Conception de microservices pour l'IA

La conception de microservices pour l’IA est une tâche complexe qui nécessite une compréhension approfondie des principes de l’intelligence artificielle et des technologies modernes.

2. Event-driven Architecture

The event-driven architecture pattern is based on the concept of an event-driven system, where events are generated by components and handled by other components. In AI microservices, events are triggered by changes in data or model parameters, and the corresponding services are notified to take appropriate actions. This pattern is useful for real-time applications such as autonomous vehicles, where the system must respond quickly to changing conditions.

3. Containerization

Containerization is a key component of AI microservices, allowing for the deployment of multiple services in a single environment. This pattern enables the efficient packaging and deployment of AI models, making it easier to scale and manage them. Additionally, containers provide an isolated environment for each service, ensuring that any changes made to one service do not affect the others.

Conclusion

The integration of AI into microservices architecture is becoming increasingly important in today’s software landscape. The 10 design patterns discussed in this article are essential for developing efficient, robust, and scalable AI solutions. By leveraging these patterns, developers can create powerful AI applications that are modular, scalable, and flexible.

1. Modèle en tant que service (MaaS)

MaaS considère chaque modèle d’intelligence artificielle (IA) comme un service autonome. En exposant les fonctionnalités d’IA via des API REST ou gRPC, MaaS permet un redimensionnement et une mise à jour indépendants des modèles. Ce modèle est particulièrement avantageux pour gérer plusieurs modèles d’IA, permettant une intégration et une déploiement continus sans perturber l’ensemble du système.

2. Architecture orientée événement

Le modèle d’architecture orientée événement est basé sur le concept d’un système orienté événement, où les événements sont générés par des composants et traités par d’autres composants. Dans les microservices d’IA, les événements sont déclenchés par des changements de données ou de paramètres de modèle, et les services correspondants sont notifiés pour prendre les actions appropriées. Ce modèle est utile pour les applications en temps réel telles que les véhicules autonomes, où le système doit réagir rapidement aux conditions changeantes.

3. Conteneurisation

La conteneurisation est un composant clé des microservices d’IA, permettant le déploiement de plusieurs services dans un seul environnement. Ce modèle permet l’empaquetage et le déploiement efficaces des modèles d’IA, facilitant leur mise à l’échelle et leur gestion. De plus, les conteneurs fournissent un environnement isolé pour chaque service, ce qui garantit que tout changement apporté à un service n’affecte pas les autres.

Conclusion

L’intégration de l’IA dans l’architecture des microservices devient de plus en plus importante dans le paysage logiciel actuel. Les 10 modèles de conception discutés dans cet article sont essentiels pour développer des solutions d’IA efficaces, robustes et évolutives. En exploitant ces modèles, les développeurs peuvent créer des applications d’IA puissantes qui sont modulaires, évolutives et flexibles.

Source de l’article sur DZONE

Utiliser l'API CronJob de Kubernetes pour un planning de tâches efficace.

Utilisez l’API CronJob de Kubernetes pour planifier vos tâches de manière efficace et automatique ! Gérez vos tâches avec précision et sans effort.

Prérequis pour l’API CronJob de Kubernetes

La base de données API CronJob de Kubernetes est une fonctionnalité clé pour automatiser les tâches régulières dans un environnement cloud-native. Ce guide vous guide pas à pas à travers les étapes pour utiliser cette API et illustre également des cas d’utilisation pratiques où elle peut être très bénéfique.

Prérequis

  • Un cluster Kubernetes en cours d’exécution (version 1.21 ou ultérieure)
  • Outil de ligne de commande kubectl
  • Connaissances de base sur Kubernetes (Pods, Jobs, CronJobs)

Comprendre l’API CronJob

La ressource CronJob de Kubernetes est conçue pour l’exécution de tâches basées sur le temps. La nouvelle API (batch/v1) apporte des améliorations en matière de fiabilité et de scalabilité.

L’API CronJob de Kubernetes est un moyen pratique et efficace pour automatiser des tâches régulières et périodiques. Les développeurs peuvent définir des tâches à exécuter à intervalles réguliers, à des moments spécifiques ou à des dates spécifiques. Cela permet aux applications de se mettre à jour automatiquement et de rester à jour, ce qui est essentiel pour les applications cloud-native. La nouvelle API (batch/v1) apporte des améliorations en matière de fiabilité et de scalabilité, ce qui permet aux développeurs d’utiliser des clusters Kubernetes plus grands et plus complexes.

Les développeurs peuvent utiliser l’API CronJob pour automatiser des tâches telles que la sauvegarde des bases de données, la mise à jour des applications, la synchronisation des données entre les clusters, l’exécution de tests et bien plus encore. L’API CronJob est très utile pour les applications qui nécessitent une mise à jour régulière ou des tâches qui doivent être exécutées à intervalles réguliers. En outre, l’API permet aux développeurs de surveiller l’état des tâches et d’effectuer des ajustements si nécessaire.

En résumé, l’API CronJob de Kubernetes est un outil pratique et puissant pour automatiser des tâches régulières et périodiques. Les développeurs peuvent définir des tâches à exécuter à intervalles réguliers, à des moments spécifiques ou à des dates spécifiques. La nouvelle API (batch/v1) apporte des améliorations en matière de fiabilité et de scalabilité, ce qui permet aux développeurs d’utiliser des clusters Kubernetes plus grands et plus complexes. Cela permet aux applications de se mettre à jour automatiquement et de rester à jour, ce qui est essentiel pour les applications cloud-native. Les développeurs peuvent utiliser l’API CronJob pour automatiser des tâches telles que la sauvegarde des bases de données, la mise à jour des applications, la synchronisation des données entre les clusters, l’exécution de tests et bien plus encore.

Source de l’article sur DZONE

Démarrer avec Jenkins

Découvrez comment démarrer avec Jenkins et profitez de ses avantages pour automatiser vos processus de développement.

Jenkins, un pilier de l’automatisation logicielle depuis plus d’une décennie grâce à ses outils riches en fonctionnalités et son adaptabilité.

Jenkins est un outil d’automatisation de logiciels très populaire depuis plus d’une décennie, grâce à ses fonctionnalités riches et sa grande adaptabilité. Bien que de nombreuses alternatives impressionnantes soient apparues sur le marché, Jenkins reste l’un des vétérans. Malgré son succès, Jenkins peut être difficile à apprendre et sauter dans le vaste monde des plugins et des fonctionnalités Jenkins peut rapidement devenir déroutant.

Dans cet article, nous allons décomposer cette complexité en comprenant d’abord les fondements et les concepts qui sous-tendent Jenkins. Avec cette base, nous apprendrons comment créer un pipeline simple dans Jenkins pour construire et tester une application. Enfin, nous examinerons comment améliorer cet exemple simple pour en faire un projet plus complexe et explorerons quelques alternatives à Jenkins.

Afin de pouvoir bien comprendre Jenkins, il est important de connaître les bases de la base de données. Une base de données est une collection organisée de données qui peut être facilement consultée, modifiée et mise à jour. Jenkins utilise une base de données pour stocker des informations telles que les paramètres du projet, les informations sur les builds et les informations sur les tests. Les bases de données sont également utilisées pour stocker des informations sur les plugins et les outils qui sont utilisés par Jenkins.

Une fois que nous avons compris la base de données, nous pouvons passer à la création d’un pipeline Jenkins pour construire et tester une application. Un pipeline est un ensemble d’étapes qui sont exécutées dans un ordre spécifique afin de produire un résultat final. Les pipelines Jenkins peuvent être configurés pour exécuter des tâches telles que la compilation du code source, le déploiement de l’application et le test des fonctionnalités. Les pipelines peuvent également être configurés pour envoyer des notifications lorsque des erreurs sont détectées ou lorsque des tests échouent.

Une fois que nous avons compris comment créer un pipeline Jenkins simple, nous pouvons passer à des projets plus complexes. Les pipelines Jenkins peuvent être configurés pour exécuter des tâches plus complexes telles que le déploiement dans le cloud, l’intégration continue et le déploiement continu. Ces pipelines peuvent également être configurés pour exécuter des tests plus complexes tels que les tests d’intégration et les tests de performance. Enfin, nous pouvons également explorer des alternatives à Jenkins telles que Travis CI, CircleCI et GitLab CI.

Source de l’article sur DZONE

Réparer les installations ratées des mises à jour cumulatives et de sécurité Exchange

Réparer les installations ratées des mises à jour cumulatives et de sécurité Exchange peut être un défi. Découvrez comment le résoudre facilement!

Problèmes et erreurs courants lors de l’installation des mises à jour Exchange et leurs solutions

Pour corriger les serveurs Exchange contre les menaces connues et corriger les bogues et les vulnérabilités, Microsoft publie des mises à jour cumulatives et de sécurité régulièrement. Ces mises à jour fournissent également de nouvelles fonctionnalités, des correctifs de sécurité et divers autres correctifs. Habituellement, l’installation de ces mises à jour se déroule sans problème si elle est effectuée avec une planification et un processus appropriés. Cependant, parfois, vous pouvez rencontrer des problèmes pendant et après l’installation de ces mises à jour. Dans cet article, nous allons lister certains problèmes courants que vous pouvez rencontrer lors de l’installation des mises à jour CU et SU et les solutions possibles pour les résoudre.

Problèmes et erreurs courants lors de l’installation des mises à jour Exchange et leurs solutions

Ci-dessous, nous avons mentionné certains problèmes courants que vous pouvez rencontrer lors de l’installation des mises à jour cumulatives et de sécurité sur le serveur Exchange, ainsi que leurs solutions. 

Le premier problème que vous pouvez rencontrer est le logiciel antivirus qui bloque l’installation des mises à jour. Cela peut se produire si le logiciel antivirus est mis à jour avec des signatures qui bloquent le téléchargement et l’installation des mises à jour. Pour résoudre ce problème, vous devez désactiver temporairement le logiciel antivirus avant d’installer les mises à jour. Une fois l’installation terminée, vous pouvez réactiver le logiciel antivirus.

Un autre problème courant est une erreur liée au service Windows Update. Si le service Windows Update ne fonctionne pas correctement, vous ne pourrez pas installer les mises à jour. Pour résoudre ce problème, vous devez vérifier si le service Windows Update est en cours d’exécution et s’il est configuré pour démarrer automatiquement. Vous pouvez également exécuter la commande «net start wuauserv» pour démarrer le service.

Enfin, si vous obtenez une erreur disant que la mise à jour ne peut pas être installée car elle n’est pas compatible avec votre système, vous devez vérifier si votre système est à jour. Vous devez également vérifier si votre système a suffisamment d’espace disque disponible pour installer la mise à jour. Si vous ne disposez pas d’espace disque suffisant, vous devrez libérer de l’espace disque avant d’installer la mise à jour.

Source de l’article sur DZONE

Déploiement d'infrastructure simplifié: exploiter Terraform et les bascules de fonctionnalités

Déployer des infrastructures complexes et fiables n’a jamais été aussi simple! Exploitez Terraform et les bascules de fonctionnalités pour un déploiement d’infrastructure simplifié.

Les avantages de l’utilisation des bascules de fonctionnalités avec Terraform

  • Improved safety: Feature toggles allow you to deploy new features or changes in a controlled environment, reducing the risk of unexpected errors or issues.
  • Faster deployments: By using feature toggles, you can quickly deploy new features or changes without having to wait for the entire infrastructure to be updated.
  • Increased flexibility: Feature toggles enable you to easily roll back changes or disable features without having to make any major changes to your infrastructure.
  • Better testing: Feature toggles allow you to test new features or changes in a controlled environment, ensuring that they are working as expected before deploying them in production.
  • Conclusion

    Feature toggles are a powerful technique that can be used to streamline the deployment process of your infrastructure. By using feature toggles with Terraform, you can improve the safety, speed, and flexibility of your deployments while also enabling better testing. This makes feature toggles an invaluable tool for organizations looking to optimize their infrastructure deployment process.

    Les avantages de l’utilisation des bascules de fonctionnalités dans Terraform

    L’utilisation de bascules de fonctionnalités avec Terraform offre plusieurs avantages qui améliorent l’efficacité, la sécurité et la flexibilité de votre processus de déploiement d’infrastructure. Quelques-uns des principaux avantages sont les suivants :

    • Sécurité améliorée : Les bascules de fonctionnalités vous permettent de déployer de nouvelles fonctionnalités ou modifications dans un environnement contrôlé, réduisant ainsi le risque d’erreurs ou de problèmes inattendus.
    • Déploiements plus rapides : En utilisant des bascules de fonctionnalités, vous pouvez déployer rapidement de nouvelles fonctionnalités ou modifications sans avoir à attendre que l’ensemble de l’infrastructure soit mise à jour.
    • Flexibilité accrue : Les bascules de fonctionnalités vous permettent de facilement annuler des modifications ou désactiver des fonctionnalités sans avoir à effectuer de grands changements sur votre infrastructure.
    • Meilleur test : Les bascules de fonctionnalités vous permettent de tester de nouvelles fonctionnalités ou modifications dans un environnement contrôlé, pour s’assurer qu’elles fonctionnent comme prévu avant de les déployer en production.
    • Logiciel pour la gestion des bascules de fonctionnalités

      Il existe plusieurs outils logiciels qui peuvent être utilisés pour gérer les bascules de fonctionnalités. Certains outils logiciels populaires comprennent LaunchDarkly, FeatureFlag.io et Flipper. Ces outils logiciels peuvent être intégrés à Terraform pour faciliter le déploiement et la gestion des bascules de fonctionnalités. Ces outils peuvent également être utilisés pour surveiller et analyser l’utilisation des bascules de fonctionnalités et leur impact sur les performances des applications et des infrastructures.

      Conclusion

      Les bascules de fonctionnalités sont une technique puissante qui peut être utilisée pour optimiser le processus de déploiement de votre infrastructure. En utilisant des bascules de fonctionnalités avec Terraform, vous pouvez améliorer la sécurité, la vitesse et la flexibilité de vos déploiements tout en permettant un

      Source de l’article sur DZONE

      API en mouvement : maintenez vos APIs à jour

      Les API sont en mouvement constant et il est essentiel de les maintenir à jour pour assurer le bon fonctionnement de votre application. Découvrez comment!

      Dans le monde en constante évolution de la technologie, les applications logicielles sont devenues le pilier de la société moderne.

      L’importance des APIs dans l’architecture logicielle moderne

      Dans le monde en constante évolution de la technologie, les applications logicielles sont devenues le pilier de la société moderne. Des applications mobiles qui simplifient nos tâches quotidiennes aux plates-formes web qui nous connectent à l’échelle mondiale, ces applications dépendent d’une communication et d’un échange de données sans faille. C’est là que les interfaces de programmation d’application (API) entrent en jeu. Les APIs sont devenues le pilier du développement logiciel moderne, révolutionnant la façon dont les applications sont conçues, construites et intégrées. Leur importance provient de leur capacité à faciliter la communication et l’échange de données entre diverses applications et services. Au cœur de l’API, ou interface de programmation d’application, se trouve un ensemble de règles, de protocoles et d’outils qui permettent à différentes applications logicielles de communiquer et d’interagir entre elles. Les APIs agissent comme des ponts, permettant à une application d’accéder et d’utiliser les services et fonctionnalités fournis par une autre application ou plate-forme. Cette interopérabilité permet aux développeurs de combiner les forces de diverses applications et de créer des solutions intégrées puissantes.

      Mise à jour et évolution des APIs au fil du temps

      Les APIs sont essentielles pour maintenir l’architecture logicielle à jour et en bon état de fonctionnement. Les mises à jour et les modifications apportées aux APIs sont nécessaires pour s’assurer que les applications peuvent continuer à communiquer et à échanger des données sans problème. Les mises à jour peuvent être apportées pour corriger des bogues, ajouter des fonctionnalités supplémentaires ou améliorer la sécurité. De plus, les mises à jour peuvent être apportées pour s’adapter aux changements technologiques et aux nouvelles exigences des utilisateurs. Les mises à jour peuvent également être apportées pour s’adapter aux nouvelles normes et technologies, ce qui permet aux applications de rester compétitives. Les mises à jour des APIs sont donc essentielles pour maintenir l’architecture logicielle à jour et en bon état de fonctionnement.

      Conclusion

      Les APIs sont essentielles pour faciliter la communication et l’échange de données entre diverses applications et services. Elles sont également essentielles pour maintenir l’architecture logicielle à jour et en bon état de fonctionnement. Les mises à jour et les modifications apportées aux APIs sont nécessaires pour s’assurer que les applications peuvent continuer à communiquer et à échanger des données sans problème. Les mises à jour peuvent être apportées pour corriger des bogues, ajouter des fonctionnalités supplémentaires ou améliorer la sécurité. De plus, les mises à jour peuvent être apportées pour s’adapter aux changements technologiques et aux nouvelles exigences des utilisateurs. Les mises à jour des APIs sont donc essentielles pour maintenir l’architecture logicielle à jour et en bon état de fonctionnement.

      L’importance des APIs dans l’architecture

      Source de l’article sur DZONE

      Guide O11y : Sans observabilité, ce n'est que du code

      « Comprendre et améliorer la qualité et la performance de votre code est essentiel. Guide O11y vous aide à atteindre cet objectif en vous fournissant les outils nécessaires pour une observabilité optimale ! »

      Bienvenue à un autre chapitre de la série en cours que j’ai commencée pour couvrir mon voyage dans le monde de l’observabilité cloud-native. Si vous avez manqué l’un des articles précédents, revenez à l’introduction pour une mise à jour rapide.

      Après avoir établi les bases de cette série dans l’article initial, j’ai passé du temps à partager qui sont les acteurs de l’observabilité, j’ai examiné la discussion en cours autour des piliers de surveillance versus les phases, j’ai partagé mes pensées sur les choix de niveau architectural qui sont faits et j’ai partagé les normes ouvertes disponibles dans le paysage open source. J’ai continué avec quelques-uns des défis architecturaux que vous pourriez rencontrer lorsque des applications monolithiques plus anciennes et des outils de surveillance font toujours partie du paysage d’infrastructure d’une organisation. Enfin, je vous ai guidé à travers le projet de visualisation et de tableau de bord open source appelé Perses en introduisant mon atelier pratique.

      Bienvenue à un autre chapitre de la série en cours que j’ai commencée pour couvrir mon voyage dans le monde de l’observabilité cloud-native. Si vous avez manqué l’un des articles précédents, revenez à l’introduction pour une mise à jour rapide.

      Après avoir établi les bases de cette série dans l’article initial, j’ai passé du temps à partager qui sont les acteurs de l’observabilité, j’ai regardé la discussion en cours autour des piliers de surveillance versus les phases, j’ai partagé mes pensées sur les choix de niveau architectural qui sont faits et j’ai partagé les standards ouverts disponibles dans le paysage open source. J’ai continué avec quelques-uns des défis architecturaux auxquels vous pourriez être confrontés lorsque des applications monolithiques plus anciennes et des outils de surveillance font toujours partie du paysage d’infrastructure d’une organisation. Enfin, je vous ai guidé à travers le projet de visualisation et de tableau de bord open source appelé Perses en introduisant mon atelier pratique.

      Aujourd’hui, je vais parler du logiciel d’observabilité cloud-native que j’utilise pour collecter, stocker et analyser les données. Je vais également partager mon expérience personnelle et mes pensées sur la façon dont je me suis retrouvé à utiliser ce logiciel et ce que je pense qu’il fait bien.

      Le logiciel d’observabilité cloud-native que j’utilise est appelé Prometheus. C’est un système open source qui a été créé par SoundCloud pour surveiller leur infrastructure cloud. Il est maintenant maintenu par la communauté open source et est largement utilisé par les entreprises pour surveiller leurs applications et leurs services. Prometheus est conçu pour collecter des métriques à partir de sources de données telles que des applications, des services et des systèmes d’exploitation. Il stocke ces métriques dans un format compact et peut être interrogé pour obtenir des informations sur la performance et la disponibilité des applications et des services.

      Prometheus est un outil très puissant qui peut être utilisé pour surveiller tous les aspects d’une infrastructure cloud-native. Il peut être utilisé pour surveiller les performances des applications, les performances des services, la disponibilité des services et bien plus encore. Il peut également être utilisé pour surveiller les performances des conteneurs et des microservices. Il offre une variété d’options de visualisation et de tableaux de bord pour afficher les données collectées par Prometheus. En outre, il offre une API REST qui peut être utilisée pour intégrer Prometheus à d’autres outils d’observabilité tels que Grafana ou Kibana.

      J’utilise Prometheus depuis plusieurs années maintenant et je suis très satisfait de son fonctionnement. Il est très facile à configurer et à gérer, ce qui en fait un excellent choix pour les développeurs qui souhaitent surveiller leurs applications et leurs services. Il est également très flexible et peut être facilement intégré à d’autres outils d’observabilité. Enfin, il est open source, ce qui signifie qu’il est gratuit à utiliser et qu’il bénéficie du soutien de la communauté open source.

      Source de l’article sur DZONE

      Mise en œuvre de la découverte de services avec Spring Cloud (2e partie)

      Dans cette deuxième partie, nous allons voir comment mettre en œuvre la découverte de services avec Spring Cloud. Préparez-vous à apprendre comment configurer et déployer vos services !

      Partie 2 de l’Article Spring Cloud: Comment Implémenter le Service Discovery (Partie 1)

      Dans la première partie de cet article, Spring Cloud: Comment implémenter le service de découverte (Partie 1), nous avons vu les bases du Service Discovery dans le contexte de Spring Cloud. Nous avons vu que la composante Netflix OSS Eureka est toujours le choix principal. Dans ce post, nous allons discuter de certains sujets supplémentaires liés à Eureka, tels que :

      API Java Client

      API REST

      Sécuriser le serveur de découverte et les services clients

      Combiner le Service Discovery avec la Configuration Distribuée

      Service Discovery : API Java Client

      Dans les exemples de la première partie de cet article, l’enregistrement et le récupération des fonctionnalités étaient exécutés sous le capot et nous avons seulement vu les résultats des tests de l’architecture entière en appelant un point de terminaison REST client. Il existe également une manière d’interagir avec l’API Eureka de manière programmatique, en utilisant des appels de méthodes Java. Un choix possible serait d’utiliser la classe EurekaClient. Par exemple, si nous voulons obtenir toutes les instances d’un service identifié par un ID particulier, nous pourrions écrire le code suivant, supposant que nous avons un client implémenté comme une application Spring Boot exposant des services REST :

      EurekaClient eurekaClient = new EurekaClient.Builder().build();

      Applications applications = eurekaClient.getApplications(« SERVICE_ID »);

      List instances = applications.getInstances();

      Une fois que nous avons obtenu la liste des instances, nous pouvons parcourir cette liste et récupérer les informations dont nous avons besoin, telles que l’adresse IP et le port sur lesquels le service est en cours d’exécution. Nous pouvons également effectuer des opérations supplémentaires sur les instances, telles que la mise à jour des informations ou la suppression d’une instance.

      Service Discovery : API REST

      Eureka fournit également une API REST qui peut être utilisée pour interagir avec le serveur de découverte. Cette API est très similaire à l’API Java client, mais elle est plus adaptée aux scénarios où nous devons interagir avec le serveur de découverte depuis un environnement non-Java ou depuis un script. Par exemple, si nous voulons récupérer toutes les instances d’un service spécifique, nous pouvons appeler l’URL suivante :

      http://:/eureka/apps/

      Cette URL retournera une réponse JSON contenant toutes les informations relatives à ce service et à ses instances. Nous pouvons également effectuer des opérations supplémentaires sur les instances, telles que la mise à jour des informations ou la suppression d’une instance, en appelant des URL spécifiques.

      Service Discovery : Sécurisation du serveur et des services clients

      Enfin, il est important de noter que le serveur Eureka et les services clients doivent être sécurisés pour éviter toute attaque malveillante. Par exemple, nous pouvons configurer Eureka pour utiliser HTTPS pour sécuriser les communications entre le serveur et les clients. Nous pouvons également configurer Eureka pour authentifier les clients et leurs requêtes en utilisant un système d’authentification basé sur des jetons. De plus, il est possible de configurer Eureka pour

      Source de l’article sur DZONE

      Paris, le 09 juin 2023. SAP SE (NYSE : SAP) continue son plan d’accélération de start-ups autour de SAP.iO, son incubateur interne des jeunes entreprises. Depuis le mois de mai, 7 nouvelles start-ups ont ainsi intégré SAP Store, la marketplace officielle de SAP : Sorga, Smartpixels, Smartzer, YZR, Arianee, Livebuy et replika Software. Les clients pourront en un seul clic bénéficier de ces solutions pour leurs besoins quotidiens.

       

      Véritable incubateur de start-ups, visant à accélérer la mise sur le marché de produits innovants pour augmenter la productivité de ses clients, SAP iO a intégré 7 nouvelles start-ups au sein du SAP Store. Désormais, les clients pourront accéder à ces 7 entreprises innovantes dans le domaine des nouvelles technologies, de l’IA, ou encore de l’économie responsable.

      SAP.iO Foundry Paris a déjà aidé plus de 70 start-ups à développer leur business et leur solution, en lien avec les objectifs du gouvernement français pour soutenir l’économie des start-ups.

      De leur intégration chez SAP.iO Foundry Paris, à leur présence sur le SAP Store, les start-ups ont été accompagnées par SAP pour préparer au mieux leur mise sur le marché et connaître les besoins de tous leurs potentiels clients.

      « Grâce à l’engagement de SAP envers l’innovation et l’incubation de startups via SAP.iO, Replika accélère son développement. Ce partenariat permet de rendre notre solution de social selling accessible aux entreprises clientes de SAP qui veulent développer leur e-commerce.

      Avec le soutien et le professionnalisme des équipes de SAP, cette collaboration est d’ores et déjà une belle réussite ! » pour Kareen Mallet, Founder Replika Software

      « Le programme SAP.iO est très complet et permet la création d’une offre conjointe pertinente et utile pour les clients, avec des perspectives commerciales mondiales concrètes et opérationnelles. » déclare Jean-Philippe Poisson, Co-Founder YZR

      « La collaboration avec SAP nous a permis de proposer une version plus simple de notre technologie de Digital Product Passport, pour répondre à l’urgence de preuves vérifiables des engagements RSE à partir de tous les produits déjà en retail. Une innovation supplémentaire bénéfique pour tous ! » indique Philippe Guguen, CEO Sorga

       

      Les start-ups suivantes sont désormais disponibles sur SAP Store :

       

      Sorga

      L’innovation de Sorga permet aux marques d’offrir transparence et traçabilité à ses clients. Il s’agit de la seule solution blockchain neutre en carbone et de souveraineté numérique. Simple d’utilisation, il rend la consommation responsable accessible à tous.

       

      Smartpixels

      Expert des solutions de visualisation de produits en 3D, SmartPixels capture vos collections en 3D, et créé des expériences produits interactives et sensorielles à 360°. SmartPixels fournit un outil de configuration et de visualisation de produits 3D pour aider les marques de mode de luxe à créer des expériences personnalisées.

       

      Smartzer

      Un outil qui permet aux marques d’annoter leurs vidéos et flux en direct avec des produits achetables pour créer des événements d’achat en direct intégré à leur e-commerce. La solution s’intègre à SAP Commerce Cloud.

       

      YZR

      YZR utilise l’IA pour nettoyer et enrichir les données sur vos produits. YZR normalise, enrichit et catégorise automatiquement les données des produits pour le e-commerce. La solution est intégrée à SAP Commerce Cloud via ImpEx.

       

      Arianee

      Arianee permet de générer facilement un Passeport Produit pour chaque commande. Propulsés par la technologie web3, les passeports sont livrés avec une interopérabilité native et des fonctionnalités CRM enrichies. Arianee facilite la mise à jour vers les réglementations européennes en matière d’éco-conception et propulse les entreprises dans l’économie responsable.

       

      Livebuy

      Livebuy est un SaaS qui change la donne pour les retailers et avant-gardistes : il permet de diffuser sans effort du contenu vidéo interactif dans une boutique en ligne, il dynamise les ventes, et offre aux clients une expérience d’achat immersive et amusante.


      Replika Software

      Replika Software est conçu pour aider les marques à dynamiser leur stratégie e-commerce en tirant parti de la puissance de leur réseau de vendeurs/influenceurs pour augmenter les ventes en ligne, tout en offrant une expérience d’achat unique aux clients.

       

       

      A propos de SAP en France

      La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

       

      Pour plus d’informations, visitez le site www.sap.com.

      Contact presse : sylvie.lechevin@sap.com / sap@the-arcane.com

       

      The post SAP.iO Foundry Paris intègre 7 nouvelles start-ups à SAP Store pour proposer aux clients des solutions adaptées au contexte économique, social et numérique. appeared first on SAP France News.

      Source de l’article sur sap.com