Articles

Afin d’unifier les processus de ses différentes entités et d’accompagner sa croissance, le groupe Cyclife (filiale d’EDF) a opté pour un ERP SAP S/4HANA déployé en mode cloud public. Cadrage et projet sont menés avec l’appui des équipes de Deloitte.

 

Filiale du groupe EDF, Cyclife propose des solutions innovantes et intégrées pour le démantèlement et la gestion des matières et déchets radioactifs pour contribuer à l’avenir durable de l’énergie nucléaire.

Créé en 2016, le groupe Cyclife comprend aujourd’hui 11 entités réparties en France, en Allemagne, en Angleterre, en Suède, et – depuis peu – au Japon. Sa croissance est rapide, avec un chiffre d’affaires 2023 de 201,8 millions d’euros, soit une augmentation de + 24% en 2023 et un effectif de plus de 1 100 salariés.

Unifier les processus autour d’un ERP commun

« Cyclife s’est formé en grande partie au travers d’opérations de croissance externe, ce qui fait que nous nous sommes retrouvés à devoir trouver une solution pour les entités qui n’avaient pas d’ERP ou qui utilisaient des solutions moins robustes. Il nous fallait structurer le groupe autour d’un outil et d’un langage communs, afin d’harmoniser nos processus, mutualiser nos coûts d’exploitation et soutenir notre croissance, » explique Benoît Delplace, DSI de Cyclife. Une stratégie qui permettra également au groupe de décommissionner certaines solutions, lui permettant ainsi de rationaliser ses coûts de licence.

Au cours de l’été 2023, la DSI décide de donner un coup de boost à son programme OneERP. Elle monte alors une équipe dédiée au projet, fixe une cible et choisit l’offre logicielle. « Les qualités métiers et l’innovation de l’ERP SAP S/4HANA nous ont rapidement convaincus d’opter pour une solution SAP. » Cet ERP sera déployé en mode cloud public. « Le cloud public s’est rapidement imposé à nous. Il permet de réduire au maximum les efforts de maintenance du système, tout en nous permettant de disposer rapidement des dernières innovations SAP. Il répond également aux impératifs de coût et de planning de notre projet OneERP. »

À la rentrée 2023, Cyclife lance une phase de cadrage, avec l’aide des équipes de Deloitte. « Nous avions repéré Deloitte dans le Magic Quadrant de Gartner. C’est un partenaire SAP disposant d’une expérience conséquente, avec de sérieuses références client, notamment sur des projets d’ERP SAP S/4HANA déployés en mode cloud public. Il dispose également d’une forte expertise de conseil dans le monde de la finance, ainsi qu’une bonne connaissance des réglementations dans les pays où nous sommes présents. »

Un SI SAP complet, en mode cloud public

Deloitte a accompagné les équipes de Cyclife dans la phase de cadrage du projet. « Nous avons travaillé avec l’ensemble de nos filiales, afin de définir un core model capable de répondre aux besoins de toutes les entités du groupe », résume Benoît Delplace. Au terme de ces travaux, Cyclife a pu confirmer le bien-fondé de son choix initial : un SI SAP architecturé autour d’un ERP SAP S/4HANA déployé en mode cloud public. « Notre volonté est d’harmoniser et de standardiser l’ensemble de nos processus. L’offre RISE with SAP S/4HANA s’appuie sur les standards et best practices du marché, ce qui colle à la philosophie de notre projet OneERP. Dans la pratique, nous avons pu mesurer une concordance de plus de 85% entre nos besoins et les processus proposés en standard dans RISE with SAP S/4HANA. »

L’ERP couvre un large périmètre : comptabilité, contrôle de gestion, achats, gestion de projet, suivi de la production, logistique, maintenance, etc. Plusieurs autres solutions SAP gravitent autour de lui : SAP Cloud Identity Access Governance, SAP Document and Reporting Compliance, SAP Integration Suite, mais aussi SAP Analytics Cloud et SAP Signavio. « SAP Analytics Cloud va transformer notre façon de faire du reporting, en nous permettant de réaliser des analyses en temps réel, sur des données de qualité. Quant à SAP Signavio, c’est une brique très importante pour nous aider à décrire et documenter nos processus. Il est possible que cet outil nous serve également plus tard pour des tâches de process mining. »

À noter, ce SI SAP sera connecté à la solution de consolidation budgétaire SAP BFC, déjà en production chez Cyclife.

Fin du déploiement programmée pour 2025

Le projet est validé par le conseil d’administration de Cyclife le 15 janvier 2024. Les équipes ont pu alors commencer les travaux, comprenant la conception d’un core model, puis son déploiement sur l’ensemble des entités du groupe. En 2024, elles se concentreront sur la phase de conception générale de l’ERP, puis sur son déploiement au sein de deux entités pilotes : la holding et une usine située en Suède. En 2025, deux vagues de déploiements permettront d’équiper le reste des entités du groupe. Un planning ambitieux.

« Nous avons lancé un appel d’offres, afin de trouver un intégrateur capable de nous accompagner sur ce projet… et c’est de nouveau Deloitte qui l’a remporté », note Benoît Delplace. « De tous les intégrateurs qui nous avons rencontrés, c’est celui qui s’est le plus engagé sur la maîtrise des coûts et des délais, avec une bonne prise en compte de notre contexte et de nos contraintes. »

La phase de conception générale s’est terminée mi-mai. « Nous avons su prendre le temps nécessaire pour faire converger tout le monde vers une cible commune, et ce sans faire de renoncement sur les demandes de chacun. Cette première phase du projet est un véritable succès, qui nous permet d’aborder sereinement les prochaines étapes ! »

 

The post Cyclife renforce le pilotage de ses activités avec un ERP SAP S/4HANA en mode cloud public appeared first on SAP France News.

Source de l’article sur sap.com

Amélioration de la sécurité IoT: Outils d'analyse de sécurité IoT

Les outils d’analyse de sécurité IoT sont essentiels pour améliorer la sécurité des objets connectés. Ils offrent une protection contre les menaces et permettent de garantir la confidentialité des données.

L’arrivée de l’Internet des Objets (IoT) a ouvert une nouvelle ère de connectivité, révolutionnant divers secteurs, notamment les foyers, les industries et les zones urbaines. Cependant, cette connectivité étendue entraîne également des défis de sécurité importants, nécessitant des mécanismes robustes de détection et de réponse aux menaces. Les outils d’analyse de sécurité IoT sont devenus des composants essentiels pour faire face à ces défis, exploitant des techniques d’apprentissage automatique avancées pour identifier des modèles de comportement inhabituels et des menaces potentielles au sein des réseaux IoT. Cet article explore le rôle essentiel que jouent les outils d’analyse de sécurité IoT pour améliorer la sécurité IoT.

  • The sheer number of devices connected to a single network, each of which may have different security protocols.
  • The diversity of communication protocols and data formats used by IoT devices.
  • The complexity of the underlying infrastructure, which may include multiple layers of networks, cloud services, and mobile applications.

These complexities make it difficult for traditional security solutions to identify and respond to potential threats in real-time. This is where IoT Security Analytics Tools come into play.

The Role of IoT Security Analytics Tools

IoT Security Analytics Tools are designed to detect and respond to potential threats in real-time. These tools leverage advanced machine learning techniques to identify unusual behavior patterns and potential threats within IoT networks. They can detect anomalies in device communication, identify malicious activities, and alert administrators to potential threats. Additionally, they can provide detailed insights into the security posture of an IoT network, enabling administrators to take proactive measures to mitigate risks.

IoT Security Analytics Tools can also be used to monitor user activity on connected devices. This helps administrators identify suspicious activities and take appropriate action. Furthermore, these tools can be used to detect and respond to data breaches, helping organizations protect their sensitive data from unauthorized access.

Conclusion

IoT Security Analytics Tools are essential components for enhancing the security of IoT networks. These tools leverage advanced machine learning techniques to identify unusual behavior patterns and potential threats in real-time. They can also be used to monitor user activity on connected devices, detect data breaches, and provide detailed insights into the security posture of an IoT network. As such, these tools are invaluable for ensuring the security of IoT environments.

La complexité de la sécurité IoT

La sécurisation des environnements IoT présente des défis distincts :

  • Le nombre élevé de périphériques connectés à un seul réseau, chacun pouvant avoir des protocoles de sécurité différents.
  • La diversité des protocoles de communication et des formats de données utilisés par les périphériques IoT.
  • La complexité de l’infrastructure sous-jacente, qui peut inclure plusieurs couches de réseaux, de services cloud et d’applications mobiles.

Ces complexités rendent difficile pour les solutions de sécurité traditionnelles d’identifier et de réagir aux menaces potentielles en temps réel. C’est là que les outils d’analyse de sécurité IoT entrent en jeu.

Le rôle des outils d’analyse de sécurité IoT

Les outils d’analyse de sécurité IoT sont conçus pour détecter et réagir aux menaces potentielles en temps réel. Ces outils utilisent des techniques d’apprentissage automatique avancées pour identifier des modèles de comportement inhabituels et des menaces potentielles dans les réseaux IoT. Ils peuvent détecter des anomalies dans la communication des périphériques, identifier des activités malveillantes et alerter les administrateurs des menaces potentielles. De plus, ils peuvent fournir des informations détaillées sur la posture de sécurité d’un réseau IoT, permettant aux administrateurs de prendre des mesures proactives pour atténuer les risques.

Les outils d’analyse de sécurité IoT peuvent également être utilisés pour surveiller l’activité des utilisateurs sur les périphériques connectés. Cela aide les administrateurs à identifier les activités suspectes et à prendre les mesures appropriées. De plus, ces outils peuvent être utilisés pour détecter et réagir aux violations de données, aid
Source de l’article sur DZONE

Rôle de la Science des Données et de l'Analyse pour les Décisions Stratégiques

La science des données et l’analyse jouent un rôle crucial dans le processus de prise de décisions stratégiques. Elles offrent une vision claire et précise des informations nécessaires pour prendre les bonnes décisions.

Dans le monde d’aujourd’hui axé sur les données, les organisations se tournent vers la science des données et l’analyse pour obtenir un avantage concurrentiel et prendre des décisions stratégiques éclairées.

Data science est une discipline qui combine des techniques statistiques, des algorithmes et des technologies pour extraire des informations utiles à partir de données brutes. Les données peuvent être structurées ou non structurées, et peuvent provenir de sources internes ou externes. Les scientifiques des données utilisent ces informations pour comprendre et prédire les tendances, les comportements et les préférences des consommateurs.

L’analyse est le processus d’examen et d’interprétation des données pour en tirer des conclusions et prendre des décisions. L’analyse peut être descriptive, prédictive ou prescriptive. Les analystes peuvent utiliser des outils tels que le traitement de texte, les tableaux croisés dynamiques et les systèmes de gestion de bases de données pour analyser les données et générer des rapports.

2. Utilisation de la science des données et de l’analyse pour prendre des décisions stratégiques

Les entreprises peuvent utiliser la science des données et l’analyse pour prendre des décisions stratégiques. Les scientifiques des données peuvent analyser les données pour comprendre comment les consommateurs réagissent aux produits et services, ce qui permet aux entreprises de mieux cibler leurs efforts marketing. Les analystes peuvent également utiliser l’analyse prédictive pour prédire la demande future et aider les entreprises à prendre des décisions stratégiques sur la production, les stocks, les prix et autres.

Les entreprises peuvent également utiliser la science des données et l’analyse pour améliorer leurs processus et leurs opérations. Les scientifiques des données peuvent analyser les données pour comprendre comment les processus sont mis en œuvre et comment ils peuvent être améliorés. Les analystes peuvent également utiliser l’analyse prédictive pour prédire les résultats des tests et aider les entreprises à prendre des décisions sur la façon dont elles peuvent améliorer leurs processus.

3. Testez vos décisions stratégiques

Une fois que vous avez pris une décision stratégique, vous devez la tester avant de l’implémenter. La science des données et l’analyse peuvent vous aider à tester vos décisions stratégiques. Les scientifiques des données peuvent analyser les données pour comprendre comment une décision stratégique affectera les consommateurs et leurs comportements. Les analystes peuvent également utiliser l’analyse prédictive pour prédire le résultat d’une décision stratégique et aider les entreprises à prendre des décisions informées.

Les entreprises peuvent également utiliser la science des données et l’analyse pour tester leurs processus. Les scientifiques des données peuvent analyser les données pour comprendre comment un processus est mis en œuvre et comment il peut être amélioré. Les analystes peuvent également utiliser l’analyse prédictive pour prédire le résultat d’un test et aider les entreprises à prendre des décisions sur la façon dont elles peuvent améliorer leurs processus.

Conclusion

La science des données et l’analyse jouent un rô

Source de l’article sur DZONE

L'Impact de l'IoT sur l'Intégration des Données: Un Voyage Transformateur

.

L’Internet des Objets (IoT) a révolutionné la manière dont les données sont intégrées et utilisées. Découvrez comment cette transformation a un impact sur le voyage!

La relation intrinsèque entre l’IoT et l’intégration des données

The challenge of data integration is compounded by the sheer volume of data generated by IoT devices. The sheer number of devices, combined with their ability to generate data at high speeds, has resulted in an exponential growth in the amount of data that needs to be managed. This data must be integrated, analyzed, and acted upon in real-time. To do this, organizations must develop a comprehensive architecture that can handle the scale and complexity of the data.

L’intrinsèque relation entre l’IoT et l’intégration des données

La prolifération des appareils IoT a ajouté une nouvelle dimension au paysage déjà complexe de la gestion des données. Ces appareils produisent une variété de types de données, telles que des données en série temporelle, des journaux structurés et semi-structurés et même du texte non structuré provenant d’interfaces utilisateur. Ainsi, l’intégration des données est maintenant chargée de quelque chose de bien plus complexe que simplement assimiler des bases de données et des stockages en nuage ; il s’agit de comprendre un monde connecté par des milliards d’appareils. Comme l’a judicieusement déclaré la scientifique des données Hilary Mason : « Les données sont le matériau brut de l’ère de l’information ». Et en effet, la qualité et la forme de ce « matériau brut » ont considérablement évolué avec l’avènement de l’IoT.

Le défi de l’intégration des données est amplifié par le volume phénoménal de données générées par les appareils IoT. Le nombre considérable d’appareils, combiné à leur capacité à générer des données à grande vitesse, a entraîné une croissance exponentielle de la quantité de données à gérer. Ces données doivent être intégrées, analysées et traitées en temps réel. Pour ce faire, les organisations doivent développer une architecture globale qui puisse gérer l’ampleur et la complexité des données.

L’architecture IoT pour l’intégration des données

Pour réussir à intégrer les données IoT, les organisations doivent mettre en place une architecture qui prend en compte la variété et la vitesse des données. Cette architecture doit être capable de collecter, stocker, traiter et analyser les données en temps réel. Elle doit également être capable d’intégrer les données provenant de sources diverses et hétérogènes. Les technologies modernes telles que le streaming en temps réel, le traitement distribué et le traitement par lots peuvent être utilisés pour mettre en œuvre cette architecture. Les technologies d’intégration des données telles que les outils d’ETL (Extraction, Transformation et Chargement) peuvent également être utilisés pour intégrer les données provenant de différents systèmes.

La mise en place d’une architecture IoT pour l’intégration des données est essentielle pour tirer parti des avantages offerts par l’IoT. Une architecture robuste permet aux organisations de collecter et d’analyser les données à grande échelle afin de prendre des décisions plus rapides et plus précises. Elle

Source de l’article sur DZONE

Eclipse JNoSQL 1.0.2 : Flexibilité NoSQL pour Java

Avec Eclipse JNoSQL 1.0.2, découvrez la flexibilité des bases de données NoSQL pour Java et profitez des avantages qu’elles offrent.

L’intersection entre Java et les bases de données NoSQL représente une frontière dynamique où l’innovation prospère dans le développement logiciel moderne.

The combination of Java and NoSQL databases is a powerful one. Java provides a stable and reliable platform for building applications, while NoSQL databases offer the flexibility and scalability needed to manage large amounts of data. Together, they form the foundation of many modern software solutions, from web-based applications to mobile apps.

Dans le développement de logiciels modernes, l’intersection entre Java et les bases de données NoSQL représente une frontière dynamique où l’innovation prospère. Réputé pour sa fiabilité et sa polyvalence, Java continue d’être un pilier du monde de la programmation, alimentant diverses applications, des systèmes d’entreprise aux applications mobiles Android. Simultanément, l’augmentation de la génération de données et le besoin de solutions de stockage de données flexibles ont conduit à l’émergence des bases de données NoSQL en tant que technologie essentielle.

Les bases de données NoSQL offrent une alternative convaincante aux bases de données relationnelles traditionnelles en offrant une scalabilité, une adaptabilité et des performances qui s’alignent parfaitement sur les exigences des applications axées sur les données d’aujourd’hui. Ils excellent dans la gestion des données non structurées ou semi-structurées, ce qui en fait un choix idéal pour divers cas d’utilisation, notamment les systèmes de gestion de contenu, l’analyse en temps réel et les applications IoT.

La combinaison de Java et de bases de données NoSQL est puissante. Java fournit une plate-forme stable et fiable pour la construction d’applications, tandis que les bases de données NoSQL offrent la flexibilité et la scalabilité nécessaires pour gérer de grandes quantités de données. Ensemble, ils forment la base de nombreuses solutions logicielles modernes, des applications Web aux applications mobiles.

Source de l’article sur DZONE

Apache Druid: 1000+ QPS Facile pour l'Analyse

des Données

Apache Druid offre une puissance de 1000+ QPS pour l’analyse des données, ce qui rend plus facile et plus rapide que jamais la prise de décision basée sur des données.

Les cas d’utilisation des analytics évoluent avec une augmentation du volume et des requêtes à faible latence. Mais l’échelle des analytics pour les requêtes à haut QPS nécessite une certaine considération. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors virtuellement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez en construire une) qui exécute beaucoup d’agrégations et de filtres sur des données à haute dimension et à haute cardinalité à grande échelle. Le genre d’application où beaucoup d’utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Testing is a key factor in scaling analytics for high QPS. It’s important to understand the performance of your analytics application under different scenarios. This will help you identify bottlenecks and optimize your queries for better performance.

Les cas d’utilisation d’analytique évoluent avec des requêtes à haut volume et à faible latence. Mais le passage à l’échelle des analyses pour des requêtes élevées par seconde (QPS) nécessite une certaine prise en compte. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors pratiquement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez d’en construire une) qui exécute de nombreuses agrégations et filtres sur des données à haute dimension et à haute cardinalité à l’échelle. Le genre d’application où de nombreux utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Le test est un facteur clé pour passer à l’échelle des analyses pour des QPS élevés. Il est important de comprendre les performances de votre application d’analytique dans différents scénarios. Cela vous aidera à identifier les goulots d’étranglement et à optimiser vos requêtes pour une meilleure performance.

Source de l’article sur DZONE

Construire des architectures analytiques pour alimenter des applications temps réel

Construire des architectures analytiques pour alimenter des applications temps réel est une tâche complexe qui nécessite une planification minutieuse et une mise en œuvre rigoureuse.

Comprendre le rôle des analyses hors ligne

Testing the Efficiency of Offline Analytics

In order to ensure that an offline analytics architecture is efficient and cost-effective, it’s important to test its performance and scalability. This can be done by running a series of tests that measure the time it takes to process a given dataset, as well as the accuracy of the results. These tests should be conducted on a regular basis to ensure that the architecture is able to handle the increasing volume and complexity of data. Additionally, it’s important to test the architecture’s ability to integrate with existing systems and applications, as well as its ability to scale up or down as needed.

Conclusion

Offline analytics architectures are essential for preparing and enhancing data before it’s ready for real-time application. Testing the efficiency and scalability of such architectures is key to ensuring that they can handle the increasing volume and complexity of data. By running regular tests and monitoring the performance of the architecture, businesses can ensure that their data is ready for real-time insights and applications.

Comprendre le rôle des analyses hors ligne

Les analyses hors ligne impliquent le processus de collecte, de traitement et d’analyse de grands volumes de données de manière par lots, souvent sur des périodes plus longues. Cela contraste avec les analyses en temps réel, qui se concentrent sur l’analyse des données lorsqu’elles sont générées, avec des résultats immédiats. Bien que les analyses en temps réel offrent l’avantage d’une prise de conscience rapide, les analyses hors ligne fournissent la base sur laquelle ces informations sont construites. Les architectures d’analyse hors ligne sont conçues pour gérer des jeux de données volumineux, nettoyer et transformer les données et générer des résultats agrégés qui peuvent ensuite être exploités dans des applications en temps réel.

Tester l’efficacité des analyses hors ligne

Pour s’assurer que les architectures d’analyse hors ligne sont efficaces et rentables, il est important de tester leurs performances et leur évolutivité. Cela peut être fait en exécutant une série de tests qui mesurent le temps nécessaire pour traiter un jeu de données donné, ainsi que la précision des résultats. Ces tests doivent être effectués régulièrement pour s’assurer que l’architecture est capable de gérer le volume et la complexité croissants des données. De plus, il est important de tester la capacité de l’architecture à s’intégrer aux systèmes et applications existants, ainsi qu’à son aptitude à évoluer vers le haut ou vers le bas selon les besoins.

Conclusion

Les architectures d’analyse hors ligne sont essentielles pour préparer et améliorer les données avant qu’elles ne soient prêtes pour une application en temps réel. Tester l’efficacité et la scalabilité de ces architectures est essentiel pour s’assurer qu’elles peuvent gérer le volume et la complexité croissants des données. En exécutant des tests réguliers et en surveillant les performances de l’architecture, les entreprises peuvent s’assurer que leurs données sont prêtes pour des informations et des applications en temps réel.

Source de l’article sur DZONE

Expliquer l'IIoT : exemples, technologies, avantages et défis.

L’IIoT (Internet des Objets Industriel) est un domaine en pleine expansion qui combine les technologies de l’information et de la communication pour améliorer l’efficacité et la productivité des processus industriels. Découvrez les exemples, technologies, avantages et défis de l’IIoT.

Qu’est-ce que l’Internet industriel des objets (IIoT) ?

IIoT technology is being used in a variety of industrial settings, from manufacturing to energy production. It’s enabling the development of smart factories, where machines are connected to the internet and can communicate with each other. This allows for greater automation, improved efficiency, and increased productivity. Additionally, IIoT technology is being used in predictive maintenance, where sensors monitor machinery and alert operators when maintenance is needed. This reduces downtime and improves safety.

Qu’est-ce que l’Internet Industriel des Objets (IIoT) ?

L’Internet Industriel des Objets (IIoT), ou IIoT, est un terme utilisé pour décrire l’application de la technologie de l’Internet des Objets (IoT) dans des environnements industriels. Il englobe l’intégration de capteurs avancés, de logiciels et de machines avec une connectivité Internet pour collecter, analyser et agir sur d’immenses quantités de données. Cette approche basée sur les données permet de prendre des décisions en temps réel et d’utiliser l’analyse prédictive, ce qui conduit à une efficacité opérationnelle améliorée, des coûts réduits et une qualité de produit améliorée.

L’IIoT est un composant clé de l’Industrie 4.0, la quatrième révolution industrielle, caractérisée par la fusion des technologies numériques, physiques et biologiques. Il révolutionne les industries traditionnelles, facilitant la transformation des processus manuels et intensifs en main-d’œuvre en opérations automatisées et basées sur les données.

La technologie IIoT est utilisée dans une variété de contextes industriels, allant de la fabrication à la production d’énergie. Elle permet le développement de usines intelligentes, où les machines sont connectées à Internet et peuvent communiquer entre elles. Cela permet une plus grande automatisation, une efficacité accrue et une productivité accrue. De plus, la technologie IIoT est utilisée dans la maintenance prédictive, où des capteurs surveillent les machines et alertent les opérateurs lorsqu’une maintenance est nécessaire. Cela réduit les temps d’arrêt et améliore la sécurité.

Source de l’article sur DZONE

Traitement de flux supérieur : l'impact d'Apache Flink sur l'architecture Data Lakehouse.

Le traitement de flux supérieur est une technologie qui offre de nombreux avantages aux entreprises. Apache Flink est l’un des principaux outils pour exploiter pleinement les avantages de l’architecture Data Lakehouse.

« Explorer le Paradigme du Data Lakehouse: Une Solution Prometteuse pour les Décisions Basées sur les Données »

Dans l’ère de la prise de décision basée sur les données, le paradigme du Data Lakehouse est apparu comme une solution prometteuse, réunissant le meilleur des data lakes et des data warehouses. En combinant la scalabilité des data lakes avec les fonctionnalités de gestion des données des entrepôts, les Data Lakehouses offrent une infrastructure de données hautement scalable, agile et rentable. Ils fournissent un support robuste pour les charges de travail analytiques et opérationnelles, permettant aux organisations d’extraire plus de valeur de leurs données.

Dans nos articles précédents, nous avons exploré en profondeur le concept des Data Lakehouses. Data Lakehouses: The Future of Scalable, Agile, and Cost-Effective Data Infrastructure a posé les bases en mettant en évidence les principaux avantages commerciaux des lakehouses. A New Era of Data Analytics: Exploring the Innovative World of Data Lakehouse Architectures a examiné de plus près les aspects architecturaux des lakehouses, tandis que Delta, Hudi et Iceberg: The Data Lakehouse Trifecta se sont concentrés sur les trois principales solutions lakehouse: Delta Lake, Hudi et Iceberg.

Afin de mieux comprendre comment le Data Lakehouse peut être mis en œuvre dans un environnement d’entreprise, nous allons maintenant examiner le processus de testing. Le testing est un élément essentiel du développement logiciel et est également très important pour l’implémentation réussie des Data Lakehouses. Le processus de testing permet aux organisations de s’assurer que leurs systèmes sont conformes aux exigences et aux spécifications fonctionnelles et techniques. Il permet également de vérifier que le système est prêt à être mis en production et qu’il fonctionne correctement.

Le testing des Data Lakehouses peut être divisé en trois étapes principales : la vérification des fonctionnalités, la validation des performances et la validation des données. La vérification des fonctionnalités consiste à vérifier que toutes les fonctionnalités du système sont correctement implémentées et qu’elles répondent aux exigences et aux spécifications fonctionnelles. La validation des performances consiste à vérifier que le système est capable de gérer le volume et la variété des données et qu’il est capable de fournir les résultats attendus dans les délais impartis. Enfin, la validation des données consiste à vérifier que les données sont correctement stockées et accessibles dans le système.

Le processus de testing des Data Lakehouses est essentiel pour s’assurer que le système est conforme aux exigences et qu’il fonctionne correctement. Il permet aux organisations d’identifier et de résoudre rapidement tout problème avant la mise en production, ce qui permet d’améliorer la qualité du système et d’accroître sa fiabilité. En outre, le testing permet aux organisations de s’assurer que leurs systèmes sont prêts à être mis en production et qu’ils sont capables de fournir les résultats attendus.

Source de l’article sur DZONE

En 2021, le groupe Guerbet a décidé de basculer de SAP ECC vers SAP S/4HANA, afin de tirer profit des nouveautés fonctionnelles et technologiques de la dernière génération de l’ERP SAP. Une conversion achevée avec succès en mois d’un an.

 

Guerbet est une entreprise de santé française, spécialiste de l’imagerie médicale à visées diagnostique et opérationnelle.

Industriel d’envergure internationale, Guerbet est implanté dans plus de 80 pays et fait travailler plus de 2600 employés, pour un chiffre d’affaires en 2022 de 753 millions d’euros. En 2013, Guerbet décide de mettre en place l’ERP SAP ECC, commun à l’ensemble de ses filiales. Un projet de grande envergure.

« En 2020, notre ERP SAP ECC était déployé sur quasiment l’intégralité de nos sites des zones EMEA et APAC, avec à la clé près d’un millier d’utilisateurs », précise Marcello Bellato, Chief Information Officer de Guerbet.

Une conversion anticipée pour mieux exploiter ses opportunités

En 2021, Guerbet choisit d’opérer sa conversion vers l’ERP Intelligent SAP S/4HANA, alors même que SAP ECC n’a été déployé que sur la moitié des sites du groupe.

« Nous aurions pu réaliser cette conversion à la fin du déploiement de SAP ECC, poursuit Marcello Bellato, mais nous aurions alors raté l’opportunité de pouvoir profiter rapidement des avancées proposées par SAP S/4HANA, dont nous avons besoin pour accompagner notre transformation : nouveautés fonctionnelles, intégration d’outils analytiques et de reporting, automatisation avancée, etc. La conversion vers SAP S/4HANA et les nouvelles fonctionnalités nous permettront également d’accélérer le déploiement sur les pays restants, en réduisant les personnalisations. »

Guerbet décide de se faire accompagner par TeamWork sur ce projet. « Nous connaissions déjà cet intégrateur, dont le travail nous avait donné satisfaction. De plus, nous apprécions sa flexibilité et la proximité que ses équipes ont su nouer avec les nôtres. Des éléments très importants, dont nous espérions tirer profit dans le cadre de ce projet de conversion. »

11 mois pour convertir un ERP au périmètre étendu

Le projet démarre le 9 juin 2021, avec un go live de la solution SAP S/4HANA programmé pour le week-end de Pâques 2022, soit 11 mois plus tard. Un planning d’autant plus serré que le périmètre de la solution SAP ECC est particulièrement large. « Notre ERP ne se limite pas à la finance, confirme Marcello Bellato. Il couvre l’ensemble de notre supply chain : achats, ventes, production, distribution, logistique, gestion des entrepôts, service client… »

L’une des clés du succès de ce projet réside dans la forte implication des équipes métiers. « Près de 200 personnes ont participé à ce projet chez Guerbet. Ces experts métiers ont su travailler en coordination – et en bonne intelligence – avec nos équipes IT et celles de TeamWork. » L’autre clé du succès a été le soin apporté à la phase de test, pendant laquelle près de 3600 scénarios furent déroulés.

Les efforts conjugués des métiers, de l’IT et des équipes de TeamWork ont permis de lancer SAP S/4HANA dans les délais attendus, sans impact notable pour les utilisateurs ni interruption des opérations.

Des sessions de présentation ont aussi été organisées par TeamWork tout au long du projet. Elles ont permis aux key users de découvrir en amont les fonctionnalités et évolutions apportées par l’ERP SAP S/4HANA. Un atout clé pour emporter leur adhésion, les préparer au futur ERP, mais également construire la feuille de route des évolutions souhaitées pour les années à venir.

Roll-out et exploitation des atouts de SAP S/4HANA

Maintenant que la conversion a été réalisée, Guerbet peut reprendre son programme de déploiement, avec en ligne de mire les États-Unis, la zone LATAM et les pays d’Asie pour lesquels le déploiement de l’ERP n’avait pas encore été réalisé.

En parallèle, Guerbet va faire évoluer son ERP SAP S/4HANA, selon une feuille de route définie lors de la conversion (et des sessions de présentation aux métiers). La société a d’ores et déjà mis en œuvre un système de prise de commandes sur le Web, intégré avec l’ERP et déployé sur la SAP Business Technology Platform. D’autres projets sont à l’étude :

  • l’utilisation de RPA (Robotic Process Automation), afin d’automatiser la prise en charge des factures fournisseurs ;
  • le déploiement de SAP Cash Application, qui permettra de simplifier le processus Order-to-Cash ;
  • l’amélioration de la gestion des stocks, avec la mise en place d’un processus de Product Allocation ;
  • l’utilisation des Embedded Analytics de SAP S/4HANA, notamment pour calculer le délai moyen de paiement.

« Nous envisageons également de continuer à tirer profit de la technologie SAP Fiori, par exemple en l’utilisant au sein d’une application mobile qui permettrait de simplifier la maintenance des équipements présents sur nos lignes de production », conclut Marcello Bellato.

 

The post Industrie de la santé : Guerbet opère sa conversion vers l’ERP SAP S/4HANA avec TeamWork appeared first on SAP France News.

Source de l’article sur sap.com