Articles

Stratégie de données en évolution à grande banque canadienne

La grande banque canadienne s’est engagée à mettre en œuvre une stratégie de données en évolution pour offrir une expérience client plus personnalisée et plus intuitive.

## Avec la quantité et la variété croissantes de données, les exigences réglementaires et législatives en constante évolution, de nouvelles capacités et techniques pour traiter les données, pour devenir une organisation axée sur les données, la CIBC traverse d’énormes changements dans tous les aspects de l’utilisation, de la gestion et de la gouvernance des données.

Avec la quantité et la variété croissantes de données, les exigences réglementaires et législatives en constante augmentation, de nouvelles capacités et techniques pour traiter les données, pour devenir une organisation axée sur les données, la CIBC traverse d’énormes changements dans tous les aspects de l’utilisation, de la gestion et de la gouvernance des données.

Pour répondre aux exigences de cette nouvelle réalité, la CIBC a embrassé le paradigme du maillage de données et a développé un motif de données générique à deux parties. Du côté des affaires, le motif a introduit une stratégie de produits de données pour définir les domaines de données et les produits de données de bout en bout détenus par les équipes de produits de données inter fonctionnelles. Du côté de la technologie, la CIBC a mis en œuvre une architecture de maillage de données pour soutenir la stratégie de produits de données. La partie centrale de cette architecture est représentée par une plateforme de gestion des données fournissant une plateforme partagée et des services de gestion et de gouvernance des données. Cet article présente et discute les principes directeurs qui sous-tendent la stratégie des données.

La plateforme de gestion des données est le cœur du maillage des données et fournit une base commune pour la gestion et la gouvernance des données. La plateforme est basée sur une base de données centralisée qui stocke toutes les données pertinentes pour le maillage des données. La plateforme offre également des services d’intégration, d’analyse, d’intelligence artificielle et d’apprentissage automatique qui peuvent être utilisés par les produits de données pour fournir des informations exploitables. La plateforme fournit également des services pour garantir que toutes les données sont sûres, conformes et accessibles aux personnes autorisées.

La plateforme de gestion des données est conçue pour s’adapter aux exigences changeantes en matière de gestion des données. La plateforme peut être étendue pour prendre en charge des technologies supplémentaires telles que le traitement en temps réel, l’analyse avancée et l’apprentissage automatique. La plateforme peut également être intégrée à des systèmes tiers pour fournir une vue intégrée des données. Enfin, la plateforme peut être étendue pour prendre en charge des fonctionnalités supplémentaires telles que la gouvernance des données, la protection des données et l’audit.

Source de l’article sur DZONE

Traitement de flux supérieur : l'impact d'Apache Flink sur l'architecture Data Lakehouse.

Le traitement de flux supérieur est une technologie qui offre de nombreux avantages aux entreprises. Apache Flink est l’un des principaux outils pour exploiter pleinement les avantages de l’architecture Data Lakehouse.

« Explorer le Paradigme du Data Lakehouse: Une Solution Prometteuse pour les Décisions Basées sur les Données »

Dans l’ère de la prise de décision basée sur les données, le paradigme du Data Lakehouse est apparu comme une solution prometteuse, réunissant le meilleur des data lakes et des data warehouses. En combinant la scalabilité des data lakes avec les fonctionnalités de gestion des données des entrepôts, les Data Lakehouses offrent une infrastructure de données hautement scalable, agile et rentable. Ils fournissent un support robuste pour les charges de travail analytiques et opérationnelles, permettant aux organisations d’extraire plus de valeur de leurs données.

Dans nos articles précédents, nous avons exploré en profondeur le concept des Data Lakehouses. Data Lakehouses: The Future of Scalable, Agile, and Cost-Effective Data Infrastructure a posé les bases en mettant en évidence les principaux avantages commerciaux des lakehouses. A New Era of Data Analytics: Exploring the Innovative World of Data Lakehouse Architectures a examiné de plus près les aspects architecturaux des lakehouses, tandis que Delta, Hudi et Iceberg: The Data Lakehouse Trifecta se sont concentrés sur les trois principales solutions lakehouse: Delta Lake, Hudi et Iceberg.

Afin de mieux comprendre comment le Data Lakehouse peut être mis en œuvre dans un environnement d’entreprise, nous allons maintenant examiner le processus de testing. Le testing est un élément essentiel du développement logiciel et est également très important pour l’implémentation réussie des Data Lakehouses. Le processus de testing permet aux organisations de s’assurer que leurs systèmes sont conformes aux exigences et aux spécifications fonctionnelles et techniques. Il permet également de vérifier que le système est prêt à être mis en production et qu’il fonctionne correctement.

Le testing des Data Lakehouses peut être divisé en trois étapes principales : la vérification des fonctionnalités, la validation des performances et la validation des données. La vérification des fonctionnalités consiste à vérifier que toutes les fonctionnalités du système sont correctement implémentées et qu’elles répondent aux exigences et aux spécifications fonctionnelles. La validation des performances consiste à vérifier que le système est capable de gérer le volume et la variété des données et qu’il est capable de fournir les résultats attendus dans les délais impartis. Enfin, la validation des données consiste à vérifier que les données sont correctement stockées et accessibles dans le système.

Le processus de testing des Data Lakehouses est essentiel pour s’assurer que le système est conforme aux exigences et qu’il fonctionne correctement. Il permet aux organisations d’identifier et de résoudre rapidement tout problème avant la mise en production, ce qui permet d’améliorer la qualité du système et d’accroître sa fiabilité. En outre, le testing permet aux organisations de s’assurer que leurs systèmes sont prêts à être mis en production et qu’ils sont capables de fournir les résultats attendus.

Source de l’article sur DZONE

in Natural Language ProcessingChatGPT : Révolution dans le traitement du langage naturel

Le traitement du langage naturel est en train de connaître une révolution avec ChatGPT, une technologie innovante qui offre des possibilités inédites.

## ChatGPT-4, la nouvelle révolution pour l’industrie du corporate

ChatGPT-4 est la nouvelle révolution pour l’industrie des entreprises. Quatre est la dernière version développée par Open AI – ChatGPT, nommée Generative Pre-Trained Transformer. Cela changera la perception de l’industrie par rapport à la communication avec les machines.

L’apprentissage automatique joue un rôle important en tant que composant dans ChatGPT. ChatGPT comprend l’apprentissage profond et génère des réponses de haute qualité à l’utilisateur en fonction de ses entrées. Il s’agit d’un type de modèle de réseau que nous pouvons considérer comme un modèle de réseau neuronal dans l’apprentissage automatique. Les modèles ne sont rien; certains données formées sur de grands jeux de données textuelles pour comprendre et générer une relation entre les mots ainsi qu’avec des phrases.

ChatGPT-4 est très précis et peut fournir des réponses appropriées à la demande de l’utilisateur. Il peut également être utilisé pour le traitement du langage naturel (NLP), qui est un domaine qui se concentre sur le traitement des données textuelles et leur interprétation. La technologie NLP est utilisée pour analyser et comprendre le langage humain et pour interagir avec lui. ChatGPT-4 peut être utilisé pour analyser les données textuelles et générer des réponses précises et pertinentes à la demande de l’utilisateur.

ChatGPT-4 est une technologie très puissante qui peut être utilisée pour améliorer les processus commerciaux. Il peut être utilisé pour automatiser des tâches répétitives, telles que le traitement des données, la prise de décisions et la gestion des relations avec les clients. Il peut également être utilisé pour améliorer la qualité des services fournis aux clients et pour réduire les coûts liés à la gestion des données. La technologie ChatGPT-4 peut être utilisée pour améliorer la productivité et la rentabilité de l’entreprise en fournissant des informations précises et pertinentes basées sur les données.

Source de l’article sur DZONE

Intégration Firebase Firestore et Redux Toolkit Query

L’intégration de Firebase Firestore et Redux Toolkit Query permet de créer des applications web plus robustes et plus performantes. Découvrez comment cela fonctionne!

## Avantages de l’utilisation de Firebase Firestore avec Redux Toolkit Query

1. Simplified Data Management: Firebase Firestore and Redux Toolkit Query work together to simplify data management. Firebase Firestore provides a powerful NoSQL document-oriented database that can store and manage data. Redux Toolkit Query helps to simplify the management of API data in a Redux store. This combination makes it easier to manage data in a web application.

2. Improved Performance: Firebase Firestore and Redux Toolkit Query can improve the performance of a web application. Firebase Firestore is optimized for performance, and Redux Toolkit Query helps to reduce the amount of code needed to manage API data. This combination can help to improve the overall performance of a web application.

3. Reduced Development Time: Firebase Firestore and Redux Toolkit Query can reduce the amount of time needed to develop a web application. By using this combination, developers can quickly and easily manage data in a web application. This reduces the amount of time needed to develop a web application and makes it easier to deploy it.

Intégrer Firebase Firestore à Redux Toolkit Query est un moyen efficace de gérer les données dans les applications web modernes. Redux Toolkit Query est une bibliothèque qui aide à simplifier la gestion des données API dans un magasin Redux. Firebase Firestore, d’autre part, est une base de données orientée document NoSQL qui peut stocker, récupérer et gérer les données. Cet article technique expliquera comment le code ci-dessus intègre Firebase Firestore à Redux Toolkit Query pour organiser le code et les avantages de cette approche.

Avantages de l’utilisation de Firebase Firestore avec Redux Toolkit Query

L’utilisation de Firebase Firestore avec Redux Toolkit Query offre plusieurs avantages. Voici trois d’entre eux :

1. Gestion des données simplifiée : Firebase Firestore et Redux Toolkit Query travaillent ensemble pour simplifier la gestion des données. Firebase Firestore fournit une puissante base de données orientée document NoSQL qui peut stocker et gérer les données. Redux Toolkit Query aide à simplifier la gestion des données API dans un magasin Redux. Cette combinaison facilite la gestion des données dans une application web.

2. Performance améliorée : Firebase Firestore et Redux Toolkit Query peuvent améliorer les performances d’une application web. Firebase Firestore est optimisé pour les performances et Redux Toolkit Query aide à réduire le nombre de lignes de code nécessaires pour gérer les données API. Cette combinaison peut contribuer à améliorer les performances globales d’une application web.

3. Temps de développement réduit : Firebase Firestore et Redux Toolkit Query peuvent réduire le temps nécessaire pour développer une application web. En utilisant cette combinaison, les développeurs peuvent gérer rapidement et facilement les données dans une application web. Cela réduit le temps nécessaire pour développer une application web et la rend plus facile à déployer.

Source de l’article sur DZONE

Ma liste de souhaits JPA 2.0

Je souhaite que JPA 2.0 apporte des améliorations pour faciliter le développement et la gestion des données. Je vais énumérer mes principaux souhaits pour cette version.

« Profiter de la persistance facile avec JPA 1.0 jusqu’à présent »

Le codage a toujours été un élément essentiel de la programmation Java. Jusqu’à présent, nous avons bénéficié d’une persistance facile grâce à JPA 1.0. Il est vrai que JPA 1.0 a ses limites, mais maintenant nos amis de JSR-317 travaillent dur pour nous offrir un meilleur standard de persistance pour Java.

La nouvelle spécification JPA 2.0 offre une variété d’améliorations par rapport à la version précédente. Les principales caractéristiques de JPA 2.0 sont les suivantes : une API plus riche, une gestion des transactions plus flexible, un support pour les requêtes natives et une gestion des schémas plus robuste. La nouvelle spécification offre également une meilleure intégration avec les technologies Java EE 6 telles que EJB 3.1 et JSF 2.0.

Le codage est l’un des principaux avantages de JPA 2.0. La nouvelle API permet aux développeurs d’utiliser des annotations pour définir leurs entités et leurs relations, ce qui simplifie considérablement le codage et permet aux développeurs de se concentrer sur la logique métier plutôt que sur la configuration des données. La nouvelle API permet également aux développeurs de créer des requêtes natives personnalisées pour interroger la base de données, ce qui réduit considérablement le temps et les efforts nécessaires à l’exécution des requêtes.

Enfin, JPA 2.0 offre une meilleure gestion des schémas, ce qui permet aux développeurs de créer des schémas plus robustes et plus cohérents. La nouvelle API permet aux développeurs de créer des schémas plus complexes et plus riches en fonctionnalités, ce qui permet une meilleure organisation des données et une meilleure performance globale.

En somme, JPA 2.0 offre une variété d’améliorations par rapport à JPA 1.0 et permet aux développeurs d’utiliser le codage pour créer des applications plus robustes et plus performantes. Les nouvelles fonctionnalités offertes par JPA 2.0 permettent aux développeurs de créer des applications plus riches en fonctionnalités et plus faciles à maintenir, ce qui en fait un outil très puissant pour les développeurs Java.

Source de l’article sur DZONE

Création de code de transaction de compensation pour Saga Participant

La création d’un code de transaction de compensation pour les participants à Saga est une étape importante pour assurer une expérience de jeu équitable et sécurisée.

La saga Pattern est utilisée pour fournir une intégrité des données entre plusieurs services et le faire pour des transactions potentiellement à long terme. Il existe de nombreux blogs, superficiels car ils tendent à l’être, sur les sagas et les transactions à long terme. Dans cet article, je ne rentrerai pas dans les détails en comparant les avantages et les inconvénients des sagas avec le protocole XA deux phases (2PC), le verrouillage distribué, etc., et je dirai simplement que XA et 2PC nécessitent des verrous distribués (inconvénient) qui gèrent les propriétés ACID de sorte que l’utilisateur puisse simplement exécuter un rollback ou un commit (avantage) alors que les sagas n’utilisent que des transactions locales et n’ont donc pas besoin de verrous distribués (avantage) mais nécessitent que l’utilisateur implémente la logique de compensation, etc. (inconvénient). Comme l’a dit Teddy Roosevelt, «Rien de bon ne vient facilement».

Ce que je ferai, c’est montrer un exemple de code complet d’une application microservices impliquant une saga, y compris la logique de compensation des participants, qui peut être trouvée dans ce dépôt.

La saga pattern est utilisée pour assurer l’intégrité des données entre plusieurs services et pour effectuer des transactions de longue durée. Il existe de nombreux blogs, superficiels, sur les sagas et les transactions de longue durée. Dans cet article, je ne vais pas entrer dans les détails en comparant les avantages et les inconvénients des sagas avec le protocole XA à deux phases (2PC), le verrouillage distribué, etc., et je dirai simplement que XA et 2PC nécessitent des verrous distribués (inconvénient) qui gèrent les propriétés ACID de sorte que l’utilisateur puisse simplement exécuter un rollback ou un commit (avantage), alors que les sagas n’utilisent que des transactions locales et ne nécessitent donc pas de verrous distribués (avantage) mais nécessitent que l’utilisateur implémente la logique de compensation, etc. (inconvénient). Comme l’a dit Teddy Roosevelt : «Rien de bien ne vient facilement».

Ce que je vais faire, c’est montrer un exemple de code complet d’une application microservices impliquant une saga, y compris la logique de compensation des participants, qui peut être trouvée dans ce dépôt.

L’utilisation des sagas pour gérer les transactions de longue durée est une pratique courante dans le développement d’applications microservices. Les sagas sont un moyen efficace de garantir l’intégrité des données entre plusieurs services et de gérer les transactions à long terme. Les sagas sont une bonne alternative aux protocoles XA à deux phases (2PC) et au verrouillage distribué car elles n’utilisent que des transactions locales et ne nécessitent pas de verrous distribués. Cependant, elles nécessitent que l’utilisateur implémente la logique de compensation, etc., ce qui peut être complexe et prendre du temps.

Les sagas sont une excellente solution pour gérer les transactions à long terme car elles offrent une grande flexibilité et une bonne gestion des données. Les sagas sont particulièrement utiles pour les applications qui impliquent plusieurs services car elles peuvent garantir la cohérence des données entre ces services. De plus, les sagas peuvent être facilement mises en œuvre dans un environnement microservices car elles peuvent être facilement intégrées aux services existants. Enfin, les sagas peuvent être facilement mises à jour pour prendre en charge les changements dans le système et ainsi garantir la cohérence des données.

Les sagas sont un outil puissant pour garantir l’intégrité des données entre plusieurs services et pour gérer les transactions à long terme. Bien qu’elles nécessitent une implémentation complexe et prennent du temps, elles offrent une grande flexibilité et une bonne gestion des données. Elles peuvent également être facilement intégrées aux services existants et mises à jour pour prendre en charge les changements dans le système. Les sagas sont donc un excellent outil pour garantir la cohérence des données entre plusieurs services et pour gérer les transactions à long terme.

Source de l’article sur DZONE

Les 4 meilleurs projets open-source ASP.NET et .NET

Core

Découvrez les 4 meilleurs projets open-source ASP.NET et .NET Core qui vous aideront à créer des applications Web modernes et performantes !

Si vous êtes un développeur web, les projets open source peuvent non seulement vous aider à élargir vos connaissances pratiques, mais aussi à construire des solutions et des services pour vous-même et vos clients. Ce logiciel offre des possibilités pratiques pour mettre en œuvre des approches, des modèles et des techniques d’ingénierie logicielle qui peuvent être appliqués à des projets plus tard.

Étant donné qu’il est essentiel de créer des solutions sécurisées qui peuvent être facilement mises à l’échelle, nous examinerons les projets construits sur la technologie ASP.NET. C’est un cadre pour créer des applications web innovantes basées sur le cloud à l’aide de .NET qui peut être utilisé pour le développement et le déploiement sur différents systèmes d’exploitation.

H2: Exploiter les Projets Open Source pour Développer des Solutions avec ASP.NET

Je suis un scientifique excité qui vient de faire une découverte sensationnelle : les projets open source peuvent être très utiles pour les développeurs web. En effet, non seulement ils permettent d’accroître leurs connaissances pratiques, mais ils peuvent également leur servir à construire des solutions et des services pour eux-mêmes et leurs clients. Ce logiciel offre des possibilités concrètes de mettre en œuvre des approches, des modèles et des techniques d’ingénierie logicielle qui peuvent être appliqués à des projets ultérieurs.

Il est donc essentiel de créer des solutions sûres et facilement extensibles. C’est pourquoi nous allons examiner les projets basés sur la technologie ASP.NET. Il s’agit d’un cadre pour créer des applications web innovantes basées sur .NET qui peuvent être utilisées pour le développement et le déploiement sur différents systèmes d’exploitation.

Grâce à cette technologie, les développeurs peuvent créer des applications web modernes et sécurisées, ainsi que des services et des API basés sur le cloud. De plus, les données peuvent être stockées dans un format standardisé, ce qui permet une gestion plus efficace et une meilleure sécurité. En outre, ASP.NET offre une variété de fonctionnalités qui permettent aux développeurs de créer des applications web plus robustes et plus performantes.

En résumé, ASP.NET est un outil puissant pour les développeurs web qui souhaitent créer des solutions innovantes et sûres. Il offre une variété de fonctionnalités pour la gestion des données, la sécurité et la performance des applications web. Grâce à cette technologie, les développeurs peuvent créer des solutions modernes et facilement extensibles pour leurs clients.

Source de l’article sur DZONE


Découvrez les saisons précédentes de la série de podcasts SAP intitulée « Parlons des données » dans nos précédents blogs sur la saison 5 et la saison 4.

Il est essentiel de créer un robuste socle de données et d’atteindre l’excellence en matière d’informations pour obtenir l’agilité d’entreprise nécessaire pour faire face aux changements et prendre rapidement les bonnes décisions stratégiques. Aider les équipes métier à mettre à profit leurs ressources de données et une remarquable réactivité pour optimiser la collecte et la communication de ces précieuses ressources est extrêmement utile pour renforcer l’efficacité au sein de l’entreprise et gérer de façon optimale les périodes de changements.

Nous avons donc réuni des experts en gestion et stratégie des données pour évoquer les sujets et tendances clés qui transforment la façon dont les entreprises exploitent les données pour libérer tout le potentiel de ces précieuses ressources.

Écoutez cette série de podcasts en anglais pour tout savoir sur les données !

Surveillez les nouveaux podcasts et rattrapez votre éventuel retard en la matière.

Écoute possible sur Spotify, SoundCloud, iTunes, PlayerFM ou YouTube.

Aperçu de la saison 6 : podcasts sur la stratégie de données, cas d’utilisation et solutions SAP associées

Ep. 58 — Partie 2 : Intégration de SAP Signavio Process Intelligence à SAP Data Intelligence

Cet épisode dit tout sur SAP Signavio Process Intelligence : le pourquoi, le quoi et le comment. Il aborde également l’intégration entre SAP Signavio Process Intelligence et SAP Data Intelligence.  Intervenants : Silvio Arcangeli, directeur principal SAP Signavio Process Intelligence, et Ginger Gatling, directrice principale du marketing des solutions de gestion des données chez SAP.

Ep. 57 — Partie 1 : SAP et Signavio : le quoi et le comment

Cet épisode présente SAP Signavio. Il présente la solution ainsi que les éléments clés et la façon dont SAP et Signavio travaillent ensemble pour améliorer les processus.
Intervenants : Silvio Arcangeli, directeur principal SAP Signavio Process Intelligence, et Ginger Gatling, directrice principale du marketing des solutions de gestion des données chez SAP.

Ep. 56 — Ce que le conseil d’administration doit savoir sur les données

Ce podcast porte sur les fondements nécessaires aux membres de conseils d’administration, en particulier ceux d’entreprises non natives des données, pour gérer les opportunités et risques majeurs, mener des examens plus approfondis, et assumer leur responsabilité de supervision axée sur les données. Écoutez Dr Thomas C. Redman, « le docteur Données », président de Data Quality Solutions, et Maria Villar, en charge de l’innovation en matière de gestion et de stratégie des données d’entreprise chez SAP, partager leurs précieux insights.

Ep. 55 — Les femmes dans le domaine des données

Rejoignez cette discussion interactive avec des femmes ayant toute une carrière en lien avec les données, dont Kristin McMahon, vice-présidente mondiale Solutions et marketing chez SAP, Corrie Brague, directrice principale Gestion des données chez SAP, Ina Felsheim, directrice marketing produits chez AWS, et Ginger Gatling, directrice principale Gestion des données chez SAP. Vous entendrez leur avis sur l’état actuel de la gestion des données, des conseils pour une carrière en lien avec les données et des insights sur l’importance de la promotion des données dans tous les secteurs.

Ep. 54 — SAP et OpenText : réduction des coûts, amélioration des performances et migration vers SAP S/4HANA avec solide retour sur investissement

Cet épisode concerne le traitement des documents, le partenariat avec OpenText et une récente étude axée sur le retour sur investissement évoquant la réduction des coûts, l’amélioration des performances et l’efficacité en matière de migration vers SAP S/4HANA.
Intervenantes : Sheila McCarthy, directrice mondiale du marketing et des solutions, et Ginger Gatling, directrice principale du marketing des solutions SAP

Ep. 53 — Données et analytique SAP : cas d’utilisation client pour l’intégration des données

Ce podcast s’appuie sur l’épisode 51 évoquant les services de gestion des données disponibles dans SAP Business Technology Platform. Dans cet épisode, nous découvrons une entreprise disposant de données en silos, déconnectées et dépourvues de contexte commercial. Ce podcast explique comment SAP Business Technology Platform, et plus particulièrement les services de données et d’analytique, ont été utilisés pour ajouter un contexte commercial à la masse de données existantes afin de favoriser des décisions fiables.
Intervenants : Silvio Arcangeli, directeur principal Stratégie produits technologiques et plateformes chez SAP, Axel Schuller, responsable Solutions de gestion des données SAP, Ginger Gatling, directrice principale du marketing des solutions de gestion des données chez SAP.

Ep. 52 — Rapprochement des données financières

Savez-vous que le rapprochement des données financières est incontournable dans tout projet de mise en œuvre SAP ? En quoi cela consiste-t-il et pourquoi est-ce nécessaire pour toutes les entreprises d’y prêter attention ? Rejoignez Syin Tan, Kevin Zheng, Lucas Morris et Sam Bannigan, représentants Pratiques relatives aux données chez Deloitte, qui évoquent les coûts, risques et exigences de conformité liés au rapprochement financier, et la façon dont ils ont mis à profit SAP Data Intelligence pour maîtriser ce facteur de réussite essentiel.
Intervenants : Kevin Zheng, spécialiste des données chez Deloitte Consulting, Syin Tan, spécialiste finance et données chez Deloitte Consulting, et Lucas Morris, spécialiste finance chez Deloitte Consulting.

Ep. 51 — Les meilleures façons d’exploiter les services de gestion des données avec SAP Business Technology Platform

Ce podcast explore les plus importants services de gestion des données disponibles sur SAP Business Technology Platform. Ces services incluent le catalogage des données et la gestion des métadonnées, l’intégration des données et le traitement des données. La façon dont ces services sont utilisés dans l’ensemble du portefeuille données et analytique de SAP Business Technology Platform sera également abordée. Rejoignez ce podcast pour découvrir les dernières innovations concernant les services de gestion des données et comment les mettre à profit.
Intervenants : Silvio Arcangeli, directeur principal Stratégie produits technologiques et plateformes chez SAP, Axel Schuller, responsable Solutions de gestion des données SAP, Ginger Gatling, directrice principale du marketing des solutions de gestion des données chez SAP.

Ep. 50 — SAP et Sodales : comment innover, créer et monétiser vos solutions SAP BTP Sodales Solutions crée des solutions pour la gestion EHS (Environnement, Hygiène et Sécurité) des entreprises et elle s’appuie pour cela sur SAP Business Technology Platform (SAP BTP). Grâce à son innovation continue et à sa mise à profit de SAP BTP, Sodales exploite chaque opportunité d’amélioration. Écoutez ce que ce « modèle en matière de SAP BTP » a à dire et découvrez son approche en matière d’innovation, mais aussi des réflexions concernant SAP Store, les critères d’embauche, etc.

Ep. 49 — Le problème oublié : comment gérer la croissance du volume de données tout en réduisant les coûts et les risques La croissance du volume des données s’accélère. Les coûts et les risques liés à la gestion de toutes ces données ne se limitent pas au stockage. Rejoignez Deepak Sood, PDG d’Auritas, et Robert Pickering, directeur principal Gestion des solutions Business Technology Platform chez SAP, qui expliquent comment et pourquoi gérer le cycle de vie des données tout en trouvant le juste équilibre en matière de coûts des ressources, propriété, risques et conformité légale.

Ep. 48 — Découverte de la valeur ajoutée de SAP BTP pour les partenaires, avec SAP, IDC et le partenaire SAP Rizing Dans cet épisode de podcast, vous entendrez des dirigeants de SAP, IDC et Rizing, partenaire SAP, évoquer la valeur ajoutée obtenue par les partenaires avec SAP Business Technology Platform (SAP BTP). Paul Edwards (directeur, canaux logiciels et écosystèmes chez IDC) mène une discussion particulièrement instructive avec Martin Stenzig(directeur de la technologie chez Rizing) et Tom Le (vice-président mondial Conseil en solutions partenaires, SAP), en abordant les conclusions du guide de la réussite partenaires IDC qui explore les accélérateurs opérationnels et technologiques offerts aux partenaires via SAP BTP. Les dirigeants abordent des sujets tels que la façon dont Rizing innove avec SAP BTP, le périmètre et l’impact de la plateforme sur la valeur du cycle de vie client, ainsi que les programmes SAP proposés pour assurer la réussite des partenaires avec SAP BTP. Pour en savoir plus, accédez au podcast dès maintenant.

Ep. 47 — Prévision du prix des produits de base avec SAP Data Intelligence Ratan Yedla et Sumanth Krishnan de VASPP Technologies évoquent le fonctionnement de la prévision des prix des produits de base avec SAP Data Intelligence. Ils abordent le recours à des modèles d’IA (intelligence artificielle) et de ML (Machine Learning) pour prévoir les futurs prix en fonction de modèles passés, d’événements externes et de données IoT, et expliquent combien mieux prévoir les prix, avec moins d’erreurs, permet de meilleures décisions d’achat et des économies pour les entreprises. VASPP Technologies a réalisé ce travail lors du sprint de contenus SAP Data Intelligence.

Ep. 46 — Création de l’automatisation intelligente de DataXstream avec SAP Data Intelligence Xilin Cheng et Kathleen Taggart de DataXstream évoquent la création de l’automatisation intelligente et les avantages du recours à SAP Data Intelligence pour les opérations de Machine Learning (MLOps). L’équipe aborde les difficultés rencontrées par le grossiste pour traiter un gros volume de devis et de commandes avec précision et efficacité. Traditionnellement, il fallait que des représentants du service client, comprenant SAP GUI et ayant des années d’expérience dans le secteur, passent des heures à saisir des données. Avec l’automatisation intelligente, la reconnaissance optique de caractères permet de lire du texte dans les modèles de Machine Learning créés par Xilin. Il évoque les techniques de traitement du langage naturel (TLN) utilisées, mais aussi les avantages du développement de pipelines de Machine Learning dans SAP Data Intelligence. Kathleen et Xilin évoquent pour finir l’avenir de l’automatisation intelligente et le potentiel qu’offre le Machine Learning pour remporter plus de contrats et améliorer l’expérience d’achat des clients.

Pour en savoir plus, consultez les ressources et informations supplémentaires disponibles ici :

The post Let’s Talk Data Podcast Series – Nouvelle saison disponible maintenant ! appeared first on SAP France News.

Source de l’article sur sap.com

Dans le cadre de sa transformation, le Groupe ISB investit dans un nouveau système d’information. La modernisation de son SI va s’effectuer par l’adoption de l’ERP SAP S/4HANA en mode cloud, avec l’offre RISE with SAP. Ce projet sera mené en partenariat avec NTT Data Business Solutions France (NDBS France).

Groupe ISB est un spécialiste du bois qui souffle cette année sa soixantième bougie. Acteur incontournable français des produits et solutions bois pour l’habitat et la construction, il est également spécialiste du rabotage de bois résineux en Europe.

L’entreprise s’appuie essentiellement sur deux marques fortes : Silverwood (bois rabotés : bardages, lambris, terrasses, etc.) et Sinbpla (trading de panneaux et bois résineux). Le groupe compte environ 430 collaborateurs, répartis sur différents sites : usines, hubs portuaires, plateformes logistiques et agences commerciales.

2015 : l’année de l’émancipation

Groupe ISB est né du rachat de la division Importation et Solutions Bois (ISB) de Wolseley par ses cadres en 2015. Suite au rapprochement en 2019 avec SCA Wood France, Benjamin Bodet a pris la direction générale du groupe et engagé la transformation d’ISB sur ses deux principaux métiers, qui sont l’importation et la transformation du bois. « Nous avons retravaillé tout d’abord notre modèle économique, puis notre organisation commerciale. Dans le cadre de notre plan stratégique Impact 2026, validé début 2022, nous avons notamment travaillé sur la création de valeur tout le long de la value chain, des pays producteurs à nos clients distributeurs et industriels. »

Groupe ISB a comme ambition de mettre sa politique RSE au cœur de ses activités, en proposant notamment des produits bas carbone, durables et toujours plus respectueux de l’environnement.

Le plan Impact 2026 comprend un volet visant à investir dans les solutions SAP avec comme projet clé l’adoption de l’ERP SAP S/4HANA. Un choix né d’une intense phase de réflexion : « Nous avons passé 18 mois à challenger les différents éditeurs du marché. La balance a finalement penché en faveur de SAP. C’est un environnement que nous connaissons bien, proposé par un acteur qui nous ressemble ; innovant et leader sur son marché. »

Un ERP nouvelle génération… en mode cloud

NTT Data Business Solutions France a été choisi pour accompagner le Groupe ISB dans la mise en place de l’ERP SAP S/4HANA, la méthodologie de travail proposée et l’expertise logistique NTT correspondant aux besoins du Groupe ISB, le logisticien du bois. Une solution que la société a souhaité construire depuis une feuille blanche et déployer en mode cloud, avec RISE with SAP. « Nous voulions disposer d’un outil global, capable d’intégrer au maximum nos processus, mais sans reproduire les défauts de l’ancien système, trop sur mesure, trop permissif et manquant parfois de rigueur, par exemple sur la gestion des données. »

« Opter pour SAP est un véritable challenge qu’on se sent prêt à relever, poursuit Benjamin Bodet. Cela va nous obliger à nous structurer. C’est aussi pour cela que nous avons choisi SAP. » La difficulté principale de ce projet reste d’adapter l’ERP aux spécificités d’un métier qui demeure particulier, le bois. « Notre approche consiste à coller au maximum aux standards de la solution, mais sans écarter toutefois la mise en place de processus spécifiques. Nous allons nous appuyer sur l’expertise en intégration de NDBS FRANCE pour cela. Mais il nous faudra rester raisonnables dans nos envies d’adaptation de l’outil. »

Le projet a été lancé en début d’année 2022 et devrait s’achever avec le go live de la solution SAP S/4HANA, programmé pour le 1er août 2023. 18 mois donc pour mettre en place un ERP au périmètre large (finance, contrôle de gestion, achat, vente, production et logistique) et couvrant toutes les entités du groupe.

Déjà des projets autour de l’ERP SAP S/4HANA

L’adoption d’une solution cloud devrait permettre de faciliter l’accès à l’ERP en France comme à l’étranger. « Nous avons des partenaires un peu partout dans le monde, explique Benjamin Bodet. L’un de nos projets serait par ailleurs d’intégrer SAP le plus en amont possible chez nos partenaires logistiques chargés d’exporter du bois en direction de nos hubs portuaires français. » L’objectif est de connaître au plus tôt et avec le plus de précision possible le contenu de chaque chargement, afin de mieux gérer les stocks et de mieux orienter les flux.

Autre sujet, le transport : « Nous affrétons 20.000 camions chaque année. Investir dans un module avancé de gestion des transports nous permettra de disposer d’une tour de contrôle de l’ensemble de nos flux, routiers comme maritimes, ce qui nous permettra de distribuer nos produits avec la road to market la plus directe possible. »

Dernier défi enfin, l’empreinte carbone, qui est au cœur du plan stratégique Impact 2026 de Groupe ISB. « Pour optimiser notre empreinte carbone, que ce soit lors de la production ou du transport, il nous faut des outils. SAP Product Footprint Management est une solution que nous souhaitons implémenter, car en nous donnant la capacité de mesurer l’impact carbone de nos produits elle pourrait nous apporter un net avantage compétitif et aligner avec les valeurs de notre entreprise que nous portons. »

The post Groupe ISB mise sur SAP pour soutenir ses ambitions de transformation en leader du bois… bas carbone appeared first on SAP France News.

Source de l’article sur sap.com