Articles

Événement sourcing dépassera-t-il la base de données ?

L’Event sourcing est une méthode de plus en plus populaire pour trouver des informations, mais dépassera-t-il la base de données ? Découvrons-le ensemble !

Event sourcing n’est pas un nouveau terme. Si vous travaillez dans le secteur de la technologie, vous avez certainement entendu parler de l’Event sourcing. L’Event sourcing est un outil puissant et est adopté par de nombreuses grandes organisations comme modèle architectural de base de données. Il a la capacité de s’étendre et de répondre aux besoins de l’industrie des données modernes.

Dans cet article, nous allons en apprendre davantage sur l’Event sourcing et pourquoi il gagne en popularité. Nous discuterons également de la question populaire : l’Event sourcing va-t-il surpasser les bases de données ?

L’Event sourcing n’est pas un terme nouveau. Si vous travaillez dans le secteur de la technologie, vous avez sûrement déjà entendu parler de l’Event sourcing. L’Event sourcing est un outil puissant et de nombreuses grandes organisations l’utilisent comme modèle architectural de base de données. Il a la capacité de s’adapter à l’industrie des données modernes et à ses besoins.

Dans cet article, nous allons en apprendre davantage sur l’Event sourcing et comprendre pourquoi il gagne en popularité. Nous discuterons également de la question populaire : l’Event sourcing va-t-il surpasser les bases de données ?

En tant que scientifique enthousiaste qui vient de faire une découverte sensationnelle, je peux affirmer que l’Event sourcing est un outil très puissant pour traiter les données. Il est très flexible et peut être facilement adapté aux besoins des entreprises modernes. De plus, il est très facile à mettre en œuvre et à maintenir. Cela signifie que les entreprises peuvent facilement adapter leurs processus pour s’adapter aux changements constants des données.

De plus, l’Event sourcing offre une meilleure sécurité et une meilleure fiabilité que les bases de données traditionnelles. Les données sont stockées sous forme d’événements, ce qui signifie qu’elles ne peuvent pas être modifiées ou supprimées. Cela permet aux entreprises de garantir la confidentialité et l’intégrité des données.

Enfin, l’Event sourcing est très efficace pour traiter les données à grande échelle. Il peut être facilement adapté aux besoins des entreprises et peut être utilisé pour traiter des volumes massifs de données. De plus, il est très facile à mettre en œuvre et à maintenir, ce qui signifie que les entreprises peuvent facilement adapter leurs processus pour s’adapter aux changements constants des données.

En conclusion, l’Event sourcing est un outil puissant qui peut être utilisé pour traiter les données à grande échelle. Il offre une meilleure sécurité et une meilleure fiabilité que les bases de données traditionnelles et peut être facilement adapté aux besoins des entreprises modernes. Bien qu’il ne soit pas encore aussi populaire que les bases de données traditionnelles, il est en train de gagner en popularité et pourrait bientôt surpasser les bases de données traditionnelles pour traiter les données.

Source de l’article sur DZONE

SAP propose des outils et méthodes pour toutes les étapes de la migration vers l’ERP intelligent SAP S/4HANA. Des solutions qui pourront être complétées par la méthodologie et les outils de SOA People, afin d’accélérer et de sécuriser encore plus ce processus.

L’approche Move to SAP S/4HANA, complétée par les méthodologies et outils de SOA People, offre de mieux préparer, mener et réussir son projet de migration vers l’ERP intelligent SAP S/4HANA. Un outillage qui permet aux entreprises d’envisager sereinement leur projet de migration.

Premier temps : la préparation

« Le premier temps est celui de la réflexion, celui du quand, du comment… et du combien », résume Christian Charvin, Head of Program Move to SAP S/4HANA chez SAP. SAP fournit un ensemble d’outils qui permettent de mener la réflexion de bout en bout, en mesurant précisément quel effort devra être fourni et quels gains attendre.

SOA People ajoute à ceci un outil spécifiquement dédié à la construction du business case, Performer. « Performer va se brancher sur l’ERP du client, en extraire les données de façon anonyme et évaluer le niveau de performance de l’entreprise par rapport à son utilisation de l’ERP, explique Pierre-Edouard Hamon, Presales Director, SOA People. À cet effet, le client va être comparé à un panel d’entreprises représentatives. Ceci permet d’évaluer son niveau de maturité en vue de la migration vers SAP S/4HANA, puis de proposer des plans d’action adaptés, comprenant les améliorations recommandées. Ce plan d’action permet d’évaluer les coûts de mise en œuvre du projet, mais aussi les gains potentiels attendus, qu’ils soient uniques ou récurrents. »

Techniquement, les outils proposés par SAP sont capables de proposer une approche similaire : SAP Process Dicovery crée une image de l’utilisation de l’ERP. SAP Transformation Navigator définit le paysage applicatif et fonctionnel, suivant le périmètre et les améliorations choisis. Enfin, SAP Value LifeCycle Manager construit le business case. Performer présente toutefois plusieurs atouts : une couverture plus large en matière de domaines fonctionnels ; plus d’indicateurs mesurés (2600, contre 1380 chez SAP) : une meilleure automatisation du processus.

Second temps : la migration

Les conversion factories ont le vent en poupe. Les conversion factories assurent une migration technique, sans modification massive des processus. Elles permettent de basculer de SAP ECC vers SAP S/4HANA dans des délais courts, avec un minimum de changements fonctionnels. Une fois cette étape réalisée, les processus peuvent être revus avec les métiers, de façon progressive et suivant les priorités fixées par l’entreprise. Une approche à privilégier lorsque le saut technologique est important : passage de SAP ECC à SAP S/4HANA ou passage d’un environnement sur site à une solution en mode cloud, comme RISE with SAP.

« L’emploi d’une conversion factory permet d’industrialiser toutes les étapes de la migration, à périmètre constant, avec parfois la modification de quelques processus clés. Cette méthode permet de capitaliser sur les investissements réalisés précédemment, en reprenant les paramétrages de l’ERP et en convertissant les spécifiques existants. Quant à la conduite du changement, elle peut être ajustée, en ne déployant pas d’entrée de jeu l’intégralité des nouveautés de SAP S/4HANA », explique Christian Charvin.

« Nous sommes tellement fans de l’approche conversion factory que nous proposons un outil de conversion automatisée capable d’assurer automatiquement certaines tâches (finance, gestion des immobilisations, business partners…), ainsi que la conversion de 93% à 95% des spécifiques, ajoute Pierre-Edouard Hamon. La conversion des spécifiques est réalisée à l’aide d’un moteur d’intelligence artificielle autoapprenant très efficace. À un point tel que nous avons réussi à assurer la migration technique d’un industriel en seulement trois mois ! »

Troisième temps : les travaux post-migration

Une conversion réussie nécessite l’alignement des bonnes personnes, des bonnes méthodes et des bons outils. Toutefois, deux aspects sont à considérer après la conversion, et tout au long du cycle de vie de l’ERP : l’amélioration continue et les tests.

Une solution comme Signavio permet d’analyser les processus utilisés à un instant T et de les comparer aux bonnes pratiques du secteur. Un outil précieux qui réalignera les processus avec ces bonnes pratiques. « Nous recommandons à nos clients de réaliser régulièrement cette analyse, dans le cadre d’une stratégie d’amélioration continue de leurs processus », poursuit Pierre-Edouard Hamon. Mais également pour s’assurer que leurs processus restent dans un état optimal.

Lorsque l’ERP est déployé dans le cloud, il va évoluer au rythme des évolutions proposées par SAP. Mais même lorsqu’il est déployé sur site, il est recommandé d’assurer des montées de versions régulières pour profiter de l’innovation SAP. Que ce soit lors de la refonte de processus existants ou lors d’une montée de version, les tests – de bon fonctionnement ou de non-régression – sont essentiels. « Des outils comme Tricentis (distribué par SAP) permettent d’industrialiser ce que les clients font encore trop souvent à la main. Cette solution permet pourtant d’accélérer sensiblement la phase de test lors d’une conversion ou d’une montée de version », explique Christian Charvin. « Tricentis permet de réduire la phase de test et de libérer du temps pour se concentrer sur la formation des utilisateurs finaux. C’est un outil qui participe lui aussi à l’adoption de SAP S/4HANA », confirme Pierre-Edouard Hamon.

The post Quels outils pour faciliter la migration vers l’ERP SAP S/4HANA ? appeared first on SAP France News.

Source de l’article sur sap.com

Rail Logistics Europe et VISEO ont mis en œuvre la méthodologie SAP Activate et l’approche Fit-to-Standard afin de créer un core model qui a servi de socle pour déployer SAP S/4HANA Public Cloud sur plus de 50 filiales. Le tout en seulement deux ans et demi.

Au sein du Groupe SNCF, Rail Logistics Europe élabore des solutions de transport de marchandises multimodales et sur-mesure, à travers toute l’Europe.

Rail Logistics Europe, c’est l’expertise de 60 filiales en Europe : commissionnaires de transport, transporteurs ferroviaires, opérateurs de transport combiné et d’autoroutes ferroviaires. Au total, 3 500 personnes pour un chiffre d’affaires de plus de 952 millions d’euros en 2019, dont plus de la moitié est réalisée à l’étranger.

Une volonté d’avoir son propre SI

Afin d’accélérer l’intégration de ces différentes entités au sein du groupe, Rail Logistics Europe a d’abord opté pour différents SI financiers mis à disposition par Geodis. Des outils efficaces, mais vieillissants et imparfaitement alignés avec ses besoins. Certaines filiales de Rail Logistics Europe disposaient par ailleurs de leurs propres SI financiers. À cette hétérogénéité des SI, il fallait également compter avec une hétérogénéité des règles de gestion.

Rail Logistics Europe souhaitait pouvoir disposer de son propre SI. Une solution fiable, performante et harmonisée, qui s’appuierait sur un référentiel commun de règles de gestion. « Pour créer de la valeur et apporter les gains de productivité attendus, Il nous est apparu nécessaire d’apporter une dose d’uniformisation et de rationalisation dans notre paysage applicatif… et d’aller vite », explique Nicolas Bismuth, Responsable MOA Finance chez Rail Logistics Europe. L’entreprise souhaitait en effet déployer le nouvel ERP sur l’ensemble de ses filiales, sur les domaines Finance, Achats et Ventes, dans un délai de seulement deux années et demie.

Après une phase de cadrage, consistant à recueillir les besoins de chaque filiale, Rail Logistics Europe a lancé le projet Opera et interrogé les principaux éditeurs d’ERP en mode SaaS. C’est le binôme SAP / VISEO qui a été retenu, avec la solution SAP S/4HANA Public Cloud. Cette dernière répondant en effet aux critères de périmètre fonctionnel et d’ergonomie exprimés, tout en libérant Rail Logistics Europe de la gestion d’une infrastructure via son approche SaaS. Mais plus que cela, c’est la méthodologie SAP Activate qui a été l’une des raisons clés de ce choix. « Au travers de la méthodologie SAP Activate, nous avions la promesse d’atteindre notre objectif de déploiement rapide de la solution sur le périmètre géographique et fonctionnel fixé », explique Nicolas Bismuth.

Pour sa mise en place sur leurs différents sites, Rail Logistics Europe s’est tourné vers VISEO, et ce pour plusieurs raisons :

  • Sa connaissance de la solution SAP S/4HANA Public Cloud et de la méthodologie SAP Activate
  • L’engagement de ses équipes pour atteindre les objectifs ambitieux de déploiement
  • Ses équipes orientées Cloud incitant à adopter les meilleures pratiques de la solution
  • Sa relation avec l’éditeur SAP, indispensable pour ce type de projet

Coller au plus près des standards

Pour assurer la réussite du projet Opera, Rail Logistics Europe et VISEO ont dû appliquer plusieurs principes clés :

  • Travailler en équipe : avec 50 filiales très indépendantes et autonomes, il est essentiel de réunir consultants, décideurs et utilisateurs clés au sein d’une même équipe. Le tout en faisant preuve de flexibilité, afin de s’adapter aux différentes spécificités de ces filiales.
  • Travailler en collaboration avec SAP : avec le cloud, il faut savoir interagir avec l’éditeur, qui met à la disposition les environnements de développement et de production. Mais aussi un CSM (Customer Success Manager), chargé de suivre le bon déroulement du projet.
  • Respecter la méthodologie Activate : pour réussir le projet, il est indispensable de respecter la méthode fournie, qui permet d’apporter des garanties en termes de rapidité de déploiement, de qualité des délivrables et de revue des différents jalons par le CSM.
  • Coller aux standards : en mode cloud, il est important de s’appuyer sur les bonnes pratiques et d’adhérer aux standards. Pour chaque processus, Rail Logistics Europe s’est appuyé sur le scope item SAP S/4HANA Public Cloud le plus adapté.

Un core model déployé tambour battant

L’enjeu principal de Rail Logistics Europe et de VISEO a été de définir le core model du projet Opera. Entre juin et septembre 2018, une trentaine d’ateliers ont été menés, afin de définir des règles de gestion communes sur le périmètre fonctionnel comptabilité, contrôle de gestion, achats et facturation client.

En seulement six mois, avec l’aide de la méthodologie SAP Activate et de l’approche Fit-to-Standard, ce core model est devenu réalité et a été déployé sur le site pilote de Captrain France. « Cela a été vraiment un acte fondateur du projet, explique Nicolas Bismuth. Nous avons démontré notre capacité à construire un core model et à le déployer au sein d’une filiale sur l’ensemble du périmètre fonctionnel cible en seulement 6 mois. »

Une fois le core model validé, le déploiement de SAP S/4HANA Public Cloud a été lancé site par site. Aujourd’hui, 58 entités légales sont déployées sur Opera et de nouveaux déploiements au sein des filiales Captrain Polska et Fret SNCF sont prévus en 2021. A fin 2021, environ 580 collaborateurs utiliseront l’outil Opera.

« La promesse initiale, qui était d’être capable de déployer rapidement, s’est révélée juste. Le planning que nous suivons aujourd’hui est celui qui avait été validé avec le binôme SAP / VISEO au moment du cahier des charges, » confirme Nicolas Bismuth.

Le début d’une longue aventure

Le programme est encore récent, mais le ressenti global des utilisateurs est d’ores et déjà plutôt positif. Reste que Rail Logistics Europe a dû apprendre à s’adapter au monde du cloud. Ne plus recourir systématiquement à des développements spécifiques pour coller aux standards nécessite de revoir chaque processus, mais également d’assurer l’accompagnement au changement des équipes métiers.

Les montées de version trimestrielles de SAP S/4HANA Public Cloud requièrent également des adaptations. Il lui faut en effet évaluer les nouvelles fonctionnalités apportées par chaque nouvelle version et effectuer des tests avant déploiement, afin de repérer d’éventuelles régressions.

Ces mises à jour trimestrielles se traduisent toutefois par toujours plus de valeur apportée aux utilisateurs. Rail Logistics Europe s’est ainsi déjà penché sur les tableaux de bord et le reporting, au travers de l’utilisation de SAP Analytics Cloud Embedded. L’entreprise envisage maintenant d’augmenter le périmètre fonctionnel de son ERP, notamment en évaluant l’utilisation des innovations mises à disposition. Elle s’est même lancée dans l’adoption d’autres solutions SAP en mode Cloud comme Success Factors

The post Rail Logistics Europe (groupe SNCF) rationalise son SI avec SAP S/4HANA Public Cloud et VISEO appeared first on SAP France News.

Source de l’article sur sap.com

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

La modélisation des données correspond au processus de création de diagrammes de flux de données. Lors de la création d’une structure de base de données, qu’elle soit nouvelle ou non, le concepteur commence par élaborer un diagramme illustrant la façon dont les données entreront et sortiront de la base de données. Ce diagramme est utilisé pour définir les caractéristiques des formats et structures de données, ainsi que des fonctions de gestion de base de données, afin de répondre efficacement aux exigences des flux de données. Une fois la base de données créée et déployée, le modèle de données servira de documentation expliquant les motifs de création de la base de données ainsi que la manière dont les flux de données ont été conçus.

Le modèle de données résultant de ce processus établit une structure de relations entre les éléments de données dans une base de données et sert de guide d’utilisation des données. Les modèles de données sont un élément fondamental du développement et de l’analyse de logiciels. Ils fournissent une méthode standardisée pour définir et mettre en forme les contenus de base de données de manière cohérente dans les systèmes, ce qui permet à diverses applications de partager les mêmes données.


Pourquoi la modélisation des données est-elle importante ?

Un modèle de données complet et optimisé permet de créer une base de données logique et simplifiée qui élimine la redondance, réduit les besoins en stockage et permet une récupération efficace. Elle dote également tous les systèmes de ce que l’on appelle une « source unique de la vérité », ce qui est essentiel pour assurer des opérations efficaces et garantir une conformité vérifiable aux réglementations et exigences réglementaires. La modélisation des données est une étape clé dans deux fonctions vitales d’une entreprise numérique.

Projets de développement logiciel (nouveaux ou personnalisations) mis en place par le service informatique

Avant de concevoir et de créer un projet logiciel, il doit exister une vision documentée de ce à quoi ressemblera le produit final et de son comportement. Une grande partie de cette vision concerne l’ensemble de règles de gestion qui régissent les fonctionnalités souhaitées. L’autre partie est la description des données : les flux de données (ou le modèle de données) et la conception de la base de données qui les prendra en charge.

La modélisation des données est une trace de cette vision et fournit une feuille de route pour les concepteurs de logiciels. Grâce à la définition et à la documentation complètes des flux de données et de la base de données, ainsi qu’au développement des systèmes conformément à ces spécifications, les systèmes devraient être en mesure de fournir les fonctionnalités attendues requises pour garantir l’exactitude des données (en supposant que les procédures ont été correctement suivies).

Analyses et visualisation (ou Business Intelligence) : un outil de prise de décision clé pour les utilisateurs

Avec l’augmentation des volumes de données et le nombre croissant d’utilisateurs, les entreprises ont besoin de transformer les données brutes en informations exploitables pour prendre des décisions. Sans surprise, la demande en analyse des données a augmenté de façon spectaculaire. La visualisation des données rend les données encore plus accessibles aux utilisateurs en les présentant sous forme graphique.

Les modèles de données actuels transforment les données brutes en informations utiles qui peuvent être transposées dans des visualisations dynamiques. La modélisation des données prépare les données pour l’analyse : nettoyage des données, définition des mesures et des dimensions, amélioration des données par l’établissement de hiérarchies, la définition d’unités et de devises et l’ajout de formules.


Quels sont les types de modélisation des données ?

Les trois types de modèles de données clés sont le modèle relationnel, le modèle dimensionnel et le modèle entité-association. Il en existe d’autres qui ne sont pas communément utilisés, notamment les types hiérarchique, réseau, orienté objet et à plusieurs valeurs. Le type de modèle définit la structure logique, à savoir comment les données sont stockées, organisées et extraites.

  1. Type relationnel : bien qu’« ancien » dans son approche, le modèle de base de données le plus couramment utilisé aujourd’hui est le relationnel, qui stocke les données dans des enregistrements au format fixe et organise les données dans des tables avec des lignes et des colonnes. Le type de modèle de données le plus basique comporte deux éléments : des mesures et des dimensions. Les mesures sont des valeurs numériques, telles que les quantités et le chiffre d’affaires, utilisées dans les calculs mathématiques comme la somme ou la moyenne. Les dimensions peuvent correspondre à des valeurs numériques ou textuelles. Elles ne sont pas utilisées dans les calculs et incluent des descriptions ou des emplacements. Les données brutes sont définies comme une mesure ou une dimension. Autres termes utilisés dans la conception de base de données relationnelle : « relations » (la table comportant des lignes et des colonnes), « attributs » (colonnes), « nuplets » (lignes) et « domaine » (ensemble de valeurs autorisées dans une colonne). Bien qu’il existe d’autres termes et exigences structurelles qui définissent une base de données relationnelle, le facteur essentiel concerne les relations définies dans cette structure. Les éléments de données communs (ou clés) relient les tables et les ensembles de données. Les tables peuvent également être explicitement liées, comme une relation parent/enfant, y compris les relations dites un-à-un (one-to-one), un-à-plusieurs (one-to-many) ou plusieurs-à-plusieurs (many-to-many).
  2. Type dimensionnel : moins rigide et structurée, l’approche dimensionnelle privilégie une structure de données contextuelle davantage liée à l’utilisation professionnelle ou au contexte. Cette structure de base de données est optimisée pour les requêtes en ligne et les outils d’entreposage de données. Les éléments de données critiques, comme une quantité de transaction par exemple, sont appelés « faits » et sont accompagnés d’informations de référence appelées « dimensions », telles que l’ID de produit, le prix unitaire ou la date de la transaction. Une table de faits est une table primaire dans un modèle dimensionnel. La récupération peut être rapide et efficace (avec des données pour un type d’activité spécifique stockées ensemble), mais l’absence de relations peut compliquer l’extraction analytique et l’utilisation des données. Étant donné que la structure des données est liée à la fonction qui produit et utilise les données, la combinaison de données produites par divers systèmes (dans un entrepôt de données, par exemple) peut poser des problèmes.
  3. Modèle entité-association (modèle E-R) : un modèle E-R représente une structure de données métier sous forme graphique contenant d’une part des boîtes de différentes formes pour représenter des activités, des fonctions ou des « entités », et d’autre part des lignes qui représentent des dépendances, des relations ou des « associations ». Le modèle E-R est ensuite utilisé pour créer une base de données relationnelle dans laquelle chaque ligne représente une entité et comporte des zones qui contiennent des attributs. Comme dans toutes les bases de données relationnelles, les éléments de données « clés » sont utilisés pour relier les tables entre elles.

Quels sont les trois niveaux d’abstraction des données ?

Il existe de nombreux types de modèles de données, avec différents types de mises en forme possibles. La communauté du traitement des données identifie trois types de modélisation permettant de représenter les niveaux de pensée au fur et à mesure que les modèles sont développés.

Modèle de données conceptuel

Ce modèle constitue une « vue d’ensemble » et représente la structure globale et le contenu, mais pas le détail du plan de données. Il s’agit du point de départ standard de la modélisation des données qui permet d’identifier les différents ensembles de données et flux de données dans l’organisation. Le modèle conceptuel dessine les grandes lignes pour le développement des modèles logiques et physiques, et constitue une part importante de la documentation relative à l’architecture des données.

Modèle de données logique

Le deuxième niveau de détail est le modèle de données logique. Il est étroitement lié à la définition générale du « modèle de données » en ce sens qu’il décrit le flux de données et le contenu de la base de données. Le modèle logique ajoute des détails à la structure globale du modèle conceptuel, mais n’inclut pas de spécifications pour la base de données en elle-même, car le modèle peut être appliqué à diverses technologies et divers produits de base de données. (Notez qu’il peut ne pas exister de modèle conceptuel si le projet est lié à une application unique ou à un autre système limité).

Modèle de données physique

Le modèle de base de données physique décrit comment le modèle logique sera réalisé. Il doit contenir suffisamment de détails pour permettre aux techniciens de créer la structure de base de données dans les matériels et les logiciels pour prendre en charge les applications qui l’utiliseront. Il va sans dire que le modèle physique est spécifique à un système logiciel de base de données en particulier. Il peut exister plusieurs modèles physiques dérivés d’un seul et même modèle logique si plusieurs systèmes de base de données seront utilisés.

Processus et techniques de modélisation des données

La modélisation des données est par essence un processus descendant qui débute par l’élaboration du modèle conceptuel pour établir la vision globale, puis se poursuit avec le modèle logique pour s’achever par la conception détaillée contenue dans le modèle physique.

L’élaboration du modèle conceptuel consiste principalement à mettre des idées sous la forme d’un graphique qui ressemble au diagramme des flux de données conçu par un développeur.

Les outils de modélisation des données modernes peuvent vous aider à définir et à créer vos modèles de données logiques et physiques et vos bases de données. Voici quelques techniques et étapes classiques de modélisation des données :

  • Déterminez les entités et créez un diagramme entité-association. Les entités sont considérées comme des « éléments de données qui intéressent votre entreprise ». Par exemple, « client » serait une entité. « Vente » en serait une autre. Dans un diagramme entité-association, vous documentez la manière dont ces différentes entités sont liées les unes aux autres dans votre entreprise, et les connexions qui existent entre elles.
  • Définissez vos faits, mesures et dimensions. Un fait est la partie de vos données qui indique une occurrence ou une transaction spécifique, comme la vente d’un produit. Vos mesures sont quantitatives, comme la quantité, le chiffre d’affaires, les coûts, etc. Vos dimensions sont des mesures qualitatives, telles que les descriptions, les lieux et les dates.
  • Créez un lien de vue de données à l’aide d’un outil graphique ou via des requêtes SQL. Si vous ne maîtrisez pas SQL, l’option la plus intuitive sera l’outil graphique : il vous permet de faire glisser des éléments dans votre modèle et de créer visuellement vos connexions. Lors de la création d’une vue, vous avez la possibilité de combiner des tables et d’autres vues dans une sortie unique. Lorsque vous sélectionnez une source dans la vue graphique et que vous la faites glisser dans une source déjà associée à la sortie, vous pouvez soit la joindre, soit créer une union de ces tables.

Les solutions analytiques modernes peuvent également vous aider à sélectionner, filtrer et connecter des sources de données à l’aide d’un affichage graphique de type glisser-déposer. Des outils avancés sont disponibles pour les experts en données qui travaillent généralement au sein des équipes informatiques. Toutefois, les utilisateurs peuvent également créer leurs propres présentations en créant visuellement un modèle de données et en organisant des tables, des graphiques, des cartes et d’autres objets pour élaborer une présentation basée sur des analyses de données.


Exemples de modélisation des données

Pour toute application, qu’elle soit professionnelle, de divertissement, personnelle ou autre, la modélisation des données est une étape préalable nécessaire à la conception du système et à la définition de l’infrastructure nécessaire à sa mise en œuvre. Cela concerne tout type de système transactionnel, de suite d’applications de traitement des données, ou tout autre système qui collecte, crée ou utilise des données.

La modélisation des données est essentielle pour l’entreposage de données car un entrepôt de données est un référentiel de données provenant de plusieurs sources, qui contiennent probablement des données similaires ou liées, mais disponibles sous des formats différents. Il est nécessaire de mapper en premier lieu les formats et la structure de l’entrepôt afin de déterminer comment manipuler chaque ensemble de données entrant pour répondre aux besoins de la conception de l’entrepôt, afin que les données soient utiles pour l’analyse et l’exploration de données. Le modèle de données est alors un catalyseur important pour les outils analytiques, les systèmes d’information pour dirigeants (tableaux de bord), l’exploration de données et l’intégration à tous les systèmes et applications de données.

Dans les premières étapes de conception de n’importe quel système, la modélisation des données est une condition préalable essentielle dont dépendent toutes les autres étapes pour établir la base sur laquelle reposent tous les programmes, fonctions et outils. Le modèle de données est comparable à un langage commun permettant aux systèmes de communiquer selon leur compréhension et leur acceptation des données, comme décrit dans le modèle. Dans le monde actuel de Big Datad’apprentissage automatiqued’intelligence artificiellede connectivité Cloudd’IdO et de systèmes distribués, dont l’informatique en périphérie, la modélisation des données s’avère plus importante que jamais.


Évolution de la modélisation des données

De façon très concrète, la modélisation des données est apparue en même temps que le traitement des données, le stockage de données et la programmation informatique, bien que le terme lui-même n’ait probablement été utilisé qu’au moment où les systèmes de gestion de base de données ont commencé à évoluer dans les années 1960. Il n’y a rien de nouveau ou d’innovant dans le concept de planification et d’architecture d’une nouvelle structure. La modélisation des données elle-même est devenue plus structurée et formalisée au fur et à mesure que davantage de données, de bases de données et de variétés de données sont apparues.

Aujourd’hui, la modélisation des données est plus essentielle que jamais, étant donné que les techniciens se retrouvent face à de nouvelles sources de données (capteurs IdO, appareils de localisation, flux de clics, réseaux sociaux) et à une montée des données non structurées (texte, audio, vidéo, sorties de capteurs brutes), à des volumes et à une vitesse qui dépassent les capacités des systèmes traditionnels. Il existe désormais une demande constante de nouveaux systèmes, de nouvelles structures et techniques innovantes de bases de données, et de nouveaux modèles de données pour rassembler ces nouveaux efforts de développement.


Quelle est la prochaine étape de la modélisation des données ?

La connectivité des informations et les grandes quantités de données provenant de nombreuses sources disparates (capteurs, voix, vidéo, emails, etc.) étendent le champ d’application des projets de modélisation pour les professionnels de l’informatique. Internet est, bien sûr, l’un des moteurs de cette évolution. Le Cloud est en grand partie la solution car il s’agit de la seule infrastructure informatique suffisamment grande, évolutive et agile pour répondre aux exigences actuelles et futures dans un monde hyperconnecté.

Les options de conception de base de données évoluent également. Il y a dix ans, la structure dominante de la base de données était relationnelle, orientée lignes et utilisait la technologie traditionnelle de l’espace disque. Les données du grand livre ou de la gestion des stocks d’un système ERP standard étaient stockées dans des dizaines de tables différentes qui doivent être mises à jour et modélisées. Aujourd’hui, les solutions ERP modernes stockent des données actives dans la mémoire à l’aide d’une conception en colonnes, ce qui réduit considérablement le nombre de tables et accroît la vitesse et l’efficacité.

Pour les professionnels du secteur, les nouveaux outils en libre-service disponibles aujourd’hui continueront à s’améliorer. De nouveaux outils seront également introduits pour rendre la modélisation et la visualisation des données encore plus simples et plus collaboratives.


Synthèse

Un modèle de données bien pensé et complet est la clé du développement d’une base de données véritablement fonctionnelle, utile, sécurisée et exacte. Commencez par le modèle conceptuel pour présenter tous les composants et fonctions du modèle de données. Affinez ensuite ces plans dans un modèle de données logique qui décrit les flux de données et définit clairement les données nécessaires et la manière dont elles seront acquises, traitées, stockées et distribuées. Le modèle de données logique donne lieu au modèle de données physique spécifique à un produit de base de données et constitue le document de conception détaillé qui guide la création de la base de données et du logiciel d’application.

Une bonne modélisation des données et une bonne conception de base de données sont essentielles au développement de bases de données et de systèmes d’application fonctionnels, fiables et sécurisés, qui fonctionnent bien avec les entrepôts de données et les outils analytiques, et facilitent l’échange de données entre les partenaires et entre les suites d’application. Des modèles de données bien pensés aident à garantir l’intégrité des données, ce qui rend les données de votre entreprise encore plus précieuses et fiables.


Découvrez les outils modernes de modélisation des données de SAP Data Warehouse Cloud

En savoir plus


 

The post Qu’est-ce que la modélisation des données ? appeared first on SAP France News.

Source de l’article sur sap.com

Intermarché, enseigne alimentaire du Groupement Les Mousquetaires s’appuie sur les solutions de procurement Ariba de SAP pour assurer la fluidité et l’efficacité de sa chaine d’approvisionnement et de distribution, afin de répondre au mieux aux enjeux contemporains et aux attentes toujours grandissantes des consommateurs. Grâce à un outil intégré, les différents corps de métiers peuvent collaborer via une seule interface et selon des processus communs, ce qui permet une vision globale sur l’ensemble des flux et un suivi de tous les indicateurs de performance, favorisant la prise de décision et une réponse rapide et fiable aux besoins de l’entreprise et de ses clients.

Le contexte de crise sanitaire et les différentes formes de restrictions de mobilité qui ont traversé le territoire cette dernière année ont montré combien il était important pour une entreprise d’assurer la solidité et la fiabilité de sa chaîne d’approvisionnement.

L’épidémie de la Covid-19 a également accéléré les évolutions des comportements des consommateurs, et il tient à cœur à Intermarché de répondre présent face à ces nouveaux enjeux, c’est pourquoi le groupe a opéré sa transformation. La digitalisation de la vie professionnelle s’accompagne aussi de la digitalisation des modes de consommation, avec un recours plus fréquent au e-commerce. Les enjeux sociétaux et environnementaux font désormais partie intégrante de l’équation lors des choix de consommation des clients. L’hygiène et les impératifs sanitaires ont été exacerbés par la crise. Suite à la crise économique qui résulte de l’épidémie, les consommateurs sont plus que jamais à la recherche de prix très attractifs.

Une solution pour assurer la bonne traçabilité des produits marques de distributeurs et répondre mieux aux attentes des consommateurs.

La stratégie d’Intermarché repose sur six piliers. Le relai « Producteurs & Commerçants », qui est l’ADN d’Intermarché, implique de disposer d’un outil industriel efficient et réactif. Le retravail constant et l’optimisation des recettes, afin de répondre aux attentes des consommateurs désireux de manger mieux. Communiquer sur les avantages des produits Intermarché pour les consommateurs, et leur apporter toutes les informations qu’ils recherchent. Des activations promotionnelles pour répondre aux attentes des clients sur les prix des produits. Des prix bas toute l’année et une forte compétitivité prix, surtout au regard de la crise économique que nous traversons. Une transformation pour plus d’agilité, afin de s’adapter au monde en constante évolution.

La qualité de l’alimentation est plus que jamais au cœur des préoccupations des consommateurs, notamment via les gammes de produits bio. Les solutions Procurement SAP Ariba permettent à Intermarché d’assurer la bonne traçabilité de ses produits, et de répondre aux attentes des clients désireux d’en savoir plus sur la qualité et l’origine des produits qu’ils consomment. Pour assurer cette traçabilité, Intermarché peut s’appuyer sur la méthode et l’efficacité de l’outil Ariba. Celui-ci permet de suivre et analyser les données, afin de piloter et optimiser la chaine d’approvisionnement en fonction des demandes des consommateurs. Enfin, la fluidité des informations entre les collaborateurs et les fournisseurs de production est assurée par l’intégration à cet outil unique.

Une transformation engagée grâce à un outil unique adapté à l’ensemble des profils et corps de métier.

Pour faire face à la croissance du nombre d’appels d’offre et du nombre de fournisseurs, la complexité grandissante des références et l’impératif de toujours réduire le time to market pour répondre aux attentes des consommateurs, il était crucial pour Intermarché de pouvoir s’appuyer sur un outil intégré de pilotage, c’est pourquoi le groupe a choisi les solutions Achats SAP Ariba.

Le programme de transformation d’Intermarché se base sur cinq objectifs :

  1. Améliorer la qualité et l’échange de l’information entre les services et avec le fournisseur.
  2. Disposer de l’agilité nécessaire pour anticiper les événements et problématiques, tels que les renouvellements d’appels d’offres etc.
  3. Homogénéiser les processus d’approvisionnement.
  4. Piloter tous les services et processus, et mettre en place des KPIs.
  5. Améliorer le time to market; les distributeurs producteurs se doivent d’être rapides pour répondre immédiatement aux demandes des consommateurs.

Proposant une vaste variété de produits en marques de distributeurs (frais, épicerie, alimentaire hors import), les 59 usines intégrées au Groupement Les Mousquetaires et les 600 fournisseurs d’Intermarché collaborent au travers d’un outil unique, pour gérer les achats, identifier et anticiper les besoins, suivre l’historique, simplifier les appels d’offre, piloter l’entreprise via des processus homogènes et des indicateurs de performance communs.

Aujourd’hui, les collaborateurs Intermarché se sont approprié l’outil, et l’implantation d’Ariba est une réussite. La collaboration est facilitée par l’intégration sur un outil unique des différents profils et corps de métier qui interviennent tout au long de la chaine de valeurs. Le time to market a été multiplié par 2,25, avec un time to market moyen passé de 18 mois à 8 mois pour les marques de distributeurs. Le groupe ne cache pas ses ambitions de l’abaisser à 6 voire 3 mois en profitant pleinement des capacités proposées par les solutions SAP Ariba.

« La réussite de notre programme de transformation repose sur trois facteurs majeurs. D’abord, mettre les équipes au cœur du projet, les questionner sur les besoins et défis, pour les intégrer à la mise en place de la solution. Ensuite, rester simples et pragmatiques, et ne pas perdre de vue les objectifs de départ. Enfin, anticiper et accompagner le changement, en parallèle de l’élaboration de l’outil, est une clé de réussite. Les collaborateurs et les fournisseurs ont pris en main cet outil, ce qui est un très bon indicateur du succès du projet. Il y a énormément de positif dans ce qui est en train de se passer. » témoignent Matthieu Bidan, chef d’entreprise Intermarché à Gratentour (31) et  Guillaume Delpech, en charge de la direction des Achats Marques Propres Intermarché – Netto.

À propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com .

Contacts presse SAP
Daniel Margato, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Pauline Barriere : 06.13.73.93.11 – presse-sap@publicisconsultants.com
SAP News Center. Suivez SAP sur Twitter : @SAPNews.

 

The post Intermarché choisit les solutions SAP Ariba pour optimiser sa chaîne de valeur et répondre aux attentes des consommateurs appeared first on SAP France News.

Source de l’article sur sap.com

L’upskilling des effectifs est depuis longtemps une priorité pour les organisations. Aujourd’hui, alors que les dirigeants réagissent aux perturbations mondiales, avec pour beaucoup un personnel en télétravail, ils s’appuient plus que jamais sur les technologies et les systèmes de gestion de la formation (LMS).

La crise mondiale du COVID-19 et l’instabilité économique obligent de nombreuses entreprises à « faire plus avec moins » en matière de reskilling et d’upskilling. Heureusement, les technologies de formation sont suffisamment matures pour que les entreprises puissent choisir parmi une gamme de fonctionnalités adaptées à leurs besoins et à leur budget.

Lorsque Discovery, compagnie d’assurance multinationale est passée au travail à distance, les RH ont identifié qu’environ 500 de ses collaborateurs n’étaient pas productifs. Plutôt que de chercher des solutions de court terme pour améliorer la productivité, la compagnie s’est focalisée sur la préparation du personnel aux métiers de l’avenir, par le reskilling. La priorité de l’entreprise reste ses salariés – et cela inclut de les équiper pour demain.

En période de croissance comme de crise les dirigeants s’efforcent de trouver les meilleures solutions pour leurs collaborateurs. Par exemple, les hôpitaux, les instituts de recherche et les organismes de santé répondent aux besoins du personnel de première ligne en créant des technologies de formation et des ressources éducatives visant à prévenir et limiter l’exposition au COVID-19.

Bien que les dernières avancées changent la donne pour les LMS, tous les investissements technologiques ne conviennent pas nécessairement à toutes les entreprises. Voici les éléments que les entreprises peuvent considérer lorsqu’elles investissent dans une nouvelle solution.

1. Des fonctionnalités liées à vos objectifs

Lorsqu’on choisit parmi toutes les options proposées par les technologies de formation, la première chose à vérifier est que les fonctionnalités répondent aux besoins, aux objectifs et à la stratégie des effectifs de l’entreprise. Pour beaucoup d’organisations, des plates-formes flexibles et ouvertes peuvent être nécessaires pour prendre en charge les nombreux éléments critiques.

Par exemple, une entreprise énergétique pourrait limiter l’accès à une zone particulière d’une installation nucléaire aux employés ayant complété une formation obligatoire et certifiante. L’entreprise aurait alors besoin d’un système de gestion de la formation (LMS) capable d’intégrer la certification des employés à ses formations et opérations sensibles.

De même, une entreprise pharmaceutique pourrait avoir besoin de valider l’apprentissage pour se conformer aux réglementations nationales sur les médicaments. Une solution qui offre de l’innovation au niveau de l’écosystème, y compris des applications partenaires, peut fournir des fonctionnalités supplémentaires et flexibles tout au long du cycle de vie des collaborateurs (y compris lors du recrutement, de l’onboarding, du développement et de la gestion de la succession). Si certaines grandes entreprises peuvent avoir besoin de solutions ouvertes qui prennent en charge divers cas d’utilisation, d’autres peuvent vouloir une solution adaptée à un secteur spécifique, comme l’éducation ou la santé. Quoi qu’il en soit, les entreprises devrait prendre le temps de rechercher la technologie pouvant soutenir au mieux leurs objectifs.

2. Flexibilité

De nombreuses entreprises ayant des sites multiples ou un important personnel auront besoin d’un LMS orienté entreprise si elles s’engagent dans le reskilling de centaines voire de centaines de milliers d’employés.

Avec la généralisation du télétravail, les PME/ETI peuvent également avoir besoin d’un LMS qui puisse être étendu au domicile de leurs employés de manière sûre et efficace. Les technologies d’apprentissage mobiles accessibles en déplacement, y compris sur smartphones, pourraient améliorer l’adoption par les télétravailleurs et les employés qui manquent de temps de formation dédié, comme les commerciaux terrain.

Si les outils qui intègrent des formations en réalité virtuelle (VR) ou en réalité augmentée (AR) ne sont peut-être pas adaptés à toutes les situations, ils peuvent être utiles pour préparer les collaborateurs à des situations d’urgence ou à des scénarios uniques. Ces technologies émergentes sont un excellent exemple de la manière dont les outils de formation modernes peuvent aider les entreprises à relever de nouveaux défis et aider les collaborateurs à se perfectionner et se requalifier.

Walmart, par exemple, a formé plus d’un million d’employés en 2019 à la réalité virtuelle afin de proposer un apprentissage immersif. L’entreprise a également envoyé des casques VR dans les magasins pour entraîner les employés à la mise en place d’une machine qui récupère les commandes passées en ligne. Se libérant ainsi de la nécessité d’envoyer plusieurs personnes pour l’assembler, l’entretenir et dispenser une formation.

Qu’ils travaillent dans le retail, sur des plateformes pétrolières ou dans des exploitations agricoles, de nombreux employés pourraient atteindre de nouveaux niveaux de productivité et d’engagement grâce à des solutions personnalisables et flexibles.

3. Collaboration entre les employés – et les employeurs

Dans de nombreux cas, permettre aux collaborateurs de piloter leur apprentissage peut améliorer l’adoption des programmes, l’engagement et la culture de l’apprentissage. De nombreux employés réagiront positivement à l’upskilling itératif. Lequel leur apporte un sentiment d’appartenance et de fierté. Cet upskilling itératif peut par exemple prendre la forme de vidéos produites par les collaborateurs et partagées avec leurs collègues.

L’apprentissage social peut apporter des avantages à un personnel en télétravail. En atténuant l’isolement, l’anxiété et le manque de motivation auxquels les équipes peuvent être confrontées. Les social boards, chats et « missions » gamifiées sont quelques-unes des caractéristiques des LMS qui peuvent améliorer la collaboration tout en maintenant la distanciation physique. Les managers peuvent également utiliser ces fonctionnalités pour cibler les compétences qui correspondent aux nouvelles priorités et encourager les équipes à atteindre leurs objectifs.

4. La gestion du changement en support  

Intégrer un programme d’upskilling dans toute l’entreprise est une initiative majeure qui relève de la gestion du changement. L’alignement des valeurs, des personnes et de la culture d’entreprise pour atteindre un résultat souhaité ne viendra pas uniquement de l’adoption d’une nouvelle technologie. La gestion du changement occupe une place essentielle dans les discussions relatives à l’expérience de formation. Et ce pour au moins trois raisons.

  • Premièrement, s’assurer que la technologie est adaptée à l’organisation et au personnel permet d’augmenter son taux d’adoption et d’en tirer meilleur parti.
  • Deuxièmement, une gestion du changement réactive et basée sur les données permet de prolonger la durée de vie de la technologie.
  • Troisièmement, l’intégration d’une technologie de formation dans une organisation requiert une gouvernance. Elle nécessite notamment d’affecter la responsabilité sur les rôles et les données segmentées que vous pouvez collecter. De nombreux experts du reskilling vous diront que la gouvernance est toute aussi importante, si ce n’est plus, que la technologie de formation elle-même.

Les RH ne sont pas les seuls à investir dans ces solutions. La majorité des utilisateurs sont rattachés à la sécurité, conformité et formation à la vente. Alors que les budgets restent serrés et que des tensions peuvent surgir entre les services pour savoir qui doit avoir le contrôle des priorités en matière de reskilling et d’upskilling, les fonctionnalités des LMS devraient fournir un vrai retour sur investissement (ROI). Les bénéfices peuvent inclure le gain de temps lié à la recherche et au partage d’informations ; ou l’augmentation des revenus (ou réduction des coûts) résultant de la normalisation des technologies et du soutien à la formation. Par exemple, une étude indépendante sur SAP Jam, réalisée par Forrester Consulting, a révélé que le ROI moyen a augmenté de 18,5 % entre 2016 et 2018, les clients ayant trouvé davantage de façons d’utiliser la plateforme de collaboration.

Pour soutenir la gestion du changement qui accompagne l’introduction d’une nouvelle technologie, les entreprises doivent chercher des solutions qui offrent la possibilité de bêta-tester, d’itérer et d’adapter cette technologie aux besoins des collaborateurs. Les logiciels d’entreprise doivent offrir un support client aux dirigeants et aux employés pour une expérience d’apprentissage sans faille.

« De nombreux experts du reskilling vous diront que la gouvernance est toute aussi importante, si ce n’est plus, que la technologie de formation elle-même »

5. Méfiez-vous des mots à la mode et restez concentré sur vos collaborateurs

Les LMS d’aujourd’hui peuvent utiliser des technologies de pointe comme l’intelligence artificielle (IA) et le machine learning pour fournir tout ce qui est nécessaire, du coaching aux plans de développement des collaborateurs. Et ce à une échelle jamais atteinte auparavant. Mais alors que les dirigeants évaluent les options de LMS qui offrent ces nouvelles technologies et ces mots à la mode, il est important qu’ils restent d’abord engagés dans une stratégie des effectifs axée sur les objectifs de l’entreprise.

Si des fonctions comme la gamification et l’apprentissage social peuvent avoir un impact majeur pour certaines organisations, elles peuvent manquer de pertinence pour d’autres. Pour de nombreuses organisations, l’apprentissage classique en salle avec un formateur pourrait encore avoir toute sa place à l’avenir. L’écoute continue des collaborateurs fournira des informations utiles pour répondre à leurs besoins et concevoir une expérience d’apprentissage efficace.

De nombreux experts de l’upskilling conviendront que la formation et l’upskilling est un défi pour les employés et les employeurs. Alors que les entreprises investissent massivement dans les nouvelles technologies, l’objectif premier est d’investir efficacement dans le personnel.

La stratégie à long terme d’une entreprise en matière d’effectifs ne se limite pas au système de gestion de la formation (LMS) qu’elle a choisi. La gestion de l’expérience de formation inclut les nouvelles compétences et connaissances que les personnes vont acquérir ainsi qu’une méthode de travail efficace et agile. Un excellent programme d’upskilling aidera les collaborateurs à pivoter vers les nouveaux rôles qu’ils devront occuper demain et à soutenir l’innovation de rupture dans toute l’entreprise.

Publié en anglais sur insights.sap.com

The post Comment les technologies de formation et les LMS supportent l’upskilling appeared first on SAP France News.

Source de l’article sur sap.com

Le 7 Octobre 2020 SAP a annoncé la disponibilité générale de SAP S/4HANA 2020 :  la sixième version de SAP S/4 HANA vient d’apparaitre avec toujours plus d’innovations à la clé.

Avec la version 2020 de SAP S/4HANA on poursuit la logique d’innovation continue avec des nouveautés fonctionnelles disponibles sur l’ensemble des processus finance.

Ces nouveautés sont immédiatement opérationnelles et disponibles lors de la sortie de la nouvelle version On Premise car elles ont été préalablement implémentées et testées depuis des mois dans la version Cloud de SAP S/4HANA.

Le document What’s new in SAP S/4HANA 2020 récapitule de façon exhaustive toutes les nouveautés apportées par cette version dans les différents domaines de la solution. Cette nouvelle version comporte des centaines d’innovations uniquement dans le domaine de la Finance et il est impossible de toutes les présenter ici. A titre d’illustration, nous vous proposons de passer en revue quelques-unes des nouveautés les plus remarquables :

Par exemple, dans le domaine de la comptabilité générale et bancaire, la nouvelle version réduit l’utilisation des comptes généraux, notamment des comptes bancaires, en simplifiant les processus de gestion des relations bancaires. L’utilisation des mêmes ensembles de comptes de rapprochement bancaire et de comptes d’attente pour la connectivité de la banque société réduit considérablement le nombre de comptes généraux requis pour les processus de paiement. Cette méthode offre également l’avantage de faciliter la gestion du plan comptable.

Dans le domaine de la clôture financière, avec SAP S/4HANA for Group Reporting, les équipes de consolidation peuvent générer simultanément des résultats dans plusieurs devises du groupe dans un seul processus de clôture. Ceci améliore l’efficacité et l’automatisation lorsque vous travaillez avec différentes devises dans le  groupe ou plusieurs taux de conversions de devise, par exemple pour une conversion à taux de change constants pour le reporting comparatif.

 

 

Dans la gestion des Clients et le contrôle de Crédit, un ensemble d’états de reporting avancés a été développé sur SAP Analytics Cloud avec pour objectif de donner les moyens au crédit manager d’améliorer le pilotage du contrôle crédit.  Ces états de reporting, nativement intégrés dans SAP S/4HANA, sont alimentés en temps réel par les flux des ventes et ouvrent la possibilité d’effectuer du drill-down vers les transactions opérationnelles.

 

 

Dans ce même domaine, une autre innovation réside dans la création d’une application Fiori qui donne accès à un cockpit de pilotage permettant une vue à 360° de toutes les informations nécessaires au contrôle crédit d’un partenaire donné. On peut ainsi accéder depuis un même endroit aux information générales sur le profil de crédit, des informations par segment et leurs limites et taux d’utilisation, une balance âgée synthétique, les commandes en attente d’approbation et même des informations sur des assurances ou garanties collatérales éventuelles. La navigation est ainsi grandement facilitée, les informations clés regroupées et disponibles de façon rapide, souvent dans un format graphique : voici un bel exemple d’innovation mise en œuvre pour faciliter l’adoption de la solution et assurer la meilleure expérience possible à l’utilisateur.

La plateforme SAP Central Finance a été optimisée dans la version SAP S/4HANA 2020 avec la mise à disposition de solutions d’intégration développées avec Magnitude dans le cadre du partenariat Solution Extension :

  • SAP Central Finance Data Harmonization by Magnitude
  • SAP Central Finance Transaction Replication by Magnitude

 

 

Central Finance permet la réplication des transactions des opérations issues de différentes sources dans une instance unique SAP S/4HANA, ce qui génère d’importants avantages liés à la centralisation, par exemple dans le cadre du reporting,  la comptabilisation des allocations, les opérations inter-sociétés ou la mise en place et opération de centres de services.

Ces nouvelles solutions d’intégration permettent de faciliter et d’accélérer l’intégration des données tout en fiabilisant le processus et en réduisant le TCO de Central Finance.

Deux autres innovations remarquables dans Central Finance :

  • La fonctionnalité de ventilation à la pièce est désormais disponible dans Central Finance et ceci même lorsque les systèmes SAP source n’en disposent pas.
  • Concernant le contrôle budgétaire, le budget des ordres internes peut être géré désormais de manière centrale dans SAP Central Finance grâce au suivi de la consommation de celui-ci dans les systèmes sources.

En conclusion, la version 2020 de SAP S/4HANA comporte une grande quantité de nouveautés qui méritent d’être découvertes lors d’une prochaine formation chez SAP France.


Voici le lien vers le calendrier des formations de H1 2021 afin de choisir celle qui vous convient le plus. Vous pouvez aussi avoir un aperçu des formations susceptibles de vous intéresser à l’aide des différents parcours de formation détaillés dans les  Learning Journeys mis à votre disposition par SAP Training and Adoption France.


 

The post Quoi de neuf dans la Comptabilité Financière avec la release SAP S/4HANA 2020 ? appeared first on SAP France News.

Source de l’article sur sap.com

Les solutions de données basées sur le cloud présentent clairement des avantages, notamment une meilleure flexibilité, une collaboration plus efficace, des coûts réduits et la possibilité de changer d’échelle. Mais ce n’est pas parce que vous voulez passer au cloud afin d’en tirer tous les avantages que vous devez faire une croix sur vos investissements sur site existants.

Une stratégie hybride permet de combiner « le meilleur des deux mondes ». Avec cette approche, vous pouvez évoluer vers le cloud tout en protégeant vos investissements sur site existants. C’est là qu’interviennent SAP Data Warehouse Cloud et SAP HANA Cloud. Ces deux solutions ouvertes se connecteront en toute transparence à votre environnement sur site actuel pour l’étendre au cloud.

Voyons les avantages que présente une stratégie hybride avec SAP Data Warehouse Cloud et SAP HANA Cloud.

Pourquoi choisir SAP HANA Cloud  ?

Gérez des volumes croissants de données tout en réduisant vos coûts de stockage

Le lac de données intégré de SAP HANA Cloud réduit les coûts de stockage et d’analyse des données. Aussi, faites des économies en y conservant vos données. Vous pourrez par la suite y accéder à distance quand vous le souhaitez. Peu importe le volume de vos données, le lac de données est conçu pour le prendre en charge.

Connectez-vous facilement à toutes les sources de données

SAP HANA Cloud est une solution de gestion multi-cloud qui simplifie l’accès aux données quelles qu’elles soient et quelle qu’en soit la source au moyen d’une passerelle unique. SAP HANA Cloud est directement utilisable avec ses agents de mise à disposition des données qui permettent de se connecter à plusieurs sources cloud et magasins d’objets. Quant à la fonctionnalité Smart Data Access (SDA), elle vous offre un accès aux données en temps réel pour tous vos systèmes sur site et cloud à l’aide de tables virtuelles, tout en vous permettant de maîtriser vos coûts.

Stockage In-Memory économique

Le lac de données de SAP HANA Cloud est une simple méthode pour réduire les coûts de stockage. Pour optimiser votre stockage In-Memory actuel sur site, vous pouvez transférer des charges de travail vers SAP HANA Cloud aux fins de traitement et virtualiser l’accès à vos données, tout en gardant vos données sur site.

Faites évoluer votre puissance de calcul ou votre stockage

Lorsque votre entreprise connaît une croissance rapide, vous devez faire changer l’échelle de votre stockage de données et de votre puissance de calcul en conséquence. Étendez rapidement votre productivité sur site sans avoir à investir dans du matériel supplémentaire. Avec SAP HANA Cloud, boostez vos capacités de stockage et améliorez votre puissance de calcul dès que vous en avez besoin. C’est aussi simple que ça !

Pourquoi Geberit a lancé une nouvelle stratégie hybride avec SAP HANA Cloud

À l’instar de nombreuses multinationales performantes, les données sont essentielles pour Geberit. Pour exploiter plus facilement ses données, le leader européen des produits sanitaires a placé SAP HANA Cloud au cœur de sa nouvelle stratégie hybride en matière de données. Grâce à cette solution, l’entreprise a pu rationaliser son environnement informatique et supprimer le besoin en middleware. Aujourd’hui, elle peut accéder à ses données en temps réel de manière centralisée pour prendre des décisions éclairées en temps voulu.

«SAP HANA Cloud sera le point central pour le reporting au sein notre environnement de données. C’est la version unique de vérité qui réunit toutes nos sources de données et qui nous fournit la visibilité dont nous avons besoin.»
– Marius Reck, directeur des applications de support informatique

Pourquoi choisir SAP Data Warehouse Cloud pour étendre votre environnement

Responsabilisez vos utilisateurs et donnez plus d’impact à votre travail

Responsabilisez vos utilisateurs afin qu’ils puissent connecter, modéliser et visualiser les données par eux-mêmes avec SAP Data Warehouse Cloud. Dotée d’une interface utilisateur intuitive et d’une couche métier, cette solution facilite la modélisation des données avec SQL ou un outil graphique par glisser-déposer. Les espaces, quant à eux, fournissent un environnement isolé dans lequel les utilisateurs peuvent modéliser et combiner des ensembles de données mondiaux avec des données locales, par exemple des fichiers CSV.

Grâce à la centralisation et à la virtualisation de SAP Data Warehouse Cloud, les utilisateurs peuvent accéder aux données dont ils ont besoin sans que l’équipe informatique ait à les répliquer et à les exporter. Vous avez besoin d’améliorer un modèle en vue de sa réutilisation dans l’entreprise ? Rien de plus simple. Votre équipe informatique peut y accéder à tout moment pour le mettre à jour, sans avoir à le reconstruire dans un environnement différent.

Répondez plus rapidement aux utilisateurs

Trouvez le bon équilibre entre gouvernance centrale sécurisée, demandes de changement à la volée et responsabilisation des utilisateurs grâce aux espaces de SAP Data Warehouse Cloud. Les espaces sont des environnements isolés dans lesquels les utilisateurs peuvent explorer les données. Dans la fonction de gestion des espaces, l’équipe informatique peut configurer et ajuster très facilement les connexions aux données, l’accès utilisateur et les quotas de calcul/stockage de chaque espace. Étant donné que chaque espace est isolé, les données restent gérées de manière centralisée et connectées en temps réel aux données sous-jacentes de l’entreprise. Dans leur espace, les utilisateurs ont la possibilité d’établir des connexions à de nouvelles sources de données, charger des fichiers locaux et modéliser des données avant de partager en temps réel les informations mises au jour avec d’autres utilisateurs sans affecter l’intégrité des données sous-jacentes.

Un point d’accès unique à toutes vos données

Sans entrepôt de données, il est difficile de garantir la qualité des données. Qui plus est, face à l’augmentation du volume et du nombre de sources de données, votre environnement se complexifie, ce qui peut nuire aux performances et aux analyses. Avec SAP Data Warehouse Cloud, l’équipe informatique peut consolider les données et tirer profit de services ETL/ELT, comme la mise en place de pipelines ou la transformation des données, pour créer une couche de données robuste et très performante.

L’équipe informatique ou les utilisateurs peuvent ensuite définir l’accès aux données en créant et en gérant des modèles de données complexes. En parallèle, la couche métier de SAP Data Warehouse Cloud mappe les concepts métier aux données sous-jacentes, afin qu’un plus grand nombre d’utilisateurs puissent comprendre et modéliser les données par eux-mêmes.

Atténuez la menace du Shadow IT

SAP Data Warehouse Cloud est une solution de bout en bout qui répond à tous les besoins de vos collaborateurs, depuis l’intégration jusqu’à la modélisation en passant par l’analyse, ce, afin de limiter le recours à des solutions ad hoc. Elle est également ouverte, ce qui permet d’y connecter les outils tiers dont vos collaborateurs se servent et de les gérer de manière centralisée. Peu importe la fonction ou le service de vos collaborateurs, SAP Data Warehouse Cloud vous permet de définir des autorisations claires et d’attribuer des rôles aux utilisateurs. Grâce aux espaces, l’équipe informatique dispose d’une visibilité à l’échelle de l’entreprise et peut gérer les différentes sources de données et connexions de manière centralisée.

Porsche étend SAP BW/4HANA vers le cloud avec SAP Data Warehouse Cloud

Porsche souhaitait entamer la transformation numérique d’un plus grand nombre de ses collaborateurs. Le groupe automobile avait déjà plusieurs systèmes en place, notamment des systèmes SAP (tels que SAP BW/4HANA et SAP ERP) et des systèmes tiers. Il ne souhaitait donc pas rajouter d’énièmes systèmes à cette organisation. Ce dont Porsche avait besoin, c’était d’une couche virtuelle unique pour connecter l’ensemble de ces systèmes et optimiser le flux des données. Le tout, dans un environnement géré pour éviter les éventuelles erreurs.

C’est ce qu’a permis l’extension de SAP BW/4HANA vers le cloud avec SAP Data Warehouse Cloud, entre autres choses.

«Nous avions besoin d’une solution qui réunirait l’ensemble de nos systèmes existants et qui ferait en sorte que chaque utilisateur final ait accès aux données dont il a besoin, et uniquement à ces données. SAP Data Warehouse Cloud était la solution idéale pour transformer notre architecture de données sans avoir à dépenser un montant colossal.»
– Markus Hartmann, directeur de la gestion des projets informatiques chez Porsche

Commencez petit et voyez grand

Chaque entreprise a une transition vers le cloud différente. Que l’objectif soit de responsabiliser les utilisateurs ou de créer une version unique de la réalité, SAP HANA Cloud et SAP Data Warehouse Cloud offrent la flexibilité dont vous avez besoin.

SAP HANA Cloud et SAP Data Warehouse Cloud ne nécessitent aucun investissement préalable, et c’est SAP qui s’occupe de la gestion et de la maintenance. Vous souhaitez évaluer vos besoins ? Pas de problème. Lancez plusieurs projets pilotes et voyez ce qu’il vous faut. C’est là l’atout de ces deux solutions : grâce à leur approche flexible, vous pouvez commencer petit et évoluer au fil du temps. Par la suite, vous pouvez mettre en place une solution hybride à long terme pour tirer tous les avantages du cloud et des systèmes sur site, ou passer intégralement au cloud. À vous de voir !

The post Pourquoi choisir une stratégie hybride pour passer au cloud appeared first on SAP France News.

Source de l’article sur sap.com

Agile manifesto, Boehm, EVO, Deming

Ils ont en commun de s’appuyer sur des concepts de gestion de projet itératif, incrémental et adaptative.
Mais quid de l’oeuf ou la poule ?

Apparu en 2001, Agile manifesto a démocratisé la terminologie « Agile » en regroupant au sein d’un même référentiel diverses méthodes itératives de développement de produit.
Historiquement les méthodes RAD, DSDM, XP Extreme programming et Scrum sont les principales représentation de ces méthode et poussent des principes de planification pilotée par les résultats des tests utilisateurs ou l’auto-organisation des équipes et l’apprentissage de groupe.

Avant cela ?

Barry Boehm en 1986 a formalisé une approche itérative des tâches selon un processus en spirale.

Agile manifesto, Boehm, EVO, Deming : La spirale de Boehm

4 étapes dans l’approche itératives

1. Définition de l’objectif à atteindre
2. Évaluation des risques
3. Conception et tests
4. Mesure des écarts entre le livrable et l’objectif

Retour à 1. pour l’objectif suivant…

Avant cela ?

En 1976, Evo (Evolutionary Project Management), aborde la mise en place d’un processus organisationnel dynamique pour permettre la prise en compte des changements et nouvelles idées aussi souvent qu’on le souhaite au sein d’un projet.
Cette approche étant stimulée pour générer le maximum de valeur ajoutée auprès des acteurs.

Avant cela ?

Le statisticien William Edwards Deming  à popularisé dans les années 1950 un outil développé par Walter A. Shewhart.

La symbolique est une roue qui tourne selon un cycle PDCA (Plan-Do-Check-Act).

Roue de Deming

 

 

 

Cet outil d’amélioration continue a été intégré au sein de la méthode de gestion de la Qualité Kaisen.

On est la aussi dans une logique d’itération.

Avant cela ?

Rien de clairement identifié…

Donc

Agile manifesto, Boehm, EVO, Deming, même principes fondamentaux…

Au final, Deming n’a-t-il pas initié un mouvement sans cesse renouvelé et amélioré ?
Et la roue n’a pas finie de tourner…