Articles

Rail Logistics Europe et VISEO ont mis en œuvre la méthodologie SAP Activate et l’approche Fit-to-Standard afin de créer un core model qui a servi de socle pour déployer SAP S/4HANA Public Cloud sur plus de 50 filiales. Le tout en seulement deux ans et demi.

Au sein du Groupe SNCF, Rail Logistics Europe élabore des solutions de transport de marchandises multimodales et sur-mesure, à travers toute l’Europe.

Rail Logistics Europe, c’est l’expertise de 60 filiales en Europe : commissionnaires de transport, transporteurs ferroviaires, opérateurs de transport combiné et d’autoroutes ferroviaires. Au total, 3 500 personnes pour un chiffre d’affaires de plus de 952 millions d’euros en 2019, dont plus de la moitié est réalisée à l’étranger.

Une volonté d’avoir son propre SI

Afin d’accélérer l’intégration de ces différentes entités au sein du groupe, Rail Logistics Europe a d’abord opté pour différents SI financiers mis à disposition par Geodis. Des outils efficaces, mais vieillissants et imparfaitement alignés avec ses besoins. Certaines filiales de Rail Logistics Europe disposaient par ailleurs de leurs propres SI financiers. À cette hétérogénéité des SI, il fallait également compter avec une hétérogénéité des règles de gestion.

Rail Logistics Europe souhaitait pouvoir disposer de son propre SI. Une solution fiable, performante et harmonisée, qui s’appuierait sur un référentiel commun de règles de gestion. « Pour créer de la valeur et apporter les gains de productivité attendus, Il nous est apparu nécessaire d’apporter une dose d’uniformisation et de rationalisation dans notre paysage applicatif… et d’aller vite », explique Nicolas Bismuth, Responsable MOA Finance chez Rail Logistics Europe. L’entreprise souhaitait en effet déployer le nouvel ERP sur l’ensemble de ses filiales, sur les domaines Finance, Achats et Ventes, dans un délai de seulement deux années et demie.

Après une phase de cadrage, consistant à recueillir les besoins de chaque filiale, Rail Logistics Europe a lancé le projet Opera et interrogé les principaux éditeurs d’ERP en mode SaaS. C’est le binôme SAP / VISEO qui a été retenu, avec la solution SAP S/4HANA Public Cloud. Cette dernière répondant en effet aux critères de périmètre fonctionnel et d’ergonomie exprimés, tout en libérant Rail Logistics Europe de la gestion d’une infrastructure via son approche SaaS. Mais plus que cela, c’est la méthodologie SAP Activate qui a été l’une des raisons clés de ce choix. « Au travers de la méthodologie SAP Activate, nous avions la promesse d’atteindre notre objectif de déploiement rapide de la solution sur le périmètre géographique et fonctionnel fixé », explique Nicolas Bismuth.

Pour sa mise en place sur leurs différents sites, Rail Logistics Europe s’est tourné vers VISEO, et ce pour plusieurs raisons :

  • Sa connaissance de la solution SAP S/4HANA Public Cloud et de la méthodologie SAP Activate
  • L’engagement de ses équipes pour atteindre les objectifs ambitieux de déploiement
  • Ses équipes orientées Cloud incitant à adopter les meilleures pratiques de la solution
  • Sa relation avec l’éditeur SAP, indispensable pour ce type de projet

Coller au plus près des standards

Pour assurer la réussite du projet Opera, Rail Logistics Europe et VISEO ont dû appliquer plusieurs principes clés :

  • Travailler en équipe : avec 50 filiales très indépendantes et autonomes, il est essentiel de réunir consultants, décideurs et utilisateurs clés au sein d’une même équipe. Le tout en faisant preuve de flexibilité, afin de s’adapter aux différentes spécificités de ces filiales.
  • Travailler en collaboration avec SAP : avec le cloud, il faut savoir interagir avec l’éditeur, qui met à la disposition les environnements de développement et de production. Mais aussi un CSM (Customer Success Manager), chargé de suivre le bon déroulement du projet.
  • Respecter la méthodologie Activate : pour réussir le projet, il est indispensable de respecter la méthode fournie, qui permet d’apporter des garanties en termes de rapidité de déploiement, de qualité des délivrables et de revue des différents jalons par le CSM.
  • Coller aux standards : en mode cloud, il est important de s’appuyer sur les bonnes pratiques et d’adhérer aux standards. Pour chaque processus, Rail Logistics Europe s’est appuyé sur le scope item SAP S/4HANA Public Cloud le plus adapté.

Un core model déployé tambour battant

L’enjeu principal de Rail Logistics Europe et de VISEO a été de définir le core model du projet Opera. Entre juin et septembre 2018, une trentaine d’ateliers ont été menés, afin de définir des règles de gestion communes sur le périmètre fonctionnel comptabilité, contrôle de gestion, achats et facturation client.

En seulement six mois, avec l’aide de la méthodologie SAP Activate et de l’approche Fit-to-Standard, ce core model est devenu réalité et a été déployé sur le site pilote de Captrain France. « Cela a été vraiment un acte fondateur du projet, explique Nicolas Bismuth. Nous avons démontré notre capacité à construire un core model et à le déployer au sein d’une filiale sur l’ensemble du périmètre fonctionnel cible en seulement 6 mois. »

Une fois le core model validé, le déploiement de SAP S/4HANA Public Cloud a été lancé site par site. Aujourd’hui, 58 entités légales sont déployées sur Opera et de nouveaux déploiements au sein des filiales Captrain Polska et Fret SNCF sont prévus en 2021. A fin 2021, environ 580 collaborateurs utiliseront l’outil Opera.

« La promesse initiale, qui était d’être capable de déployer rapidement, s’est révélée juste. Le planning que nous suivons aujourd’hui est celui qui avait été validé avec le binôme SAP / VISEO au moment du cahier des charges, » confirme Nicolas Bismuth.

Le début d’une longue aventure

Le programme est encore récent, mais le ressenti global des utilisateurs est d’ores et déjà plutôt positif. Reste que Rail Logistics Europe a dû apprendre à s’adapter au monde du cloud. Ne plus recourir systématiquement à des développements spécifiques pour coller aux standards nécessite de revoir chaque processus, mais également d’assurer l’accompagnement au changement des équipes métiers.

Les montées de version trimestrielles de SAP S/4HANA Public Cloud requièrent également des adaptations. Il lui faut en effet évaluer les nouvelles fonctionnalités apportées par chaque nouvelle version et effectuer des tests avant déploiement, afin de repérer d’éventuelles régressions.

Ces mises à jour trimestrielles se traduisent toutefois par toujours plus de valeur apportée aux utilisateurs. Rail Logistics Europe s’est ainsi déjà penché sur les tableaux de bord et le reporting, au travers de l’utilisation de SAP Analytics Cloud Embedded. L’entreprise envisage maintenant d’augmenter le périmètre fonctionnel de son ERP, notamment en évaluant l’utilisation des innovations mises à disposition. Elle s’est même lancée dans l’adoption d’autres solutions SAP en mode Cloud comme Success Factors

The post Rail Logistics Europe (groupe SNCF) rationalise son SI avec SAP S/4HANA Public Cloud et VISEO appeared first on SAP France News.

Source de l’article sur sap.com

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

 

“Cette initiative est née de notre profonde conviction que les entreprises, quelle que soit l’industrie, peuvent tirer parti du partage d’experiences.”

 

Il est ingénieur de formation, issu de Polytech’Nice-Sophia. Elle est diplômée en mathématiques appliquées et a validé une thèse en théorie de l’optimisation. Ils mènent leur carrière dans de grandes entreprises technologiques internationales. Et dirigent le Industrial Council of Artificial Intelligence Research (ICAIR). Olena Kushakovska (SAP) et Jean-Michel Sauvage (Amadeus) pilotent ensemble ICAIR depuis 2020. Ils ont une ambition claire pour l’organisation : accélérer le travail sur l’IA en mettant l’accent sur le développement durable. A l’occasion du 1er SAP Sustainability Summit, la directrice générale de SAP Labs France et le directeur R&D pour les solutions Revenue Management d’Amadeus se sont prêtés au jeu de l’interview croisée pour nous donner leur vision de l’IA durable.

  1. Quels sont les principaux avantages de l’IA dans votre secteur ?

Olena Kushakovska : Chez SAP, nous permettons à nos clients de devenir des entreprises intelligentes, d’utiliser les données pour bâtir des entreprises plus performantes, plus résilientes, plus rentables, plus agiles et plus durables. Nous mettons tout en œuvre pour que la réalité de l’entreprise intelligente soit pleinement intégrée avec les fonctionnalités d’Intelligence Artificielle.

Jean-Michel Sauvage : L’IA est une technologie majeure qui offre la meilleure utilisation possible des données et fournit un service plus performant, plus efficace, prévisible, personnalisé et à plus forte valeur ajoutée sur l’ensemble de la chaîne.

  1. Quand, pourquoi et comment vous êtes-vous engagé avec ICAIR ?

Olena : Amadeus et SAP sont membres fondateurs de ICAIR. La décision d’aller de l’avant a été prise entre Gilles Floyrac et moi il y a environ 2 ans. Gilles était le président d’Amadeus Nice à l’époque et la région Côte d’Azur venait de décrocher le label 3IA. Son idée était que les entreprises conduisent l’agenda industriel parallèlement au monde universitaire. Plus de 60 entreprises de la zone ont soutenu le projet 3IA. Nous avons contacté les entreprises que nous pensions intéressées (ex. IBM, ARM, NXP, Thales Alenia Space, Orange) et le “Club” est né. La réunion de mise en place entre les responsables de site pour sceller le club s’est tenue chez Amadeus puis la 1ère session de travail a eu lieu chez SAP en juin 2019.

Jean-Michel : Les techniques d’IA n’étant pas spécifiques à la résolution d’un problème, cette initiative est motivée par la forte conviction que les entreprises, même lorsqu’elles travaillent dans différents secteurs, peuvent bénéficier de l’apprentissage et du partage d’expériences sur les défis auxquels elles sont confrontées sur des problèmes techniques similaires.

« Nous nous efforçons d’utiliser l’IA de manière durable et d’atteindre les objectifs de durabilité de l’ONU au sein du secteur. » Olena KUSHAKOVSKA

  1. Qu’est-ce qui est spécial avec ICAIR ?

Jean-Michel : ICAIR se concentre sur la recherche appliquée, et à ce titre, est un moyen de lier la recherche fondamentale et les résultats académiques à leur application dans un environnement industriel.

Olena : ICAIR est à taille humaine, agile, diversifié, industriel, pratico-pratique, avec des cas d’utilisation réels. Des entreprises leaders dans le monde composent le conseil. Pour autant, il y a un faible niveau d’administration, une faible bureaucratie, mais beaucoup de bonne volonté et un grand écosystème. La bienveillance et le soutien sont sans faille, et l’implication continue !

  1. Pourquoi avoir choisi l’IA durable comme thème du programme ICAIR ? 

Jean-Michel : L’IA s’accompagne de défis, tant en termes de technologie, de puissance de calcul, que de biais d’apprentissage, ou de décisions humainement explicables. Nous pensons que l’IA peut être conçue et utilisée de manière durable et apporter de la valeur d’une manière qui respecte la planète et les communautés.

Olena : On questionne souvent l’IA en termes écologique ou éthique. Nous voulons envisager la durabilité dans un contexte beaucoup plus large, celui des objectifs de durabilité des Nations Unies. La durabilité s’entend comme la capacité de notre génération à atteindre ses objectifs, sans compromettre la capacité de la génération future à atteindre les leurs. Et ce, par rapport à toutes les ressources : naturelles, humaines, économiques. Nos efforts se concentrent sur l’IA durable pour atteindre les objectifs des Nations Unies au sein de l’industrie.

  1. Quel est le champ d’application d’ICAIR ?

Jean-Michel : ICAIR a été pensé de telle sorte que des chercheurs d’entreprises de Sophia Antipolis hébergeant des laboratoires de recherche travaillant dans différents contextes industriels, et sur différents sujets, puissent discuter et échanger leurs points de vue sur des questions communes liées à l’utilisation de l’IA dans leurs industries respectives.

Olena : Notre objectif est de travailler sur des projets communs et d’échanger sur les meilleures pratiques en matière d’apprentissage automatique et d’intelligence artificielle. Cela permettra de faire progresser les recherches en matière d’IA. Enfin, nous comptons utiliser notre puissance commune pour promouvoir la Côte d’Azur en tant que berceau de l’IA durable.

  1. Qu’est-ce qui vous motive personnellement ?

Olena : Ma volonté est de promouvoir notre grande collaboration, dans l’écosystème incroyablement riche sur le plan technologique et intellectuel de la Côte d’Azur, en montrant à nos maisons-mères que cet endroit est vraiment exceptionnel, et y développer une véritable communauté autour de l’IA. Je veux aussi que la France et l’Europe obtiennent la place qu’elles méritent dans le monde en ce qui concerne l’IA, en veillant à ce que l’IA soit utilisée à bon escient, que la Côte d’Azur soit identifiée comme l’endroit idéal pour l’IA durable, et enfin que les gens ne craignent plus l’IA.

Jean-Michel : Je suis un passionné d’aviation et d’informatique. Heureusement pour moi, les voyages et l’aviation en particulier sont des domaines pleins de défis combinatoires, très complexes à résoudre et à optimiser. Chez Amadeus, nous sommes déjà pleinement engagés dans le déploiement de l’IA. Nous sommes également engagés depuis de nombreuses années dans le développement de systèmes ouverts et interopérables, car nous pensons que c’est en combinant les meilleurs services « atomiques » que nous apporterons une plus grande valeur ajoutée à nos clients, à l’industrie du voyage et aux voyageurs. Mais nous savons aussi que, comme toute évolution de ce genre, elle a besoin de temps, d’expérience, de tests et d’apprentissage. L’IA s’accompagne de nombreuses questions et défis sans réponse. Avec ICAIR, nous faisons partie de l’apprentissage, de l’enseignement, et nous voulons y répondre de la bonne manière.

 

 

 

Les membres sont des entreprises internationales avec des sites sur la Côte d’Azur et menant des recherches en IA :

  • Accenture,
  • ACRI-ST,
  • AIRFRANCE KLM,
  • Amadeus,
  • ARM,
  • Hewlett Packard Enterprise,
  • IBM,
  • NXP Semiconductors,
  • Orange,
  • Renault Software Labs,
  • SAP Labs France,
  • STMicroelectronics,
  • Thales Alenia Space.

Le programme touche l’ensemble de l’écosystème du label 3IA de la Côte d’Azur :

  • Académiques : Institut 3IA, UCA (Université Côte d’Azur), Ecoles, Centres de Recherche
  • Secteurs d’activité : ICAIR, ClusterIA
  • Institutions : MIA, OTESIA, EuropIA
  • Associations : Telecom Valley, Pôle SCS

Des initiatives liées à l’IA lancées par ces acteurs soutiennent la dynamique territoriale de la Côte d’Azur. Elles se rapportent aux objectifs de développement durable des Nations unies et constituent le champ d’application du programme « IA durable ».

En savoir plus : ICAIR – Industrial Council of Artificial Intelligence Research

The post SAP et Amadeus pilotent le conseil industriel pour la recherche en intelligence artificielle appeared first on SAP France News.

Source de l’article sur sap.com

Un data warehouse (entrepôt de données) est un système de stockage numérique qui connecte et harmonise de grandes quantités de données provenant de nombreuses sources différentes. Il a pour but d’alimenter la Business Intelligence (BI), le reporting et l’analyse, ainsi que soutenir la conformité aux exigences réglementaires afin que les entreprises puissent exploiter leurs données et prendre des décisions intelligentes fondées sur les données. Les data warehouse stockent les données actuelles et historiques dans un seul et même endroit et constituent ainsi une source unique de vérité pour une organisation.

Les données sont envoyées vers un data warehouse à partir de systèmes opérationnels (tels qu’un système ERP ou CRM), de bases de données et de sources externes comme les systèmes partenaires, les appareils IoT, les applications météo ou les réseaux sociaux, généralement de manière régulière. L’émergence du cloud computing a changé la donne. Ces dernières années, le stockage des données a été déplacé de l’infrastructure sur site traditionnelle vers de multiples emplacements, y compris sur site, dans le Cloud privé et dans le Cloud public.

Les data warehouse modernes sont conçus pour gérer à la fois les données structurées et les données non structurées, comme les vidéos, les fichiers image et les données de capteurs. Certains utilisent les outils analytiques intégrés et la technologie de base de données in-memory (qui conserve l’ensemble de données dans la mémoire de l’ordinateur plutôt que dans l’espace disque) pour fournir un accès en temps réel à des données fiables et favoriser une prise de décision en toute confiance. Sans entreposage de données, il est très difficile de combiner des données provenant de sources hétérogènes, de s’assurer qu’elles sont au bon format pour les analyses et d’obtenir une vue des données sur le court terme et sur le long terme.

Schéma qui montre ce qu'est un data warehouse


Avantages de l’entreposage de données

Un data warehouse bien conçu constitue la base de tout programme de BI ou d’analyse réussi. Son principal objectif est d’alimenter les rapports, les tableaux de bord et les outils analytiques devenus indispensables aux entreprises d’aujourd’hui. Un entrepôt de données fournit les informations dont vous avez besoin pour prendre des décisions basées sur les données et vous aide à faire les bons choix, que ce soit pour le développement de nouveaux produits ou la gestion des niveaux de stock. Un data warehouse présente de nombreux avantages. En voici quelques-uns :

  • Un meilleur reporting analytique : grâce à l’entreposage de données, les décideurs ont accès à des données provenant de plusieurs sources et n’ont plus besoin de prendre des décisions basées sur des informations incomplètes.
  • Des requêtes plus rapides : les data warehouse sont spécialement conçus pour permettre l’extraction et l’analyse rapides des données. Avec un entrepôt de données, vous pouvez très rapidement demander de grandes quantités de données consolidées avec peu ou pas d’aide du service informatique.
  • Une amélioration de la qualité des données : avant de charger les données dans l’entrepôt de données le système met en place des nettoyages de données afin de garantir que les données sont converties dans un seul et même format dans le but de faciliter les analyses (et les décisions), qui reposent alors sur des données précises et de haute qualité.
  • Une visibilité sur les données historiques : en stockant de nombreuses données historiques, un data warehouse permet aux décideurs d’analyser les tendances et les défis passés, de faire des prévisions et d’améliorer l’organisation au quotidien.

Capture d'écran de la solution SAP Data Warehouse Cloud


Que peut stocker un data warehouse ?

Lorsque les data warehouse sont devenus populaires à la fin des années 1980, ils étaient conçus pour stocker des informations sur les personnes, les produits et les transactions. Ces données, appelées données structurées, étaient bien organisées et mises en forme pour en favoriser l’accès. Cependant, les entreprises ont rapidement voulu stocker, récupérer et analyser des données non structurées, comme des documents, des images, des vidéos, des e-mails, des publications sur les réseaux sociaux et des données brutes issues de capteurs.

Un entrepôt de données moderne peut contenir des données structurées et des données non structurées. En fusionnant ces types de données et en éliminant les silos qui les séparent, les entreprises peuvent obtenir une vue complète et globale sur les informations les plus précieuses.


Termes clés

Il est essentiel de bien comprendre un certain nombre de termes en lien avec les data warehouse. Les plus importants ont été définis ci-dessous. Découvrez d’autres termes et notre FAQ dans notre glossaire.

Data warehouse et base de données

Les bases de données et les data warehouse sont tous deux des systèmes de stockage de données, mais diffèrent de par leurs objectifs. Une base de données stocke généralement des données relatives à un domaine d’activité particulier. Un entrepôt de données stocke les données actuelles et historiques de l’ensemble de l’entreprise et alimente la BI et les outils analytiques. Les data warehouse utilisent un serveur de base de données pour extraire les données présentes dans les bases de données d’une organisation et disposent de fonctionnalités supplémentaires pour la modélisation des données, la gestion du cycle de vie des données, l’intégration des sources de données, etc.

Data warehouse et lac de données

Les data warehouse et les lacs de données sont utilisés pour stocker le Big Data, mais sont des systèmes de stockage très différents. Un data warehouse stocke des données qui ont été formatées dans un but spécifique, tandis qu’un lac de données stocke les données dans leur état brut, non traité, dont l’objectif n’a pas encore été défini. Les entrepôts de données et les lacs de données se complètent souvent. Par exemple, lorsque des données brutes stockées dans un lac s’avèrent utiles pour répondre à une question, elles peuvent être extraites, nettoyées, transformées et utilisées dans un data warehouse à des fins d’analyse. Le volume de données, les performances de la base de données et les coûts du stockage jouent un rôle important dans le choix de la solution de stockage adaptée.

Diagramme qui montre la différence entre un data warehouse et un lac de données

Data warehouse et datamart

Un datamart est une sous-section d’un data warehouse, partitionné spécifiquement pour un service ou un secteur d’activité, comme les ventes, le marketing ou la finance. Certains datamarts sont également créés à des fins opérationnelles autonomes. Alors qu’un data warehouse sert de magasin de données central pour l’ensemble de l’entreprise, un datamart utilise des données pertinentes à un groupe d’utilisateurs désigné. Ces utilisateurs peuvent alors accéder plus facilement aux données, accélérer leurs analyses et contrôler leurs propres données. Plusieurs datamarts sont souvent déployés dans un data warehouse.

Diagramme d'un data mart et de son fonctionnement


Quels sont les composants clés d’un data warehouse ?

Un data warehouse classique comporte quatre composants principaux : une base de données centrale, des outils ETL (extraction, transformation, chargement), des métadonnées et des outils d’accès. Tous ces composants sont conçus pour être rapides afin de vous assurer d’obtenir rapidement des résultats et vous permettre d’analyser les données à la volée.

Diagramme montrant les composants d'un data warehouse

  1. Base de données centrale : une base de données sert de fondement à votre data warehouse. Depuis le départ, on utilisait essentiellement des bases de données relationnelles standard exécutées sur site ou dans le Cloud. Mais en raison du Big Data, du besoin d’une véritable performance en temps réel et d’une réduction drastique des coûts de la RAM, les bases de données in-memory sont en train de monter en puissance.
  2. Intégration des données : les données sont extraites des systèmes source et modifiées pour aligner les informations afin qu’elles puissent être rapidement utilisées à des fins analytiques à l’aide de différentes approches d’intégration des données telles que l’ETL (extraction, transformation, chargement) et les services de réplication de données en temps réel, de traitement en masse, de transformation des données et de qualité et d’enrichissement des données.
  3. Métadonnées : les métadonnées sont des données relatives à vos données. Elles indiquent la source, l’utilisation, les valeurs et d’autres fonctionnalités des ensembles de données présents dans votre data warehouse. Il existe des métadonnées de gestion, qui ajoutent du contexte à vos données, et des métadonnées techniques, qui décrivent comment accéder aux données, définissent leur emplacement ainsi que leur structure.
  4. Outils d’accès du data warehouse : les outils d’accès permettent aux utilisateurs d’interagir avec les données de votre data warehouse. Exemples d’outils d’accès : outils de requête et de reporting, outils de développement d’applications, outils d’exploration de données et outils OLAP.

Architecture de data warehouse 

Auparavant, les data warehouse fonctionnaient par couches, lesquelles correspondaient au flux des données de gestion.

Diagramme de l'architecture d'un data warehouse

Couche de données

Les données sont extraites de vos sources, puis transformées et chargées dans le niveau inférieur à l’aide des outils ETL. Le niveau inférieur comprend votre serveur de base de données, les datamarts et les lacs de données. Les métadonnées sont créées à ce niveau et les outils d’intégration des données, tels que la virtualisation des données, sont utilisés pour combiner et agréger les données en toute transparence.

Couche sémantique

Au niveau intermédiaire, les serveurs OLAP (Online Analytical Processing) et OLTP (Online Transaction Processing) restructurent les données pour favoriser des requêtes et des analyses rapides et complexes.

Couche analytique

Le niveau supérieur est la couche du client frontend. Il contient les outils d’accès du data warehouse qui permettent aux utilisateurs d’interagir avec les données, de créer des tableaux de bord et des rapports, de suivre les KPI, d’explorer et d’analyser les données, de créer des applications, etc. Ce niveau inclut souvent un workbench  ou une zone de test pour l’exploration des données et le développement de nouveaux modèles de données.

Un data warehouse standard comprend les trois couches définies ci-dessus. Aujourd’hui, les entrepôts de données modernes combinent OLTP et OLAP dans un seul système.

Les data warehouse, conçus pour faciliter la prise de décision, ont été essentiellement créés et gérés par les équipes informatiques. Néanmoins, ces dernières années, ils ont évolué pour renforcer l’autonomie des utilisateurs fonctionnels, réduisant ainsi leur dépendance aux équipes informatiques pour accéder aux données et obtenir des informations exploitables. Parmi les fonctionnalités clés d’entreposage de données qui ont permis de renforcer l’autonomie des utilisateurs fonctionnels, on retrouve les suivantes :

  1. La couche sémantique ou de gestion fournit des expressions en langage naturel et permet à tout le monde de comprendre instantanément les données, de définir des relations entre les éléments dans le modèle de données et d’enrichir les zones de données avec de nouvelles informations.
  2. Les espaces de travail virtuels permettent aux équipes de regrouper les connexions et modèles de données dans un lieu sécurisé et géré, afin de mieux collaborer au sein d’un espace commun, avec un ensemble de données commun.
  3. Le Cloud a encore amélioré la prise de décision en permettant aux employés de disposer d’un large éventail d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.

 

The Future of Analytics Has Arrived

Click the button below to load the content from YouTube.

The Future of Analytics Has Arrived

Kate Wright, responsable de la Business Intelligence augmentée chez SAP, évoque la valeur d’un data warehouse Cloud moderne.


Les 7 principaux avantages d’un data warehouse Cloud  

Les data warehouse Cloud gagnent en popularité, à juste titre. Ces entrepôts modernes offrent plusieurs avantages par rapport aux versions sur site traditionnelles. Voici les sept principaux avantages d’un data warehouse Cloud :

  1. Déploiement rapide : grâce à l’entreposage de données Cloud, vous pouvez acquérir une puissance de calcul et un stockage de données presque illimités en quelques clics seulement, et créer votre propre data warehouse, datamarts et systèmes de test en quelques minutes.
  2. Faible coût total de possession (TCO) : les modèles de tarification du data warehouse en tant que service (DWaaS) sont établis de sorte que vous payez uniquement les ressources dont vous avez besoin, lorsque vous en avez besoin. Vous n’avez pas besoin de prévoir vos besoins à long terme ou de payer pour d’autres traitements tout au long de l’année. Vous pouvez également éviter les coûts initiaux tels que le matériel coûteux, les salles de serveurs et le personnel de maintenance. Séparer les coûts du stockage des coûts informatiques vous permet également de réduire les dépenses.
  3. Élasticité : un data warehouse Cloud vous permet d’ajuster vos capacités à la hausse ou à la baisse selon vos besoins. Le Cloud offre un environnement virtualisé et hautement distribué capable de gérer d’immenses volumes de données qui peuvent diminuer ou augmenter.
  4. Sécurité et restauration après sinistre : dans de nombreux cas, les data warehouse Cloud apportent une sécurité des données et un chiffrage plus forts que les entrepôts sur site. Les données sont également automatiquement dupliquées et sauvegardées, ce qui vous permet de minimiser le risque de perte de données.
  5. Technologies en temps réel : les data warehouse Cloud basés sur la technologie de base de données in-memory présentent des vitesses de traitement des données extrêmement rapides, offrant ainsi des données en temps réel et une connaissance instantanée de la situation.
  6. Nouvelles technologies : les data warehouse Cloud vous permettent d’intégrer facilement de nouvelles technologies telles que l’apprentissage automatique, qui peuvent fournir une expérience guidée aux utilisateurs fonctionnels et une aide décisionnelle sous la forme de suggestions de questions à poser, par exemple.
  7. Plus grande autonomie des utilisateurs fonctionnels : les data warehouse Cloud offrent aux employés, de manière globale et uniforme, une vue unique sur les données issues de nombreuses sources et un vaste ensemble d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.
Capture d'écran de la solution SAP Data Warehouse Cloud
L’entreposage de données prend en charge l’analyse complète des dépenses de l’entreprise par service, fournisseur, région et statut, pour n’en citer que quelques-unes.

Meilleures pratiques concernant l’entreposage des données

Pour atteindre vos objectifs et économiser du temps et de l’argent, il est recommandé de suivre certaines étapes éprouvées lors de la création d’un data warehouse ou l’ajout de nouvelles applications à un entrepôt existant. Certaines sont axées sur votre activité tandis que d’autres s’inscrivent dans le cadre de votre programme informatique global. Vous pouvez commencer avec la liste de meilleures pratiques ci-dessous, mais vous en découvrirez d’autres au fil de vos collaborations avec vos partenaires technologiques et de services.

Meilleures pratiques métier

Meilleures pratiques informatiques

Définir les informations dont vous avez besoin. Une fois que vous aurez cerné vos besoins initiaux, vous serez en mesure de trouver les sources de données qui vous aideront à les combler. La plupart du temps, les groupes commerciaux, les clients et les fournisseurs auront des recommandations à vous faire. 

Surveiller la performance et la sécurité. Les informations de votre data warehouse sont certes précieuses, mais elles doivent quand même être facilement accessibles pour apporter de la valeur à l’entreprise. Surveillez attentivement l’utilisation du système pour vous assurer que les niveaux de performance sont élevés. 

Documenter l’emplacement, la structure et la qualité de vos données actuelles. Vous pouvez ensuite identifier les lacunes en matière de données et les règles de gestion pour transformer les données afin de répondre aux exigences de votre entrepôt.

Gérer les normes de qualité des données, les métadonnées, la structure et la gouvernance. De nouvelles sources de données précieuses sont régulièrement disponibles, mais nécessitent une gestion cohérente au sein d’un data warehouse. Suivez les procédures de nettoyage des données, de définition des métadonnées et de respect des normes de gouvernance.

Former une équipe. Cette équipe doit comprendre les dirigeants, les responsables et le personnel qui utiliseront et fourniront les informations. Par exemple, identifiez le reporting standard et les KPI dont ils ont besoin pour effectuer leurs tâches.

Fournir une architecture agile. Plus vos unités d’affaires et d’entreprise utiliseront les données, plus vos besoins en matière de datamarts et d’entrepôts augmenteront. Une plate-forme flexible s’avérera bien plus utile qu’un produit limité et restrictif. 

Hiérarchiser vos applications de data warehouse. Sélectionnez un ou deux projets pilotes présentant des exigences raisonnables et une bonne valeur commerciale.

Automatiser les processus tels que la maintenance. Outre la valeur ajoutée apportée à la Business Intelligence, l’apprentissage automatique peut automatiser les fonctions de gestion technique du data warehouse pour maintenir la vitesse et réduire les coûts d’exploitation.

Choisir un partenaire technologique compétent pour l’entrepôt de données. Ce dernier doit offrir les services d’implémentation et l’expérience dont vous avez besoin pour la réalisation de vos projets. Assurez-vous qu’il puisse répondre à vos besoins en déploiement, y compris les services Cloud et les options sur site. 

Utiliser le Cloud de manière stratégique. Les unités d’affaires et les services ont des besoins en déploiement différents. Utilisez des systèmes sur site si nécessaire et misez sur des data warehouse Cloud pour bénéficier d’une évolutivité, d’une réduction des coûts et d’un accès sur téléphone et tablette.  

Développer un bon plan de projet. Travaillez avec votre équipe sur un plan et un calendrier réalistes qui rendent possible les communications et le reporting de statut.


En résumé 

Les data warehouse modernes, et, de plus en plus, les data warehouse Cloud, constitueront un élément clé de toute initiative de transformation numérique pour les entreprises mères et leurs unités d’affaires. Les data warehouse exploitent les systèmes de gestion actuels, en particulier lorsque vous combinez des données issues de plusieurs systèmes internes avec de nouvelles informations importantes provenant d’organisations externes.

Les tableaux de bord, les indicateurs de performance clés, les alertes et le reporting répondent aux exigences des cadres dirigeants, de la direction et du personnel, ainsi qu’aux besoins des clients et des fournisseurs importants. Les data warehouse fournissent également des outils d’exploration et d’analyse de données rapides et complexes, et n’ont pas d’impact sur les performances des autres systèmes de gestion.


Pictogramme qui représente un entrepôt de données

Découvrez la solution SAP Data Warehouse Cloud

Unifiez vos données et analyses pour prendre des décisions avisées et obtenir la flexibilité nécessaire pour un contrôle efficace des coûts, notamment grâce à un paiement selon l’utilisation.

En savoir plus


Publié en anglais sur insights.sap.com

The post Qu’est-ce qu’un Data Warehouse ? appeared first on SAP France News.

Source de l’article sur sap.com

Novo Mesto est une petite ville slovène située sur le coude pittoresque de la rivière Krka. Cette ville, dont l’origine remonte à la préhistoire, a toujours su gérer intelligemment ses ressources. L’idée d’assurer aux génération futures un environnement propre est profondément ancrée dans l’état d’esprit collectif. Les citoyens et les touristes peuvent se baigner dans la rivière en plein centre-ville.

« Nous ne sommes ni les premiers ni les derniers à vivre sur cette planète », déclare l’adjoint au maire de la ville, Bostjan Grobler. « Devenir une ville intelligente n’est pas un objectif en soi. L’objectif est de préserver la santé de nos citoyens et la salubrité de notre environnement afin d’offrir des emplois durables et des espaces de vie attrayants. La technologie nous aide à y parvenir. »

L’air pur comme point de départ

Comme beaucoup d’autres villes en Europe, Novo Mesto lutte depuis dix ans contre la pollution atmosphérique.

Celle-ci est particulièrement élevée en hiver, où les mesures font souvent état de particules de suie qui dépassent plusieurs fois par semaine les limites de matières particulaires (PM) fixées par l’Union européenne à 40 microgrammes par mètre cube. Il existe différents types de matières particulaires. Les matières les plus fréquemment mesurées sont des particules en suspension d’un diamètre de 10 microns ou moins, appelées PM10. Pour vous donner une idée, un micron est un millionième d’un mètre et un cheveu humain a une épaisseur d’environ 75 microns.

Selon l’Organisation mondiale de la santé (OMS), le niveau de PM10 doit être inférieur à 20 microgrammes par mètre cube. La ville allemande de Mannheim, par exemple, enregistre une moyenne annuelle de 22 microgrammes, contre 27 à Novo Mesto. Même si ces moyennes sont faibles en comparaison de Shanghai, qui avoisine les 84, elles peuvent entraîner des maladies cardiaques et pulmonaires ainsi qu’une irritation des voies respiratoires, en particulier lorsqu’elles dépassent 40 microgrammes.

Novo Mesto affichait des niveaux élevés de PM10 année après année, mais les dirigeants municipaux ne savaient pas comment y remédier.

« Il était évident que nous devions agir », explique Peter Gersic, responsable du développement de projets pour la municipalité de Novo Mesto, « car la pollution atmosphérique ne disparaît pas toute seule. Mais en toute honnêteté, nous ne savions que faire de ces données. »

Après quelques recherches, la municipalité s’est adressée à SAP et Telekom Slovénie. Juraj Kovac, un analyste de Telekom doué de l’expertise technique adéquate pour mettre en œuvre des solutions de ville intelligente, nous a expliqué le fonctionnement de la solution. Des capteurs ont été installés dans toute la ville pour recueillir des données non seulement sur la pollution atmosphérique, mais aussi sur d’autres indicateurs environnementaux importants, notamment l’utilisation de l’eau et la pollution lumineuse.

« Nous utilisons SAP Leonardo pour collecter les données et SAP Analytics pour les analyser », explique Juraj Kovac. « Toutes nos plateformes IdO s’exécutent sur SAP Cloud Platform. Les données sont utilisées par la municipalité pour prendre des décisions opérationnelles et par les citoyens qui utilisent des applications mobiles, par exemple pour trouver des places de stationnement. »

Améliorer la vie urbaine

L’adjoint au maire comprend désormais que la gestion des ressources de la ville n’est pas uniquement une affaire d’État. Il s’agit d’aider les citoyens à revoir leur mode de vie. « Si nous voulons que les gens prennent moins leur voiture, nous devons leur offrir des alternatives comme les transports publics et les pistes cyclables », déclare Bostjan Grobler. « Il ne suffit pas de motiver les gens à acheter des véhicules électriques. Nous devons veiller à ce qu’ils puissent facilement les garer et les recharger. ».

Ce que Novo Mesto souhaite réaliser à petite échelle grâce à la technologie intelligente existe déjà dans plusieurs villes du monde. Depuis les bâtiments écologiques et la collecte des déchets basée sur des capteurs, jusqu’au développement des transports publics et des services municipaux en ligne, les villes intelligentes révolutionnent la vie urbaine.

La ville de New York, par exemple, a été nommée ville la plus intelligente au monde pendant deux années consécutives notamment pour son recours à un système de relevé automatisé permettant de mieux comprendre comment ses 8,5 millions d’habitants utilisent 1 milliard de gallons d’eau chaque jour. La ville de Londres, qui arrive deuxième au classement, a été récompensée pour son système de transport collectif et ses politiques d’urbanisme.

La Commission de transport de Toronto utilise la technologie SAP pour optimiser la visibilité des processus et la communication pour le personnel œuvrant dans les transports en commun de la ville. La technologie IdO de SAP aide la ville d’Antibes à mieux gérer ses ressources en eau. La ville de Nanjing utilise les capteurs de circulation de SAP pour développer une culture plus écologique et plus humaniste.

Grâce à son utilisation visionnaire de la technologie pour assurer l’attractivité et la durabilité de la ville, Novo Mesto prouve que toute ville, quelle que soit sa taille, peut être une référence pour les générations à venir en matière de qualité de vie urbaine.

Publié en anglais sur Forbes.com

The post Devenir une ville intelligente n’est pas un objectif, c’est un mode de vie appeared first on SAP France News.

Source de l’article sur sap.com

Il existe des centaines de systèmes ERP parmi lesquels choisir, avec un large panel de fonctionnalités, de points forts, de points faibles, d’applicabilité et de tarifs. Si cela peut sembler intimidant, un processus méthodique de comparaison des ERP peut guider votre équipe vers la bonne décision dans un délai raisonnable.

La méthodologie décrite ici, éprouvée, peut vous aider à trouver la solution qui répond le mieux aux besoins de votre entreprise. Elle peut sembler basique mais les entreprises qui se mettent en quête d’un fournisseur ERP sans suivre ces étapes logiques sont souvent confrontées à des retards, coûts supplémentaires et à une personnalisation inutile. Au contraire, les entreprises qui appliquent les meilleures pratiques gagnent généralement en fluidité dans le processus de sélection et dans les implémentations subséquentes. Elles peuvent ainsi profiter plus rapidement des avantages d’un système ERP moderne et être plus compétitives à l’ère du numérique.


Une méthodologie en 5 étapes pour évaluer les systèmes ERP

Une fois la décision prise de remplacer un ancien système ERP, la première étape consiste à monter une équipe pour piloter le processus de comparaison, de sélection et d’implémentation du logiciel ERP. L’équipe commence son travail par l’élaboration d’un plan initial, qui est plutôt à ce stade une stratégie générale.

Le processus de sélection d’un fournisseur ERP se déroule en cinq étapes :

  1. Définition des besoins en matière d’ERP
  2. Appel d’offres
  3. Evaluation de pré-sélection
  4. Comparaison des ERP et évaluation détaillée
  5. Décision finale et contrat

Diagramme illustrant les 5 principales étapes du processus d'évaluation d'un ERP


1.      Définition des besoins en matière d’ERP

Vous devrez transmettre des informations concernant votre entreprise et ses besoins à vos fournisseurs ERP potentiels afin qu’ils puissent configurer, packager et tarifer correctement la solution appropriée. Commencez par identifier les principales ressources en ligne, telles que les démonstrations de produits et les blogs, qui racontent l’histoire de votre entreprise.

Décrivez votre entreprise et ses processus de manière générale plutôt que de créer de longues listes de besoins et processus spécifiques. Informez les fournisseurs de la taille de votre entreprise, de son volume d’activité et de transactions, de la complexité des différents processus et de toute caractéristique ou facteur spécifique. Concentrez-vous sur les critères et processus qui donnent à votre entreprise son avantage concurrentiel. Ce sont ces éléments qui différencieront les systèmes et qui vous permettront d’examiner de près la façon dont chacun peut être configuré pour les prendre en charge.

Indiquez les éléments que vous aimez dans votre système actuel. En effet, vous voudrez que votre nouveau système les gère au moins aussi bien. De même, indiquez les choses que votre système actuel ne fait pas (ou mal). Signalez les applications, fonctions ou modifications personnalisées qui doivent être prises en charge par des fonctionnalités standard ou une personnalisation simple du nouveau système (et non une modification). En d’autres termes, concentrez-vous sur les éléments qui sont uniques à votre entreprise et partez du principe que les éléments de base se feront d’eux-mêmes (vous vérifierez cette hypothèse lors des démonstrations et des évaluations finales).

« Concentrez-vous sur les éléments qui sont uniques à votre entreprise et partez du principe que les éléments de base se feront d’eux-mêmes. »

Principaux points à retenir et conseils

Ne vous fiez pas aux listes de contrôle / vérification des ERP. Ces check-lists, une vieille pratique courante dans le secteur, ne permettent pas de départager les solutions et ne vous aident pas vraiment à faire un bon choix. La majorité des éléments figurant sur ces listes sont des fonctions et caractéristiques proposées par tous les systèmes, au moins dans une certaine mesure. Et les fournisseurs en compétition sont susceptibles de cocher « oui » dans l’interprétation la plus large de la fonctionnalité.

Choisissez les bonnes personnes pour votre équipe projet. La spécification des besoins est une tâche difficile. Elle nécessite des collaborateurs engagés, qui connaissent bien l’entreprise et qui ont du temps à consacrer au projet. Refreinez la tentation de constituer une équipe de personnes enthousiastes mais inexpérimentées.

Assurez-vous que votre appel d’offres contient les informations suivantes :

  • Présentation de votre entreprise et de ses processus
  • Ce que votre système actuel fait bien
  • Ce qu’il ne fait pas aussi bien que vous le souhaiteriez
  • Ce que vous voulez que le nouveau système fasse d’autre (classé par ordre d’importance)

2. Appel d’offres ERP

L’étape suivante consiste à envoyer un appel d’offres à un groupe sélectionné de fournisseurs. Leur nombre peut varier, mais n’oubliez pas que vous devrez procéder à un examen détaillé pour chaque réponse. L’expérience a montré que plus le nombre de fournisseurs est réduit, plus les informations fournies sont détaillées et meilleures sont les réponses. Il est donc préférable d’identifier une douzaine (ou moins) des meilleurs candidats pour votre short list.

« L’expérience a montré que plus le nombre de fournisseurs est réduit, plus les informations fournies sont détaillées et meilleures sont les réponses. »

En réponse, les fournisseurs d’ERP doivent proposer un système qui offre les fonctionnalités et les caractéristiques requises pour répondre aux besoins que vous avez identifiés. Les propositions contiendront également des informations sur leurs sociétés, leurs produits, leur expérience dans le domaine, les ressources qu’ils consacreront à l’implémentation, ainsi que d’autres informations destinées à gagner votre confiance.

Alors comment identifier la douzaine (ou moins) de candidats sur lesquels concentrer vos efforts de sélection ? Comment réduire la liste des centaines de fournisseurs d’ERP pour n’en retenir que quelques-uns ? Commencez par consulter les publications spécialisées qui présentent des « success stories ERP  » (gardez à l’esprit que ces publications ne vous parleront probablement pas des difficultés rencontrées ou des échecs, mettez donc ces informations en perspective). Utilisez vos contacts – par exemple associations et groupes d’entreprises – pour identifier d’autres professionnels qui ont pu avoir une expérience récente de la sélection et de l’implémentation d’un ERP.

Il existe également de nombreux annuaires en ligne, outils de sélection et services de sélection de systèmes qui peuvent vous aider à identifier les logiciels qui possèdent les fonctionnalités dont vous avez besoin et/ou les fournisseurs qui ont de l’expérience dans votre secteur.

Pour obtenir des conseils personnalisés, vous pouvez passer un contrat avec la branche conseil de votre cabinet comptable ou trouver une ressource conseil indépendante dans votre région et/ou dans votre secteur d’activité. Veillez à vérifier leurs antécédents et leurs affiliations pour vous assurer qu’ils sont réellement indépendants et pas associés à un ou plusieurs fournisseurs de systèmes ERP.

Vous pouvez choisir d’inclure certains fournisseurs de systèmes ERP qui présentent un intérêt pour d’autres raisons. Peut-être qu’un ou plusieurs de vos clients les plus importants utilisent un système ERP et vous ont encouragé à utiliser le même système. Ou peut-être que votre société fait partie d’une grande entreprise ou d’un groupe qui a opté pour une plateforme ERP donnée. Demandez une proposition au fournisseur recommandé puis évaluez toutes les propositions de manière équitable et impartiale avant de prendre votre décision.

Principaux points à retenir et conseils

Veillez à ce que toutes les parties prenantes définissent leurs besoins. Votre appel d’offres doit inclure les contributions de toutes les parties prenantes. Dans le cas contraire, vous risquez de choisir un système ERP qui ne sert que certaines fonctions de votre entreprise, obligeant les autres départements à investir dans des systèmes autonomes. Évaluez les systèmes qui fonctionnent pour l’ensemble de l’entreprise et utilisez le calendrier de déploiement pour livrer les modules prioritaires en premier.

Faites attention au classement des besoins. Souvent, l’appel d’offres est divisé en domaines fonctionnels avec des sections à remplir par chaque service. Chaque département – qu’il s’agisse des RH ou des opérations – fait généralement un excellent travail de classement des fonctionnalités pour son unité opérationnelle, mais ses priorités peuvent ne pas correspondre aux objectifs globaux de l’entreprise. C’est à votre équipe projet d’ajuster les priorités dans une perspective plus large. Quelles sont les fonctionnalités vitales, importantes ou simplement souhaitables ?

Vérifiez la disponibilité effective des fonctionnalités. Les sociétés de logiciels ont d’excellents départements marketing ; certaines vendent des produits qui n’ont pas été entièrement développés et testés. Faites des recherches sur les fonctionnalités « à venir dans une prochaine version » par rapport à celles qui sont utilisées dans les références actuelles. Il est tout à fait envisageable de prendre en compte les fonctionnalités en cours de développement – mais ne pariez pas tout votre projet sur des fonctionnalités à venir si elles sont essentielles.

Évaluez vos processus. Les processus intégrés dans les ERP packagés sont considérés comme étant conformes aux « meilleures pratiques ». Les consultants et les experts de l’implémentation d’ERP vous diront qu’il est presque toujours préférable de modifier la procédure pour l’adapter au logiciel (en tenant compte de la dimension « meilleure pratique ») que de modifier le logiciel pour l’adapter à la procédure existante. Toutefois, c’est à vous de prendre cette décision. Mais n’oubliez pas que les nouveaux processus peuvent être à l’origine des progrès et des avantages que vous tirez d’un nouveau système. N’oubliez pas non plus que tous les logiciels ERP modernes sont personnalisables. Vous disposez donc d’une grande souplesse pour modifier l’affichage, les procédures, les caractéristiques des données et leur traitement, et bien d’autres choses encore – sans modifier le code.

Tenez compte du retour sur investissement de votre ERP. La plupart des entreprises exigent une analyse du retour sur investissement (ROI) comme condition préalable à l’autorisation et au financement de tout projet majeur. Comme son nom l’indique, il s’agit de la somme des coûts liés à l’achat et au déploiement du nouveau système, plus la différence des coûts d’exploitation par rapport à ceux du système existant. Le ROI tient également compte des avantages qui s’ajoutent aux économies directes, notamment l’amélioration du rendement, du service à la clientèle et de la productivité au travail.


3.      Evaluation de pré-sélection

L’évaluation se déroule en deux phases. Au cours de la première phase, toutes les propositions sont évaluées pour voir dans quelle mesure elles correspondent à votre environnement et aux exigences décrites dans votre appel d’offres (cette phase ne comprend pas la comparaison des fournisseurs, qui relève de la deuxième phase d’évaluation).

L’objectif à ce stade est d’écarter les offres qui ne remplissent pas vos critères et de classer celles qui semblent convenir. Il en résulte une short list des meilleures propositions. Celles-ci, et seulement celles-ci, seront soumises à une évaluation détaillée jusqu’à la sélection finale.

Si vous devez examiner de nombreuses réponses, les détails auront tendance à se brouiller et il vous sera difficile de vous souvenir des réponses particulièrement solides (ou celles insuffisantes) et dans quels domaines. Une échelle de notation numérique peut vous aider à ne pas perdre le fil et à documenter votre processus de décision. Voici quelques conseils supplémentaires pour vous aider lors de cette étape de documentation :

  • Mettez en place un formulaire ou une feuille de calcul agencée de manière à ce que les évaluateurs puissent noter chaque proposition en fonction des principaux critères que vous avez spécifiés. Demandez à chaque examinateur d’attribuer une note à chaque critère d’évaluation (l’échelle peut être de un à dix, de un à cinq, de un à trois, ou tout autre niveau de granularité que vous jugez approprié). Vous pouvez avoir autant ou aussi peu d’examinateurs que vous le souhaitez.
  • Laissez de la place pour des notes et des questions, pour le suivi. Vous pouvez demander des éclaircissements à ce stade ou attendre l’évaluation détaillée des propositions présélectionnées. Attribuez un coefficient à chaque critère en fonction de l’importance de la fonction ou du processus pour votre entreprise.
  • Multipliez la note donnée par chaque évaluateur par le coefficient de chaque critère et calculez une note globale pour chaque fournisseur. Le plus souvent, plusieurs d’entre eux se classeront en haut de l’échelle, plusieurs autres un peu plus loin dans le classement, et quelques-uns ne seront pas retenus. Vous devriez maintenant avoir votre short list de finalistes – idéalement trois à cinq candidats – pour l’évaluation finale.
  • Il y a de bonnes chances que vous puissiez identifier les meilleurs candidats, mais si ce n’est pas aussi clair, revenez aux évaluations individuelles et discutez-en avec l’équipe.

Principaux points à retenir et conseils

Traitez chaque fournisseur potentiel de la même manière. N’acceptez pas de démonstrations en direct, de réunions spéciales en présentiel ou de visites sur place, à moins que vous ne soyez prêt à offrir la même possibilité à tous les fournisseurs. Il est important de maintenir des règles du jeu équitables. Une technique courante consiste à organiser une « conférence des candidats » dans vos locaux pour faire visiter les lieux à tous les fournisseurs potentiels et répondre à leurs questions (devant tout le monde).

N’oubliez pas qu’une proposition est un document de vente. Les réponses contiendront les informations que vous avez demandées et bien plus. Partez du principe que toutes les affirmations sont véridiques ; vous pourrez vérifier la plupart, sinon toutes, au cours du processus d’évaluation. Mais sachez que les auteurs de la proposition répondront à vos questions de manière à présenter leurs produits sous le jour le plus favorable.

Recherchez les valeurs aberrantes. Accordez une attention particulière aux critères pour lesquels les notes varient considérablement. Si un évaluateur donne une note très élevée à une proposition pour un critère et qu’un autre évaluateur lui donne une note très basse, cela vaut la peine d’en discuter. Interrogez les deux évaluateurs de manière constructive pour savoir ce que chacun pensait. Il est probable que l’un ou l’autre ait remarqué quelque chose que les autres n’ont pas vu ou n’ont pas considéré comme important. À la suite de ces discussions, vous souhaiterez peut-être ajuster les notes pour un critère spécifique, ce qui pourrait modifier le classement général.


4. Comparaison des ERP et évaluation détaillée

Une fois que vous avez identifié trois à cinq finalistes, il est temps de vous mettre au travail pour vérifier leurs affirmations et valider leurs références.

Comment commencer votre évaluation

  • Prenez contact avec chacun des fournisseurs potentiels et annoncez-leur la bonne nouvelle : ils ont été retenus dans la short list ! (Il n’y a pas de mal à leur dire combien il y a d’autres finalistes et même à leur faire savoir avec quelles entreprises ils sont en concurrence, si vous êtes à l’aise pour le faire).
  • Dans certains cas, vous pouvez également leur demander d’affiner leurs propositions.
  • Discutez avec les utilisateurs actuels du système (ou rendez-leur visite), de préférence ceux de votre industrie (ou d’un marché comparable) et de la taille de votre entreprise.
  • Obtenez des références si les éditeurs ne les ont pas déjà fournies (les fournisseurs peuvent hésiter à fournir des références pour des raisons de concurrence. Mais vous devez insister. Rassurez-les sur le fait que vous signerez et respecterez les accords de non-divulgation).

Comment gérer les démonstrations

C’est également le moment d’inviter les candidats présélectionnés à effectuer des démonstrations détaillées de leurs systèmes – mais vous devez contrôler ces démonstrations.

  • Fournissez à chaque candidat un script ou une liste des fonctionnalités que vous souhaitez voir bien avant la démonstration prévue. Tous les fournisseurs potentiels devraient recevoir la même liste.
  • Permettez-leur de montrer les fonctions spéciales qu’ils souhaitent mettre en avant uniquement après vous avoir montré les fonctions et les processus décrits dans l’appel d’offres.
  • Assurez-vous que votre script ou votre liste inclut les exigences spécifiques identifiées à l’étape 1. Les systèmes ERP traitent les processus courants de la même manière ; ce sont les exceptions qui posent problème (par exemple, la possibilité d’entrer des commandes pour des articles qui ne sont pas en stock, de vendre des articles dans des packages, des kits ou des ensembles, ou encore la prise en charge d’un processus spécifique de rapprochement des factures).
  • Pendant la démonstration, vous voudrez voir comment le logiciel peut être configuré et adapté pour prendre en charge vos processus et procédures uniques. Cela dit, restez ouvert d’esprit dans la mesure où vous pourriez découvrir certaines meilleures pratiques dans ces fonctions standard qui amélioreraient les opérations et les résultats de votre entreprise.
  • Dans l’idéal, le démonstrateur sera en mesure de montrer le fonctionnement du système en utilisant vos propres données. Ce n’est pas toujours possible, mais lorsque c’est le cas, cela vous donnera une bien meilleure idée de la façon dont le système fonctionnerait dans votre environnement.

Principaux points à retenir et conseils

Ne vous laissez pas éblouir par les démonstrations. Les professionnels qui font la démonstration des logiciels sont généralement très expérimentés et ont une forte personnalité. Leur objectif est de vous convaincre et de vendre leur logiciel. Ne vous laissez pas distraire par la personne ou le discours de vente, aussi captivant soit-il. Concentrez-vous sur le fond.

Tirez le meilleur parti des visites de référence. Sélectionnez avec soin les visites que vous souhaitez faire. Passez un bref appel à votre interlocuteur pour vous assurer qu’il a bien déployé le logiciel et qu’il a obtenu les avantages promis. Convenez de ce qu’il vous montrera et des personnes que vous rencontrerez au cours de la visite. Une fois sur place, jugez soigneusement si leur succès est reproductible dans votre environnement. Posez également les questions difficiles : « Quelles ont été vos plus grandes surprises ? » et « Si c’était à refaire, que feriez-vous différemment ? ».

Continuez à poser des questions. Encouragez votre équipe à poser des questions, ne serait-ce que pour clarifier les réponses. Faites-le lors de l’examen de l’appel d’offres et pendant les démonstrations ; cela réduira considérablement les risques de mauvaises surprises. C’est le moment de découvrir les réponses qui ne vous plaisent pas – avant que les négociations ne commencent. N’oubliez pas non plus que vous obtenez vos réponses gratuitement à ce stade, alors apprenez-en le plus possible. Lorsque vous commencerez à implémenter le produit, il se peut que vous deviez attendre une assistance ou même payer des frais.


5. Décision finale et contrat

Une fois les évaluations détaillées terminées, vous constaterez probablement que deux ou trois fournisseurs répondent à vos critères. Sélectionnez celui qui, selon vous, répond le mieux à vos besoins actuels et futurs, mais n’écartez pas les autres. Faites-leur plutôt savoir qu’ils vous conviennent mais qu’ils ne sont pas votre premier choix ; cela laisse la porte ouverte au cas où vos négociations avec le meilleur candidat ne se déroulent pas comme prévu.

Vous pouvez maintenant commencer à négocier les détails du contrat avec le meilleur candidat. La plupart des entreprises savent comment cette étape est « censée fonctionner ». Mais comme pour toutes les autres étapes du processus d’évaluation et de sélection d’un ERP, vous risquez d’avoir des surprises.

Le pouvoir est de votre côté dans les négociations. Cependant, il est préférable de considérer le fournisseur comme un futur partenaire, et non comme un adversaire dans les négociations. Visez un accord équitable qui incite les deux parties à déployer le système de manière efficace et à en assurer le bon fonctionnement.

Chaque aspect de l’implémentation du système et du maintien de l’assistance doit être discuté et documenté – en détaillant le prix, la personne responsable et, dans certains cas, le temps nécessaire. Le contrat comporte de nombreux aspects, dont notamment (mais pas exclusivement) :

  • L’achat initial, la location ou la licence du matériel et des logiciels.
  • L’implémentation du matériel et des logiciels (en précisant ce qu’englobe le mot ‘ »implémentation »).
  • Coût et calendrier de la simulation d’implémentation (avant ou après le paiement du logiciel).
  • Coûts de formation initiale et continue
  • Maintenance continue du matériel et des logiciels (et à quel niveau).
  • Conversion des données et intégration à d’autres systèmes
  • Mise en réseau et sécurité
  • Personnalisations (initiales et avec les versions futures)

Principaux points à retenir et conseils

N’annoncez pas votre sélection finale avant les négociations. À la fin de la phase d’évaluation détaillée, l’équipe peut vouloir déclarer un « gagnant ». Cependant, informer le candidat principal qu’il est « l’élu » n’est pas dans l’intérêt de votre entreprise. Il n’est pas rare d’avoir des surprises au cours du processus de négociation et vous devrez peut-être revoir votre choix.

Planifiez à long terme. Lors du démarrage, veillez à examiner attentivement les coûts à long terme afin que vos estimations soient correctes et que vous ne faussiez pas les chiffres du retour sur investissement de l’ERP. Certains fournisseurs offrent davantage de services gratuits pendant une période plus longue et d’autres peuvent confier leur assistance à long terme à une entreprise qui facture à l’appel. Certains fournisseurs fixent un plafond pour l’augmentation des tarifs annuels de maintenance ou d’abonnement, mais beaucoup ne le font pas. D’autres vendent un abonnement SaaS (Software-as-a-Service) à bas prix, qu’ils augmentent considérablement après quelques années. Certains fournisseurs proposent une mise à jour annuelle, mais ne fournissent aucune assistance réelle lors du processus de mise à jour. Posez des questions et obtenez des réponses écrites pour être sûr de bien appréhender vos coûts à long terme.


L’importance de l’équipe projet

Le facteur le plus important pour le succès du processus d’évaluation du système ERP est l’équipe projet. Cette équipe doit être constituée très tôt et doit être le moteur de l’élaboration, de la diffusion et de l’évaluation de l’appel d’offres et de la sélection du nouveau système ERP.

D’après notre expérience, lorsque les équipes sont au milieu d’une investigation et d’une évaluation détaillées, elles prennent souvent des raccourcis. Mais si votre équipe projet suit ces cinq étapes et prête attention aux enseignements tirés, elle sera en mesure de trouver la solution optimale pour répondre aux exigences de votre entreprise, maintenant et pour l’avenir.


Publié en anglais sur insights.sap.com

The post Conseils pour bien choisir votre (nouveau) système ERP appeared first on SAP France News.

Source de l’article sur sap.com

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com

De tous les défis auxquels le monde est confronté aujourd’hui, le changement climatique représente la plus grande menace. Des points de basculement que nous ne nous attendions pas à voir franchir avant de nombreuses années ont déjà été atteints. Il reste peu de temps pour arrêter les changements irréversibles et désastreux des systèmes climatiques de la Terre.

L’objectif mondial de zéro émission carbone est un gigantesque challenge. Une transition significative vers les énergies renouvelables ne peut à elle seule résoudre que 55 % des émissions mondiales. Les 45 % restants résultent des transports, de l’utilisation des sols, de la gestion des bâtiments et de la production de biens de consommation et industriels. L’action en faveur du climat nécessite de nombreuses solutions différentes et interdépendantes. Elle doit être un effort conjoint des nations, des sociétés civiles et des entreprises.

L’évolution vers des pratiques commerciales durables est impulsée par les gouvernements, les consommateurs, les investisseurs et même les employés. Si la plupart des entreprises surveillent et mesurent les émissions de CO2 de leurs sites de production, les clients exigent de plus en plus de connaître l’empreinte carbone complète des produits qu’ils achètent.

En conséquence, les entreprises doivent passer du modèle linéaire qui domine encore aujourd’hui le secteur à une économie circulaire – un changement systémique qui renforce la résilience à long terme, génère des opportunités commerciales et économiques et procure des avantages environnementaux et sociétaux.

Dans cette nouvelle équation, le carbone devient de plus en plus un nouveau vecteur de transformation. Il s’agit effectivement d’une « monnaie » mondiale et universelle qui peut être suivie, échangée, gérée et minimisée comme toute autre ressource. Pourtant, pour la plupart des entreprises, la gestion du carbone est considérée soit comme un coût nécessaire à la conduite des affaires, soit comme une taxe qui sert de pénalité. D’une manière ou d’une autre, elle est considérée comme corrosive pour les bénéfices.

Mais que se passerait-il si nous pouvions convertir la gestion du carbone en stratégie d’investissement qui puisse également générer des bénéfices ? Et si nous pouvions rendre la durabilité rentable et la rentabilité durable, sans sacrifier l’une à l’autre ?

Cette idée est tout aussi visionnaire que prometteuse. Prenons l’exemple d’une grande entreprise de biens de consommation. À un horizon de cinq à dix ans, en fonction de l’évolution de la législation, il est possible d’éviter des dépenses de compensation de 1 à 2 % du chiffre d’affaires par an, d’augmenter le chiffre d’affaires de 1 à 3 % par an et de réaliser des économies de 2 à 5 millions d’euros par an grâce à une comptabilisation et une déclaration plus précise et plus efficace des émissions.

Pour ce faire, les entreprises ont besoin de logiciels qui les aident à mesurer, à comptabiliser et à prendre les bonnes actions – et SAP est très bien positionné pour répondre à ce challenge. Nous gérons les chaînes logistiques des plus grandes entreprises du monde, nous pouvons jouer un rôle central en aidant les entreprises à gérer leur Green Line* en minimisant l’empreinte carbone et l’impact environnemental négatif de leurs produits.

Inscrivez-vous dès maintenant au SAP Sustainability Summit pour les détails sur la manière dont nous aidons les entreprises à gérer leur Green Line* de manière responsable.

* en plus du pilotage traditionnel de la « top line » – c’est-à-dire la génération de chiffre d’affaires – et de la « bottom line » – l’optimisation des résultats nets et la profitabilité, les entreprises doivent maintenant piloter la « green line », c’est-à-dire la production responsable et durable.

Article original posté sur Linkedin en anglais

The post Empreinte carbone : on ne peut pas gérer ce que l’on ne mesure pas appeared first on SAP France News.

Source de l’article sur sap.com

Le changement climatique est un sujet brûlant. Pour y remédier, tous les pays du monde se doivent d’agir et de mener des actions coordonnées. Depuis plus de 10 ans, SAP s’emploie à agir contre le changement climatique. L’éditeur a fixé ses premiers objectifs de baisse des émissions de CO2 dès 2009. Bien qu’il ait une nouvelle fois été classé numéro 1 des éditeurs de logiciels dans les indices de durabilité du Dow Jones cette année, le plus dur reste à accomplir.

Dans le cadre du mouvement #FridaysForFuture, des milliers d’étudiants descendent dans la rue chaque vendredi pour manifester en faveur de la protection du climat. Le rapport annuel sur l’écart entre les besoins et les perspectives en matière de réduction des émissions qui vient d’être publié a tiré une autre sonnette d’alarme avant la conférence sur le climat de cette semaine. En comparant la tendance des émissions de gaz à effet de serre à leur niveau souhaitable, le rapport souligne que ces émissions doivent baisser de 7,6 % par an sur la prochaine décennie pour que l’humanité parvienne à contenir l’élévation des températures du globe à 1,5 °C. Un réchauffement supérieur à 1,5 degré entraînerait des phénomènes climatiques plus fréquents et plus intenses, à l’image des vagues de chaleur et des tempêtes observées ces dernières années, et ferait planer de graves menaces sur les populations, les pays, l’environnement, mais aussi les entreprises.

Favoriser l’action pour le climat via les solutions SAP

Pour lutter contre les dommages causés par le changement climatique, SAP s’appuie sur la numérisation. Ce faisant, l’éditeur aide ses clients à réduire leurs émissions de CO2 et à contribuer à l’objectif de développement durable numéro 13 des Nations unies, à savoir Mesures relatives à la lutte contre les changements climatiques.

« Le principal levier de SAP se traduit par son portefeuille de produits, qui permet aux clients d’agir de manière positive sur le plan économique, environnemental et social », explique Daniel Schmid, directeur du développement durable de SAP. « Avec plus de 437 000 clients à son actif, notre entreprise dispose d’un énorme potentiel pour changer les choses. »

Une partie de ce potentiel a déjà été réalisée en collaboration avec les clients.

Lors dialogue consacré aux aspects stratégiques du développement durable qui s’est tenu au siège de SAP en septembre, Hanno Schoklitsch, fondateur et PDG de Kaiserwetter, a parlé de la façon dont son entreprise recourt à l’Internet des Objets (IdO) et l’intelligence artificielle (IA) pour accélérer la transition vers les énergies vertes. Il a présenté le dernier bilan d’ARISTOTELES, plateforme IdO optimisée par SAP Cloud Platform, qui s’appuie sur des analyses de données intelligentes et des simulations de données prédictives pour améliorer les investissements et le financement en faveur de l’efficacité énergétique.

Il est essentiel d’amplifier cet impact. En conséquence, les équipes SAP s’activent à faire évoluer les solutions SAP qui aident à transformer la mobilité urbaine et qui soutiennent les réseaux de chaîne logistique pour qu’ils gagnent en transparence, dans l’objectif de passer à une économie circulaire « zéro déchet » et de lutter contre la pollution plastique.

Donner l’exemple : efforts consentis en interne

Cliquez pour agrandir

Tout en cherchant à élaborer des produits et services qui aident les clients à déployer des modèles économiques durables, SAP s’engage à réduire ses propres émissions de gaz à effet de serre. Des mesures ont déjà été mises en place pour atteindre cet objectif.

SAP s’est fixé l’objectif de réduire de 85 % ses émissions de CO2 tout au long de la chaîne de création de valeur d’ici 2050, un objectif qui s’inscrit dans l’initiative « Science Based Targets ». Dans ce cadre-là, l’éditeur a récemment renforcé son engagement en adoptant les objectifs de réduction des émissions de 1,5 ºC dans l’optique d’une future neutralité carbone. Pour atteindre la neutralité carbone dans ses propres activités d’ici 2025, SAP s’appuie sur une stratégie en trois volets : éviterréduirecompenser.

  • Éviter : dans la mesure du possible, SAP s’emploie à éviter les émissions de gaz à effet de serre. Il s’agit d’une priorité absolue, qui passe par exemple par le recours aux télécommunications virtuelles en lieu et place des vols d’affaires.
  • Réduire : au cas où les émissions de gaz à effet de serre ne pourraient pas être évitées, SAP cherche à renforcer l’efficacité et réduire tous les types d’émissions, par exemple avec l’efficacité énergétique des bâtiments, les opérations des centres de données, le covoiturage, l’autopartage et la mobilité connectée.
  • Compenser : SAP a élargi ses modèles de compensation des déplacements professionnels. Dans le cas des vols d’affaires, un prix interne du carbone a été établi pour compenser les émissions de CO2, et SAP a émis des cartes de carburant neutres en carbone pour toutes les voitures de fonction.

En 2009, SAP s’est fixé l’objectif de ramener les émissions de gaz à effet de serre aux niveaux de 2000 d’ici 2020. Ce résultat a été atteint dès la fin 2017 alors que les effectifs de SAP ont été multipliés par quatre au cours de cette période. L’année dernière, SAP a fait tomber ses émissions à 310 kilotonnes, dépassant ainsi son objectif annuel de réduire le nombre de ses émissions de CO2 à moins de 333 kilotonnes. Les chiffres exacts sont disponibles dans le rapport intégré annuel. En outre, un tableau de bord interne de durabilité permet aux employés de découvrir la répartition de ces rejets par pays, par site et par secteur d’activité.

Tous les centres de données et établissements SAP fonctionnent aux énergies vertes depuis 2014. En outre, SAP introduit progressivement un système de management environnemental conforme à la norme ISO 14001 sur les sites SAP du monde entier.  En 2019, 55 sites SAP avaient déjà obtenu la certification ISO 14001.  Un système de management de l’énergie certifié ISO 50001 est intégré aux systèmes de gestion existants de certains sites, tels que le siège de SAP à Walldorf et St. Leon-Rot, pour améliorer en continu la performance énergétique de l’entreprise.

La mobilité joue également un rôle clé dans la lutte contre le changement climatique. C’est la raison pour laquelle le profil des employés qui font la navette entre domicile et lieu de travail est pris en compte dans le calcul des émissions de CO2 de SAP. Avec son large éventail de voitures électriques, à ses systèmes de transport public spéciaux ainsi qu’à son vif soutien du vélo et du covoiturage, SAP propose différents moyens de se déplacer et de voyager de manière durable. Les résultats de l’enquête 2018 sur les trajets domicile-travail ont révélé une tendance positive : en 2018, les émissions quotidiennes de CO2 en lien avec ces trajets ont diminué de 4,7 % par rapport à l’année précédente. L’utilisation de la voiture a baissé de 5 %, celle des transports publics est restée stable et le recours au vélo a augmenté de 15 %. Le travail à domicile a progressé de 11 % d’une année sur l’autre.

Si les émissions de CO2 ne peuvent être évitées ou réduites, auquel cas SAP investit dans des projets de compensation d’émissions et reçoit en retour des crédits carbone des projets sponsorisés. L’accent est mis sur des projets ambitieux, tels que le Fonds Livelihoods qui conjugue reboisement et amélioration des moyens de subsistance des communautés rurales et satisfait aux critères du label GOLD standard du WWF (World Wide Fund for Nature). À ce jour, 2,3 millions d’arbres ont été plantés, dont 1 million entre 2018 et 2019, par exemple, dans le cadre du projet « Réserve de forêt de Kikonda » en Ouganda.

Agir au niveau individuel

Chacun de nous, nous pouvons de bien des façons changer les choses, tant dans notre vie personnelle que professionnelle. Les employés de SAP sont désireux d’apporter une contribution positive. Selon l’enquête annuelle menée auprès du personnel, 93 % des employés conviennent qu’il est important pour SAP de poursuivre sa stratégie de développement durable. Plus de 200 personnes s’engagent comme défenseurs du développement durable au sein d’un réseau mondial pour encourager le changement et inspirer leurs collègues.

Le programme SAP Next-Gen, mis en place en collaboration avec les laboratoires d’innovation technologique de l’ONU, soutient une série de hackathons en faveur de l’action climat, Reboot the Earth, dont la finale aura lieu lors du sommet pour le climat à New York prévu en septembre prochain. De nombreux employés de SAP sur différents sites se sont portés volontaires pour jouer le rôle de juges dans les concours locaux.

Les lignes directrices de la programmation durable compilées par l’équipe Performance and Scalability de SAP ont également valeur d’exemple. Selon Detlef Thom, expert produit SAP en développement : « Pour les développeurs de logiciels et les architectes, appuyer le développement durable et contribuer à l’informatique écoresponsable implique de concevoir des programmes logiciels qui utilisent efficacement les ressources informatiques tout en économisant de l’énergie. Cela devient encore plus impératif si l’on tient compte du grand nombre de transactions commerciales que gère un système SAP à l’échelle mondiale. »

The post SAP, acteur de la lutte contre le changement climatique appeared first on SAP France News.

Source de l’article sur sap.com

Un an après l’annonce de la pandémie par l’Organisation mondiale de la santé, la COVID-19 fait toujours la une de l’actualité dans le monde. Fermeture des écoles, des universités et des jardins d’enfants, report ou annulation d’événements, interdictions de voyage, confinement de villes et de régions entières, chute des marchés mondiaux… Le coronavirus bouleverse notre quotidien et nous rappelle à quel point notre monde est volatil.

Parallèlement, les effets positifs de la pandémie sur l’environnement nous ont montré qu’il était possible d’agir rapidement. Les avions cloués au sol, la baisse de fréquentation sur les routes et la fermeture des usines ont fait chuter les émissions mondiales de dioxyde de carbone à des niveaux jamais atteints depuis 2006 lors du confinement d’avril 2020. Sept grandes villes internationales, dont New Delhi, São Paulo et New York, ont connu une réduction de 25 à 60 % des particules fines pendant cette période de confinement, selon IQAir. En Chine, la COVID-19 a fait chuter les émissions de CO2 de 200 millions de tonnes depuis le début de l’épidémie, ce qui équivaut à plus de 10 % des émissions mondiales.

Cela n’atténue en rien le coût humain de l’épidémie. Les décès, les mesures de quarantaine, les difficultés financières des entreprises et des ménages n’en sont que quelques-unes des conséquences. Dans le même temps, cette crise a mis en évidence le fait que nous pouvions agir massivement et rapidement en faveur du climat.

Nous sommes à un tournant. Selon les prévisions de l’Organisation météorologique mondiale, il y a 20 % de probabilité que les températures mondiales soient de 1,5 °C supérieures à la moyenne enregistrée à l’époque préindustrielle entre 2020 et 2024 au minimum pendant un an. Ce seuil de 1,5°C est le niveau de réchauffement climatique que les pays se sont engagés à contenir lors de l’Accord de Paris de 2015. Même si un nouveau pic annuel peut être suivi de plusieurs années de températures en moyenne plus douces, le non-respect de ce seuil serait une preuve supplémentaire que les mesures internationales de lutte contre le changement climatique ne fonctionnent pas.

Nous ne pouvons ni ignorer la pandémie et son impact, ni continuer à ignorer le changement climatique et la contribution de nos entreprises. Quatre-vingt-cinq pour cent des entreprises qui émettent le plus de CO2 utilisent SAP pour gérer leurs processus, ce qui représente une formidable opportunité. Les technologies numériques peuvent contribuer à réduire massivement les émissions de CO2 dans des secteurs majeurs tels que les services publics, l’agriculture et les transports. Ces réductions d’émissions pourraient potentiellement équivaloir à planter 500 milliards d’arbres. Imaginez l’impact si tous les secteurs agissaient ensemble !

Le développement durable combine la vision de l’entreprise intelligente et l’objectif de SAP de créer un monde meilleur et d’améliorer la vie des individus de la manière la plus naturelle qui soit. Il nous offre également une occasion unique de créer un impact durable et positif pour les générations futures. En 2009, SAP s’était engagée à ramener ses émissions de gaz à effet de serre à leurs niveaux de 2000 à l’horizon 2020. Nous avons atteint cet objectif deux ans plus tôt, tout en multipliant par quatre nos effectifs. Nous prenons l’engagement d’atteindre la carboneutralité d’ici 2025 et, malgré une forte croissance, nous sommes parvenus à réduire notre empreinte carbone nette au cours des cinq dernières années. Nous avons récemment été classés leader du secteur des logiciels dans les indices de durabilité du Dow Jones pour la 14ème année consécutive.

Nous poursuivons non seulement nos propres objectifs climatiques, mais nous voulons aider nos clients à repenser leur stratégie pour atteindre leurs objectifs de durabilité. Dans le cadre de la transition vers de nouveaux modèles de gestion durables, SAP dispose d’une équipe d’experts en solutions et services d’innovation qui aide les clients à surmonter les perturbations et à transformer leurs activités par le biais de l’innovation, grâce à des technologies intelligentes telles que l’Internet des Objets (IoT), l’apprentissage automatique, l’intelligence artificielle (IA), la technologie blockchain et l’analyse étendue des données.  Nous aidons les entreprises à suivre leurs émissions de CO2, des chaînes logistiques en amont jusqu’à la logistique en aval, y compris l’approvisionnement, les opérations et la fabrication.

Aujourd’hui, nous allons encore plus loin en développant des solutions qui permettent à nos clients de mesurer et de réduire leurs émissions dans l’intégralité de leur chaîne de valeur. Nous voulons intégrer la durabilité comme nouvelle dimension de réussite dans les applications analytiques et transactionnelles. Ou, comme le dit si justement mon collègue Thomas Saueressig : nous ajoutons une « ligne verte » au chiffre d’affaires et au résultat net pour mesurer la performance d’une entreprise.

En ce début d’année, nous procédons à des essais auprès de clients issus de secteurs tels que l’automobile, l’industrie des produits chimiques, l’industrie alimentaire et l’ingénierie. SAP Product Carbon Footprint Analytics est la première solution disponible sur le marché et notre client Doehler est le premier à l’adopter. D’autres solutions seront bientôt disponibles. Restez à l’écoute pour en savoir plus !

Nous voulons aider nos clients à repenser leur stratégie en matière de développement durable. Nous créons de la valeur en les aidant à atteindre leurs objectifs en matière d’émissions, et nous les aidons à prendre des décisions commerciales responsables tout en tenant compte de la durabilité. Nos clients pourront simuler les effets d’options d’investissement durable, de décisions opérationnelles et de la gestion des ressources naturelles et sociales, comme n’importe quelle autre ressource d’entreprise.

Avec ces mesures, SAP franchit un nouveau cap dans la transformation de ses clients en entreprises intelligentes durables, en prouvant que l’entreprise intelligente peut rendre la durabilité rentable et la rentabilité durable.

Christian Klein est le PDG de SAP.
Cet article est initialement paru sur LinkedIn.

The post Changement climatique : il est temps d’agir ! appeared first on SAP France News.

Source de l’article sur sap.com