Articles

Avec l’aide de son partenaire STMS, Latécoère a créé et déployé une série d’applications visant à faciliter le travail des magasiniers et opérateurs susceptibles de se déplacer au sein des sites de production. Des outils s’appuyant sur SAP Cloud Platform.

Latécoère est un équipementier majeur du monde aéronautique. Le groupe toulousain compte plus de 100 années d’existence. Il a réalisé un chiffre d’affaires 2020 dépassant les 410 millions d’euros, avec une production répartie dans 13 pays et près de 4200 collaborateurs. Latécoère dispose de deux activités principales : aérostructures (AS : tronçons de fuselage, portes d’avion…) et systèmes d’interconnexion (IS : câblage, meubles électriques…).

La société a lancé en parallèle deux projets ayant trait à la mobilité. « Côté AS, nous voulions équiper les magasiniers d’outils mobiles leur permettant de limiter les allers et retours entre le magasin et les bureaux, ainsi que le recours à une double saisie papier/numérique. Côté IS, les besoins sont identiques, avec en plus une problématique de traçabilité. Nous souhaitions en effet pouvoir suivre chaque lot, à chaque étape », explique Karim hajjaji, IT Manager, Support Process & Execution . Dans les deux cas, l’objectif est de faciliter la vie des opérateurs, tout en renforçant la qualité des données et la traçabilité.

SAP est déjà utilisé au sein de l’entreprise et semblait être le choix naturel pour ces projets. « Nous ne voulions pas rajouter de couche applicative supplémentaire à notre SI. Rapidement nous avons perçu le potentiel de SAP Cloud Platform pour enrichir notre SI de solutions mobiles dédiées. Nous y avons vu aussi une technologie qui pourrait nous propulser vers l’avenir et non nous retenir dans le passé. Notre partenaire STMS, avec lequel nous travaillons en confiance depuis de nombreuses années, a fini de nous convaincre d’aller vers SAP Cloud Platform. »

Une constellation de projets menés en mode express

STMS a choisi de travailler sous forme de sprints, avec des applications déployées fonctionnalité par fonctionnalité. Sur la partie AS, quatre sprints ont été lancés en juin, septembre, octobre et décembre 2019, avec une mise en production des outils entre un et deux mois plus tard. Le déploiement s’est effectué sur des tablettes Microsoft Surface Go. Les applications couvrent la plupart des transactions effectuées par un magasinier : réception des marchandises, prise de décision d’usage, inventaire et transferts de stocks internes, picking pour expédition.

Trois sprints ont été menés sur la partie IS, séparés en deux phases : une première comprenant un sprint mené entre avril et juillet 2019 et une seconde avec deux sprints organisés entre septembre 2020 et janvier 2021. Du matériel plus spécifique (des lecteurs Zebra) a ici été employé. Les tâches prises en charge par les applications vont de la réception des articles à la gestion des bacs en passant par l’inventaire des pièces.

L’un des défis qu’a dû relever STMS était de travailler avec des équipes réparties dans le monde entier. Un key user était en effet choisi sur chaque site, avec un leader situé en République tchèque. Quant au chef de projet, c’est au Brésil qu’il a été choisi. « C’était une volonté de notre part d’aller chercher des key users partout dans le monde, afin de ne rien rater concernant les besoins attendus pour ces solutions mobiles », explique Sébastien Ducruezet (IT Departement – Support Process & Execution – Purchase, Supply Chain & Quality). Les consultants de STMS ont utilisé des outils collaboratifs pour communiquer avec les équipes de Latécoère, tout en maquettant les applications avec SAP Build, au fur et à mesure de l’expression de besoins. Une fois une maquette validée, le projet correspondant partait en développement, test puis déploiement.

Un déploiement en cours… et déjà d’autres projets

Côté AS, toutes les applications sont aujourd’hui en production, sur l’ensemble des sites. Pour la branche IS, les travaux ne sont pas terminés : les applications sont déployées sur les sites français, mais à l’étranger il faudra attendre la fin des restrictions de déplacement liées à la crise du Coronavirus pour que les formations puissent s’organiser. Des travaux ont été initiés sur la branche IS afin de mesurer les gains apportés par ces solutions mobiles. Latécoère s’attend à des bénéfices en termes d’efficacité et de qualité des données.

L’approche SAP Cloud Platform, testée avec succès sur ces applications mobiles, a d’ores et déjà trouvé un écho sur les chaînes de production. Ainsi, lorsqu’il a fallu mettre en place dans les ateliers des interfaces permettant aux opérateurs de saisir la liste de composants prélevés, c’est  SAP Cloud Platform et une interface de type Fiori qui ont été mises en œuvre.

Et Latécoère entend bien ne pas s’arrêter en si bon chemin. Au travers de ces applications de nouvelle génération, l’entreprise prépare ses collaborateurs au passage à l’ERP SAP S/4HANA, qui propose lui aussi une interface utilisateur modernisée. SAP Cloud Platform devrait par ailleurs être stratégique pour faciliter cette migration. « Nous envisageons de développer nos spécifiques sur SAP Cloud Platfom et non plus directement dans l’ERP, poursuit Karim hajjaji, IT Manager, Support Process & Execution. C’est un changement de paradigme pour nous, mais aussi un moyen de simplifier notre future migration vers SAP S/4HANA. Chaque spécifique déplacé sur SAP Cloud Platform sera un obstacle de moins à notre migration. »

The post Latécoère embrasse la mobilité avec SAP Cloud Platform et Fiori appeared first on SAP France News.

Source de l’article sur sap.com

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

 

“Cette initiative est née de notre profonde conviction que les entreprises, quelle que soit l’industrie, peuvent tirer parti du partage d’experiences.”

 

Il est ingénieur de formation, issu de Polytech’Nice-Sophia. Elle est diplômée en mathématiques appliquées et a validé une thèse en théorie de l’optimisation. Ils mènent leur carrière dans de grandes entreprises technologiques internationales. Et dirigent le Industrial Council of Artificial Intelligence Research (ICAIR). Olena Kushakovska (SAP) et Jean-Michel Sauvage (Amadeus) pilotent ensemble ICAIR depuis 2020. Ils ont une ambition claire pour l’organisation : accélérer le travail sur l’IA en mettant l’accent sur le développement durable. A l’occasion du 1er SAP Sustainability Summit, la directrice générale de SAP Labs France et le directeur R&D pour les solutions Revenue Management d’Amadeus se sont prêtés au jeu de l’interview croisée pour nous donner leur vision de l’IA durable.

  1. Quels sont les principaux avantages de l’IA dans votre secteur ?

Olena Kushakovska : Chez SAP, nous permettons à nos clients de devenir des entreprises intelligentes, d’utiliser les données pour bâtir des entreprises plus performantes, plus résilientes, plus rentables, plus agiles et plus durables. Nous mettons tout en œuvre pour que la réalité de l’entreprise intelligente soit pleinement intégrée avec les fonctionnalités d’Intelligence Artificielle.

Jean-Michel Sauvage : L’IA est une technologie majeure qui offre la meilleure utilisation possible des données et fournit un service plus performant, plus efficace, prévisible, personnalisé et à plus forte valeur ajoutée sur l’ensemble de la chaîne.

  1. Quand, pourquoi et comment vous êtes-vous engagé avec ICAIR ?

Olena : Amadeus et SAP sont membres fondateurs de ICAIR. La décision d’aller de l’avant a été prise entre Gilles Floyrac et moi il y a environ 2 ans. Gilles était le président d’Amadeus Nice à l’époque et la région Côte d’Azur venait de décrocher le label 3IA. Son idée était que les entreprises conduisent l’agenda industriel parallèlement au monde universitaire. Plus de 60 entreprises de la zone ont soutenu le projet 3IA. Nous avons contacté les entreprises que nous pensions intéressées (ex. IBM, ARM, NXP, Thales Alenia Space, Orange) et le “Club” est né. La réunion de mise en place entre les responsables de site pour sceller le club s’est tenue chez Amadeus puis la 1ère session de travail a eu lieu chez SAP en juin 2019.

Jean-Michel : Les techniques d’IA n’étant pas spécifiques à la résolution d’un problème, cette initiative est motivée par la forte conviction que les entreprises, même lorsqu’elles travaillent dans différents secteurs, peuvent bénéficier de l’apprentissage et du partage d’expériences sur les défis auxquels elles sont confrontées sur des problèmes techniques similaires.

« Nous nous efforçons d’utiliser l’IA de manière durable et d’atteindre les objectifs de durabilité de l’ONU au sein du secteur. » Olena KUSHAKOVSKA

  1. Qu’est-ce qui est spécial avec ICAIR ?

Jean-Michel : ICAIR se concentre sur la recherche appliquée, et à ce titre, est un moyen de lier la recherche fondamentale et les résultats académiques à leur application dans un environnement industriel.

Olena : ICAIR est à taille humaine, agile, diversifié, industriel, pratico-pratique, avec des cas d’utilisation réels. Des entreprises leaders dans le monde composent le conseil. Pour autant, il y a un faible niveau d’administration, une faible bureaucratie, mais beaucoup de bonne volonté et un grand écosystème. La bienveillance et le soutien sont sans faille, et l’implication continue !

  1. Pourquoi avoir choisi l’IA durable comme thème du programme ICAIR ? 

Jean-Michel : L’IA s’accompagne de défis, tant en termes de technologie, de puissance de calcul, que de biais d’apprentissage, ou de décisions humainement explicables. Nous pensons que l’IA peut être conçue et utilisée de manière durable et apporter de la valeur d’une manière qui respecte la planète et les communautés.

Olena : On questionne souvent l’IA en termes écologique ou éthique. Nous voulons envisager la durabilité dans un contexte beaucoup plus large, celui des objectifs de durabilité des Nations Unies. La durabilité s’entend comme la capacité de notre génération à atteindre ses objectifs, sans compromettre la capacité de la génération future à atteindre les leurs. Et ce, par rapport à toutes les ressources : naturelles, humaines, économiques. Nos efforts se concentrent sur l’IA durable pour atteindre les objectifs des Nations Unies au sein de l’industrie.

  1. Quel est le champ d’application d’ICAIR ?

Jean-Michel : ICAIR a été pensé de telle sorte que des chercheurs d’entreprises de Sophia Antipolis hébergeant des laboratoires de recherche travaillant dans différents contextes industriels, et sur différents sujets, puissent discuter et échanger leurs points de vue sur des questions communes liées à l’utilisation de l’IA dans leurs industries respectives.

Olena : Notre objectif est de travailler sur des projets communs et d’échanger sur les meilleures pratiques en matière d’apprentissage automatique et d’intelligence artificielle. Cela permettra de faire progresser les recherches en matière d’IA. Enfin, nous comptons utiliser notre puissance commune pour promouvoir la Côte d’Azur en tant que berceau de l’IA durable.

  1. Qu’est-ce qui vous motive personnellement ?

Olena : Ma volonté est de promouvoir notre grande collaboration, dans l’écosystème incroyablement riche sur le plan technologique et intellectuel de la Côte d’Azur, en montrant à nos maisons-mères que cet endroit est vraiment exceptionnel, et y développer une véritable communauté autour de l’IA. Je veux aussi que la France et l’Europe obtiennent la place qu’elles méritent dans le monde en ce qui concerne l’IA, en veillant à ce que l’IA soit utilisée à bon escient, que la Côte d’Azur soit identifiée comme l’endroit idéal pour l’IA durable, et enfin que les gens ne craignent plus l’IA.

Jean-Michel : Je suis un passionné d’aviation et d’informatique. Heureusement pour moi, les voyages et l’aviation en particulier sont des domaines pleins de défis combinatoires, très complexes à résoudre et à optimiser. Chez Amadeus, nous sommes déjà pleinement engagés dans le déploiement de l’IA. Nous sommes également engagés depuis de nombreuses années dans le développement de systèmes ouverts et interopérables, car nous pensons que c’est en combinant les meilleurs services « atomiques » que nous apporterons une plus grande valeur ajoutée à nos clients, à l’industrie du voyage et aux voyageurs. Mais nous savons aussi que, comme toute évolution de ce genre, elle a besoin de temps, d’expérience, de tests et d’apprentissage. L’IA s’accompagne de nombreuses questions et défis sans réponse. Avec ICAIR, nous faisons partie de l’apprentissage, de l’enseignement, et nous voulons y répondre de la bonne manière.

 

 

 

Les membres sont des entreprises internationales avec des sites sur la Côte d’Azur et menant des recherches en IA :

  • Accenture,
  • ACRI-ST,
  • AIRFRANCE KLM,
  • Amadeus,
  • ARM,
  • Hewlett Packard Enterprise,
  • IBM,
  • NXP Semiconductors,
  • Orange,
  • Renault Software Labs,
  • SAP Labs France,
  • STMicroelectronics,
  • Thales Alenia Space.

Le programme touche l’ensemble de l’écosystème du label 3IA de la Côte d’Azur :

  • Académiques : Institut 3IA, UCA (Université Côte d’Azur), Ecoles, Centres de Recherche
  • Secteurs d’activité : ICAIR, ClusterIA
  • Institutions : MIA, OTESIA, EuropIA
  • Associations : Telecom Valley, Pôle SCS

Des initiatives liées à l’IA lancées par ces acteurs soutiennent la dynamique territoriale de la Côte d’Azur. Elles se rapportent aux objectifs de développement durable des Nations unies et constituent le champ d’application du programme « IA durable ».

En savoir plus : ICAIR – Industrial Council of Artificial Intelligence Research

The post SAP et Amadeus pilotent le conseil industriel pour la recherche en intelligence artificielle appeared first on SAP France News.

Source de l’article sur sap.com

Novo Mesto est une petite ville slovène située sur le coude pittoresque de la rivière Krka. Cette ville, dont l’origine remonte à la préhistoire, a toujours su gérer intelligemment ses ressources. L’idée d’assurer aux génération futures un environnement propre est profondément ancrée dans l’état d’esprit collectif. Les citoyens et les touristes peuvent se baigner dans la rivière en plein centre-ville.

« Nous ne sommes ni les premiers ni les derniers à vivre sur cette planète », déclare l’adjoint au maire de la ville, Bostjan Grobler. « Devenir une ville intelligente n’est pas un objectif en soi. L’objectif est de préserver la santé de nos citoyens et la salubrité de notre environnement afin d’offrir des emplois durables et des espaces de vie attrayants. La technologie nous aide à y parvenir. »

L’air pur comme point de départ

Comme beaucoup d’autres villes en Europe, Novo Mesto lutte depuis dix ans contre la pollution atmosphérique.

Celle-ci est particulièrement élevée en hiver, où les mesures font souvent état de particules de suie qui dépassent plusieurs fois par semaine les limites de matières particulaires (PM) fixées par l’Union européenne à 40 microgrammes par mètre cube. Il existe différents types de matières particulaires. Les matières les plus fréquemment mesurées sont des particules en suspension d’un diamètre de 10 microns ou moins, appelées PM10. Pour vous donner une idée, un micron est un millionième d’un mètre et un cheveu humain a une épaisseur d’environ 75 microns.

Selon l’Organisation mondiale de la santé (OMS), le niveau de PM10 doit être inférieur à 20 microgrammes par mètre cube. La ville allemande de Mannheim, par exemple, enregistre une moyenne annuelle de 22 microgrammes, contre 27 à Novo Mesto. Même si ces moyennes sont faibles en comparaison de Shanghai, qui avoisine les 84, elles peuvent entraîner des maladies cardiaques et pulmonaires ainsi qu’une irritation des voies respiratoires, en particulier lorsqu’elles dépassent 40 microgrammes.

Novo Mesto affichait des niveaux élevés de PM10 année après année, mais les dirigeants municipaux ne savaient pas comment y remédier.

« Il était évident que nous devions agir », explique Peter Gersic, responsable du développement de projets pour la municipalité de Novo Mesto, « car la pollution atmosphérique ne disparaît pas toute seule. Mais en toute honnêteté, nous ne savions que faire de ces données. »

Après quelques recherches, la municipalité s’est adressée à SAP et Telekom Slovénie. Juraj Kovac, un analyste de Telekom doué de l’expertise technique adéquate pour mettre en œuvre des solutions de ville intelligente, nous a expliqué le fonctionnement de la solution. Des capteurs ont été installés dans toute la ville pour recueillir des données non seulement sur la pollution atmosphérique, mais aussi sur d’autres indicateurs environnementaux importants, notamment l’utilisation de l’eau et la pollution lumineuse.

« Nous utilisons SAP Leonardo pour collecter les données et SAP Analytics pour les analyser », explique Juraj Kovac. « Toutes nos plateformes IdO s’exécutent sur SAP Cloud Platform. Les données sont utilisées par la municipalité pour prendre des décisions opérationnelles et par les citoyens qui utilisent des applications mobiles, par exemple pour trouver des places de stationnement. »

Améliorer la vie urbaine

L’adjoint au maire comprend désormais que la gestion des ressources de la ville n’est pas uniquement une affaire d’État. Il s’agit d’aider les citoyens à revoir leur mode de vie. « Si nous voulons que les gens prennent moins leur voiture, nous devons leur offrir des alternatives comme les transports publics et les pistes cyclables », déclare Bostjan Grobler. « Il ne suffit pas de motiver les gens à acheter des véhicules électriques. Nous devons veiller à ce qu’ils puissent facilement les garer et les recharger. ».

Ce que Novo Mesto souhaite réaliser à petite échelle grâce à la technologie intelligente existe déjà dans plusieurs villes du monde. Depuis les bâtiments écologiques et la collecte des déchets basée sur des capteurs, jusqu’au développement des transports publics et des services municipaux en ligne, les villes intelligentes révolutionnent la vie urbaine.

La ville de New York, par exemple, a été nommée ville la plus intelligente au monde pendant deux années consécutives notamment pour son recours à un système de relevé automatisé permettant de mieux comprendre comment ses 8,5 millions d’habitants utilisent 1 milliard de gallons d’eau chaque jour. La ville de Londres, qui arrive deuxième au classement, a été récompensée pour son système de transport collectif et ses politiques d’urbanisme.

La Commission de transport de Toronto utilise la technologie SAP pour optimiser la visibilité des processus et la communication pour le personnel œuvrant dans les transports en commun de la ville. La technologie IdO de SAP aide la ville d’Antibes à mieux gérer ses ressources en eau. La ville de Nanjing utilise les capteurs de circulation de SAP pour développer une culture plus écologique et plus humaniste.

Grâce à son utilisation visionnaire de la technologie pour assurer l’attractivité et la durabilité de la ville, Novo Mesto prouve que toute ville, quelle que soit sa taille, peut être une référence pour les générations à venir en matière de qualité de vie urbaine.

Publié en anglais sur Forbes.com

The post Devenir une ville intelligente n’est pas un objectif, c’est un mode de vie appeared first on SAP France News.

Source de l’article sur sap.com

Les entreprises les plus performantes de demain seront celles qui gèrent leurs activités efficacement, optimisent leur rentabilité et renforcent leur résilience, tout en fournissant des services de manière durable. Toutefois, nous ne pouvons nier que nous faisons face actuellement à des changements plus perturbateurs que jamais, en particulier en cette période sans précédent que nous vivons.

Les chaînes logistiques ont dû s’adapter du jour au lendemain ; les entreprises ont dû se mettre à la vente en ligne en l’espace de quelques jours ; et le changement climatique est une réalité toujours plus présente. Partout dans le monde, les dirigeants d’entreprise n’ont d’autres choix que de transformer leurs activités.

Chez SAP, notre réussite sur le marché repose sur des solutions ERP (progiciels de gestion intégrés) qui aident nos clients à mener leurs activités à une échelle adaptée en toute conformité. Nous poursuivons dans cette voie avec notre suite d’applications de gestion nouvelle génération, dont le périmètre s’étend de la finance à la logistique. SAP S/4HANA exploite les fonctionnalités Cloud émergentes pour aider les clients à tenir face à l’évolution des modèles d’affaires influencée par le progrès technologique, la notion de durabilité ou l’évolution du comportement des clients.

Les entreprises les plus performantes sont les entreprises intelligentes. Et en tant que telles, elles utilisent les informations de façon innovante, efficace et durable, en les connectant aux tâches d’exécution et de gestion. Les entreprises intelligentes prennent leurs décisions en se fondant sur une source d’informations unique partagée, et proposent une expérience utilisateur qui correspond aux méthodes de travail des individus. SAP S/4HANA, qui exploite des processus financiers flexibles et élimine la réplication et la redondance des données, est avantageux pour les professionnels de la finance.

New Sega Textile (Nantong) Co Ltd avait besoin d’une solution ERP Cloud de pointe pouvant être déployée efficacement à l’échelle de ses activités internationales, afin de soutenir sa croissance. Client de SAP S/4HANA Cloud, New Sega fait état d’une baisse de 50 % de ses coûts côté budget et prévision grâce à la planification financière, ainsi qu’à un accroissement de 20 % du nombre d’écritures financières automatisées dans la comptabilité clients à l’aide de l’apprentissage automatique.

Innovations dans la reddition parallèle des comptes universelle

Les directeurs financiers des multinationales doivent présenter des données financières cohérentes en vertu des différentes normes comptables et devises en parallèle. Pour ce faire, ils doivent suivre les normes de reddition parallèle des comptes pour les règles générales comptables nationales et de groupe, qui ont une incidence sur l’évaluation des stocks, les en-cours de fabrication, les valeurs des immobilisations, etc.

Des milliers de clients SAP s’appuient déjà sur les fonctionnalités des systèmes SAP ERP pour gérer plusieurs systèmes comptables en parallèle afin de satisfaire avec précision, efficacité et rentabilité à toutes les exigences légales des personnes utilisant les états financiers. SAP HANA fournit désormais une nouvelle base technologique qui a levé les obstacles techniques et ouvert une foule de nouvelles opportunités pour les entreprises. Dans ce même ordre d’idée, SAP S/4HANA a été créée sur un tout nouveau type d’architecture, plaçant le journal universel au centre. Le journal universel constitue notre base bien établie pour les processus comptables. Il enregistre au même endroit toutes les données financières qui auparavant étaient réparties dans plusieurs tables. Ce faisant, il assure un traitement parallèle cohérent entre tous les livres auxiliaires et flux de valeurs.

Grâce aux dernières fonctionnalités incluses dans SAP S/4HANA, nous proposons une approche de solution qui fait passer la reddition parallèle des comptes au niveau supérieur : vers la reddition parallèle des comptes universelle.

Une innovation importante a été dévoilée dans SAP S/4HANA Cloud version 2011 : il s’agit de l’affectation flexible des normes comptables. Cela signifie que les nouveaux clients SAP S/4HANA Cloud bénéficieront également d’une nouvelle option de configuration permettant l’affectation flexible des règles générales comptables locales (par exemple, le code de commerce et les normes comptables (HGB) en vigueur en Allemagne) en tant que norme comptable principale pour le ledger du groupe. Cette innovation est particulièrement bénéfique pour nos clients exploitant des solutions Cloud, car elle leur offre cette flexibilité de haut niveau qui leur manquait auparavant. Une seule activité de configuration est requise pour mettre à jour l’affectation du ledger à la norme comptable dans toutes les applications financières, comme le grand livre, la gestion de trésorerie, la constatation des produits, etc.

La reddition parallèle des comptes universelle au cœur de l’entreprise intelligente : prochaines phases d’innovation

En outre, la valorisation parallèle est la prochaine innovation majeure qui verra le jour dans le domaine de la finance. Prévue pour SAP S/4HANA en cette année 2021, elle garantira la prise en charge cohérente et universelle des normes de reddition parallèle des comptes pour les processus de bout en bout, tels que la fabrication sur stock/commande et la fabrication d’immobilisations. La reddition parallèle des comptes est désormais active pour l’intégralité de ces processus et permet la représentation de différentes normes comptables dans tout le flux de valeurs. Ainsi, la solution sera en mesure d’évaluer en temps réel les processus de gestion en parallèle pour chaque norme comptable requise. Les clients bénéficieront également d’une transparence et d’une disponibilité accrues des données en temps réel, ainsi que d’une réduction des tâches d’implémentation et de configuration.

À l’avenir, nous continuerons d’améliorer la reddition parallèle des comptes en ajoutant d’autres cas d’utilisation s’inspirant des autres thèmes au programme de la feuille de route, afin d’inclure des vues consolidées et des versions d’exercice alternatives. Les vues consolidées serviront aux clients de base optimisée pour encore plus d’efficacité dans la prise de décision et l’orientation globale de l’entreprise, grâce à une transparence et une précision accrues des données. En outre, la prise en charge cohérente des versions d’exercice alternatives permettra de monter d’un cran le niveau de normalisation, tout en abaissant le degré requis de solutions de contournement et de tâches manuelles connexes. La comptabilité des immobilisations est, par exemple, l’une des composantes où le nombre de tâches manuelles sera considérablement réduit avec les versions d’exercice alternatives.

La finance à l’ère du numérique

Les professionnels de la finance endossent graduellement des rôles plus stratégiques au sein de leur entreprise et doivent de toute urgence dépasser les limites imposées par des infrastructures système complexes et redondantes. Ils ont besoin d’un cœur numérique unique qui réponde à toutes leurs exigences, tant pour les processus transactionnels qu’analytiques. Un système ERP doit faire office de source d’informations unique pour les données financières et opérationnelles d’une entreprise. Les réplications de données, rapprochements et redondances doivent être éliminés à travers la simplification des processus et des technologies, tandis que la continuité des activités se doit d’être garantie et les efforts manuels, limités, via des fonctions financières optimisées par les outils d’analyse.

Riches en innovations, SAP S/4HANA est notre solution de finance intelligente à l’ère du numérique, disponible en édition cloud, on-premise ou un mélange de ces deux options de déploiement. S’exécutant sur la plateforme in-memory SAP HANA, notre solution permet une reddition des comptes flexible et facile d’utilisation pour la gestion comptable, la clôture comptable et financière, la gestion de trésorerie et des flux, la comptabilité fournisseurs et clients, la gestion des risques et bien plus encore. Pour en savoir plus sur les avantages que SAP S/4HANA peut procurer à votre entreprise, rendez-vous sur SAP.com.

Jan Gilg est président de SAP S/4HANA
Cet article est initialement paru sur LinkedIn.

The post Passer au niveau supérieur avec la reddition parallèle des comptes universelle dans SAP S/4HANA appeared first on SAP France News.

Source de l’article sur sap.com

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com

Les nouvelles technologies peuvent changer la donne dans le milieu des logiciels d’entreprise. Pourtant, c’est à l’amélioration de l’expérience utilisateur que l’on attribue une véritable valeur. De la même façon, quand on parle de conversion au numérique, il ne s’agit pas de continuer à faire les mêmes choses avec de nouvelles technologies, mais de transformer les méthodes de gestion des entreprises. Les technologies innovantes fournissent de nouvelles fonctionnalités rimant avec nouvelles opportunités pour les entreprises et les particuliers.

SAP HANA est l’une de ces technologies qui changent la donne pour les logiciels d’entreprise. Bien plus qu’une simple base de données, il s’agit de la base sur laquelle repose SAP S/4HANA. Grâce à SAP HANA, les données sont utilisées autrement, c’est-à-dire d’une manière plus intelligente et prédictive.

SAP S/4HANA s’accompagne de cas d’apprentissage automatique intégrés (par exemple, automatisation intelligente pour la conformité fiscale, réapprovisionnement piloté par la demande, prévision des livraisons fournisseurs, affectation intelligente du personnel et des ressources, et prévision des performances de vente), grâce au socle d’Intelligence Artificielle (IA) qui sous-tend SAP HANA.

Tels sont les ingrédients qui forment une nouvelle expérience utilisateur caractérisé par le passage « de l’information à l’action », car les utilisateurs peuvent obtenir des informations pertinentes qui facilitent la prise de décision. Cette fonctionnalité est l’une des clés d’un progiciel de gestion intégré (ERP) moderne, optimisé par SAP HANA. Cette visibilité sur les informations permet d’obtenir une vue d’ensemble complète et en temps réel sur une entreprise, notamment sur les informations concernant les liquidités, les statistiques de commandes, les actifs et la satisfaction des clients. Même si les systèmes ERP hérités offraient également cette possibilité dans une certaine mesure, les informations étaient issues d’instantanés de données statiques et obsolètes, basés sur des agrégats précalculés dans les bases de données. Ces limites technologiques étaient source d’incertitudes et nous empêchaient de prendre des décisions parfaitement éclairées, notamment en raison de notre incapacité à réagir en temps réel à des événements imprévus.

Le modèle de données unifié dans SAP S/4HANA permet aux entreprises de s’appuyer sur une source d’informations unique, une autre fonctionnalité clé d’un ERP moderne. Le modèle de données unifié calcule des indicateurs de performance clés (KPI) à la volée, en s’appuyant sur des postes individuels réels au lieu d’agrégats sans horodatage, ce qui permet de refléter la réalité à l’instant t. Les clients peuvent voir leur stock en temps réel. Cependant, le modèle de données lui-même n’est que la base d’un nouveau niveau de visibilité. Afin que ces informations soient exploitées concrètement, des fonctionnalités d’analyse intégrées préviennent les utilisateurs des événements de gestion dès qu’ils se produisent. Par ailleurs, elles guident les utilisateurs pour les aider à éviter les problèmes et les exceptions.

Il en va de même pour la finance, où le journal universel rassemble des tables et des livres auxiliaires qui auparavant étaient séparés. Cette fonctionnalité permet une clôture en douceur et une consolidation à la demande qui donne aux dirigeants une vue complète sur toutes les données pertinentes, ce qui les aide à prendre des décisions avisées et rend l’entreprise plus agile. Elle enregistre également toutes les données financières au même endroit et permet ainsi un traitement parallèle cohérent entre tous les livres auxiliaires et les flux de valeurs. De plus, le journal universel s’intègre parfaitement à SAP HANA de par sa structure simple, sans agrégat ni hiérarchie. Grâce à la technologie in-memory, il est facile et rapide d’établir des rapports à partir des données du journal universel. Les ledgers représentent un volet essentiel dans le journal universel. En extrayant les données d’une table à une autre, ils permettent un reporting prompt et efficace des données financières en vertu des différentes normes comptables et attributs.

En ce qui concerne l’agilité, selon une étude réalisée par l’Economist Intelligence Unit Ltd. auprès de 800 directeurs et dirigeants financiers, la gestion des changements inattendus par rapport aux prévisions financières et l’adaptation des processus financiers à la rapide évolution des modèles d’affaires font partie des principaux défis que les dirigeants financiers doivent relever dans l’exécution de leurs activités quotidiennes. En outre, 90 % des dirigeants financiers pensent que le service financier doit simplifier la planification d’entreprise collaborative pour veiller à ce que les plans opérationnels soient alignés sur les plans financiers et stratégiques.

La possibilité d’exécuter la planification, l’analyse du compte de résultat et le reporting du groupe en se basant sur le même ensemble de données bouleversera la finance à jamais. Cela étant, nous nous dirigeons vers une vision plus tournée vers l’avenir. Pour parvenir à cette fin, il convient de combiner intelligemment les données en temps réel (de même que les données de planification, de prévision et de simulation), afin de détecter les risques et les opportunités pour y réagir sans tarder. Cela rend les processus encore plus efficaces et intelligents, tout en offrant de nouvelles opportunités pour la finance à l’avenir. Lors de périodes de pandémie comme celle que nous connaissons aujourd’hui, cela a donné à nombre de nos clients la force de traverser la tourmente et l’agilité nécessaire pour évoluer dans des environnements en constante évolution.

Mais la visibilité seule ne suffit pas pour combler le fossé entre les systèmes analytiques et transactionnels, fossé qui s’observe chez les systèmes ECC hérités. L’automatisation, l’aide à la décision et l’IA ne peuvent pas être pleinement exploités en raison de cette fracture technologique. C’est là que la partie « action » entre en jeu : les utilisateurs professionnels reçoivent alors les conseils dont ils ont besoin pour prendre des décisions et réaliser des opérations dans les workflows et les processus intelligents hautement automatisés.

Il existe de nombreux exemples d’utilisations innovantes de SAP S/4HANA sur SAP HANA dans divers domaines : MRP (planification des besoins en composants) Live, MRP piloté par la demande, gestion des stocks, finance, disponibilité à la vente, traitement des reliquats et nouvelle configuration des produits à variantes.

Prenons, à titre d’illustration, MRP Live, l’Application MRP et les fonctions prédictives de MRP. Avec MRP Live, les clients peuvent planifier et évaluer de très gros volumes de données en temps réel. Par rapport aux anciens cycles MRP et évaluations, MRP Live et l’Application MRP peuvent être exécutés plus fréquemment ; aussi, le gestionnaire peut améliorer de manière significative les KPI tels que les niveaux de stock et les accords sur le niveau de service proposés aux clients. En outre, avec les fonctions prédictives de MRP, il est possible d’exécuter des simulations de l’usine. Cette approche MRP nouvelle génération dans SAP S/4HANA convertit automatiquement les exceptions en propositions de solution.

Nos clients qui utilisent MRP Live sont des entreprises de toutes tailles, qui opèrent dans toutes les régions et tous les secteurs (notamment, machines et composants industriels ou encore biens de consommation). Thermo Cables, une entreprise de taille moyenne basée en Inde, utilise SAP S/4HANA et ce faisant, elle a fait croître son chiffre d’affaires grâce à une visibilité accrue, couplée à des processus de gestion clés (cycles MRP exécutés sur des données en temps réel, par exemple) et un accès instantané aux rapports couvrant toutes les fonctions de l’entreprise. Nous pouvons également citer ANTA, un fabricant de vêtements de sport, qui a pu améliorer le mécanisme de calcul MRP et réduire de 80 % le temps nécessaire pour modifier les nomenclatures grâce à la modification des données par lots. Avec SAP S/4HANA, ANTA a également réussi à rehausser l’efficacité en matière de consommation des stocks de 90 % grâce aux mises à jour automatiques reçues pour un grand nombre de commandes.

Le MRP piloté par la demande, une composante de SAP S/4HANA, vérifie régulièrement la situation de la demande et du réapprovisionnement, puis propose des niveaux optimaux de marge et de stock dont la mise en œuvre est à portée de clic. La demande et le réapprovisionnement peuvent désormais être ajustés plus souvent et plus régulièrement, ce qui se traduit par un pilotage plus efficace des processus adjacents. Auparavant, les entreprises menaient une fois par an un projet d’optimisation des stocks dans une feuille Excel. À présent, cette tâche est remplacée par un processus de routine automatisé qui assure la meilleure capacité de livraison, tout en optimisant les actifs et les liquidités de l’entreprise en question.

La pandémie de COVID-19 nous a montré à quel point les chaînes logistiques mondiales sont fragiles et peuvent être perturbées rapidement. Mais les logiciels d’entreprise ont aidé les organisations à rester agiles pour réduire les incertitudes et l’impact financier sur leurs activités.

Comme je l’ai décrit au début, quand on parle de conversion au numérique, il ne s’agit pas d’exécuter les mêmes activités en exploitant les nouvelles technologies, mais de transformer les méthodes de gestion des entreprises. C’est ce à quoi les entreprises doivent se préparer si elles veulent surmonter les défis d’aujourd’hui.


Thomas Saueressig est membre du Conseil de direction Ingénierie de produits de SAP SE
Cet article est initialement paru sur LinkedIn.

The post Fonctionnalités clés d’un ERP moderne : quelques exemples remarquables appeared first on SAP France News.

Source de l’article sur sap.com

De tous les défis auxquels le monde est confronté aujourd’hui, le changement climatique représente la plus grande menace. Des points de basculement que nous ne nous attendions pas à voir franchir avant de nombreuses années ont déjà été atteints. Il reste peu de temps pour arrêter les changements irréversibles et désastreux des systèmes climatiques de la Terre.

L’objectif mondial de zéro émission carbone est un gigantesque challenge. Une transition significative vers les énergies renouvelables ne peut à elle seule résoudre que 55 % des émissions mondiales. Les 45 % restants résultent des transports, de l’utilisation des sols, de la gestion des bâtiments et de la production de biens de consommation et industriels. L’action en faveur du climat nécessite de nombreuses solutions différentes et interdépendantes. Elle doit être un effort conjoint des nations, des sociétés civiles et des entreprises.

L’évolution vers des pratiques commerciales durables est impulsée par les gouvernements, les consommateurs, les investisseurs et même les employés. Si la plupart des entreprises surveillent et mesurent les émissions de CO2 de leurs sites de production, les clients exigent de plus en plus de connaître l’empreinte carbone complète des produits qu’ils achètent.

En conséquence, les entreprises doivent passer du modèle linéaire qui domine encore aujourd’hui le secteur à une économie circulaire – un changement systémique qui renforce la résilience à long terme, génère des opportunités commerciales et économiques et procure des avantages environnementaux et sociétaux.

Dans cette nouvelle équation, le carbone devient de plus en plus un nouveau vecteur de transformation. Il s’agit effectivement d’une « monnaie » mondiale et universelle qui peut être suivie, échangée, gérée et minimisée comme toute autre ressource. Pourtant, pour la plupart des entreprises, la gestion du carbone est considérée soit comme un coût nécessaire à la conduite des affaires, soit comme une taxe qui sert de pénalité. D’une manière ou d’une autre, elle est considérée comme corrosive pour les bénéfices.

Mais que se passerait-il si nous pouvions convertir la gestion du carbone en stratégie d’investissement qui puisse également générer des bénéfices ? Et si nous pouvions rendre la durabilité rentable et la rentabilité durable, sans sacrifier l’une à l’autre ?

Cette idée est tout aussi visionnaire que prometteuse. Prenons l’exemple d’une grande entreprise de biens de consommation. À un horizon de cinq à dix ans, en fonction de l’évolution de la législation, il est possible d’éviter des dépenses de compensation de 1 à 2 % du chiffre d’affaires par an, d’augmenter le chiffre d’affaires de 1 à 3 % par an et de réaliser des économies de 2 à 5 millions d’euros par an grâce à une comptabilisation et une déclaration plus précise et plus efficace des émissions.

Pour ce faire, les entreprises ont besoin de logiciels qui les aident à mesurer, à comptabiliser et à prendre les bonnes actions – et SAP est très bien positionné pour répondre à ce challenge. Nous gérons les chaînes logistiques des plus grandes entreprises du monde, nous pouvons jouer un rôle central en aidant les entreprises à gérer leur Green Line* en minimisant l’empreinte carbone et l’impact environnemental négatif de leurs produits.

Inscrivez-vous dès maintenant au SAP Sustainability Summit pour les détails sur la manière dont nous aidons les entreprises à gérer leur Green Line* de manière responsable.

* en plus du pilotage traditionnel de la « top line » – c’est-à-dire la génération de chiffre d’affaires – et de la « bottom line » – l’optimisation des résultats nets et la profitabilité, les entreprises doivent maintenant piloter la « green line », c’est-à-dire la production responsable et durable.

Article original posté sur Linkedin en anglais

The post Empreinte carbone : on ne peut pas gérer ce que l’on ne mesure pas appeared first on SAP France News.

Source de l’article sur sap.com

Auparavant, « mener la belle vie » signifiait jouir du confort et du luxe, loin des problèmes financiers et des préoccupations environnementales. Ce n’est plus le cas aujourd’hui.

Selon une récente étude Harris/Ketchum commandée par Sustainable Brands, une communauté mondiale d’innovateurs de marque, la définition d’une belle vie a changé. Plutôt que l’argent, le statut et les réalisations personnelles, aujourd’hui, « la base d’une vie bien vécue repose sur l’équilibre, la simplicité et des liens plus étroits avec la famille, la communauté et l’environnement ».

Selon les sources, la recherche indique qu’environ 65 à 95 % des personnes veulent désormais vivre une vie plus durable et acheter des produits qui soutiennent un avenir plus durable. Cela a un impact considérable sur les sociétés qui souhaitent rester compétitives dans ce nouveau contexte.

Comment les marques évoluent-elles alors pour répondre aux besoins et aux aspirations des consommateurs qui apprécient la simplicité, la transparence, l’authenticité et la durabilité plutôt que les biens personnels et l’apparence ?

Appliquer la théorie

Les objectifs et la vision des marques durables sont clairs. Elles créent des feuilles de route pour développer en permanence des pratiques commerciales plus durables. Elles excellent dans le leadership éclairé, l’innovation et les meilleures pratiques pour façonner une culture où la vie durable constitue la base de la belle vie de demain.

En voici quelques exemples sympathiques.

Procter & Gamble, géant des produits de consommation courante, a augmenté d’un cran ses initiatives en termes d’économie circulaire en fabriquant des bouteilles à partir du plastique ramassé sur les plages et repêché dans les océans. La société s’est également engagée à recycler et à récupérer 5 milliards de litres d’eau par an de ses processus de fabrication. Elle s’attaque même à un problème que personne d’autre ne semble savoir résoudre : la société a inventé une technologie capable de redonner de la valeur aux déchets, comme la cellulose plastique des couches jetables sales.

À Haïti, une des conséquences involontaires des opérations de secours après le séisme dévastateur de 2010 a été l’accumulation de montagnes de bouteilles plastique sur toute l’île. Des bouteilles d’eau vides et les emballages des fournitures expédiées pour aider les Haïtiens se sont retrouvés dans les canaux, sur les plages et dans les rues. Le système de collecte des déchets du pays s’est alors effondré. Aujourd’hui, ces bouteilles trouvent une seconde vie sous la forme de cartouches d’imprimante. À travers un projet de recyclage radical, HP, une société qui voit la circularité comme une approche liée au cycle de vie des produits, collabore avec divers partenaires pour créer de nouveaux emplois, offrir une formation en matière de santé et de sécurité et instruire des centaines d’enfants qui collectaient auparavant des déchets pour venir en aide à leur famille.

Parvenir à la belle vie

En mai 2019, plus de 2 500 représentants de la communauté Sustainable Brands se sont rassemblés à Détroit afin de faire part de leurs efforts et de s’inspirer de ce que font les autres pour agir et avoir la conscience tranquille, tout en fournissant des produits et des services qui répondent aux besoins et aux visions des clients et des consommateurs.

Cette conférence de quatre jours attire des leaders éclairés, des innovateurs, des experts du développement durable et des stratèges de marque du monde entier. L’événement principal est l’exposition Innovation Expo. Les participants peuvent s’inscrire à des ateliers, à des laboratoires d’innovation et à des activités de programmation centrés sur l’amélioration du monde.

L’exposition est divisée en pavillons « Belle vie » dédié aux différents secteurs du marché tels que la chimie, l’énergie et la finance, ainsi qu’à des sujets tels que la circularité et la gestion des ressources. Une section est même consacrée aux revues qui sont capables d’inspirer des changements comportementaux, comme le National Geographic.

En tant que sponsor « Good Life Lounge » pour l’économie circulaire, SAP organise plusieurs dialogues interactifs sur des sujets stratégiques. La question de la pollution plastique des océans est un des sujets de la conférence auquel les dirigeants de SAP sont très attachés.

Notre génération a fait la différence

The Knowledge That our Generation Has Made a Difference

Click the button below to load the content from YouTube.

The Knowledge That our Generation Has Made a Difference

Vidéo d’Angela Klose

Une direction qui a du sens

En 2018, Stephen Jamieson, responsable de SAP Leonardo au Royaume-Uni et en Irlande, a participé à la création de « Plastics Cloud », une plateforme pour s’attaquer au problème du plastique à usage unique. L’initiative compile des informations et utilise l’apprentissage automatique pour identifier les matériaux et les tendances prévisionnelles en matière d’achat et de recyclage de matières plastiques, ce qui permet aux services de répondre à la demande. Elle partage également des données avec les consommateurs pour les aider à comprendre l’impact qu’ils ont au sujet des matières plastiques.

Entre-temps, Padmini Ranganathan, vice-présidente globale Produits et innovation chez SAP, a inclus Plastics for Change dans Ariba Network, de façon à intégrer l’économie informelle des collecteurs de déchets dans un système d’offre et de demande de matériaux secondaires plus formalisé.

L’initiative de Stephen Jamieson et le travail de Padmini Ranganathan avec les collecteurs de matières plastiques ont été deux des principaux facteurs qui ont poussé SAP à parrainer le sommet Ocean Plastic Leadership Summit dirigé par Jim Sullivan, responsable de l’Innovation durable chez SAP, et Alexandra van der Ploeg, responsable de la Responsabilité sociale d’entreprise chez SAP.

Comme l’a dit Mohammed Ali « l’impossible est temporaire ». Ce paradigme a été répété à maintes reprises par les 170 producteurs, scientifiques, chercheurs et innovateurs participant au sommet océanique. Bien que la pollution plastique des océans soit un immense défi, Jim Sullivan estime que si les gouvernements, les organisations non gouvernementales (ONG), les consommateurs et les leaders industriels s’associaient, il serait possible de le relever en dix ans. La plupart du plastique est rejeté dans l’océan par cinq cours d’eau en Asie. Les experts estiment qu’en réduisant la quantité des matières plastiques déversées dans les cours d’eau de seulement 20 % au cours des sept prochaines années, les océans reviendraient aux niveaux de pollution plastique des années 1990.

La technologie pour y parvenir existe déjà. C’est l’investissement nécessaire au développement de cette infrastructure essentielle qui fait défaut, et ce manque s’accentue encore plus du fait de l’échec du système d’offre et de demande de matériaux recyclés.

Les entreprises durables jouent un rôle majeur dans la solution. Elles transforment leurs activités avec des modèles circulaires qui permettent aux consommateurs et aux producteurs de refuser, de réduire, de réutiliser et de recycler. Ensemble, ils créent une assise durable pour mener la belle vie, selon la nouvelle définition qu’on lui prête.

Publié en anglais sur news.sap.com

The post Mener la belle vie avec la conscience tranquille : c’est possible ! appeared first on SAP France News.

Source de l’article sur sap.com

Nous entendons souvent des analystes conseiller aux entreprises de repenser, réorganiser ou même complètement transformer leurs business models.

Mais qu’est-ce que cela signifie concrètement ? Est-ce pertinent pour tous les types de produits, y compris les miens, qui ont toujours été vendus de la même manière aux clients ?

Les exemples de business models transformés et couronnés de succès sont nombreux et connus de tous :

  • Musique en streaming plutôt que sur CD physiques, d’ailleurs, vos enfants ont-ils même déjà entendu parler des CD et des vinyles ?
  • Vidéos en streaming (dans ma propre ville, il n’y a plus aucun magasin de location de films). Et les services de streaming remplacent même peu à peu la télévision traditionnelle. Le choix avant tout !
  • De plus en plus de voitures sont louées ou partagées, en particulier au sein de la jeune génération. La flexibilité compte, comme le fait de pouvoir louer une voiture plus grande le week-end, simplement au moment où on en a vraiment besoin.
  • Souvent, les logiciels ne sont plus vendus, mais proposés via des abonnements, même dans des environnements privés. Vous pouvez ainsi toujours profiter de la version la plus récente, offrant les dernières fonctionnalités, et de l’espace cloud associé pour stocker vos documents en toute sécurité et les partager avec vos amis. Y a-t-il jamais eu une autre façon de consommer les logiciels ?

Et certains de ces « nouveaux business models » ont non seulement remplacé les « business models traditionnels », mais aussi offert une place à de nouveaux acteurs sur le marché. Des startups inconnues ont silencieusement attaqué des marques bien connues, les contraignant à une position défensive.

Et l’histoire récente montre que ces modèles de consommation sont bien acceptés par les clients. Ce n’est plus seulement la qualité des produits qui compte, mais aussi le mode de consommation, le service et la fiabilité associés.

Envisager et tester des changements et des orientations complètement différentes en matière d’offres est vraiment une excellente idée. Il s’agit non seulement d’innover en matière de produits physiques et de fonctionnalités, mais aussi de façonner quelque chose de nouveau : un nouveau produit offrant une perspective étendue et une valeur accrue aux clients, avant que d’autres ne s’en chargent.

Mais il faudra pour cela surmonter un obstacle, lié au fait qu’un business model transformé à ce point changera non seulement la vie des clients, mais aussi votre entreprise, et ce par bien des aspects :

  • Façon d’interagir avec vos clients (directement et de manière bien plus rapprochée)
  • Nombre accru de clients et nécessité d’interagir directement avec eux
  • Processus de facturation (réguliers et non plus ponctuels)
  • Nouveaux modèles de tarification dans votre système (mensuels, basés sur l’utilisation, etc.) et automatisation de leur exécution et traitement
  • Gestion des abonnements et de la satisfaction client
  • Automatisation accrue des processus (facturation, relance, contrôle des factures, etc.)
  • Etc.

Il s’agit vraiment d’un changement complet de business model !

Bonne nouvelle : chez SAP, nous disposons non seulement de l’expertise nécessaire pour vous aider, mais aussi de solutions et de processus standardisés. Nombre de nos clients ont réussi à transformer leur entreprise et à se protéger vis-à-vis de nouveaux acteurs. Ils ont prouvé que c’était possible et sont parvenus à garder une longueur d’avance en matière d’innovation de business model.

Autre bonne nouvelle : les clients qui ont doté leur entreprise traditionnelle d’un business model moderne sont devenus plus forts et plus résilients face aux crises, quelles qu’elles soient. Ce n’est pas la seule raison qui doit vous pousser à penser autrement, et ce dès maintenant, mais il s’agit clairement d’un argument de poids.

Vous souhaitez obtenir les témoignages de nos clients et experts ?

Rejoignez-nous pour notre présentation BRIM (1), proposée dans le cadre du sommet virtuel SAP Finance and Risk, et découvrez les expériences et idées de nos clients et experts à travers leurs témoignages.

Nous sommes impatients de vous retrouver le 16 mars.


(1) BRIM est l’acronyme de Billing Revenue Innovation Management, pour gestion novatrice de la facturation et des revenus

The post La seule constante est le changement appeared first on SAP France News.

Source de l’article sur sap.com