Articles

SAP & Siemens jettent les bases d’un partenariat ambitieux : ouvrir la voie à de nouvelles opportunités, supprimer les silos et accélérer la transformation.

SAP & Siemens jettent les bases d’un partenariat ambitieux

Depuis l’annonce du partenariat signé entre SAP et Siemens le 14 juillet 2020, nous avons été ravis de voir à quel point les utilisateurs, partenaires et analystes adhéraient à cette initiative audacieuse et à notre ambition commune d’ouvrir la voie à de nouvelles opportunités, de supprimer les silos et d’accélérer la transformation. Tenir la promesse d’un retour sur investissement plus rapide, de processus de développement durables et de nouvelles opportunités métiers nécessite un nouveau niveau d’intégration. Et c’est ce dans quoi SAP et Siemens ont investi massivement – jusqu’à maintenant dans les coulisses.

La continuité numérique requiert un meilleur niveau d’intégration

Nous savons que nos clients sont aujourd’hui mis au défi d’améliorer leur vitesse de mise sur le marché tout en créant des produits toujours plus complexes et de meilleure qualité. Bien que nos solutions offrent des capacités de pointe dans leurs domaines fonctionnels respectifs, le véritable bénéfice ne peut venir que d’une communication en boucle fermée native et transparente entre le développement produits et la gestion d’entreprise. C’est le cap que nous suivons conjointement :

Combiner l’expertise en intégration de SAP et Siemens

L’intégration entre les systèmes d’ingénierie et d’entreprise n’est pas un phénomène nouveau. Mais il reste complexe. Pourquoi ? Parce que se mettre d’accord sur un langage commun, des processus communs et les solutions et architectures techniques associées à travers tous les secteurs d’activité, les organisations et les réseaux est une tâche difficile. Sans compter les exigences propres à l’ingénierie, aux métiers, à l’informatique et à l’industrie.

Un partenariat stratégique tel celui que nous avons mis en place avec Siemens est une excellente occasion de résoudre certains de ces problèmes fondamentaux. Nous nous appuyons sur l’idée que nos systèmes d’ingénierie et d’entreprise seront égaux et adopteront le niveau d’interopérabilité et de visibilité nécessaire pour concrétiser l’idée de continuité numérique.

 

Un modèle de données unique : garant du succès

Un modèle de données aligné entre SAP et Siemens est à la base de l’intégration en tant que couche intermédiaire. Cet alignement est rendu possible grâce à un niveau d’abstraction des données qui seront échangées entre Siemens Teamcenter et l’ERP SAP S/4HANA.  Ce modèle de données doit être compréhensible des deux côtés et dotée d’une sémantique claire, adaptée à toutes les implémentations.

Ce modèle de données aligné continuera à évoluer afin de permettre le  développement de nouveaux scénarios d’intégration.

Aperçu de la feuille de route 2021-2022 : une innovation continue s’appuyant sur des fondations solides

Depuis l’annonce du partenariat, les équipes de développement de Siemens et SAP se sont réunies pour mettre en œuvre les principes évoqués ci-dessus. Elles ont commencé parse concentrer sur le développement d’un ’échange transparent des données produits, afin de permettre une intégration bidirectionnelle des processus. Puis ont mis l’accent sur une couverture de bout en bout de processus métiers spécifiques : en commençant par la fabrication sur stock (MTS), la configuration à la commande (CTO) et l’ingénierie à la commande (ETO).

Le résultat est une feuille de route définie conjointement, qui commence avec une première version programmée au quatrième trimestre 2021.

Etape 1 : intégration du PLM vers SAP

La première release s’appuiera sur notre modèle commun et les processus de bout en bout sous-jacents afin d’établir les fondations de  permettant une traçabilité,  une fédération des données et des liensinter systèmes. Elle se concentrera sur les processus et le transfert de données depuis le  Teamcenter vers SAP, tels que :

  • Création des fiches article dans SAP basés sur les sémantiques métiers
  • Transfert des données de classification pour permettre un flux d’informations cohérent vers SAP
  • Création des fiches info document dans SAP
  • Transfert de la nomenclature vers SAP
  • Capacité pour Teamcenter de déclencher des modifications en provenance de l’ingénierie

Etape 2 : élargir le scope et fermer la boucle entre le développement produit et SAP

Début 2022, la prochaine vague d’innovations se focalisera sur la « fermeture de la boucle » entre SAP et le développement produit. Nous nous concentrerons sur les fondations des processus métier avancés, y compris les scénarios de configuration à la commande (CTO), d’ingénierie à la commande (ETO), etc. Voici quelques fonctionnalités clés de cette version :

  • Création de fiches articles et de nomenclatures spécifiques
  • Capacité pour SAP de déclencher des changements d’ingénierie et de fabrication
  • Transfert de la définition de la configuration des produits à variantes
  • Fourniture de données pertinentes pour la fabrication tout au long du processus métier
  • Transfert des gammes SAP
  • Mise à disposition d’une solution cross système pour la gestion du portefeuille produits et projets (PPM)

Etape 3 : interopérabilité bidirectionnelle des systèmes et scénarios d’intégration avancés

Nous avons également prévu une seconde version en 2022, qui ne se concentrera pas seulement sur l’amélioration continue des processus avancés de configuration (CTO) et d’ingénierie (ETO), mais également sur une intégration bidirectionnelle favorisant transparence et interopérabilité. Les fonctionnalités proposées comprendront :

  • Gestion des nomenclatures spécifiques à la commande dans SAP
  • Échange de modèles produit pour la configuration de variantes et règles de contraintes d’ingénierie
  • Mise à disposition de scénarios Engineering to Order (ETO) sans couture
  • Échange d’informations sur les fournisseurs basés sur les informations fournisseurs
  • Activation de la traçabilité inter systèmes pour les workflows
  • Activation de l’analyse d’impact inter systèmes

Si vous souhaitez en savoir davantage sur notre feuille de route, rendez-vous dans les prochaines semaines sur le SAP Roadmap Explorer.

The post Feuille de route pour une intégration avancée entre SAP et Teamcenter appeared first on SAP France News.

Source de l’article sur sap.com

SAP Manufacturing Execution s’invite sur les lignes d’assemblage du géant Airbus. Une solution qui permet de faciliter le travail des opérateurs, tout en améliorant les performances des lignes de production.

Airbus est un acteur bien connu dans le monde de l’aviation civile, avec plus de 12.600 avions livrés à ses clients. C’est aussi un acteur majeur dans le monde des hélicoptères (plus de 12.000 appareils assemblés), de la défense et de l’espace.

Avant la crise sanitaire, les livraisons étaient en forte croissance (+37 % sur 5 ans) et le carnet de commandes promettait du travail aux usines d’Airbus pour les 8,5 années à venir. L’arrivée du Coronavirus et son impact massif sur les déplacements par avion ont provoqué une chute massive des activités de la société. Si l’entreprise travaille déjà sur les avions de demain, avec par exemple des modèles à l’impact carbone réduit de 25 %, elle doit aussi optimiser sa production.

« Dans ce contexte d’adaptation rapide au changement, l’introduction d’un système de pilotage de la production (MES, pour Manufacturing Execution System) va être un élément clé de notre transformation », explique Alexandre Sizaret, Head of Production System Efficiency & Manufacturing Digitalisation, Airbus. Le projet a été lancé fin 2016, mais l’arrivée de la crise lui a donné un nouvel élan.

SAP et Sopra Steria à la manœuvre

SAP Manufacturing Execution (SAP ME) est aligné avec les principes du système d’information d’Airbus, AOS (Airbus Operating System) : standardisation des processus, management visuel, suivi et amélioration continus. Il vient naturellement compléter l’ERP et le PLM au sein des usines. Enfin, son interface utilisateur simple est adaptée aux opérateurs travaillant sur des chaînes de production.

Airbus veut répondre à plusieurs challenges au travers de SAP ME : l’organisation de la production (organisation des effectifs, allocation des ressources…) ; le pilotage de l’activité (lignes de production, séquences à exécuter et avancement des séquences) ; l’interfaçage avec l’opérateur (au travers de tablettes, voire de smartphones) ; le support (détection des problèmes et alerte du manager, de la maintenance ou d’autres fonctions support).

Un core model pour toutes les usines Airbus

Pour son projet, Airbus a opté pour une approche core model associant une équipe pluridisciplinaire et multifonctionnelle. « Nous avons mis tout le monde autour de la table – opérateurs, management, intervenants métiers et techniques – afin de mettre au point une unique solution adaptée à toutes les usines, dans tous les pays », explique Alexandre Sizaret.

Après les phases de cadrage et de maquettage, la construction de la solution a été réalisée, avec une mise en place des différentes fonctionnalités de manière incrémentale. Une première version a été déployée sur des usines pilotes volontaires. L’organisation a souhaité ensuite prendre un peu de recul pour identifier les sources d’irritation. Dans le même temps, une analyse a été menée sur l’utilisation du MES et l’adhésion aux processus proposés. « Nous avons voulu vérifier que l’outil répondait bien aux besoins exprimés et qu’il était correctement utilisé. » Une importante phase de consolidation avant le déploiement à grande échelle de SAP ME.

La solution est aujourd’hui présente sur l’ensemble des sites européens du groupe : 10 usines et 2 lignes d’assemblage final. Soit un total de 279 stations de production. 7700 personnes ont été formées, dont 5500 sont des utilisateurs réguliers de SAP Manufacturing Execution. Plus de 2,4 millions d’opérations ont été effectuées sur SAP ME au cours de l’année 2020. Pour tenir cette charge, le système est réparti sur quatre sites, selon un même core model.

Au sein des sites de production, des écrans géants ont été déployés, secondés par des tablettes, smartphones et équipements IoT (scanners, lecteurs de badges…). SAP ME interagit directement avec l’ERP SAP, que ce soit pour la qualité, la conformité, la gestion des aléas, la maintenance ou encore la logistique. Il interagit aussi avec le PLM. Il est ainsi possible de visualiser pièces et maquettes en 3D et de disposer d’instructions de montage détaillées.

Plus d’efficacité au quotidien

SAP Manufacturing Execution est vu par Airbus comme un facilitateur du travail des opérateurs. Mais aussi comme un élément clé pour mesurer, soutenir et améliorer les performances des lignes de production. « Parmi les bénéfices les plus visibles, nous constatons une réduction des temps de production, des déplacements des opérateurs, de la documentation de production et plus généralement du recours aux documents papier, constate Alexandre Sizaret. Un autre bénéfice, moins facilement mesurable, est l’amélioration des performances des lignes de production, au travers d’un meilleur pilotage et d’une meilleure réactivité face aux aléas. »

Le MES est un élément clé pour épauler la production au quotidien, mais aussi un socle qui va aider  à la démocratisation de nouvelles technologies, comme les jumeaux numériques ou la maintenance prédictive. « Nous souhaitons aller vers l’opérateur 4.0 en le connectant à la bonne information, au bon moment, au travers de technologies comme la réalité virtuelle, la réalité augmentée ou l’interaction vocale avec les solutions numériques. Nous voulons également nous servir de la puissance de la data pour améliorer les processus, détecter les bonnes pratiques et prévenir les aléas. C’est un changement de paradigme qui nous permettra de basculer de la réaction à l’anticipation. »

 

 

The post Airbus place SAP Manufacturing Execution au cœur de sa production appeared first on SAP France News.

Source de l’article sur sap.com

For many enterprise-grade applications, providing a point where you can access in-depth analysis about your data has become a crucial feature. There are many approaches to this — you can build your own web application and backend that has views allowing customers to filter and analyze data. Alternatively, you can use the embedded analytics capabilities of Looker, Tableau, or Sisense — all of which are large business intelligence tools, with a host of features and connectors into all sorts of data sources.
But if you’re already on AWS, then it really is worth considering QuickSight to present analytics in your web application.

This series will guide you through the intricacies of creating a multi-tenant solution with QuickSight, dealing with data security across customers and within organizations. We’ll need to go beyond to AWS console and dive into the CLI/API commands that you’ll need to manage all of this.

Source de l’article sur DZONE

Rail Logistics Europe et VISEO ont mis en œuvre la méthodologie SAP Activate et l’approche Fit-to-Standard afin de créer un core model qui a servi de socle pour déployer SAP S/4HANA Public Cloud sur plus de 50 filiales. Le tout en seulement deux ans et demi.

Au sein du Groupe SNCF, Rail Logistics Europe élabore des solutions de transport de marchandises multimodales et sur-mesure, à travers toute l’Europe.

Rail Logistics Europe, c’est l’expertise de 60 filiales en Europe : commissionnaires de transport, transporteurs ferroviaires, opérateurs de transport combiné et d’autoroutes ferroviaires. Au total, 3 500 personnes pour un chiffre d’affaires de plus de 952 millions d’euros en 2019, dont plus de la moitié est réalisée à l’étranger.

Une volonté d’avoir son propre SI

Afin d’accélérer l’intégration de ces différentes entités au sein du groupe, Rail Logistics Europe a d’abord opté pour différents SI financiers mis à disposition par Geodis. Des outils efficaces, mais vieillissants et imparfaitement alignés avec ses besoins. Certaines filiales de Rail Logistics Europe disposaient par ailleurs de leurs propres SI financiers. À cette hétérogénéité des SI, il fallait également compter avec une hétérogénéité des règles de gestion.

Rail Logistics Europe souhaitait pouvoir disposer de son propre SI. Une solution fiable, performante et harmonisée, qui s’appuierait sur un référentiel commun de règles de gestion. « Pour créer de la valeur et apporter les gains de productivité attendus, Il nous est apparu nécessaire d’apporter une dose d’uniformisation et de rationalisation dans notre paysage applicatif… et d’aller vite », explique Nicolas Bismuth, Responsable MOA Finance chez Rail Logistics Europe. L’entreprise souhaitait en effet déployer le nouvel ERP sur l’ensemble de ses filiales, sur les domaines Finance, Achats et Ventes, dans un délai de seulement deux années et demie.

Après une phase de cadrage, consistant à recueillir les besoins de chaque filiale, Rail Logistics Europe a lancé le projet Opera et interrogé les principaux éditeurs d’ERP en mode SaaS. C’est le binôme SAP / VISEO qui a été retenu, avec la solution SAP S/4HANA Public Cloud. Cette dernière répondant en effet aux critères de périmètre fonctionnel et d’ergonomie exprimés, tout en libérant Rail Logistics Europe de la gestion d’une infrastructure via son approche SaaS. Mais plus que cela, c’est la méthodologie SAP Activate qui a été l’une des raisons clés de ce choix. « Au travers de la méthodologie SAP Activate, nous avions la promesse d’atteindre notre objectif de déploiement rapide de la solution sur le périmètre géographique et fonctionnel fixé », explique Nicolas Bismuth.

Pour sa mise en place sur leurs différents sites, Rail Logistics Europe s’est tourné vers VISEO, et ce pour plusieurs raisons :

  • Sa connaissance de la solution SAP S/4HANA Public Cloud et de la méthodologie SAP Activate
  • L’engagement de ses équipes pour atteindre les objectifs ambitieux de déploiement
  • Ses équipes orientées Cloud incitant à adopter les meilleures pratiques de la solution
  • Sa relation avec l’éditeur SAP, indispensable pour ce type de projet

Coller au plus près des standards

Pour assurer la réussite du projet Opera, Rail Logistics Europe et VISEO ont dû appliquer plusieurs principes clés :

  • Travailler en équipe : avec 50 filiales très indépendantes et autonomes, il est essentiel de réunir consultants, décideurs et utilisateurs clés au sein d’une même équipe. Le tout en faisant preuve de flexibilité, afin de s’adapter aux différentes spécificités de ces filiales.
  • Travailler en collaboration avec SAP : avec le cloud, il faut savoir interagir avec l’éditeur, qui met à la disposition les environnements de développement et de production. Mais aussi un CSM (Customer Success Manager), chargé de suivre le bon déroulement du projet.
  • Respecter la méthodologie Activate : pour réussir le projet, il est indispensable de respecter la méthode fournie, qui permet d’apporter des garanties en termes de rapidité de déploiement, de qualité des délivrables et de revue des différents jalons par le CSM.
  • Coller aux standards : en mode cloud, il est important de s’appuyer sur les bonnes pratiques et d’adhérer aux standards. Pour chaque processus, Rail Logistics Europe s’est appuyé sur le scope item SAP S/4HANA Public Cloud le plus adapté.

Un core model déployé tambour battant

L’enjeu principal de Rail Logistics Europe et de VISEO a été de définir le core model du projet Opera. Entre juin et septembre 2018, une trentaine d’ateliers ont été menés, afin de définir des règles de gestion communes sur le périmètre fonctionnel comptabilité, contrôle de gestion, achats et facturation client.

En seulement six mois, avec l’aide de la méthodologie SAP Activate et de l’approche Fit-to-Standard, ce core model est devenu réalité et a été déployé sur le site pilote de Captrain France. « Cela a été vraiment un acte fondateur du projet, explique Nicolas Bismuth. Nous avons démontré notre capacité à construire un core model et à le déployer au sein d’une filiale sur l’ensemble du périmètre fonctionnel cible en seulement 6 mois. »

Une fois le core model validé, le déploiement de SAP S/4HANA Public Cloud a été lancé site par site. Aujourd’hui, 58 entités légales sont déployées sur Opera et de nouveaux déploiements au sein des filiales Captrain Polska et Fret SNCF sont prévus en 2021. A fin 2021, environ 580 collaborateurs utiliseront l’outil Opera.

« La promesse initiale, qui était d’être capable de déployer rapidement, s’est révélée juste. Le planning que nous suivons aujourd’hui est celui qui avait été validé avec le binôme SAP / VISEO au moment du cahier des charges, » confirme Nicolas Bismuth.

Le début d’une longue aventure

Le programme est encore récent, mais le ressenti global des utilisateurs est d’ores et déjà plutôt positif. Reste que Rail Logistics Europe a dû apprendre à s’adapter au monde du cloud. Ne plus recourir systématiquement à des développements spécifiques pour coller aux standards nécessite de revoir chaque processus, mais également d’assurer l’accompagnement au changement des équipes métiers.

Les montées de version trimestrielles de SAP S/4HANA Public Cloud requièrent également des adaptations. Il lui faut en effet évaluer les nouvelles fonctionnalités apportées par chaque nouvelle version et effectuer des tests avant déploiement, afin de repérer d’éventuelles régressions.

Ces mises à jour trimestrielles se traduisent toutefois par toujours plus de valeur apportée aux utilisateurs. Rail Logistics Europe s’est ainsi déjà penché sur les tableaux de bord et le reporting, au travers de l’utilisation de SAP Analytics Cloud Embedded. L’entreprise envisage maintenant d’augmenter le périmètre fonctionnel de son ERP, notamment en évaluant l’utilisation des innovations mises à disposition. Elle s’est même lancée dans l’adoption d’autres solutions SAP en mode Cloud comme Success Factors

The post Rail Logistics Europe (groupe SNCF) rationalise son SI avec SAP S/4HANA Public Cloud et VISEO appeared first on SAP France News.

Source de l’article sur sap.com

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

The idea behind building a mobile app has been to offer a faster, easier, and innovative experience on various devices to users, doing away with their need to browse websites. However, in a bid to stay relevant to consumers amidst competition, companies try to bundle up a million features together rather than offer a full-proof and specific solution for a certain user need. Being overwhelmed with numerous unnecessary features and functionalities, an app poses various inhibitions to a great user experience. In this blog, we will take a look at how a micro-app can help enterprises solve this issue.

What is a Micro-App?

It is a web/mobile-based, a customized app built to enable end-users to perform a certain, narrowed-down function. Unlike a conventional mobile app, which is bundled with multiple features and pages, the micro-app is smaller in size, more consumer-oriented, and built to offer certain functionality, has an easy user interface, with a dynamic loading that bypasses the app store. For instance, a Personal Banking app has several functions, such as viewing the balance, getting mini statements, changing the ATM password, money transfers, etc. However, if you build a micro-app for this, it will accomplish only that specific task, such as getting transaction history. 

Source de l’article sur DZONE

La modélisation des données correspond au processus de création de diagrammes de flux de données. Lors de la création d’une structure de base de données, qu’elle soit nouvelle ou non, le concepteur commence par élaborer un diagramme illustrant la façon dont les données entreront et sortiront de la base de données. Ce diagramme est utilisé pour définir les caractéristiques des formats et structures de données, ainsi que des fonctions de gestion de base de données, afin de répondre efficacement aux exigences des flux de données. Une fois la base de données créée et déployée, le modèle de données servira de documentation expliquant les motifs de création de la base de données ainsi que la manière dont les flux de données ont été conçus.

Le modèle de données résultant de ce processus établit une structure de relations entre les éléments de données dans une base de données et sert de guide d’utilisation des données. Les modèles de données sont un élément fondamental du développement et de l’analyse de logiciels. Ils fournissent une méthode standardisée pour définir et mettre en forme les contenus de base de données de manière cohérente dans les systèmes, ce qui permet à diverses applications de partager les mêmes données.


Pourquoi la modélisation des données est-elle importante ?

Un modèle de données complet et optimisé permet de créer une base de données logique et simplifiée qui élimine la redondance, réduit les besoins en stockage et permet une récupération efficace. Elle dote également tous les systèmes de ce que l’on appelle une « source unique de la vérité », ce qui est essentiel pour assurer des opérations efficaces et garantir une conformité vérifiable aux réglementations et exigences réglementaires. La modélisation des données est une étape clé dans deux fonctions vitales d’une entreprise numérique.

Projets de développement logiciel (nouveaux ou personnalisations) mis en place par le service informatique

Avant de concevoir et de créer un projet logiciel, il doit exister une vision documentée de ce à quoi ressemblera le produit final et de son comportement. Une grande partie de cette vision concerne l’ensemble de règles de gestion qui régissent les fonctionnalités souhaitées. L’autre partie est la description des données : les flux de données (ou le modèle de données) et la conception de la base de données qui les prendra en charge.

La modélisation des données est une trace de cette vision et fournit une feuille de route pour les concepteurs de logiciels. Grâce à la définition et à la documentation complètes des flux de données et de la base de données, ainsi qu’au développement des systèmes conformément à ces spécifications, les systèmes devraient être en mesure de fournir les fonctionnalités attendues requises pour garantir l’exactitude des données (en supposant que les procédures ont été correctement suivies).

Analyses et visualisation (ou Business Intelligence) : un outil de prise de décision clé pour les utilisateurs

Avec l’augmentation des volumes de données et le nombre croissant d’utilisateurs, les entreprises ont besoin de transformer les données brutes en informations exploitables pour prendre des décisions. Sans surprise, la demande en analyse des données a augmenté de façon spectaculaire. La visualisation des données rend les données encore plus accessibles aux utilisateurs en les présentant sous forme graphique.

Les modèles de données actuels transforment les données brutes en informations utiles qui peuvent être transposées dans des visualisations dynamiques. La modélisation des données prépare les données pour l’analyse : nettoyage des données, définition des mesures et des dimensions, amélioration des données par l’établissement de hiérarchies, la définition d’unités et de devises et l’ajout de formules.


Quels sont les types de modélisation des données ?

Les trois types de modèles de données clés sont le modèle relationnel, le modèle dimensionnel et le modèle entité-association. Il en existe d’autres qui ne sont pas communément utilisés, notamment les types hiérarchique, réseau, orienté objet et à plusieurs valeurs. Le type de modèle définit la structure logique, à savoir comment les données sont stockées, organisées et extraites.

  1. Type relationnel : bien qu’« ancien » dans son approche, le modèle de base de données le plus couramment utilisé aujourd’hui est le relationnel, qui stocke les données dans des enregistrements au format fixe et organise les données dans des tables avec des lignes et des colonnes. Le type de modèle de données le plus basique comporte deux éléments : des mesures et des dimensions. Les mesures sont des valeurs numériques, telles que les quantités et le chiffre d’affaires, utilisées dans les calculs mathématiques comme la somme ou la moyenne. Les dimensions peuvent correspondre à des valeurs numériques ou textuelles. Elles ne sont pas utilisées dans les calculs et incluent des descriptions ou des emplacements. Les données brutes sont définies comme une mesure ou une dimension. Autres termes utilisés dans la conception de base de données relationnelle : « relations » (la table comportant des lignes et des colonnes), « attributs » (colonnes), « nuplets » (lignes) et « domaine » (ensemble de valeurs autorisées dans une colonne). Bien qu’il existe d’autres termes et exigences structurelles qui définissent une base de données relationnelle, le facteur essentiel concerne les relations définies dans cette structure. Les éléments de données communs (ou clés) relient les tables et les ensembles de données. Les tables peuvent également être explicitement liées, comme une relation parent/enfant, y compris les relations dites un-à-un (one-to-one), un-à-plusieurs (one-to-many) ou plusieurs-à-plusieurs (many-to-many).
  2. Type dimensionnel : moins rigide et structurée, l’approche dimensionnelle privilégie une structure de données contextuelle davantage liée à l’utilisation professionnelle ou au contexte. Cette structure de base de données est optimisée pour les requêtes en ligne et les outils d’entreposage de données. Les éléments de données critiques, comme une quantité de transaction par exemple, sont appelés « faits » et sont accompagnés d’informations de référence appelées « dimensions », telles que l’ID de produit, le prix unitaire ou la date de la transaction. Une table de faits est une table primaire dans un modèle dimensionnel. La récupération peut être rapide et efficace (avec des données pour un type d’activité spécifique stockées ensemble), mais l’absence de relations peut compliquer l’extraction analytique et l’utilisation des données. Étant donné que la structure des données est liée à la fonction qui produit et utilise les données, la combinaison de données produites par divers systèmes (dans un entrepôt de données, par exemple) peut poser des problèmes.
  3. Modèle entité-association (modèle E-R) : un modèle E-R représente une structure de données métier sous forme graphique contenant d’une part des boîtes de différentes formes pour représenter des activités, des fonctions ou des « entités », et d’autre part des lignes qui représentent des dépendances, des relations ou des « associations ». Le modèle E-R est ensuite utilisé pour créer une base de données relationnelle dans laquelle chaque ligne représente une entité et comporte des zones qui contiennent des attributs. Comme dans toutes les bases de données relationnelles, les éléments de données « clés » sont utilisés pour relier les tables entre elles.

Quels sont les trois niveaux d’abstraction des données ?

Il existe de nombreux types de modèles de données, avec différents types de mises en forme possibles. La communauté du traitement des données identifie trois types de modélisation permettant de représenter les niveaux de pensée au fur et à mesure que les modèles sont développés.

Modèle de données conceptuel

Ce modèle constitue une « vue d’ensemble » et représente la structure globale et le contenu, mais pas le détail du plan de données. Il s’agit du point de départ standard de la modélisation des données qui permet d’identifier les différents ensembles de données et flux de données dans l’organisation. Le modèle conceptuel dessine les grandes lignes pour le développement des modèles logiques et physiques, et constitue une part importante de la documentation relative à l’architecture des données.

Modèle de données logique

Le deuxième niveau de détail est le modèle de données logique. Il est étroitement lié à la définition générale du « modèle de données » en ce sens qu’il décrit le flux de données et le contenu de la base de données. Le modèle logique ajoute des détails à la structure globale du modèle conceptuel, mais n’inclut pas de spécifications pour la base de données en elle-même, car le modèle peut être appliqué à diverses technologies et divers produits de base de données. (Notez qu’il peut ne pas exister de modèle conceptuel si le projet est lié à une application unique ou à un autre système limité).

Modèle de données physique

Le modèle de base de données physique décrit comment le modèle logique sera réalisé. Il doit contenir suffisamment de détails pour permettre aux techniciens de créer la structure de base de données dans les matériels et les logiciels pour prendre en charge les applications qui l’utiliseront. Il va sans dire que le modèle physique est spécifique à un système logiciel de base de données en particulier. Il peut exister plusieurs modèles physiques dérivés d’un seul et même modèle logique si plusieurs systèmes de base de données seront utilisés.

Processus et techniques de modélisation des données

La modélisation des données est par essence un processus descendant qui débute par l’élaboration du modèle conceptuel pour établir la vision globale, puis se poursuit avec le modèle logique pour s’achever par la conception détaillée contenue dans le modèle physique.

L’élaboration du modèle conceptuel consiste principalement à mettre des idées sous la forme d’un graphique qui ressemble au diagramme des flux de données conçu par un développeur.

Les outils de modélisation des données modernes peuvent vous aider à définir et à créer vos modèles de données logiques et physiques et vos bases de données. Voici quelques techniques et étapes classiques de modélisation des données :

  • Déterminez les entités et créez un diagramme entité-association. Les entités sont considérées comme des « éléments de données qui intéressent votre entreprise ». Par exemple, « client » serait une entité. « Vente » en serait une autre. Dans un diagramme entité-association, vous documentez la manière dont ces différentes entités sont liées les unes aux autres dans votre entreprise, et les connexions qui existent entre elles.
  • Définissez vos faits, mesures et dimensions. Un fait est la partie de vos données qui indique une occurrence ou une transaction spécifique, comme la vente d’un produit. Vos mesures sont quantitatives, comme la quantité, le chiffre d’affaires, les coûts, etc. Vos dimensions sont des mesures qualitatives, telles que les descriptions, les lieux et les dates.
  • Créez un lien de vue de données à l’aide d’un outil graphique ou via des requêtes SQL. Si vous ne maîtrisez pas SQL, l’option la plus intuitive sera l’outil graphique : il vous permet de faire glisser des éléments dans votre modèle et de créer visuellement vos connexions. Lors de la création d’une vue, vous avez la possibilité de combiner des tables et d’autres vues dans une sortie unique. Lorsque vous sélectionnez une source dans la vue graphique et que vous la faites glisser dans une source déjà associée à la sortie, vous pouvez soit la joindre, soit créer une union de ces tables.

Les solutions analytiques modernes peuvent également vous aider à sélectionner, filtrer et connecter des sources de données à l’aide d’un affichage graphique de type glisser-déposer. Des outils avancés sont disponibles pour les experts en données qui travaillent généralement au sein des équipes informatiques. Toutefois, les utilisateurs peuvent également créer leurs propres présentations en créant visuellement un modèle de données et en organisant des tables, des graphiques, des cartes et d’autres objets pour élaborer une présentation basée sur des analyses de données.


Exemples de modélisation des données

Pour toute application, qu’elle soit professionnelle, de divertissement, personnelle ou autre, la modélisation des données est une étape préalable nécessaire à la conception du système et à la définition de l’infrastructure nécessaire à sa mise en œuvre. Cela concerne tout type de système transactionnel, de suite d’applications de traitement des données, ou tout autre système qui collecte, crée ou utilise des données.

La modélisation des données est essentielle pour l’entreposage de données car un entrepôt de données est un référentiel de données provenant de plusieurs sources, qui contiennent probablement des données similaires ou liées, mais disponibles sous des formats différents. Il est nécessaire de mapper en premier lieu les formats et la structure de l’entrepôt afin de déterminer comment manipuler chaque ensemble de données entrant pour répondre aux besoins de la conception de l’entrepôt, afin que les données soient utiles pour l’analyse et l’exploration de données. Le modèle de données est alors un catalyseur important pour les outils analytiques, les systèmes d’information pour dirigeants (tableaux de bord), l’exploration de données et l’intégration à tous les systèmes et applications de données.

Dans les premières étapes de conception de n’importe quel système, la modélisation des données est une condition préalable essentielle dont dépendent toutes les autres étapes pour établir la base sur laquelle reposent tous les programmes, fonctions et outils. Le modèle de données est comparable à un langage commun permettant aux systèmes de communiquer selon leur compréhension et leur acceptation des données, comme décrit dans le modèle. Dans le monde actuel de Big Datad’apprentissage automatiqued’intelligence artificiellede connectivité Cloudd’IdO et de systèmes distribués, dont l’informatique en périphérie, la modélisation des données s’avère plus importante que jamais.


Évolution de la modélisation des données

De façon très concrète, la modélisation des données est apparue en même temps que le traitement des données, le stockage de données et la programmation informatique, bien que le terme lui-même n’ait probablement été utilisé qu’au moment où les systèmes de gestion de base de données ont commencé à évoluer dans les années 1960. Il n’y a rien de nouveau ou d’innovant dans le concept de planification et d’architecture d’une nouvelle structure. La modélisation des données elle-même est devenue plus structurée et formalisée au fur et à mesure que davantage de données, de bases de données et de variétés de données sont apparues.

Aujourd’hui, la modélisation des données est plus essentielle que jamais, étant donné que les techniciens se retrouvent face à de nouvelles sources de données (capteurs IdO, appareils de localisation, flux de clics, réseaux sociaux) et à une montée des données non structurées (texte, audio, vidéo, sorties de capteurs brutes), à des volumes et à une vitesse qui dépassent les capacités des systèmes traditionnels. Il existe désormais une demande constante de nouveaux systèmes, de nouvelles structures et techniques innovantes de bases de données, et de nouveaux modèles de données pour rassembler ces nouveaux efforts de développement.


Quelle est la prochaine étape de la modélisation des données ?

La connectivité des informations et les grandes quantités de données provenant de nombreuses sources disparates (capteurs, voix, vidéo, emails, etc.) étendent le champ d’application des projets de modélisation pour les professionnels de l’informatique. Internet est, bien sûr, l’un des moteurs de cette évolution. Le Cloud est en grand partie la solution car il s’agit de la seule infrastructure informatique suffisamment grande, évolutive et agile pour répondre aux exigences actuelles et futures dans un monde hyperconnecté.

Les options de conception de base de données évoluent également. Il y a dix ans, la structure dominante de la base de données était relationnelle, orientée lignes et utilisait la technologie traditionnelle de l’espace disque. Les données du grand livre ou de la gestion des stocks d’un système ERP standard étaient stockées dans des dizaines de tables différentes qui doivent être mises à jour et modélisées. Aujourd’hui, les solutions ERP modernes stockent des données actives dans la mémoire à l’aide d’une conception en colonnes, ce qui réduit considérablement le nombre de tables et accroît la vitesse et l’efficacité.

Pour les professionnels du secteur, les nouveaux outils en libre-service disponibles aujourd’hui continueront à s’améliorer. De nouveaux outils seront également introduits pour rendre la modélisation et la visualisation des données encore plus simples et plus collaboratives.


Synthèse

Un modèle de données bien pensé et complet est la clé du développement d’une base de données véritablement fonctionnelle, utile, sécurisée et exacte. Commencez par le modèle conceptuel pour présenter tous les composants et fonctions du modèle de données. Affinez ensuite ces plans dans un modèle de données logique qui décrit les flux de données et définit clairement les données nécessaires et la manière dont elles seront acquises, traitées, stockées et distribuées. Le modèle de données logique donne lieu au modèle de données physique spécifique à un produit de base de données et constitue le document de conception détaillé qui guide la création de la base de données et du logiciel d’application.

Une bonne modélisation des données et une bonne conception de base de données sont essentielles au développement de bases de données et de systèmes d’application fonctionnels, fiables et sécurisés, qui fonctionnent bien avec les entrepôts de données et les outils analytiques, et facilitent l’échange de données entre les partenaires et entre les suites d’application. Des modèles de données bien pensés aident à garantir l’intégrité des données, ce qui rend les données de votre entreprise encore plus précieuses et fiables.


Découvrez les outils modernes de modélisation des données de SAP Data Warehouse Cloud

En savoir plus


 

The post Qu’est-ce que la modélisation des données ? appeared first on SAP France News.

Source de l’article sur sap.com


When running Azure Kubernetes Service (AKS), it can be hard to understand and allocate costs in environments with multiple teams, projects, or even departments. With Kubecost, you gain full transparency into your Kubernetes usage and cost within minutes of installation. Officially launched in 2019 and built on open source, Kubecost now monitors over one billion dollars in Kubernetes spend, and enables startups and global enterprises alike to understand their spend and identify cost savings ranging from 30% to over 50%. Kubecost supports a wide range of self-managed and hosted Kubernetes environments, including Azure Kubernetes Service, which we’ll cover today in this article.

The Microsoft Azure Kubernetes Service (AKS) is a popular fully managed Kubernetes service that offers embedded continuous integration and continuous delivery as well as enterprise-grade security and governance— powerful tools for teams adopting Kubernetes. As with any complex infrastructure, AKS requires proper governance and financial transparency for successful organizational adoption. Kubecost, an open source tool that provides teams with visibility into Kubernetes spend and supports environments hosted in Azure, is a widely recommended solution for engineers and finance teams facing this problem. Note: This documentation page for AKS provides helpful context for using Kubecost to implement a cost governance strategy.

Source de l’article sur DZONE

Intermarché, enseigne alimentaire du Groupement Les Mousquetaires s’appuie sur les solutions de procurement Ariba de SAP pour assurer la fluidité et l’efficacité de sa chaine d’approvisionnement et de distribution, afin de répondre au mieux aux enjeux contemporains et aux attentes toujours grandissantes des consommateurs. Grâce à un outil intégré, les différents corps de métiers peuvent collaborer via une seule interface et selon des processus communs, ce qui permet une vision globale sur l’ensemble des flux et un suivi de tous les indicateurs de performance, favorisant la prise de décision et une réponse rapide et fiable aux besoins de l’entreprise et de ses clients.

Le contexte de crise sanitaire et les différentes formes de restrictions de mobilité qui ont traversé le territoire cette dernière année ont montré combien il était important pour une entreprise d’assurer la solidité et la fiabilité de sa chaîne d’approvisionnement.

L’épidémie de la Covid-19 a également accéléré les évolutions des comportements des consommateurs, et il tient à cœur à Intermarché de répondre présent face à ces nouveaux enjeux, c’est pourquoi le groupe a opéré sa transformation. La digitalisation de la vie professionnelle s’accompagne aussi de la digitalisation des modes de consommation, avec un recours plus fréquent au e-commerce. Les enjeux sociétaux et environnementaux font désormais partie intégrante de l’équation lors des choix de consommation des clients. L’hygiène et les impératifs sanitaires ont été exacerbés par la crise. Suite à la crise économique qui résulte de l’épidémie, les consommateurs sont plus que jamais à la recherche de prix très attractifs.

Une solution pour assurer la bonne traçabilité des produits marques de distributeurs et répondre mieux aux attentes des consommateurs.

La stratégie d’Intermarché repose sur six piliers. Le relai « Producteurs & Commerçants », qui est l’ADN d’Intermarché, implique de disposer d’un outil industriel efficient et réactif. Le retravail constant et l’optimisation des recettes, afin de répondre aux attentes des consommateurs désireux de manger mieux. Communiquer sur les avantages des produits Intermarché pour les consommateurs, et leur apporter toutes les informations qu’ils recherchent. Des activations promotionnelles pour répondre aux attentes des clients sur les prix des produits. Des prix bas toute l’année et une forte compétitivité prix, surtout au regard de la crise économique que nous traversons. Une transformation pour plus d’agilité, afin de s’adapter au monde en constante évolution.

La qualité de l’alimentation est plus que jamais au cœur des préoccupations des consommateurs, notamment via les gammes de produits bio. Les solutions Procurement SAP Ariba permettent à Intermarché d’assurer la bonne traçabilité de ses produits, et de répondre aux attentes des clients désireux d’en savoir plus sur la qualité et l’origine des produits qu’ils consomment. Pour assurer cette traçabilité, Intermarché peut s’appuyer sur la méthode et l’efficacité de l’outil Ariba. Celui-ci permet de suivre et analyser les données, afin de piloter et optimiser la chaine d’approvisionnement en fonction des demandes des consommateurs. Enfin, la fluidité des informations entre les collaborateurs et les fournisseurs de production est assurée par l’intégration à cet outil unique.

Une transformation engagée grâce à un outil unique adapté à l’ensemble des profils et corps de métier.

Pour faire face à la croissance du nombre d’appels d’offre et du nombre de fournisseurs, la complexité grandissante des références et l’impératif de toujours réduire le time to market pour répondre aux attentes des consommateurs, il était crucial pour Intermarché de pouvoir s’appuyer sur un outil intégré de pilotage, c’est pourquoi le groupe a choisi les solutions Achats SAP Ariba.

Le programme de transformation d’Intermarché se base sur cinq objectifs :

  1. Améliorer la qualité et l’échange de l’information entre les services et avec le fournisseur.
  2. Disposer de l’agilité nécessaire pour anticiper les événements et problématiques, tels que les renouvellements d’appels d’offres etc.
  3. Homogénéiser les processus d’approvisionnement.
  4. Piloter tous les services et processus, et mettre en place des KPIs.
  5. Améliorer le time to market; les distributeurs producteurs se doivent d’être rapides pour répondre immédiatement aux demandes des consommateurs.

Proposant une vaste variété de produits en marques de distributeurs (frais, épicerie, alimentaire hors import), les 59 usines intégrées au Groupement Les Mousquetaires et les 600 fournisseurs d’Intermarché collaborent au travers d’un outil unique, pour gérer les achats, identifier et anticiper les besoins, suivre l’historique, simplifier les appels d’offre, piloter l’entreprise via des processus homogènes et des indicateurs de performance communs.

Aujourd’hui, les collaborateurs Intermarché se sont approprié l’outil, et l’implantation d’Ariba est une réussite. La collaboration est facilitée par l’intégration sur un outil unique des différents profils et corps de métier qui interviennent tout au long de la chaine de valeurs. Le time to market a été multiplié par 2,25, avec un time to market moyen passé de 18 mois à 8 mois pour les marques de distributeurs. Le groupe ne cache pas ses ambitions de l’abaisser à 6 voire 3 mois en profitant pleinement des capacités proposées par les solutions SAP Ariba.

« La réussite de notre programme de transformation repose sur trois facteurs majeurs. D’abord, mettre les équipes au cœur du projet, les questionner sur les besoins et défis, pour les intégrer à la mise en place de la solution. Ensuite, rester simples et pragmatiques, et ne pas perdre de vue les objectifs de départ. Enfin, anticiper et accompagner le changement, en parallèle de l’élaboration de l’outil, est une clé de réussite. Les collaborateurs et les fournisseurs ont pris en main cet outil, ce qui est un très bon indicateur du succès du projet. Il y a énormément de positif dans ce qui est en train de se passer. » témoignent Matthieu Bidan, chef d’entreprise Intermarché à Gratentour (31) et  Guillaume Delpech, en charge de la direction des Achats Marques Propres Intermarché – Netto.

À propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com .

Contacts presse SAP
Daniel Margato, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Pauline Barriere : 06.13.73.93.11 – presse-sap@publicisconsultants.com
SAP News Center. Suivez SAP sur Twitter : @SAPNews.

 

The post Intermarché choisit les solutions SAP Ariba pour optimiser sa chaîne de valeur et répondre aux attentes des consommateurs appeared first on SAP France News.

Source de l’article sur sap.com

NEW YORK et WALLDORF – Accenture (NYSE : ACN) et SAP SE (NYSE : SAP) étendent leur partenariat de plusieurs décennies pour aider les entreprises à intégrer le développement durable à l’ensemble de leurs activités, de la stratégie à l’exécution, afin de dégager une nouvelle valeur au sein de leurs entreprises et de leurs chaînes de valeur et d’approvisionnement.

En associant la technologie SAP aux services de développement durable d’Accenture et à leur vaste connaissance du secteur, les partenaires élargissent leur alliance afin de créer conjointement de nouvelles solutions qui permettront aux entreprises d’accélérer la dé-carbonisation complète de leurs chaînes d’approvisionnement et d’obtenir leur part des 4 500 milliards de dollars de croissance économique que l’économie circulaire pourrait générer*.

Grâce à ce partenariat étendu, Accenture et SAP prévoient de co-innover et de co-développer la nouvelle solution de SAP pour la production et la conception responsables, qui comprend des fonctionnalités aidant les entreprises à intégrer des mesures de durabilité dans leurs chaînes de valeur et d’approvisionnement, en mettant l’accent sur la conception et la fabrication des produits. Grâce à des données intégrées provenant de l’ensemble des opérations, les entreprises peuvent mieux concevoir et fabriquer des produits produisant moins de déchets, plus recyclables et contenant davantage de matières recyclées. Cela contribuera également à réduire le coût croissant de la conformité induit par les nouvelles réglementations en matière d’emballage et de responsabilité élargie des producteurs (REP).

« Notre collaboration permettra aux clients de SAP, qui comprennent 92% des Forbes Global 2000, d’utiliser leurs systèmes centraux pour les aider à mener leur programme de développement durable, à optimiser leurs performances ESG et à atteindre leurs objectifs », a déclaré Julie Sweet, chief executive officer d’Accenture. « Cette collaboration élargie s’appuie sur notre longue histoire avec SAP – notamment notre partenariat conjoint avec le Pacte mondial des Nations unies et 3M – et sur notre engagement commun à favoriser la réalisation des objectifs de développement durable. »

Accenture soutient également l’initiative Climate 21 de SAP, qui permet aux entreprises de tout secteur d’activité d’utiliser des outils d’analyse pour mesurer et minimiser les émissions de dioxyde de carbone (CO2) et réduire l’empreinte carbone tout au long du cycle de vie des produits. Par exemple, les recherches montrent que les émissions des fournisseurs en amont sont en moyenne plus de cinq fois supérieures à celles des opérations directes**. Grâce à l’ajout de mesures de durabilité dans l’ensemble de la chaîne d’approvisionnement de bout en bout, les entreprises disposent d’une vision intégrée des économies environnementales et de l’impact des coûts et peuvent plus facilement optimiser leurs opérations.

« Pour réussir à lutter contre la plus grande menace qui pèse sur notre monde aujourd’hui, nous devons collaborer à tous les niveaux de l’entreprise et de la société « , a déclaré Christian Klein, chief executive officer de SAP. « En s’appuyant sur notre partenariat de longue date et de confiance, SAP et Accenture unissent leurs forces pour aider nos clients à réaliser une croissance à long terme de manière durable. Nous apportons une visibilité sur l’impact environnemental de l’ensemble de la chaîne de valeur, en fournissant aux entreprises les informations dont elles ont besoin pour prendre les bonnes mesures et accélérer leur transition vers l’économie circulaire. »

Le mois dernier, SAP et Accenture ont donné le coup d’envoi d’un programme d’accélération mondial axé sur le développement durable au sein de SAP.iO Foundries. Le programme Sustainable Future, la plus grande cohorte de SAP.iO à ce jour, vise à aider les startups B2B en phase de démarrage à favoriser la transformation numérique et l’innovation dans quatre domaines cibles : le suivi et le commerce du carbone, l’efficacité des ressources, le suivi et l’atténuation des risques climatiques et l’économie circulaire. Treize startups ont été sélectionnées pour travailler avec SAP.iO Foundries Berlin et Munich, en tandem avec des experts d’Accenture et des entreprises leaders dans divers secteurs.

« La mise en œuvre de la gestion durable de la chaîne d’approvisionnement et des principes de l’économie circulaire est une tâche incroyablement difficile pour les entreprises, compte tenu de la diversité des questions ESG et des multiples parties prenantes concernées », a déclaré Bjoern Stengel,  senior research analyst, Worldwide Business Consulting and ESG Business Services chez IDC. « Selon les recherches d’IDC, les questions relatives au processus de création de valeur des entreprises (conception et gestion du cycle de vie des produits, approvisionnement en matières premières, etc.) sont les sujets d’ESG qui généreront le plus de demande à court terme. Cette nouvelle offre d’Accenture et de SAP permet aux clients de générer des informations critiques, fondées sur des données, de bout en bout, qui prennent en compte les paramètres non financiers nécessaires pour construire des chaînes d’approvisionnement durables et aider les entreprises à créer une valeur partagée. »

Cette collaboration est la dernière d’une série d’initiatives d’Accenture et de SAP qui aident les entreprises à tirer de la valeur du développement durable. Le Pacte mondial des Nations unies, avec le soutien d’Accenture et de SAP SE, en faveur des objectifs de développement durable (ODD), a lancé SDG Ambition en janvier 2020 et a publié les guides SDG Ambition et Integration en septembre 2020. Ensemble, grâce au SDG Ambition Accelerator qui a débuté en février 2021, plus de 600 entreprises dans 65 pays sont en train de monter en compétences pour appliquer ces outils à leurs activités.

À propos d’Accenture

Accenture est un des leaders mondiaux des services aux entreprises et administrations, avec une expertise de pointe dans les domaines du numérique, du cloud et de la sécurité. Combinant une expérience unique et une expertise spécialisée dans plus de 40 secteurs d’activité, Accenture s’appuie sur le plus grand réseau international de centres de technologie avancée et d’opérations intelligentes pour offrir à ses clients des services Strategy & Consulting, Interactive, Technology et Operations. Avec 537 000 employés, Accenture s’engage chaque jour auprès de ses clients dans plus de 120 pays, à réaliser la promesse de la technologie alliée à l’ingéniosité humaine. Accenture s’appuie sur le changement pour générer de la valeur et créer une réussite partagée avec ses clients, ses collaborateurs, ses actionnaires, ses partenaires et ses communautés.
Site Internet : www.accenture.com/fr

À propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com .

Contacts presse SAP
Daniel Margato, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Pauline Barriere : 06.13.73.93.11 – presse-sap@publicisconsultants.com
SAP News Center. Suivez SAP sur Twitter : @SAPNews.

The post Accenture et SAP vont aider les entreprises à accélérer leur transformation en matière de développement durable, à créer de nouvelles sources de valeur et à se positionner comme leader en matière d’économie circulaire appeared first on SAP France News.

Source de l’article sur sap.com