Articles

Votre prochaine grande décision lorsque vous envisagez un nouveau système ERP ? La façon dont il sera déployé. Vous avez le choix entre plusieurs approches, notamment le déploiement traditionnel sur site, le déploiement dans le cloud ou une combinaison hybride des deux. 

Vous voudrez tenir compte des différences financières et examiner les forces et les attraits de chaque stratégie de déploiement ERP, ainsi que les limitations ou les défis uniques. Il est essentiel d’examiner toutes les options et de choisir l’approche de déploiement qui répondra le mieux aux besoins de votre entreprise aujourd’hui – et dans un avenir prévisible. 

Avant de vérifier les options de déploiement de votre ERP, voyez comment – et pourquoi – le cloud est devenu un environnement vital pour la réussite des entreprises dans l’économie numérique. 

Pourquoi cette tendance d’un déploiement cloud ? 

Nous observons tous avec un vif intérêt l’évolution de la technologie informatique à un rythme toujours plus rapide. Les premiers systèmes d’entreprise et les premiers systèmes ERP étaient hébergés sur de gros ordinateurs centraux et de milieu de gamme avec des terminaux pour la saisie des données par les utilisateurs – après avoir remplacé les cartes perforées et la saisie sur disque, bien sûr ! La technologie de pointe suivante était l’architecture client/serveur, dans laquelle les terminaux étaient remplacés par des PC (appelés aujourd’hui clients) qui pouvaient gérer une partie de la charge de travail. Cela a permis de réduire la quantité de données qui devaient faire l’objet d’allers-retours avec l’ordinateur serveur. 

Aux alentours du millénaire, deux évolutions importantes ont changé le monde de l’informatique et de l’ERP : l’Internet et le cloud. Il n’était plus nécessaire d’acheter et de prendre en charge du matériel et des logiciels pour gérer votre entreprise. La totalité ou la majeure partie de la technologie pouvait désormais être « louée » ou externalisée dans le cadre d’une offre groupée comprenant toute la maintenance et une grande partie des opérations techniques. L’omniprésence d’Internet a fourni l’infrastructure de communication nécessaire pour rendre le cloud pratique et disponible partout dans le monde. 

Mais les entreprises n’ont pas immédiatement migré leurs systèmes ERP vers un déploiement dans le cloud. Il a fallu un certain temps pour que la technologie et les applications arrivent à maturité et pour que les entreprises réalisent que l’ordinateur n’a pas besoin d’être sur place pour bénéficier d’un accès fiable et d’une sécurité pour les applications essentielles à l’entreprise. Une partie de cette évolution a impliqué que les développeurs apprennent à : 

  • Tirer pleinement parti du déploiement dans le cloud 
  • écrire ou réécrire des applications de manière appropriée 
  • Reconstruire leur infrastructure (technologie et ressources humaines) pour prendre en charge les systèmes dans le cloud. 

Et, surtout, les systèmes ERP dans le cloud offrent désormais des technologies avancées telles que l’intelligence artificielle (IA) et l’apprentissage automatique pour améliorer la productivité et le service, des expériences utilisateur personnalisées pour favoriser l’adoption, ainsi que des fonctionnalités étendues et des analyses intégrées pour fournir une vue complète de l’entreprise, ce qui, au final, favorise l’innovation et la croissance de l’entreprise. 

Le modèle tarifaire du SaaS 

Dans le passé, la plupart des logiciels étaient installés dans les locaux de l’entreprise et la seule option de licence était l’achat d’une licence perpétuelle – l’application étant concédée pour un montant initial plus un contrat de maintenance annuel pour les mises à niveau et les corrections de bogues. Les licences de logiciels sont le plus souvent facturées par utilisateur. La maintenance annuelle est généralement facturée à 18 % ou 20 % du prix courant du logiciel. Cela signifie que la licence du logiciel est essentiellement « rachetée » tous les cinq ou six ans. 

Avec l’ERP sur site, tout le matériel et le logiciel sont achetés ou loués et installés sur le(s) site(s) de l’entreprise. L’entreprise est responsable de la maintenance, de l’assistance et des éventuelles mises à niveau ou extensions du matériel, des systèmes et des logiciels d’application, ainsi que des locaux, de l’assurance, des ressources de basculement et du stockage de sauvegarde hors site. 

Les systèmes ERP basés sur le cloud, en revanche, ne sont généralement pas installés sur site et sont pris en charge par un fournisseur dans le cadre d’une redevance mensuelle ou annuelle. Ils font l’objet d’une licence sur la base de ce que l’on appelle un logiciel en tant que service (SaaS). Les licences SaaS peuvent être facturées par utilisateur, par application ou par ensemble d’applications (tout l’ERP, par exemple), en fonction de la taille de votre entreprise ou d’autres variations. 

Un aspect intéressant des licences de déploiement dans le cloud est leur évolutivité. Si la licence est accordée par « siège » d’utilisateur, vous pouvez ajouter ou réduire le nombre d’utilisateurs et payer un prix plus ou moins élevé en fonction du nombre de nouveaux utilisateurs. Si vos besoins en termes de volume de transactions, de capacité de stockage ou de puissance de calcul changent, le fournisseur est chargé de mettre à niveau ses installations pour tenir compte de ce changement, ce qui signifie que vous n’aurez pas à acheter et à installer plus de serveurs ou plus de stockage sur disque. 

L’analogie la plus proche pourrait être la télévision par câble. Vous payez pour ce dont vous avez besoin, et ce prix comprend l’utilisation et l’exploitation de toutes les installations physiques, le personnel, la maintenance et toutes les autres dépenses liées au service de câble à votre emplacement. Si vous avez besoin de plus de chaînes et que vous en ajoutez, vous payez simplement ce que vous avez demandé et vous ne vous inquiétez pas de savoir comment ils parviennent à fournir les chaînes supplémentaires. 

Cloud public vs. privé vs. hybride cloud vs. deux-tiers 

Il existe quatre façons possibles de mettre en œuvre un véritable système ERP dans le cloud : 

4 façons de mettre en œuvre un système ERP dans le cloud

1. ERP sur le cloud public

Le cloud public est le principal modèle de licence pour les solutions ERP de type « software-as-a-service » (SaaS). Le fournisseur du système dispose de son propre centre de données – ou peut louer un espace sur un nuage public pour héberger ses applications et ses systèmes. Tout le matériel, les systèmes et les services d’assistance sont fournis par le biais du cloud public. La mise en œuvre est ainsi plus rapide et plus facile pour l’entreprise utilisatrice car, avec tous les éléments matériels et logiciels déjà en place, elle peut commencer directement par le transfert des données et la formation des utilisateurs. 

Avec cette option de déploiement de l’ERP dans le cloud, votre fournisseur de logiciels s’occupera également de l’installation, de la maintenance et de l’assistance, y compris de toutes les mises à jour et mises à niveau logicielles telles que l’ajout de puissance de calcul ou de stockage. De plus, les systèmes, les applications et les ressources peuvent être « autoscalés », c’est-à-dire augmentés ou diminués automatiquement pour répondre à des besoins changeants. Il n’est donc plus nécessaire de payer pour des ressources informatiques qui peuvent rester inutilisées la plupart du temps, comme c’est le cas avec les systèmes ERP sur site.

L’ERP SaaS basé sur le cloud public a un coût initial faible ou nul (une « dépense d’investissement ») mais un coût mensuel un peu plus élevé (une « dépense d’exploitation »), par rapport à une installation sur site typique. Si l’on considère la période normale de coût du cycle de vie de cinq à sept ans, le coût total de possession (TCO) est similaire, voire inférieur, à celui d’une installation sur site et offre potentiellement un meilleur service, un meilleur support et une meilleure sécurité.

L’ERP en cloud public offre également le chemin le plus rapide vers l’innovation, ce qui le rend idéal pour les entreprises qui veulent poursuivre agressivement leur stratégie de transformation numérique. Cette option de déploiement permet aux entreprises de réimaginer, d’optimiser et d’adapter facilement leurs processus métier en fonction des besoins, et de tirer parti des meilleures pratiques standardisées que les fournisseurs d’ERP modernes devraient prendre en charge.

2. ERP en cloud privé 

Bien qu’ils soient similaires à l’option du cloud public, le matériel, les logiciels système et l’assistance du cloud privé peuvent être détenus, gérés et exploités par l’entreprise, un tiers ou une combinaison des deux pour l’usage exclusif d’une seule organisation. Dans le cadre d’un déploiement dans le cloud privé, l’entreprise utilisatrice doit généralement payer la licence du logiciel ERP.   

L’option de propriété tierce est populaire auprès des services informatiques qui souhaitent externaliser le matériel, la base de données et une grande partie des tâches de mise en réseau, ce qui leur permet de bénéficier de certains des avantages d’un cloud public. Cette option de déploiement est également privilégiée par les entreprises qui souhaitent passer au cloud par étapes, que ce soit rapidement ou progressivement, ou comme étape intermédiaire vers le cloud public. Cela est particulièrement vrai pour les grands fabricants mondiaux et les autres entreprises dont les systèmes sont complexes, fragmentés ou hautement personnalisés.  

Le déploiement d’un cloud privé implique généralement un investissement initial plus important (dépenses d’investissement), mais le coût du cycle de vie peut se situer quelque part entre celui du cloud public et celui des systèmes sur site. Certains fournisseurs modifient ce calcul en proposant des packs de mise en œuvre groupés qui réduisent les coûts initiaux et incluent tous les outils et services, l’infrastructure et les exigences du réseau par le biais d’une tarification par abonnement. Les entreprises peuvent profiter d’un coût total de possession plus faible grâce à l’économie du cloud, d’une architecture moderne basée sur le cloud, ainsi que d’une fonctionnalité ERP complète qui inclut les modules complémentaires, les extensions et les améliorations des partenaires.    

3. ERP en cloud hybride 

Les éléments d’un déploiement ERP dans un cloud privé, un cloud public et sur site peuvent être combinés pour créer un cloud hybride, qui offre la flexibilité de choisir le déploiement optimal pour chaque application. L’ERP dans le cloud hybride peut être utilisé comme un tremplin vers le cloud public, ou pour répondre à des questions de réglementation sectorielle et à des exigences de sécurité particulières qui peuvent imposer le recours à des applications sur site dans certaines situations. D’autres restrictions ou préférences peuvent également rendre les applications sur site souhaitables pour certaines applications. La complexité d’une entreprise et de son environnement actuel, ainsi que le désir d’une vitesse de changement plus lente, sont des facteurs déterminants dans la décision de déployer un scénario hybride. 

Une mise en œuvre hybride permet aux applications et aux données de passer d’une option à l’autre en fonction de l’évolution de la charge de travail. Elle offre les avantages du cloud pour la partie du système qui se trouve dans le cloud. Cependant, elle nécessite une plus grande implication de l’informatique locale pour prendre en charge les éléments sur site, ainsi que la coordination entre les deux – ou plus – environnements de système ERP. 

4. ERP deux-tiers 

Véritable variante de l’approche hybride mise en œuvre pour les mêmes raisons, le déploiement d’un ERP à deux niveaux – parfois appelé déploiement en étoile – fait appel à un système central et à des systèmes satellites plus petits qui prennent en charge les installations distantes. Imaginez que l’ERP de l’entreprise est le centre, et que les systèmes ERP individuels des usines, entrepôts ou bureaux des filiales renvoient tous leurs données au centre. Cette idée n’est pas nouvelle ; elle est apparue au cours de la phase de traitement distribué des années 1990, lorsque les entreprises ont choisi de mettre en œuvre des systèmes plus petits, plus simples et moins coûteux sur des sites distants, tout en conservant le système d’entreprise plus grand et plus performant au siège de la société. Tous les systèmes d’un réseau à deux niveaux, ou certains d’entre eux, peuvent être installés sur site ou dans le cloud, achetés ou sous licence SaaS. 

Le coût global d’un déploiement ERP à deux niveaux – avec des systèmes moins coûteux aux nœuds au lieu du même système d’entreprise partout – permettra de réduire le coût de l’achat initial. Toutefois, l’intégration et le support peuvent entraîner un coût global continu plus élevé, car les interfaces doivent être construites et entretenues. Et, année après année, il faudra davantage de soutien informatique pour assurer la coordination avec les multiples fournisseurs, ainsi que pour gérer les calendriers de mise à niveau et les changements d’interface non coordonnés. 

Que signifie l’expression « faux cloud » ? 

Le faux cloud, également connu sous le nom de « cloud washing », fait référence à un système ERP existant porté vers le cloud et peut-être « enveloppé » d’un logiciel supplémentaire pour adapter le système à cet environnement. Mais ces applications ne sont pas écrites pour être déployées dans le cloud et ne peuvent donc pas vraiment bénéficier de ce que le cloud a à offrir. Il s’agit exactement des mêmes applications ERP héritées installées sur du matériel externalisé. Le « wrapper » peut présenter aux utilisateurs des écrans modernes de type Web, mais les informations saisies doivent être traduites en fonction des exigences de saisie du système existant et retransmises aux écrans enveloppés pour affichage – une approche peu efficace. Pour l’utilisateur, cela ressemble au nuage, mais il ne fonctionnera pas comme une application dans le cloud et ne sera pas en mesure de tirer parti de la connectivité dans le cloud, des fonctionnalités avancées ou des performances opérationnelles optimisées. 

Les véritables fournisseurs d’ERP dans le cloud conçoivent leurs solutions de A à Z, spécifiquement pour le cloud. Les applications patrimoniales enveloppées dans le cloud n’ont pas été conçues pour le cloud et des problèmes de performance peuvent donc survenir. Les personnalisations et les intégrations peuvent également poser problème, et ces solutions doivent toujours être mises à jour et entretenues, souvent par les ressources informatiques de l’entreprise utilisatrice. 

Étant donné que les applications patrimoniales portées sur le cloud sont essentiellement les mêmes que les applications sur site, la tarification est rarement basée sur les besoins d’utilisation, d’où un risque de sur-achat. En outre, le modèle SaaS n’est pas couramment appliqué, ce qui signifie que l’entreprise utilisatrice conserve en interne toute la responsabilité du support et des mises à jour. 

Quand choisir un système ERP sur site plutôt que dans le cloud ? 

De plus en plus d’entreprises passent à l’ERP dans le cloud, mais cette solution ne convient pas à toutes les entreprises. La principale raison de conserver une solution ERP sur site est le besoin de conformité, qu’il s’agisse des exigences des clients, du secteur ou des pouvoirs publics en matière de réglementation et de normes. Des exigences plus strictes nécessitent parfois une mise en œuvre sur site dans les secteurs plus réglementés.  

Le manque de fiabilité du service Internet est cité par certaines entreprises comme une raison de ne pas passer au cloud. Pour les applications ERP critiques, il est crucial d’être opérationnel et disponible 99 % du temps. Cependant, avec les réseaux, serveurs et processus modernes, les temps d’arrêt ne sont généralement plus un problème et empêchent rarement le déploiement d’un ERP dans le cloud.  

La gestion des données peut être une autre raison de conserver votre système ERP dans vos locaux. Dans le cas d’un déploiement dans le cloud, vous pouvez ou non être en mesure de déplacer facilement vos données, selon les politiques de votre fournisseur de services. Assurez-vous qu’il prend en charge les services dont vous avez besoin.  

Une autre raison est la perte de contrôle (par exemple, sur la sécurité, les données ou les mises à niveau). Avec un ERP basé sur le cloud, votre entreprise se décharge de nombreuses responsabilités informatiques sur un tiers. Il est donc important de s’assurer que ce tiers est fiable et qu’il a fait ses preuves. Cependant, certaines entreprises choisissent encore de tout garder « en interne ».   

Les déploiements d’ERP sur site présentent certains inconvénients, notamment la nécessité de procéder à des mises à niveau manuelles du système et l’absence de services intégrés d’installation, de maintenance et d’assistance. Heureusement, pour les entreprises qui ont besoin de ce type de mise en œuvre, certains fournisseurs proposent des services qui offrent certains des avantages des logiciels basés sur le cloud. 

Astuces pour la sélection des processus 

Choisissez d’abord le logiciel ERP par le biais d’un processus d’évaluation minutieux, puis examinez les options de déploiement en fonction des capacités de déploiement du logiciel, des besoins de votre entreprise et du retour sur investissement potentiel de l’ERP. Certains logiciels ERP ne sont disponibles qu’en mode cloud ou SaaS, tandis que d’autres fournisseurs proposent des solutions cloud, on-prem et hybrides. Les options de déploiement disponibles peuvent être un critère d’inclusion dans la liste restreinte, mais elles ne doivent pas être le seul déterminant du choix du système. . 

  • Évitez les applications ERP héritées du faux cloud pour les raisons mentionnées ci-dessus.  
  • Les entreprises à croissance rapide et celles qui prévoient des changements prochains dans le nombre d’utilisateurs (à la hausse ou à la baisse) devraient probablement se concentrer sur les vrais systèmes ERP dans le cloud pour leur évolutivité et leur tarification à l’usage.  
  • Assurez-vous que tous les membres de l’équipe de sélection comprennent les caractéristiques et les avantages de l’ERP dans le cloud public, privé ou hybride.  

Synthèse 

Au départ, les entreprises peuvent être attirées par le déploiement d’un ERP dans le cloud pour des raisons financières (peu ou pas de dépenses d’investissement et coût total du cycle de vie réduit), mais elles sont enthousiasmées par les avantages techniques et opérationnels qu’offre le cloud, notamment 

  • Un ERP qui est toujours à jour avec les dernières mises à niveau (sans coût ni effort supplémentaire). 
  • Une évolutivité quasi illimitée 
  • Paiement uniquement pour ce dont vous avez besoin/ce que vous utilisez 
  • une mise en œuvre plus rapide 
  • Une meilleure sécurité et de meilleurs contrôles d’accès, et plus encore 

Le déploiement intégral dans le cloud n’est pas la seule option. Il est parfois plus judicieux de conserver certaines applications sur place et d’utiliser le cloud pour le reste. Heureusement, de nombreux choix de configuration et de déploiement sont disponibles afin que vous puissiez choisir le déploiement qui vous convient le mieux sur le plan financier et opérationnel. 

Le passage à un nouveau système ERP est un changement important pour les utilisateurs du système, le service informatique et l’ensemble de l’entreprise. Il est judicieux d’explorer toutes les options et de choisir la configuration du système qui offre les meilleures performances au meilleur coût. Ensuite, prévoyez comment vos ressources internes et votre structure devront changer pour tirer le meilleur parti de votre investissement, quels que soient la configuration et le déploiement. 

Publié pour la première fois en anglais sur insights.sap.com 

The post Planifier le déploiement de votre ERP dans le cloud appeared first on SAP France News.

Source de l’article sur sap.com

SAP propose des outils et méthodes pour toutes les étapes de la migration vers l’ERP intelligent SAP S/4HANA. Des solutions qui pourront être complétées par la méthodologie et les outils de SOA People, afin d’accélérer et de sécuriser encore plus ce processus.

L’approche Move to SAP S/4HANA, complétée par les méthodologies et outils de SOA People, offre de mieux préparer, mener et réussir son projet de migration vers l’ERP intelligent SAP S/4HANA. Un outillage qui permet aux entreprises d’envisager sereinement leur projet de migration.

Premier temps : la préparation

« Le premier temps est celui de la réflexion, celui du quand, du comment… et du combien », résume Christian Charvin, Head of Program Move to SAP S/4HANA chez SAP. SAP fournit un ensemble d’outils qui permettent de mener la réflexion de bout en bout, en mesurant précisément quel effort devra être fourni et quels gains attendre.

SOA People ajoute à ceci un outil spécifiquement dédié à la construction du business case, Performer. « Performer va se brancher sur l’ERP du client, en extraire les données de façon anonyme et évaluer le niveau de performance de l’entreprise par rapport à son utilisation de l’ERP, explique Pierre-Edouard Hamon, Presales Director, SOA People. À cet effet, le client va être comparé à un panel d’entreprises représentatives. Ceci permet d’évaluer son niveau de maturité en vue de la migration vers SAP S/4HANA, puis de proposer des plans d’action adaptés, comprenant les améliorations recommandées. Ce plan d’action permet d’évaluer les coûts de mise en œuvre du projet, mais aussi les gains potentiels attendus, qu’ils soient uniques ou récurrents. »

Techniquement, les outils proposés par SAP sont capables de proposer une approche similaire : SAP Process Dicovery crée une image de l’utilisation de l’ERP. SAP Transformation Navigator définit le paysage applicatif et fonctionnel, suivant le périmètre et les améliorations choisis. Enfin, SAP Value LifeCycle Manager construit le business case. Performer présente toutefois plusieurs atouts : une couverture plus large en matière de domaines fonctionnels ; plus d’indicateurs mesurés (2600, contre 1380 chez SAP) : une meilleure automatisation du processus.

Second temps : la migration

Les conversion factories ont le vent en poupe. Les conversion factories assurent une migration technique, sans modification massive des processus. Elles permettent de basculer de SAP ECC vers SAP S/4HANA dans des délais courts, avec un minimum de changements fonctionnels. Une fois cette étape réalisée, les processus peuvent être revus avec les métiers, de façon progressive et suivant les priorités fixées par l’entreprise. Une approche à privilégier lorsque le saut technologique est important : passage de SAP ECC à SAP S/4HANA ou passage d’un environnement sur site à une solution en mode cloud, comme RISE with SAP.

« L’emploi d’une conversion factory permet d’industrialiser toutes les étapes de la migration, à périmètre constant, avec parfois la modification de quelques processus clés. Cette méthode permet de capitaliser sur les investissements réalisés précédemment, en reprenant les paramétrages de l’ERP et en convertissant les spécifiques existants. Quant à la conduite du changement, elle peut être ajustée, en ne déployant pas d’entrée de jeu l’intégralité des nouveautés de SAP S/4HANA », explique Christian Charvin.

« Nous sommes tellement fans de l’approche conversion factory que nous proposons un outil de conversion automatisée capable d’assurer automatiquement certaines tâches (finance, gestion des immobilisations, business partners…), ainsi que la conversion de 93% à 95% des spécifiques, ajoute Pierre-Edouard Hamon. La conversion des spécifiques est réalisée à l’aide d’un moteur d’intelligence artificielle autoapprenant très efficace. À un point tel que nous avons réussi à assurer la migration technique d’un industriel en seulement trois mois ! »

Troisième temps : les travaux post-migration

Une conversion réussie nécessite l’alignement des bonnes personnes, des bonnes méthodes et des bons outils. Toutefois, deux aspects sont à considérer après la conversion, et tout au long du cycle de vie de l’ERP : l’amélioration continue et les tests.

Une solution comme Signavio permet d’analyser les processus utilisés à un instant T et de les comparer aux bonnes pratiques du secteur. Un outil précieux qui réalignera les processus avec ces bonnes pratiques. « Nous recommandons à nos clients de réaliser régulièrement cette analyse, dans le cadre d’une stratégie d’amélioration continue de leurs processus », poursuit Pierre-Edouard Hamon. Mais également pour s’assurer que leurs processus restent dans un état optimal.

Lorsque l’ERP est déployé dans le cloud, il va évoluer au rythme des évolutions proposées par SAP. Mais même lorsqu’il est déployé sur site, il est recommandé d’assurer des montées de versions régulières pour profiter de l’innovation SAP. Que ce soit lors de la refonte de processus existants ou lors d’une montée de version, les tests – de bon fonctionnement ou de non-régression – sont essentiels. « Des outils comme Tricentis (distribué par SAP) permettent d’industrialiser ce que les clients font encore trop souvent à la main. Cette solution permet pourtant d’accélérer sensiblement la phase de test lors d’une conversion ou d’une montée de version », explique Christian Charvin. « Tricentis permet de réduire la phase de test et de libérer du temps pour se concentrer sur la formation des utilisateurs finaux. C’est un outil qui participe lui aussi à l’adoption de SAP S/4HANA », confirme Pierre-Edouard Hamon.

The post Quels outils pour faciliter la migration vers l’ERP SAP S/4HANA ? appeared first on SAP France News.

Source de l’article sur sap.com

Lors de sa conférence globale SAPPHIRE NOW®, SAP SE (NYSE : SAP) a dévoilé SAP® Business Network, la première étape d’une stratégie ambitieuse visant à créer de nouvelles communautés professionnelles capables d’améliorer les résultats commerciaux, de mieux gérer l’évolution des conditions économiques et géopolitiques et de renforcer les contributions au développement durable.

Le groupe a également annoncé un certain nombre de nouvelles innovations destinées à aider les clients à transformer leurs processus d’entreprise, à améliorer leurs performances et à donner le meilleur d’eux-mêmes. Les points forts de ces innovations prévues sont les suivants :

Les solutions de Business Process Intelligence proposent désormais la solution SAP Process Insights

Dans le cadre du portefeuille de solutions de Business Process Intelligence (BPI), la solution SAP Process Insights permet aux entreprises d’analyser et d’améliorer leurs processus de gestion dans le monde réel. EY, Deloitte et Infosys Limited sont les premiers partenaires stratégiques à travailler avec le portefeuille BPI de SAP pour aider les entreprises à se transformer. Pour en savoir plus : « SAP annonce la nouvelle solution SAP Process Insights pour une compréhension rapide et facile de la performance des processus« .

Verify, une nouvelle fonctionnalité de SAP Concur®, utilise l’intelligence artificielle et le machine learning pour simplifier la vérification des notes de frais

Le service Verify, une nouvelle fonctionnalité des solutions SAP Concur®, utilise l’intelligence artificielle et le machine learning pour identifier automatiquement les problèmes et anomalies potentiels des notes de frais. Les modèles d’IA sont construits à partir de l’analyse de plus de 1 000 milliards de dollars de dépenses et de dizaines de millions de dépenses et de reçus. Verify peut approuver les notes de frais automatiquement, tout en signalant d’éventuelles anomalies pour que les auditeurs les examinent. Grâce à cette expérience alimentée par l’IA, les auditeurs ne perdent plus de temps à examiner des notes de frais conformes, mais restent en capacité de détecter des problèmes de conformité ou de fraude. Pour en savoir plus : « Verify applique l’intelligence artificielle et l’apprentissage automatique pour simplifier l’audit des dépenses« .

SAP Upscale Commerce, une solution no-code pour un engagement direct du consommateur

La solution SAP Upscale Commerce est une solution de commerce en ligne sans code qui permet aux détaillants de taille moyenne de créer une expérience d’achat omnicanale en quelques minutes. Grâce à l’IA intégrée, les détaillants peuvent proposer des offres personnalisées basées sur une vision à 360 degrés de leurs clients, à partir du ressenti client et des données d’achat. Grâce à une architecture API « headless », les détaillants peuvent fournir aux clients des informations en temps réel sur leurs achats et leur livraison, quel que soit le canal. SAP Upscale Commerce est intégré à SAP S/4HANA®, ce qui permet de s’assurer que les expériences en contact client fonctionnent avec les systèmes back-end de finance, de logistique et d’exécution pour offrir une expérience client fluide. Pour en savoir plus : « SAP Upscale Commerce offre aux marques du Midmarket une voie sans code et sans maintenance vers l’engagement direct du consommateur« .

Trois nouvelles fonctionnalités de la SAP Business Technology Platform, pour exploiter les données en toute transparence

La solution SAP Analytics Cloud offre désormais des fonctionnalités d’analyse et de planification de la main-d’œuvre opérationnelle et une intégration avec les solutions SAP SuccessFactors®. Ces fonctionnalités relient les données opérationnelles, financières et humaines pour donner aux entreprises une vision plus complète de leur personnel. Pour en savoir plus : « Enabling Human-Centric & Data-Driven Workforce Planning« .

La nouvelle marketplace de données pour la solution SAP Data Warehouse Cloud, quant à elle, permet aux clients et aux partenaires de se connecter à des fournisseurs de données de tous les secteurs et de toutes les branches d’activité afin d’obtenir des informations pour une meilleure prise de décision.

SAP étend également son offre low-code/no-code : Les services SAP Intelligent Robotic Process Automation peuvent désormais capturer et automatiser les interactions des utilisateurs et s’intégrer à SAP Process Insights pour identifier les opportunités d’automatisation à fort impact.

Vous pouvez en savoir plus sur les mises à jour de la plate-forme SAP Business Technology et obtenir d’autres informations dans le guide de l’innovation de SAPPHIRE NOW.

À propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com .

Contacts presse SAP
Daniel Margato, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Mateo Moreau : 06.31.80.86.93 – presse-sap@publicisconsultants.com
SAP News Center. Suivez SAP sur Twitter : @SAPNews.

 

 

The post SAPPHIRE NOW : de nouvelles innovations SAP pour renforcer l’autonomie des clients appeared first on SAP France News.

Source de l’article sur sap.com

Après avoir mis SAP HANA au cœur du SI financier de SCOR, SAP annonce que son client a finalisé avec succès sa roadmap finance. Annoncée en 2015, cette dernière permet aux différents métiers de la finance de SCOR de répondre sereinement aux objectifs des années à venir. La raison d’être du projet : être au service des métiers pour soutenir l’excellence opérationnelle du domaine finance.

Quatrième réassureur mondial, SCOR offre à ses clients une gamme innovante et diversifiée de solutions et de services pour le contrôle et la gestion des risques via une assise financière solide. Fidèle à sa devise « l’Art et la Science du Risque », le Groupe met son expertise reconnue au sein du secteur et ses solutions financières de pointe au service du bien-être et de la résilience des populations.

Répondre à de nombreux enjeux business et numérique pour évoluer technologiquement

SCOR concrétise sa roadmap 2015-2020 avec la conversion vers S/4HANA opérée en Juillet 2020, point d’orgue d’une ambition métier supportée par SAP HANA visant à mettre en place une plateforme financière unique et intégrée pour l’ensemble des besoins de la Finance.

Ce plan sur 5 ans a permis la mise en place des axes suivants :

  • Le passage des portfolio Analytics (SAP BW) et EPM (SAP BFC) sur une instance SAP HANA unique
  • La migration du General Ledger (ECC) sur S/4HANA;
  • La création et le développement de la Reporting Factory, s’appuyant sur un catalogue analytique en temps réel et réconcilié « by design » par une consolidation très précise grâce à 3 outils SAP intégrés :
    • Analysis For Office (AO) pour l’analyse et la manipulation des données
    • SAP Analysis Cloud (SAC) pour le dashborading
    • Disclosure Management (DM) pour le reporting statique
  • La digitalisation et la robotisation des processus Finance au sein du Groupe

Un déploiement prenant en considération tous les paramètres, coûts, délais et qualité grâce à l’expertise consolidée métier, projets et systèmes du SAP Competency Center de SCOR dirigé par François Bossard, qui s’est vu être complétée par le déploiement sur une instance unique de la gestion de la trésorerie (SAP TRM), de la communication bancaire (SAP BCM), de la gestion budgétaire (SAP eBPC) et de la sécurisation du cycle de développement (Solution Manager).

SCOR est désormais doté d’un avantage concurrentiel indéniable pour les 3 prochaines années dans le domaine de la Finance en termes d’innovations technologiques. Sa plateforme est complètement intégrée et dotée d’interfaces répondant en temps réel voire en streaming, un niveau d’intégration que de nombreux acteurs commencent tout juste à entrevoir. Ces avancées sont dues à un concept fonctionnel clé : la réconciliation « by design » de l’ensemble des domaines de la finance au sein d’une plateforme unifiée.

« SCOR posait il y a 10 ans les bases d’une vision rationnalisée de son système d’information financier en migrant l’ensemble de ses comptabilités dans SAP. Ces cinq dernières années, il nous paraissait naturel de faire fructifier cet acquis via une roadmap de développement ambitieuse, associant enrichissements fonctionnels et innovations technologiques pour en tirer tous les bénéfices, optimisant nos processus financiers et nos capacités analytiques. Grâce à ces acquis et à une migration fluide vers S/4HANA réalisée en quelques mois, nous pouvons compter sur une plateforme financière performante qui est en mesure d’encaisser les impacts des prochaines échéances d’évolution règlementaire IFRS9 et IFSR17 », précise Marc Philippe, Directeur des Systèmes d’Information du Groupe SCOR.

Une implémentation réussie pour aller plus loin dans l’excellence opérationnelle

Déployée en juillet 2020, SAP S/4HANA, montre déjà de nombreux bénéfices : des économies sur de nombreux projets, des gains de temps pour mieux redéployer les ressources, la mise en place de process plus intégrés, plus automatisés, plus simples et plus informés pour permettre aux équipes de se concentrer sur leur valeur ajoutée et ainsi libérer du temps aux collaborateurs pour se concentrer sur l’opérationnel. Cette nouvelle étape répond à une logique stratégique sur le moyen long-terme. En effet, elle permet de se rapprocher tactiquement de la roadmap SAP, d’avoir toujours un œil sur l’innovation, d’aller encore plus loin dans l’excellence opérationnelle ou encore de se rapprocher davantage de la réalité comptable tout en abordant de manière plus sereine les challenges normatifs de l’industrie pour les 3 prochaines années.

A l’initiative et à la direction de cette roadmap, y compris la conversion vers S/4HANA venant la conclure, Marc Henry, Head of Finance Projects, Systems, Processes and Controls du Groupe SCOR, précise que « S/4HANA nous permet de construire et développer IFRS9 et IFRS17 sur la nouvelle plateforme sans avoir à faire de migration par la suite. La solution nous permet aussi de développer de nouvelles fonctionnalités clés comme l’ajout de devises, de ledger, de GAAPs et d’aller encore plus loin dans l’intégration du domaine de la finance ».

La solution SAP Analytics Cloud permet de déployer un ensemble de best practices, de capitaliser sur l’ensemble des efforts consentis sur HANA et de s’inscrire comme early-adopter de la roadmap de SAP pour assurer une co-innovation et un partage constant avec toutes les parties prenantes. La solution fournit également au top management des données en temps réel leur permettant d’avoir un avis fiable et factuel sur plusieurs process comme la santé financière de leur division dans le cadre d’un projet ou encore sur le pilotage de KPIs plus globaux. Enfin, SAC permet de rendre les utilisateurs de la solution plus indépendants afin d’être davantage sur l’accompagnement et la certification de la donnée plutôt que sur sa production par les équipes métier.

SAP Business Planning and Consolidation (eBPC) a offert à SCOR la possibilité d’adapter ses plans de planification, de budgétisation, de prévision pour améliorer l’ensemble du processus budgétaire du Groupe. La solution a également permis d’entrevoir des gains additionnels au regard de la roadmap SAP et de son intégration avec d’autres outils déjà existants comme SAP Analytics Cloud Planning. L’objectif : accélérer les cycles budgétaires et de clôture financière, et renforcer l’expérience utilisateur.

« Après le succès de la première implémentation avec SAP, nous souhaitions poursuivre la collaboration. Nous avons pu mettre en place une plate-forme mondiale intégrée, dotée d’une base de données unique disponible en temps réel. SCOR a pu capitaliser sur tout le travail effectué précédemment, avoir un seul point d’accès pour la donnée Finance et rendre certains modules plus flexibles. Nous sommes très fiers d’être une vitrine pour SAP qui nous offre de réels bénéfices opérationnels à court terme », ajoute Marc Henry.

A propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun. Pour plus d’informations, visitez le site www.sap.com.

 

Contacts presse :

Daniel MARGATO, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Pauline BARRIERE : 06.13.73.93.11 – presse-sap@publicisconsultants.com
SAP Press Room; press@sap.com

The post SAP conclut avec succès la roadmap finance de SCOR appeared first on SAP France News.

Source de l’article sur sap.com

SAP & Siemens jettent les bases d’un partenariat ambitieux : ouvrir la voie à de nouvelles opportunités, supprimer les silos et accélérer la transformation.

SAP & Siemens jettent les bases d’un partenariat ambitieux

Depuis l’annonce du partenariat signé entre SAP et Siemens le 14 juillet 2020, nous avons été ravis de voir à quel point les utilisateurs, partenaires et analystes adhéraient à cette initiative audacieuse et à notre ambition commune d’ouvrir la voie à de nouvelles opportunités, de supprimer les silos et d’accélérer la transformation. Tenir la promesse d’un retour sur investissement plus rapide, de processus de développement durables et de nouvelles opportunités métiers nécessite un nouveau niveau d’intégration. Et c’est ce dans quoi SAP et Siemens ont investi massivement – jusqu’à maintenant dans les coulisses.

La continuité numérique requiert un meilleur niveau d’intégration

Nous savons que nos clients sont aujourd’hui mis au défi d’améliorer leur vitesse de mise sur le marché tout en créant des produits toujours plus complexes et de meilleure qualité. Bien que nos solutions offrent des capacités de pointe dans leurs domaines fonctionnels respectifs, le véritable bénéfice ne peut venir que d’une communication en boucle fermée native et transparente entre le développement produits et la gestion d’entreprise. C’est le cap que nous suivons conjointement :

Combiner l’expertise en intégration de SAP et Siemens

L’intégration entre les systèmes d’ingénierie et d’entreprise n’est pas un phénomène nouveau. Mais il reste complexe. Pourquoi ? Parce que se mettre d’accord sur un langage commun, des processus communs et les solutions et architectures techniques associées à travers tous les secteurs d’activité, les organisations et les réseaux est une tâche difficile. Sans compter les exigences propres à l’ingénierie, aux métiers, à l’informatique et à l’industrie.

Un partenariat stratégique tel celui que nous avons mis en place avec Siemens est une excellente occasion de résoudre certains de ces problèmes fondamentaux. Nous nous appuyons sur l’idée que nos systèmes d’ingénierie et d’entreprise seront égaux et adopteront le niveau d’interopérabilité et de visibilité nécessaire pour concrétiser l’idée de continuité numérique.

 

Un modèle de données unique : garant du succès

Un modèle de données aligné entre SAP et Siemens est à la base de l’intégration en tant que couche intermédiaire. Cet alignement est rendu possible grâce à un niveau d’abstraction des données qui seront échangées entre Siemens Teamcenter et l’ERP SAP S/4HANA.  Ce modèle de données doit être compréhensible des deux côtés et dotée d’une sémantique claire, adaptée à toutes les implémentations.

Ce modèle de données aligné continuera à évoluer afin de permettre le  développement de nouveaux scénarios d’intégration.

Aperçu de la feuille de route 2021-2022 : une innovation continue s’appuyant sur des fondations solides

Depuis l’annonce du partenariat, les équipes de développement de Siemens et SAP se sont réunies pour mettre en œuvre les principes évoqués ci-dessus. Elles ont commencé parse concentrer sur le développement d’un ’échange transparent des données produits, afin de permettre une intégration bidirectionnelle des processus. Puis ont mis l’accent sur une couverture de bout en bout de processus métiers spécifiques : en commençant par la fabrication sur stock (MTS), la configuration à la commande (CTO) et l’ingénierie à la commande (ETO).

Le résultat est une feuille de route définie conjointement, qui commence avec une première version programmée au quatrième trimestre 2021.

Etape 1 : intégration du PLM vers SAP

La première release s’appuiera sur notre modèle commun et les processus de bout en bout sous-jacents afin d’établir les fondations de  permettant une traçabilité,  une fédération des données et des liensinter systèmes. Elle se concentrera sur les processus et le transfert de données depuis le  Teamcenter vers SAP, tels que :

  • Création des fiches article dans SAP basés sur les sémantiques métiers
  • Transfert des données de classification pour permettre un flux d’informations cohérent vers SAP
  • Création des fiches info document dans SAP
  • Transfert de la nomenclature vers SAP
  • Capacité pour Teamcenter de déclencher des modifications en provenance de l’ingénierie

Etape 2 : élargir le scope et fermer la boucle entre le développement produit et SAP

Début 2022, la prochaine vague d’innovations se focalisera sur la « fermeture de la boucle » entre SAP et le développement produit. Nous nous concentrerons sur les fondations des processus métier avancés, y compris les scénarios de configuration à la commande (CTO), d’ingénierie à la commande (ETO), etc. Voici quelques fonctionnalités clés de cette version :

  • Création de fiches articles et de nomenclatures spécifiques
  • Capacité pour SAP de déclencher des changements d’ingénierie et de fabrication
  • Transfert de la définition de la configuration des produits à variantes
  • Fourniture de données pertinentes pour la fabrication tout au long du processus métier
  • Transfert des gammes SAP
  • Mise à disposition d’une solution cross système pour la gestion du portefeuille produits et projets (PPM)

Etape 3 : interopérabilité bidirectionnelle des systèmes et scénarios d’intégration avancés

Nous avons également prévu une seconde version en 2022, qui ne se concentrera pas seulement sur l’amélioration continue des processus avancés de configuration (CTO) et d’ingénierie (ETO), mais également sur une intégration bidirectionnelle favorisant transparence et interopérabilité. Les fonctionnalités proposées comprendront :

  • Gestion des nomenclatures spécifiques à la commande dans SAP
  • Échange de modèles produit pour la configuration de variantes et règles de contraintes d’ingénierie
  • Mise à disposition de scénarios Engineering to Order (ETO) sans couture
  • Échange d’informations sur les fournisseurs basés sur les informations fournisseurs
  • Activation de la traçabilité inter systèmes pour les workflows
  • Activation de l’analyse d’impact inter systèmes

Si vous souhaitez en savoir davantage sur notre feuille de route, rendez-vous dans les prochaines semaines sur le SAP Roadmap Explorer.

The post Feuille de route pour une intégration avancée entre SAP et Teamcenter appeared first on SAP France News.

Source de l’article sur sap.com

SAP Manufacturing Execution s’invite sur les lignes d’assemblage du géant Airbus. Une solution qui permet de faciliter le travail des opérateurs, tout en améliorant les performances des lignes de production.

Airbus est un acteur bien connu dans le monde de l’aviation civile, avec plus de 12.600 avions livrés à ses clients. C’est aussi un acteur majeur dans le monde des hélicoptères (plus de 12.000 appareils assemblés), de la défense et de l’espace.

Avant la crise sanitaire, les livraisons étaient en forte croissance (+37 % sur 5 ans) et le carnet de commandes promettait du travail aux usines d’Airbus pour les 8,5 années à venir. L’arrivée du Coronavirus et son impact massif sur les déplacements par avion ont provoqué une chute massive des activités de la société. Si l’entreprise travaille déjà sur les avions de demain, avec par exemple des modèles à l’impact carbone réduit de 25 %, elle doit aussi optimiser sa production.

« Dans ce contexte d’adaptation rapide au changement, l’introduction d’un système de pilotage de la production (MES, pour Manufacturing Execution System) va être un élément clé de notre transformation », explique Alexandre Sizaret, Head of Production System Efficiency & Manufacturing Digitalisation, Airbus. Le projet a été lancé fin 2016, mais l’arrivée de la crise lui a donné un nouvel élan.

SAP et Sopra Steria à la manœuvre

SAP Manufacturing Execution (SAP ME) est aligné avec les principes du système d’information d’Airbus, AOS (Airbus Operating System) : standardisation des processus, management visuel, suivi et amélioration continus. Il vient naturellement compléter l’ERP et le PLM au sein des usines. Enfin, son interface utilisateur simple est adaptée aux opérateurs travaillant sur des chaînes de production.

Airbus veut répondre à plusieurs challenges au travers de SAP ME : l’organisation de la production (organisation des effectifs, allocation des ressources…) ; le pilotage de l’activité (lignes de production, séquences à exécuter et avancement des séquences) ; l’interfaçage avec l’opérateur (au travers de tablettes, voire de smartphones) ; le support (détection des problèmes et alerte du manager, de la maintenance ou d’autres fonctions support).

Un core model pour toutes les usines Airbus

Pour son projet, Airbus a opté pour une approche core model associant une équipe pluridisciplinaire et multifonctionnelle. « Nous avons mis tout le monde autour de la table – opérateurs, management, intervenants métiers et techniques – afin de mettre au point une unique solution adaptée à toutes les usines, dans tous les pays », explique Alexandre Sizaret.

Après les phases de cadrage et de maquettage, la construction de la solution a été réalisée, avec une mise en place des différentes fonctionnalités de manière incrémentale. Une première version a été déployée sur des usines pilotes volontaires. L’organisation a souhaité ensuite prendre un peu de recul pour identifier les sources d’irritation. Dans le même temps, une analyse a été menée sur l’utilisation du MES et l’adhésion aux processus proposés. « Nous avons voulu vérifier que l’outil répondait bien aux besoins exprimés et qu’il était correctement utilisé. » Une importante phase de consolidation avant le déploiement à grande échelle de SAP ME.

La solution est aujourd’hui présente sur l’ensemble des sites européens du groupe : 10 usines et 2 lignes d’assemblage final. Soit un total de 279 stations de production. 7700 personnes ont été formées, dont 5500 sont des utilisateurs réguliers de SAP Manufacturing Execution. Plus de 2,4 millions d’opérations ont été effectuées sur SAP ME au cours de l’année 2020. Pour tenir cette charge, le système est réparti sur quatre sites, selon un même core model.

Au sein des sites de production, des écrans géants ont été déployés, secondés par des tablettes, smartphones et équipements IoT (scanners, lecteurs de badges…). SAP ME interagit directement avec l’ERP SAP, que ce soit pour la qualité, la conformité, la gestion des aléas, la maintenance ou encore la logistique. Il interagit aussi avec le PLM. Il est ainsi possible de visualiser pièces et maquettes en 3D et de disposer d’instructions de montage détaillées.

Plus d’efficacité au quotidien

SAP Manufacturing Execution est vu par Airbus comme un facilitateur du travail des opérateurs. Mais aussi comme un élément clé pour mesurer, soutenir et améliorer les performances des lignes de production. « Parmi les bénéfices les plus visibles, nous constatons une réduction des temps de production, des déplacements des opérateurs, de la documentation de production et plus généralement du recours aux documents papier, constate Alexandre Sizaret. Un autre bénéfice, moins facilement mesurable, est l’amélioration des performances des lignes de production, au travers d’un meilleur pilotage et d’une meilleure réactivité face aux aléas. »

Le MES est un élément clé pour épauler la production au quotidien, mais aussi un socle qui va aider  à la démocratisation de nouvelles technologies, comme les jumeaux numériques ou la maintenance prédictive. « Nous souhaitons aller vers l’opérateur 4.0 en le connectant à la bonne information, au bon moment, au travers de technologies comme la réalité virtuelle, la réalité augmentée ou l’interaction vocale avec les solutions numériques. Nous voulons également nous servir de la puissance de la data pour améliorer les processus, détecter les bonnes pratiques et prévenir les aléas. C’est un changement de paradigme qui nous permettra de basculer de la réaction à l’anticipation. »

 

 

The post Airbus place SAP Manufacturing Execution au cœur de sa production appeared first on SAP France News.

Source de l’article sur sap.com

Rail Logistics Europe et VISEO ont mis en œuvre la méthodologie SAP Activate et l’approche Fit-to-Standard afin de créer un core model qui a servi de socle pour déployer SAP S/4HANA Public Cloud sur plus de 50 filiales. Le tout en seulement deux ans et demi.

Au sein du Groupe SNCF, Rail Logistics Europe élabore des solutions de transport de marchandises multimodales et sur-mesure, à travers toute l’Europe.

Rail Logistics Europe, c’est l’expertise de 60 filiales en Europe : commissionnaires de transport, transporteurs ferroviaires, opérateurs de transport combiné et d’autoroutes ferroviaires. Au total, 3 500 personnes pour un chiffre d’affaires de plus de 952 millions d’euros en 2019, dont plus de la moitié est réalisée à l’étranger.

Une volonté d’avoir son propre SI

Afin d’accélérer l’intégration de ces différentes entités au sein du groupe, Rail Logistics Europe a d’abord opté pour différents SI financiers mis à disposition par Geodis. Des outils efficaces, mais vieillissants et imparfaitement alignés avec ses besoins. Certaines filiales de Rail Logistics Europe disposaient par ailleurs de leurs propres SI financiers. À cette hétérogénéité des SI, il fallait également compter avec une hétérogénéité des règles de gestion.

Rail Logistics Europe souhaitait pouvoir disposer de son propre SI. Une solution fiable, performante et harmonisée, qui s’appuierait sur un référentiel commun de règles de gestion. « Pour créer de la valeur et apporter les gains de productivité attendus, Il nous est apparu nécessaire d’apporter une dose d’uniformisation et de rationalisation dans notre paysage applicatif… et d’aller vite », explique Nicolas Bismuth, Responsable MOA Finance chez Rail Logistics Europe. L’entreprise souhaitait en effet déployer le nouvel ERP sur l’ensemble de ses filiales, sur les domaines Finance, Achats et Ventes, dans un délai de seulement deux années et demie.

Après une phase de cadrage, consistant à recueillir les besoins de chaque filiale, Rail Logistics Europe a lancé le projet Opera et interrogé les principaux éditeurs d’ERP en mode SaaS. C’est le binôme SAP / VISEO qui a été retenu, avec la solution SAP S/4HANA Public Cloud. Cette dernière répondant en effet aux critères de périmètre fonctionnel et d’ergonomie exprimés, tout en libérant Rail Logistics Europe de la gestion d’une infrastructure via son approche SaaS. Mais plus que cela, c’est la méthodologie SAP Activate qui a été l’une des raisons clés de ce choix. « Au travers de la méthodologie SAP Activate, nous avions la promesse d’atteindre notre objectif de déploiement rapide de la solution sur le périmètre géographique et fonctionnel fixé », explique Nicolas Bismuth.

Pour sa mise en place sur leurs différents sites, Rail Logistics Europe s’est tourné vers VISEO, et ce pour plusieurs raisons :

  • Sa connaissance de la solution SAP S/4HANA Public Cloud et de la méthodologie SAP Activate
  • L’engagement de ses équipes pour atteindre les objectifs ambitieux de déploiement
  • Ses équipes orientées Cloud incitant à adopter les meilleures pratiques de la solution
  • Sa relation avec l’éditeur SAP, indispensable pour ce type de projet

Coller au plus près des standards

Pour assurer la réussite du projet Opera, Rail Logistics Europe et VISEO ont dû appliquer plusieurs principes clés :

  • Travailler en équipe : avec 50 filiales très indépendantes et autonomes, il est essentiel de réunir consultants, décideurs et utilisateurs clés au sein d’une même équipe. Le tout en faisant preuve de flexibilité, afin de s’adapter aux différentes spécificités de ces filiales.
  • Travailler en collaboration avec SAP : avec le cloud, il faut savoir interagir avec l’éditeur, qui met à la disposition les environnements de développement et de production. Mais aussi un CSM (Customer Success Manager), chargé de suivre le bon déroulement du projet.
  • Respecter la méthodologie Activate : pour réussir le projet, il est indispensable de respecter la méthode fournie, qui permet d’apporter des garanties en termes de rapidité de déploiement, de qualité des délivrables et de revue des différents jalons par le CSM.
  • Coller aux standards : en mode cloud, il est important de s’appuyer sur les bonnes pratiques et d’adhérer aux standards. Pour chaque processus, Rail Logistics Europe s’est appuyé sur le scope item SAP S/4HANA Public Cloud le plus adapté.

Un core model déployé tambour battant

L’enjeu principal de Rail Logistics Europe et de VISEO a été de définir le core model du projet Opera. Entre juin et septembre 2018, une trentaine d’ateliers ont été menés, afin de définir des règles de gestion communes sur le périmètre fonctionnel comptabilité, contrôle de gestion, achats et facturation client.

En seulement six mois, avec l’aide de la méthodologie SAP Activate et de l’approche Fit-to-Standard, ce core model est devenu réalité et a été déployé sur le site pilote de Captrain France. « Cela a été vraiment un acte fondateur du projet, explique Nicolas Bismuth. Nous avons démontré notre capacité à construire un core model et à le déployer au sein d’une filiale sur l’ensemble du périmètre fonctionnel cible en seulement 6 mois. »

Une fois le core model validé, le déploiement de SAP S/4HANA Public Cloud a été lancé site par site. Aujourd’hui, 58 entités légales sont déployées sur Opera et de nouveaux déploiements au sein des filiales Captrain Polska et Fret SNCF sont prévus en 2021. A fin 2021, environ 580 collaborateurs utiliseront l’outil Opera.

« La promesse initiale, qui était d’être capable de déployer rapidement, s’est révélée juste. Le planning que nous suivons aujourd’hui est celui qui avait été validé avec le binôme SAP / VISEO au moment du cahier des charges, » confirme Nicolas Bismuth.

Le début d’une longue aventure

Le programme est encore récent, mais le ressenti global des utilisateurs est d’ores et déjà plutôt positif. Reste que Rail Logistics Europe a dû apprendre à s’adapter au monde du cloud. Ne plus recourir systématiquement à des développements spécifiques pour coller aux standards nécessite de revoir chaque processus, mais également d’assurer l’accompagnement au changement des équipes métiers.

Les montées de version trimestrielles de SAP S/4HANA Public Cloud requièrent également des adaptations. Il lui faut en effet évaluer les nouvelles fonctionnalités apportées par chaque nouvelle version et effectuer des tests avant déploiement, afin de repérer d’éventuelles régressions.

Ces mises à jour trimestrielles se traduisent toutefois par toujours plus de valeur apportée aux utilisateurs. Rail Logistics Europe s’est ainsi déjà penché sur les tableaux de bord et le reporting, au travers de l’utilisation de SAP Analytics Cloud Embedded. L’entreprise envisage maintenant d’augmenter le périmètre fonctionnel de son ERP, notamment en évaluant l’utilisation des innovations mises à disposition. Elle s’est même lancée dans l’adoption d’autres solutions SAP en mode Cloud comme Success Factors

The post Rail Logistics Europe (groupe SNCF) rationalise son SI avec SAP S/4HANA Public Cloud et VISEO appeared first on SAP France News.

Source de l’article sur sap.com

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

Une vulnérabilité a été découverte dans Adobe Acrobat et Acrobat Reader. Elle permet à un attaquant de provoquer une exécution de code arbitraire. L’éditeur indique que cette vulnérabilité aurait été exploitée dans des attaques ciblées visant des utilisateurs d’Acrobat Reader sur Windows.

Source de l’article sur CERT-FR

La modélisation des données correspond au processus de création de diagrammes de flux de données. Lors de la création d’une structure de base de données, qu’elle soit nouvelle ou non, le concepteur commence par élaborer un diagramme illustrant la façon dont les données entreront et sortiront de la base de données. Ce diagramme est utilisé pour définir les caractéristiques des formats et structures de données, ainsi que des fonctions de gestion de base de données, afin de répondre efficacement aux exigences des flux de données. Une fois la base de données créée et déployée, le modèle de données servira de documentation expliquant les motifs de création de la base de données ainsi que la manière dont les flux de données ont été conçus.

Le modèle de données résultant de ce processus établit une structure de relations entre les éléments de données dans une base de données et sert de guide d’utilisation des données. Les modèles de données sont un élément fondamental du développement et de l’analyse de logiciels. Ils fournissent une méthode standardisée pour définir et mettre en forme les contenus de base de données de manière cohérente dans les systèmes, ce qui permet à diverses applications de partager les mêmes données.


Pourquoi la modélisation des données est-elle importante ?

Un modèle de données complet et optimisé permet de créer une base de données logique et simplifiée qui élimine la redondance, réduit les besoins en stockage et permet une récupération efficace. Elle dote également tous les systèmes de ce que l’on appelle une « source unique de la vérité », ce qui est essentiel pour assurer des opérations efficaces et garantir une conformité vérifiable aux réglementations et exigences réglementaires. La modélisation des données est une étape clé dans deux fonctions vitales d’une entreprise numérique.

Projets de développement logiciel (nouveaux ou personnalisations) mis en place par le service informatique

Avant de concevoir et de créer un projet logiciel, il doit exister une vision documentée de ce à quoi ressemblera le produit final et de son comportement. Une grande partie de cette vision concerne l’ensemble de règles de gestion qui régissent les fonctionnalités souhaitées. L’autre partie est la description des données : les flux de données (ou le modèle de données) et la conception de la base de données qui les prendra en charge.

La modélisation des données est une trace de cette vision et fournit une feuille de route pour les concepteurs de logiciels. Grâce à la définition et à la documentation complètes des flux de données et de la base de données, ainsi qu’au développement des systèmes conformément à ces spécifications, les systèmes devraient être en mesure de fournir les fonctionnalités attendues requises pour garantir l’exactitude des données (en supposant que les procédures ont été correctement suivies).

Analyses et visualisation (ou Business Intelligence) : un outil de prise de décision clé pour les utilisateurs

Avec l’augmentation des volumes de données et le nombre croissant d’utilisateurs, les entreprises ont besoin de transformer les données brutes en informations exploitables pour prendre des décisions. Sans surprise, la demande en analyse des données a augmenté de façon spectaculaire. La visualisation des données rend les données encore plus accessibles aux utilisateurs en les présentant sous forme graphique.

Les modèles de données actuels transforment les données brutes en informations utiles qui peuvent être transposées dans des visualisations dynamiques. La modélisation des données prépare les données pour l’analyse : nettoyage des données, définition des mesures et des dimensions, amélioration des données par l’établissement de hiérarchies, la définition d’unités et de devises et l’ajout de formules.


Quels sont les types de modélisation des données ?

Les trois types de modèles de données clés sont le modèle relationnel, le modèle dimensionnel et le modèle entité-association. Il en existe d’autres qui ne sont pas communément utilisés, notamment les types hiérarchique, réseau, orienté objet et à plusieurs valeurs. Le type de modèle définit la structure logique, à savoir comment les données sont stockées, organisées et extraites.

  1. Type relationnel : bien qu’« ancien » dans son approche, le modèle de base de données le plus couramment utilisé aujourd’hui est le relationnel, qui stocke les données dans des enregistrements au format fixe et organise les données dans des tables avec des lignes et des colonnes. Le type de modèle de données le plus basique comporte deux éléments : des mesures et des dimensions. Les mesures sont des valeurs numériques, telles que les quantités et le chiffre d’affaires, utilisées dans les calculs mathématiques comme la somme ou la moyenne. Les dimensions peuvent correspondre à des valeurs numériques ou textuelles. Elles ne sont pas utilisées dans les calculs et incluent des descriptions ou des emplacements. Les données brutes sont définies comme une mesure ou une dimension. Autres termes utilisés dans la conception de base de données relationnelle : « relations » (la table comportant des lignes et des colonnes), « attributs » (colonnes), « nuplets » (lignes) et « domaine » (ensemble de valeurs autorisées dans une colonne). Bien qu’il existe d’autres termes et exigences structurelles qui définissent une base de données relationnelle, le facteur essentiel concerne les relations définies dans cette structure. Les éléments de données communs (ou clés) relient les tables et les ensembles de données. Les tables peuvent également être explicitement liées, comme une relation parent/enfant, y compris les relations dites un-à-un (one-to-one), un-à-plusieurs (one-to-many) ou plusieurs-à-plusieurs (many-to-many).
  2. Type dimensionnel : moins rigide et structurée, l’approche dimensionnelle privilégie une structure de données contextuelle davantage liée à l’utilisation professionnelle ou au contexte. Cette structure de base de données est optimisée pour les requêtes en ligne et les outils d’entreposage de données. Les éléments de données critiques, comme une quantité de transaction par exemple, sont appelés « faits » et sont accompagnés d’informations de référence appelées « dimensions », telles que l’ID de produit, le prix unitaire ou la date de la transaction. Une table de faits est une table primaire dans un modèle dimensionnel. La récupération peut être rapide et efficace (avec des données pour un type d’activité spécifique stockées ensemble), mais l’absence de relations peut compliquer l’extraction analytique et l’utilisation des données. Étant donné que la structure des données est liée à la fonction qui produit et utilise les données, la combinaison de données produites par divers systèmes (dans un entrepôt de données, par exemple) peut poser des problèmes.
  3. Modèle entité-association (modèle E-R) : un modèle E-R représente une structure de données métier sous forme graphique contenant d’une part des boîtes de différentes formes pour représenter des activités, des fonctions ou des « entités », et d’autre part des lignes qui représentent des dépendances, des relations ou des « associations ». Le modèle E-R est ensuite utilisé pour créer une base de données relationnelle dans laquelle chaque ligne représente une entité et comporte des zones qui contiennent des attributs. Comme dans toutes les bases de données relationnelles, les éléments de données « clés » sont utilisés pour relier les tables entre elles.

Quels sont les trois niveaux d’abstraction des données ?

Il existe de nombreux types de modèles de données, avec différents types de mises en forme possibles. La communauté du traitement des données identifie trois types de modélisation permettant de représenter les niveaux de pensée au fur et à mesure que les modèles sont développés.

Modèle de données conceptuel

Ce modèle constitue une « vue d’ensemble » et représente la structure globale et le contenu, mais pas le détail du plan de données. Il s’agit du point de départ standard de la modélisation des données qui permet d’identifier les différents ensembles de données et flux de données dans l’organisation. Le modèle conceptuel dessine les grandes lignes pour le développement des modèles logiques et physiques, et constitue une part importante de la documentation relative à l’architecture des données.

Modèle de données logique

Le deuxième niveau de détail est le modèle de données logique. Il est étroitement lié à la définition générale du « modèle de données » en ce sens qu’il décrit le flux de données et le contenu de la base de données. Le modèle logique ajoute des détails à la structure globale du modèle conceptuel, mais n’inclut pas de spécifications pour la base de données en elle-même, car le modèle peut être appliqué à diverses technologies et divers produits de base de données. (Notez qu’il peut ne pas exister de modèle conceptuel si le projet est lié à une application unique ou à un autre système limité).

Modèle de données physique

Le modèle de base de données physique décrit comment le modèle logique sera réalisé. Il doit contenir suffisamment de détails pour permettre aux techniciens de créer la structure de base de données dans les matériels et les logiciels pour prendre en charge les applications qui l’utiliseront. Il va sans dire que le modèle physique est spécifique à un système logiciel de base de données en particulier. Il peut exister plusieurs modèles physiques dérivés d’un seul et même modèle logique si plusieurs systèmes de base de données seront utilisés.

Processus et techniques de modélisation des données

La modélisation des données est par essence un processus descendant qui débute par l’élaboration du modèle conceptuel pour établir la vision globale, puis se poursuit avec le modèle logique pour s’achever par la conception détaillée contenue dans le modèle physique.

L’élaboration du modèle conceptuel consiste principalement à mettre des idées sous la forme d’un graphique qui ressemble au diagramme des flux de données conçu par un développeur.

Les outils de modélisation des données modernes peuvent vous aider à définir et à créer vos modèles de données logiques et physiques et vos bases de données. Voici quelques techniques et étapes classiques de modélisation des données :

  • Déterminez les entités et créez un diagramme entité-association. Les entités sont considérées comme des « éléments de données qui intéressent votre entreprise ». Par exemple, « client » serait une entité. « Vente » en serait une autre. Dans un diagramme entité-association, vous documentez la manière dont ces différentes entités sont liées les unes aux autres dans votre entreprise, et les connexions qui existent entre elles.
  • Définissez vos faits, mesures et dimensions. Un fait est la partie de vos données qui indique une occurrence ou une transaction spécifique, comme la vente d’un produit. Vos mesures sont quantitatives, comme la quantité, le chiffre d’affaires, les coûts, etc. Vos dimensions sont des mesures qualitatives, telles que les descriptions, les lieux et les dates.
  • Créez un lien de vue de données à l’aide d’un outil graphique ou via des requêtes SQL. Si vous ne maîtrisez pas SQL, l’option la plus intuitive sera l’outil graphique : il vous permet de faire glisser des éléments dans votre modèle et de créer visuellement vos connexions. Lors de la création d’une vue, vous avez la possibilité de combiner des tables et d’autres vues dans une sortie unique. Lorsque vous sélectionnez une source dans la vue graphique et que vous la faites glisser dans une source déjà associée à la sortie, vous pouvez soit la joindre, soit créer une union de ces tables.

Les solutions analytiques modernes peuvent également vous aider à sélectionner, filtrer et connecter des sources de données à l’aide d’un affichage graphique de type glisser-déposer. Des outils avancés sont disponibles pour les experts en données qui travaillent généralement au sein des équipes informatiques. Toutefois, les utilisateurs peuvent également créer leurs propres présentations en créant visuellement un modèle de données et en organisant des tables, des graphiques, des cartes et d’autres objets pour élaborer une présentation basée sur des analyses de données.


Exemples de modélisation des données

Pour toute application, qu’elle soit professionnelle, de divertissement, personnelle ou autre, la modélisation des données est une étape préalable nécessaire à la conception du système et à la définition de l’infrastructure nécessaire à sa mise en œuvre. Cela concerne tout type de système transactionnel, de suite d’applications de traitement des données, ou tout autre système qui collecte, crée ou utilise des données.

La modélisation des données est essentielle pour l’entreposage de données car un entrepôt de données est un référentiel de données provenant de plusieurs sources, qui contiennent probablement des données similaires ou liées, mais disponibles sous des formats différents. Il est nécessaire de mapper en premier lieu les formats et la structure de l’entrepôt afin de déterminer comment manipuler chaque ensemble de données entrant pour répondre aux besoins de la conception de l’entrepôt, afin que les données soient utiles pour l’analyse et l’exploration de données. Le modèle de données est alors un catalyseur important pour les outils analytiques, les systèmes d’information pour dirigeants (tableaux de bord), l’exploration de données et l’intégration à tous les systèmes et applications de données.

Dans les premières étapes de conception de n’importe quel système, la modélisation des données est une condition préalable essentielle dont dépendent toutes les autres étapes pour établir la base sur laquelle reposent tous les programmes, fonctions et outils. Le modèle de données est comparable à un langage commun permettant aux systèmes de communiquer selon leur compréhension et leur acceptation des données, comme décrit dans le modèle. Dans le monde actuel de Big Datad’apprentissage automatiqued’intelligence artificiellede connectivité Cloudd’IdO et de systèmes distribués, dont l’informatique en périphérie, la modélisation des données s’avère plus importante que jamais.


Évolution de la modélisation des données

De façon très concrète, la modélisation des données est apparue en même temps que le traitement des données, le stockage de données et la programmation informatique, bien que le terme lui-même n’ait probablement été utilisé qu’au moment où les systèmes de gestion de base de données ont commencé à évoluer dans les années 1960. Il n’y a rien de nouveau ou d’innovant dans le concept de planification et d’architecture d’une nouvelle structure. La modélisation des données elle-même est devenue plus structurée et formalisée au fur et à mesure que davantage de données, de bases de données et de variétés de données sont apparues.

Aujourd’hui, la modélisation des données est plus essentielle que jamais, étant donné que les techniciens se retrouvent face à de nouvelles sources de données (capteurs IdO, appareils de localisation, flux de clics, réseaux sociaux) et à une montée des données non structurées (texte, audio, vidéo, sorties de capteurs brutes), à des volumes et à une vitesse qui dépassent les capacités des systèmes traditionnels. Il existe désormais une demande constante de nouveaux systèmes, de nouvelles structures et techniques innovantes de bases de données, et de nouveaux modèles de données pour rassembler ces nouveaux efforts de développement.


Quelle est la prochaine étape de la modélisation des données ?

La connectivité des informations et les grandes quantités de données provenant de nombreuses sources disparates (capteurs, voix, vidéo, emails, etc.) étendent le champ d’application des projets de modélisation pour les professionnels de l’informatique. Internet est, bien sûr, l’un des moteurs de cette évolution. Le Cloud est en grand partie la solution car il s’agit de la seule infrastructure informatique suffisamment grande, évolutive et agile pour répondre aux exigences actuelles et futures dans un monde hyperconnecté.

Les options de conception de base de données évoluent également. Il y a dix ans, la structure dominante de la base de données était relationnelle, orientée lignes et utilisait la technologie traditionnelle de l’espace disque. Les données du grand livre ou de la gestion des stocks d’un système ERP standard étaient stockées dans des dizaines de tables différentes qui doivent être mises à jour et modélisées. Aujourd’hui, les solutions ERP modernes stockent des données actives dans la mémoire à l’aide d’une conception en colonnes, ce qui réduit considérablement le nombre de tables et accroît la vitesse et l’efficacité.

Pour les professionnels du secteur, les nouveaux outils en libre-service disponibles aujourd’hui continueront à s’améliorer. De nouveaux outils seront également introduits pour rendre la modélisation et la visualisation des données encore plus simples et plus collaboratives.


Synthèse

Un modèle de données bien pensé et complet est la clé du développement d’une base de données véritablement fonctionnelle, utile, sécurisée et exacte. Commencez par le modèle conceptuel pour présenter tous les composants et fonctions du modèle de données. Affinez ensuite ces plans dans un modèle de données logique qui décrit les flux de données et définit clairement les données nécessaires et la manière dont elles seront acquises, traitées, stockées et distribuées. Le modèle de données logique donne lieu au modèle de données physique spécifique à un produit de base de données et constitue le document de conception détaillé qui guide la création de la base de données et du logiciel d’application.

Une bonne modélisation des données et une bonne conception de base de données sont essentielles au développement de bases de données et de systèmes d’application fonctionnels, fiables et sécurisés, qui fonctionnent bien avec les entrepôts de données et les outils analytiques, et facilitent l’échange de données entre les partenaires et entre les suites d’application. Des modèles de données bien pensés aident à garantir l’intégrité des données, ce qui rend les données de votre entreprise encore plus précieuses et fiables.


Découvrez les outils modernes de modélisation des données de SAP Data Warehouse Cloud

En savoir plus


 

The post Qu’est-ce que la modélisation des données ? appeared first on SAP France News.

Source de l’article sur sap.com