L’ergonomie utilisateur avancée de SAP S/4HANA a convaincu Artelia de moderniser son SI SAP existant. Un projet complexe, mené à bien en moins de huit mois, avec l’aide de PASàPAS et l’engagement sans faille des équipes d’Artelia.
Artelia est un groupe d’ingénierie pluridisciplinaire français (industrie, bâtiment, mobilité, eau, énergie) qui a pour particularité d’être détenu à 100% par ses managers et salariés. En croissance rapide, le groupe approche aujourd’hui les 7000 collaborateurs et fait partie du top 15 européen des sociétés d’ingénierie de la construction.
En 2021, Artelia a enregistré un chiffre d’affaires de 745 millions d’euros, dont 85% réalisés en Europe. L’entreprise est implantée dans plus de 40 pays, avec une forte présence en Europe, mais également en Asie et en Afrique. Elle ambitionne de passer le cap du milliard d’euros de chiffre d’affaires annuel en 2025.
Un fort besoin de modernisation
« En 2018, nous avons dû faire face à l’obligation de déposer dans Chorus Pro les factures destinées à nos clients du secteur public, explique Angéline Carlassare, Responsable SI finance chez Artelia. En parallèle, nous voulions aller plus loin sur le sujet de la dématérialisation. » L’interface utilisateur de SAP ECC n’était pas adaptée à un public d’assistantes et assistants. La création d’applications simples d’usage, exploitant la technologie SAP Fiori, a permis alors de répondre au besoin d’Artelia.
Plus tard, d’autres demandes ont émergé, cette fois-ci sur la partie achat. « Nous nous sommes alors dit que nous aurions tout intérêt à basculer sur SAP S/4HANA, avant d’adopter le module achat, afin de profiter de sa nouvelle ergonomie. »
Dans la phase finale de son appel d’offres, Artelia a commandé auprès des deux candidats sélectionnés une étude de cadrage. La société voulait ainsi donner l’opportunité à chacun des intégrateurs de partager leur vision du projet. C’est PASàPAS, l’un des deux partenaires SAP récurrents d’Artelia, qui a été retenu.
Un projet solidement cadré
Le périmètre de l’ERP d’Artelia est somme toute assez classique : finance, contrôle de gestion, gestion des projets et administration des ventes. Mais il est complexifié par des applications périphériques, dont de la BI et un CRM. Le tout dans un contexte multi-ERP, qui est le résultat d’une forte croissance du groupe, organique comme externe.
« Pour sécuriser le projet, nous avions demandé à SAP une formation sur les écarts existants entre SAP ECC et SAP S/4HANA, explique Nicolas Panayoti, Responsable de la transformation digitale finance chez Artelia. Nous avons détecté une cinquantaine de changements s’appliquant à notre SI. Les écarts majeurs – une dizaine – ont été intégrés au projet proactivement afin de diminuer les risques lors de la mise en route de notre nouveau SI. »
« Un projet de migration reste coûteux, poursuit Angéline Carlassare. Il faut donc être capable d’amener rapidement de la valeur. Toutefois, afin de sécuriser notre projet, nous avons décidé d’opter pour une approche en deux temps : une phase de conversion, comprenant un minimum de modifications majeures, suivie d’une étape de réflexion autour de ce que SAP S/4HANA pourra nous proposer par la suite. »
Une approche en phase avec les contraintes pesant sur l’agenda d’Artelia. Lancé en mai 2021, le projet devait en effet impérativement être terminé en fin d’année, afin que le nouvel ERP soit en production lors de la fusion de trois sociétés du groupe, programmée en janvier 2022.
L’ERP SAP S/4HANA est aujourd’hui en fonction chez Artelia. Avec deux types de retours :
Les équipes finance n’ont pas vu de réel changement, les processus qu’ils utilisent n’ayant pas été profondément modifiés lors de la migration. Quelques régressions ont pu être constatées, par exemple au sujet des business partners. La configuration d’une tuile standard proposée par SAP a permis toutefois de limiter l’impact de ce problème, en proposant une expérience utilisateur satisfaisante pour des ADV.
Pendant le projet, Artelia s’est trouvé confronté à quelques difficultés, certains choix faits pouvant avoir un impact important pour l’organisation. « Lorsque nous avons soulevé ce problème, PASàPAS a adapté son dispositif, en mettant en place des réunions hebdomadaires nous permettant de faire le point sur les choix faits, l’impact de ces choix et les décisions qu’il nous fallait prendre. Cette initiative a été clé dans la réussite du projet, » explique Angéline Carlassare. « Nous avons mis du temps à nous caler avec le partenaire, confirme Nicolas Panayoti. Mais, finalement, le projet s’est bien déroulé, car toutes les équipes étaient impliquées, celles d’Artelia, comme celles de PASàPAS. »
L’année 2022 est celle de la stabilisation de l’ERP et de la recherche de quick wins. Artelia va ainsi mener plusieurs sprints visant à intégrer des évolutions fonctionnelles, notamment au travers de la mise en place de cockpits Fiori.
L’année 2023 sera pour sa part consacrée à l’activation du module achats. Mais aussi à la montée de version de l’ERP. « Le rythme des mises à jour de l’ERP SAP S/4HANA est plus rapide que précédemment, avec un support limité à 5 ans, rappelle Angéline Carlassare. Or, nous avons opté pour la version 1909 de SAP S/4HANA. Nous avons donc programmé une montée de version en 2023, en prévision de la fin de support de SAP S/4HANA 1909 en 2024. »
https://ankaa-pmo.com/wp-content/uploads/2023/12/artelia-modernise-son-systeme-dinformation-avec-sap-s-4hana-et-la-technologie-sap-fiori.jpg7201280Service comm.https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.pngService comm.2023-12-05 14:28:532023-12-05 14:28:53Artelia modernise son système d’information avec SAP S/4HANA et la technologie SAP Fiori
Pour accompagner sa transformation en acteur d’envergure mondiale, Bridor avait besoin de se doter d’un ERP moderne et de refondre ses processus métiers. Un projet de grande envergure, ayant mené à l’adoption de SAP S/4HANA et de SAP IBP.
Groupe Le Duff est un acteur français, leader de la restauration et de la boulangerie-viennoiserie. Il est présent dans 100 pays, au travers de ses 1250 restaurants et boulangeries et ses 15 sites de production. Groupe Le Duff emploie 30 000 collaborateurs, pour un chiffre d’affaires annuel dépassant les 2 milliards d’euros.
« Depuis ses débuts en 1976, le chiffre d’affaires du Groupe Le Duff a doublé tous les 5 ans, explique Ronan Le Janne, Responsable des applications de gestion (SAP, BI, SIRH…). La principale filiale du groupe est Bridor, un industriel spécialisé dans les produits de boulangerie surgelés premium, qui compte pour 45% du chiffre d’affaires du groupe. Bridor devient rapidement un acteur d’envergure mondiale, pour lequel il est stratégique de disposer d’un système d’information moderne proposant des processus capables d’accompagner cette forte croissance, organique comme externe. »
Groupe Le Duff utilise des solutions SAP depuis 2002. L’ERP SAP ECC de Bridor, souffrait toutefois de son manque de modernité. « Bridor avait accumulé un certain retard, la dernière montée de version technique SAP datait de 2012. Il devenait primordial de traiter cette dette technique, qui pouvait poser problème, notamment lors de l’adaptation du SI aux règles fiscales des pays dans lesquels nous ouvrons des filiales ».
Un projet ambitieux
La direction a fait le choix de refondre le SI de Bridor, en migrant vers l’ERP SAP S/4HANA, tout en opérant la refonte de ses processus métiers. La société a donc dû assurer un double chantier : la conversion technique vers un nouvel ERP et l’audit de ses processus clés.
Elle décide pour cela de se faire accompagner par VISEO. « Nous avions déjà identifié VISEO comme candidat potentiel, car c’est un spécialiste à la fois du retail et de l’industrie, les deux activités du Groupe Le Duff, poursuit Ronan Le Janne. VISEO a également une bonne connaissance de SAP S/4HANA dans un contexte agroalimentaire. Ses équipes sont donc expérimentées et capables de nous conseiller avec pertinence. Autres points positifs, une méthodologie compréhensible et efficace, ainsi qu’une bonne adhérence avec la culture et les valeurs du Groupe Le Duff ».
L’ERP de Bridor couvre un périmètre étendu : finance, achats, ventes, production, stocks… « Nos usines fonctionnent en 24/7 et s’appuient toutes sur notre ERP SAP, qui est le cœur du réacteur de nos processus industriels et supply chain. Un système qui fonctionne donc lui aussi en 24/7 et qu’il est difficile d’arrêter. C’est pourquoi nous avons voulu faire entrer un maximum de transformation dans ce projet ».
Une migration hybride
À mi-chemin entre Brownfield et Greenfield, la migration hybride, dite Bluefield, permet d’opérer une migration technique vers SAP S/4HANA, sans devoir subir le poids du legacy, les données nécessaires étant réintégrées au terme des développements. « La migration hybride nous a permis de nous réapproprier notre système, de le simplifier, en redéfinissant précisément son périmètre et ses fonctionnalités », confirme Ronan Le Janne.
L’audit des processus clés et les ateliers de cadrage se sont traduits par plus d’une centaine d’évolutions métiers, dont :
la mise en place du P&L Bridor et Groupe dans SAP ;
La mise en œuvre des processus de prévisions, planification et S&OP dans SAP IBP.
Lancé en avril 2021 par la phase de cadrage, le projet s’est poursuivi jusqu’en fin d’année 2022, pour une mise en route de SAP S/4HANA le premier janvier 2023.
« Compte tenu de la complexité du projet, cela s’est très bien passé. Une organisation stricte, une implication sans faille des métiers et une forte réactivité de la part de VISEO nous ont permis de tenir le planning que nous avions défini en 2020. Dès le 2 janvier 2023, de gros volumes d’opérations ont été enregistrés dans notre ERP SAP S/4HANA. Depuis, nous n’avons pas constaté de perte de productivité et le nombre de tickets d’incidents reste maîtrisé. C’est un démarrage bien maîtrisé et une belle réussite pour le Groupe Le Duff. »
Quelques travaux sur la partie finance ont été effectués sur le premier trimestre 2023 et un accompagnement au changement sera nécessaire pour acculturer les équipes à certaines nouvelles fonctionnalités et certains nouveaux processus. Mais le projet arrive à son terme, dans les délais et pour le budget prévu. « Un projet réussi, pour un rapport qualité / prix imbattable », conclut Ronan Le Janne. Prochaine étape, l’adoption de SAP S/4HANA Retail.
https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.png00Service comm.https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.pngService comm.2023-09-04 11:48:432023-09-04 11:48:43Bridor (Groupe Le Duff) soutient son développement avec l’ERP intelligent SAP S/4HANA
This article will demonstrate the heterogeneous systems integration and building of the BI system and mainly talk about the DELTA load issues and how to overcome them. How can we compare the source table and target table when we cannot find a proper way to identify the changes in the source table using the SSIS ETL Tool?
Systems Used
SAP S/4HANA is an Enterprise Resource Planning (ERP) software package meant to cover all day-to-day processes of an enterprise, e.g., order-to-cash, procure-to-pay, finance & controlling request-to-service, and core capabilities. SAP HANA is a column-oriented, in-memory relational database that combines OLAP and OLTP operations into a single system.
SAP Landscape Transformation (SLT) Replication is a trigger-based data replication method in the HANA system. It is a perfect solution for replicating real-time data or schedule-based replication from SAP and non-SAP sources.
Azure SQL Database is a fully managed platform as a service (PaaS) database engine that handles most of the management functions offered by the database, including backups, patching, upgrading, and monitoring, with minimal user involvement.
SQL Server Integration Services (SSIS) is a platform for building enterprise-level data integration and transformation solutions. SSIS is used to integrate and establish the pipeline for ETL and solve complex business problems by copying or downloading files, loading data warehouses, cleansing, and mining data.
Power BI is an interactive data visualization software developed by Microsoft with a primary focus on business intelligence.
Business Requirement
Let us first talk about the business requirements. We have more than 20 different Point-of-Sale (POS) data from other online retailers like Target, Walmart, Amazon, Macy’s, Kohl’s, JC Penney, etc. Apart from this, the primary business transactions will happen in SAP S/4HANA, and business users will require the BI reports for analysis purposes.
https://ankaa-pmo.com/wp-content/uploads/2022/11/sap-s-4hana-microsoft-sql-integration-and-hard-deletion-handling.jpg375600Service comm.https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.pngService comm.2022-11-08 13:53:122022-11-08 13:53:12SAP S/4HANA, Microsoft SQL Integration and Hard Deletion Handling
Après avoir adopté l’ERP SAP S/4HANA, METEX NØØVISTAGO a souhaité améliorer son processus d’élaboration budgétaire. Une tâche confiée à SAP Analytics Cloud Planning, déployé par le Groupe KPC.
METEX NØØVISTAGO est un acteur industriel à la pointe de la bio-industrie.L’entreprise produit des ingrédients fonctionnels (principalement des acides aminées à ce jour) par fermentation pour le marché de la nutrition animale et bientôt de la cosmétique : 1 usine, 100KT d’acide aminées par an, 200M€ de CA annuel, et 350 salariés.
En juin 2020, METEX NØØVISTAGO a déployé un nouveau système d’information en mode greenfield, comprenant l’ERP intelligent SAP S/4HANA, un data warehouse SAP BW/4HANA et l’outil d’analyse de données SAP Analytics Cloud. « Un changement de taille pour METEX NØØVISTAGO,qui avait travaillé pendant 35 ans sur IBM AS/400 », explique Paul Stoffaes, DSI de l’entreprise.
Reste un processus qui n’avait pas été refondu : la planification budgétaire. « Le processus de forecast était réalisé sur Excel, ce qui était long, laborieux et source de nombreuses erreurs. Le contrôle de gestion passait plus de temps à consolider les données qu’à les analyser. Quant au processus d’élaboration budgétaire, il était encore plus fastidieux ».
METEX NØØVISTAGO a donc décidé de mettre en place une solution capable de livrer des prévisions au mois, à l’année et sur plusieurs années, avec une agilité permettant l’intégration aisée de nouveaux produits ou de nouveaux processus. L’objectif est de libérer du temps au contrôle de gestion, afin qu’il puisse se focaliser sur son cœur de métier, l’analyse et le pilotage.
SAP Analytics Cloud Planning déployé sur l’élaboration budgétaire
La société a confié la modélisation de son processus à l’un des modules de SAP Analytics Cloud, le module de Planning. « L’utilisation de SAP Analytics Cloud Planning permet de faciliter l’intégration avec l’ERP SAP S/4HANA, constate Paul Stoffaes. Il y a également une certaine logique à l’utiliser, car nos collaborateurs connaissent déjà SAP Analytics Cloud dans le cadre de la Business Intelligence. »
Le déploiement de la brique Planning de SAP Analytics Cloud a été confié à KPC : « Ils ont bien compris nos enjeux et ont su proposer un déroulé de projet et une méthodologie adaptés, ainsi qu’un chiffrage lisible. Leur capacité à s’engager au forfait sur un planning serré a également été une des raisons du choix de KPC. » METEX NØØVISTAGO avait en effet fixé comme contrainte une réalisation du projet dans un délai restreint de 5 mois.
Le cœur fonctionnel de la solution mise en place est un P&L présenté par produit, accompagné de plusieurs modèles de simulation. Chaque équipe dispose de son propre accès à la solution, afin d’y faire remonter ses données et prévisions : commerciaux, production, achats, logistique… Les informations sont synchronisées chaque jour – dans les deux sens – entre les référentiels SAP S/4HANA, SAP BW/4HANA et SAP Analytics Cloud, au travers de SAP Data Hub.
Voici le détail du processus mis en place :
L’équipe de vente fait remonter ses informations : volumes, prix, commissions…
L’équipe en charge des achats définit les prix moyens pondérés.
L’équipe de production travaille en parallèle sur la définition des nomenclatures.
Le contrôle de gestion pilote l’ensemble du processus, en intervenant lorsque nécessaire.
Un projet réussi, qui renforce l’adoption de SAP Analytics Cloud
« De notre point de vue, le projet est une réussite, résume Paul Stoffaes. Il a été mené à bien dans les délais, avec un budget maîtrisé. KPC a su faire preuve d’une solide expertise fonctionnelle et technique. Nous avions séparé le projet sous forme de lots, permettant de dispatcher les livrables tout au long du développement, ce qui s’est avéré très confortable. »
Quels bénéfices a identifié METEX NØØVISTAGO?
Des gains de productivité, avec une réduction de la durée du processus et une plus grande autonomie des parties prenantes.
Des gains en fiabilité, les données étant extraites puis remontées directement depuis et vers l’ERP SAP S/4HANA.
Des gains de flexibilité : « Auparavant, évaluer chacune des hypothèses pouvait tourner rapidement au cauchemar. Aujourd’hui, nous sommes beaucoup plus sereins. »
Le tout avec comme résultat global une amélioration des prévisions. Mais aussi un bénéfice inattendu : un intérêt renouvelé des collaborateurs pour SAP Analytics Cloud. « L’utilisation de SAP Analytics Cloud Planning a poussé certains utilisateurs à se pencher sur SAP Analytics Cloud BI », confirme Paul Stoffaes. La DSI s’attendait à une adoption rapide de SAP Analytics Cloud Planning par les utilisateurs de SAP Analytics Cloud BI. La fertilisation a finalement aussi été constatée dans l’autre sens !
https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.png00Service comm.https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.pngService comm.2022-01-17 11:21:022022-01-17 11:21:02L’industriel METEX NØØVISTAGO s’appuie sur SAP Analytics Cloud Planning pour son élaboration budgétaire
La définition la plus simple de l’analytique augmentée ? C’est une analytique qui est « améliorée » par des technologies d’intelligence artificielle (IA), notamment par le machine learning et le traitement du langage naturel (NLP).
Le machine learning automatise les processus analytiques complexes, comme la préparation des données et la génération d’informations. Le traitement par le langage naturel permet à tout utilisateur, même non formé, de poser des questions sur ses données et d’obtenir des réponses de manière simple sous forme de phrases.
Le terme « Augmented Analytics » a été inventé par Gartner en 2017 et est désormais largement considéré comme l’avenir de la business intelligence (BI) et de l’analyse de données – y compris l’analyse prédictive.
Pourquoi l’analytique augmentée est-elle importante ?
Exploiter les possibilités offertes par le Big Data
Les données représentent la plus grande opportunité de l’économie moderne. Grâce à elles, les entreprises peuvent savoir quoi produire et quand, à qui s’adresser, comment évoluer, et bien plus encore. Mais le volume de données est aujourd’hui trop important pour que les collaborateurs puissent les interpréter seuls – ou sans parti pris – et l’exigence de réponses immédiates est tout simplement impossible à satisfaire. Des technologies comme l’IA et l’apprentissage automatique sont nécessaires pour découvrir des informations significatives dans un océan de Big Data. C’est l’une des raisons pour lesquelles les analyses augmentées sont si importantes : elles combinent la datascience et l’intelligence artificielle pour aider les entreprises à analyser des ensembles de données massifs en temps réel.
Réduire la dépendance à l’égard des data scientists
Le processus d’analyse est une série d’étapes manuelles et chronophages, si compliquées qu’en général seuls les data scientists peuvent les réaliser. Ces analystes professionnels doivent :
Collecter des données à partir de sources multiples
Les préparer pour l’analyse
Effectuer l’analyse
Trouver des insights utiles
Visualiser les résultats
Partager les résultats d’une manière convaincante
Créer un plan d’action
Le problème, c’est qu’il y a une grande pénurie de data scientists dans le monde – et les embaucher coûte cher. Si l’analytique augmentée ne remplace pas ces professionnels, elle peut réduire votre dépendance à leur égard en automatisant des processus tels que la collecte, la préparation, le nettoyage et l’analyse des données.
En plus de libérer le temps des data scientists pour des tâches plus importantes, comme l’interprétation des résultats, l’analytique augmentée peut améliorer la valeur que ces analystes apportent à votre organisation. Les analyses optimisées par l’IA et l’apprentissage automatique les aident à établir des liens qu’ils auraient autrement manqués – et à trouver des informations pertinentes en moins de temps. Ces technologies peuvent également aider des collaborateurs qui occupent d’autres fonctions analytiques – des analystes commerciaux aux analystes métier – en améliorant leurs connaissances et en les aidant à faire le travail qui était auparavant réservé aux data scientists experts.
D’ici 2025, la rareté des data scientists ne sera plus un frein à l’adoption de la science des données et du machine learning dans les organisations.
Démocratiser l’analytique pour les utilisateurs non formés
Une autre raison pour laquelle l’analytique augmentée est si importante est qu’elle permet aux « explorateurs de données » non formés d’entrer en jeu. En automatisant les processus analytiques complexes et en permettant aux utilisateurs d’interroger les données simplement en posant des questions, les collaborateurs qui n’ont pas de compétences en datascience peuvent quand même tirer parti des analyses avancées. L’apprentissage automatique peut guider ces explorateurs de données en leur proposant des questions/réponses pré remplies – et en leur suggérant où creuser davantage.
Avec l’analytique augmentée, les réponses aux requêtes se présentent sous la forme de visuels prêts à l’emploi, comme des diagrammes, des graphiques et des cartes, de sorte que les utilisateurs n’ont pas à les créer eux-mêmes. Ces visualisations peuvent être analysées à l’aide de commandes simples, rassemblées dans des récits de données et facilement partagées avec d’autres équipes et la direction.
L’évolution de l’analytique
L’Analytique et la Business Intelligence ont beaucoup évolué ces dernières années, passant d’outils sophistiqués destinés aux professionnels des données et de l’analyse à des outils optimisés par le machine learning que tout le monde peut utiliser.
1. Analytique traditionnelle
Impulsée par l’IT
Autonomie de l’utilisateur limitée
Des outils sophistiqués pour les professionnels des données et de l’analyse
Se focalise sur le reporting à grande échelle
2. Analytique en libre-service
Impulsée par les métiers
Plus d’autonomie pour les utilisateurs
Interface conviviale
Se focalise sur la découverte par les utilisateurs
3. Analytique augmentée
Impulsée par l’IA et le machine learning
Une véritable autonomie des utilisateurs
Outils d’IA et processus guidés
Se focalise sur des informations rapides, profondes et précédemment cachées.
Avantages de l’analytique augmentée
L’analytique augmentée offre de nombreux avantages similaires à ceux de la business intelligence, comme l’amélioration du reporting et de la prise de décision, mais elle offre également un niveau de rapidité et de précision impossible à atteindre sans intelligence artificielle et apprentissage automatique. Voici quelques avantages spécifiques à l’analytique augmentée :
Préparation plus rapide des données : Les analystes passent environ 80 % de leur temps à préparer les données pour l’analyse. Ils exportent de grands ensembles de données et les combinent, les nettoient et les structurent avant que l’analyse ne puisse commencer. L’apprentissage automatique de l’analytique augmentée automatise ce processus, libérant les analystes pour des activités plus utiles et réduisant les erreurs par la même occasion.
Analyse automatisée : Les modèles d’apprentissage automatique peuvent automatiser des analyses complexes qui, autrement, prendraient des semaines aux data scientists. Les réponses et les visualisations de données sont immédiatement générées et disponibles pour les utilisateurs, qui peuvent ainsi passer moins de temps à creuser dans les données et plus de temps à interpréter les informations, à raconter des histoires de données aux dirigeants et à provoquer le changement.
Découvrez comment l’analytique augmentée fournit automatiquement des réponses aux requêtes, afin que les utilisateurs passent moins de temps à explorer les données et plus de temps à agir.
Des insights profonds : Les machines peuvent examiner les données d’une manière qui serait impossible pour les humains. Elles peuvent examiner des ensembles de données beaucoup plus vastes sous plus d’angles et trouver des corrélations, des relations -via des modèles statistiques- invisibles à l’œil humain. Les machines peuvent comprendre les données rapidement et à grande échelle, renforcer l’intelligence humaine par des informations impartiales et indiquer aux utilisateurs où porter leur attention.
L’analyse conversationnelle : Le traitement du langage naturel – la même technologie d’IA conversationnelle qui équipe des assistants numériques comme Siri et Alexa – permet aux utilisateurs professionnels n’ayant aucune connaissance des langages de requête ou du code de poser des questions de manière conversationnelle. Et la génération de langage naturel (NLG) leur donne des réponses sous forme de phrases complètes, écrites ou orales, qui résument ou expliquent les résultats.
Contexte instantané : Les informations sans contexte n’ont aucun sens. En tenant compte de l’intention et des comportements des utilisateurs, les algorithmes d’apprentissage automatique peuvent fournir des informations contextuelles prêtes à être utilisées. En outre, en démocratisant l’analytique, les cadres et les employés expérimentés peuvent enrichir les informations grâce à leurs connaissances et à leur compréhension approfondie des business models et des opérations.
Hyoun Park, PDG et analyste principal chez Amalgam Insights, explique comment l’analytique augmentée fournit un contexte, afin que vous sachiez réellement ce que vos données contiennent.
Cas d’utilisation de l’analytique augmentée
L’analytique augmentée a le pouvoir de révolutionner les processus d’entreprise, mais à quoi cela ressemble-t-il dans le monde réel ? Voici quelques exemples de cas d’utilisation de l’analytique augmentée dans les domaines de la finance, des ventes et du marketing, de la production, des ressources humaines et du recouvrement.
L’analytique augmentée pour la finance
Un Analyste peut utiliser l’analytique augmentée pour prévoir et contrôler facilement les frais de voyage et de représentation (T&E) dans différents départements.
L’analytique augmentée pour le recouvrement
Les responsables du recouvrement peuvent utiliser l’apprentissage automatique dans l’analytique augmentée pour anticiper les retards de paiement, déterminer la bonne stratégie de recouvrement et maîtriser les flux de trésorerie.
L’analytique augmentée pour les ventes et le marketing
Les équipes de vente et de marketing disposent d’une meilleure connaissance des clients – et d’une identification rapide des opportunités de ventes croisées et incitatives – grâce à l’analytique augmentée.
L’analytique augmentée pour les RH
Les responsables RH peuvent prédire le turn-over des collaborateurs, en comprendre les raisons et prendre des mesures correctives pour conserver les meilleurs éléments – tout cela grâce à l’analyse de l’IA.
Découvrez SAP Analytics Cloud
Exploitez la Business Intelligence, l’analytique augmentée et la planification pilotées par l’IA dans une solution unique et facile à utiliser.
Chaque jour, les organisations, les individus et les objets génèrent des quantités massives de données. En 24 heures, nous envoyons collectivement 294 milliards d’e-mails et 500 millions de tweets. Nous effectuons 3,5 milliards de recherches sur Google. Nos voitures connectées génèrent un volume impressionnant de quatre pétaoctets de données. Même nos montres, nos réfrigérateurs et nos téléviseurs créent et partagent constamment des données.
Toutes ces données cachent des informations qui pourraient permettre une explosion de la croissance de l’entreprise. Le défi consiste à les trouver, et c’est là que l’analytique entre en jeu.
Une définition simple de l’analytique
L’analytique est un domaine de l’informatique qui utilise les mathématiques, les statistiques et le machine learning pour trouver des tendances significatives dans les données. L’analytique – ou l’analyse des données – implique de passer au crible des ensembles de données massives pour découvrir, interpréter et partager de nouvelles informations et connaissances.
Qu’est-ce que le reporting analytique ?
En termes très simples, le reporting analytique est l’analytique appliquée aux données d’entreprise. Il se concentre sur les implications business des données, ainsi que sur les décisions et les actions qui doivent être prises en conséquence.
L’importance du reporting analytique
Aujourd’hui, l’utilisation d’une solution analytique est souvent le facteur décisif qui, dans un secteur, départage les gagnants et les perdants. Les entreprises leaders utilisent l’analytique pour contrôler et optimiser chaque aspect de leurs opérations – du marketing à la chaîne d’approvisionnement – en temps réel. Elles s’appuient sur l’analytique pour prendre des décisions rapides et fondées sur les données, accroître leur chiffre d’affaires, établir de nouveaux business models, offrir une expérience client exceptionnelle, aider leurs collaborateurs, acquérir un avantage concurrentiel, et bien plus encore. Les entreprises qui ne disposent pas d’outils analytiques – ou qui n’en ont pas de qualité – doivent prendre des décisions et gérer leurs activités en se fiant uniquement à leur instinct et à leur expérience.
« Dans tous les secteurs, les entreprises leaders brandissent les données et l’analytique comme des armes concurrentielles. » –Gartner
Les principaux avantages de l’analytique sont les suivants :
L’amélioration de l’efficacité et de la productivité
Une prise de décision plus rapide et efficace
Une meilleure performance financière
L’identification et la création de nouvelles sources de revenus
L’amélioration de l’acquisition et de la fidélisation des clients
Dans le domaine des logiciels d’entreprise, l’analytique est l’un des marchés qui connaît la croissance la plus rapide. Récemment, cette croissance s’est encore accélérée en raison de la pandémie de COVID-19, qui a forcé de nombreuses entreprises à trouver de nouveaux moyens de réaliser des profits, de réduire les coûts et de naviguer dans la turbulente « nouvelle normalité ». Selon Gartner, l’analytique, la Business Intelligence (BI) et la science des données sont les cas d’utilisation les plus courants accélérés en raison de la pandémie – surpassant l’Internet des objets (IoT) et les applications cloud. Les capacités de résolution de problèmes et de prédiction de l’analytique aident les entreprises à relever les défis urgents liés à la pandémie, comme la prévision précise de la demande, la protection des employés à risque et l’identification des perturbations potentielles de la chaîne d’approvisionnement.
94% des entreprises déclarent que l’analytique est importante pour leur croissance et leur transformation numérique (1)
59% des organisations utilisent actuellement des outils d’analyse avancée et prédictive (1)
65% des entreprises mondiales prévoient d’augmenter leurs dépenses en analytique en 2021 (1)
Quatre types d’analytiques
Il existe quatre types d’analytiques différents : descriptive, de diagnostic, prédictive et prescriptive. Utilisés conjointement, ils permettent aux décideurs de comprendre parfaitement ce qui se passe, pourquoi cela se passe, ce qui va se passer et ce qu’il faut faire, quel que soit le scénario.
1. L’analyse descriptive
L’analyse descriptive répond à la question « Que s’est-il passé ? ». Cette forme simple d’analyse utilise les mathématiques de base, comme les moyennes et les pourcentages de variation, pour montrer ce qui s’est déjà passé dans une entreprise. L’analyse descriptive, également appelée Business Intelligence (BI) traditionnelle, est la première étape du processus d’analyse, créant un point de départ pour une enquête plus approfondie.
2. L’analyse de diagnostic
L’analyse de diagnostic répond à la question « Pourquoi cela s’est produit ? ». Elle va plus loin que l’analyse descriptive, en utilisant des techniques telles que la découverte de données, l’exploration et les corrélations pour plonger plus profondément dans les données et identifier les causes profondes des événements et des comportements.
3. L’analyse prédictive
L’analyse prédictive répond à la question « Que va-t-il se passer à l’avenir ? ». Cette branche de l’analyse avancée utilise les résultats de l’analyse descriptive et de diagnostic – ainsi que des techniques sophistiquées de modélisation prédictive, de machine learning et de deep learning – pour prédire ce qui va se passer.
4. L’analyse prescriptive
L’analyse prescriptive répond à la question « Quelles actions devrions-nous mener ? ». Ce type d’analyse de pointe s’appuie sur les résultats de l’analyse descriptive, de diagnostic et prédictive et utilise des outils et techniques très avancés pour évaluer les conséquences des décisions possibles et déterminer le meilleur plan d’action dans un scénario.
Composants communs de l’analytique
L’analytique d’entreprise est un vaste domaine qui comporte de nombreux composants et outils différents. Voici quelques-uns des plus courants :
L’agrégation des données : Avant de pouvoir être analysées, les données doivent être collectées à partir de nombreuses sources différentes, organisées et nettoyées. Une solide stratégie de gestion des données et un entrepôt de données moderne sont essentiels pour l’analytique.
Le data mining : Le data mining utilise l’analyse statistique et les algorithmes de machine learning pour passer au crible de grandes bases de données, analyser les données sous plusieurs angles et identifier des tendances, des modèles et des relations inconnus jusqu’alors.
L’analyse du Big Data : L’analyse du Big Data utilise des techniques avancées – notamment le data mining, l’analyse prédictive et le machine learning – pour analyser des ensembles massifs de données structurées et non structurées dans des bases de données, des entrepôts de données et des systèmes Hadoop.
Text mining : L’exploration de texte explore des ensembles de données textuelles non structurées telles que des documents, des courriels, des messages sur les médias sociaux, des commentaires de blog, des scripts de centre d’appels et d’autres sources textuelles à des fins d’analyse qualitative et quantitative.
Prévision et analyse prédictive : La prévision utilise des données historiques pour faire des estimations sur les résultats futurs, et l’analyse prédictive utilise des techniques avancées pour déterminer la probabilité que ces résultats se produisent.
Simulation et analyse des hypothèses : Une fois les prévisions et les projections créées, la simulation et l’analyse des hypothèses permettent de tester différents scénarios et d’optimiser les décisions potentielles avant qu’elles ne soient prises.
Visualisation des données et storytelling : Les visualisations de données – comme les diagrammes et les graphiques – offrent un moyen facile de comprendre et de communiquer les tendances, les valeurs atypiques et les modèles dans les données. Ces visualisations peuvent être reliées entre elles pour raconter une histoire de données plus importante et guider la prise de décision.
Exemples d’analytique
L’analytique est utilisée par des entreprises de toutes tailles, dans tous les secteurs d’activité – du commerce de détail à la santé en passant par le sport. De nombreuses solutions analytiques sont adaptées à un secteur d’activité, à un objectif spécifique ou à une branche d’activité. Voici quelques exemples de l’analytique aujourd’hui :
L’analyse financière
Traditionnellement, l’analyse financière était utilisée pour générer un ensemble standard de rapports. Mais maintenant que la finance joue un rôle plus stratégique dans l’entreprise, l’analyse financière a évolué – combinant des données financières et opérationnelles avec des sources de données externes pour répondre à un large éventail de questions. Ces questions vont de « Sommes-nous en train d’investir dans les bonnes opportunités ? » à « Comment nos marges futures seront-elles affectées par les décisions que nous prenons aujourd’hui ? ».
L’analyse marketing
L’analyse marketing relie les données de plusieurs canaux – médias sociaux, Web, e-mail, mobile, etc. – pour donner aux responsables marketing une vision complète des performances de leurs programmes. Les utilisateurs peuvent exploiter des millions de lignes de données pour améliorer l’efficacité des campagnes, personnaliser les messages marketing, analyser les sentiments sur les médias sociaux, cibler les clients potentiels au bon moment, et bien plus encore.
L’analyse supply chain
L’explosion du e-commerce, la volatilité accrue des marchés, la mondialisation et d’autres forces ont rendu les chaînes logistiques incroyablement complexes. L’analyse de la chaîne logistique aide les entreprises à éviter les perturbations, à maintenir la circulation des marchandises et à améliorer la résilience et l’agilité. Elles utilisent des données en temps réel provenant d’une grande variété de sources – y compris les capteurs de l’Internet des objets – pour tout optimiser : l’approvisionnement, la production et l’inventaire, le transport et la logistique.
Technologies analytiques modernes
Aujourd’hui, le stockage quasi illimité des données et les vitesses de traitement fulgurantes ont inauguré l’ère de l’Intelligence Artificielle (IA) et du machine learning. Ces technologies « augmentent » les analyses, les rendant plus puissantes que jamais.
L’IA et le machine learning permettent de détecter des modèles, de trouver des valeurs anormales et d’établir des liens dans le Big Data beaucoup plus rapidement et avec une précision bien supérieure à ce qui était possible auparavant. Grâce au cloud, ils peuvent exploiter davantage de données provenant de plus de sources – y compris les médias sociaux et les capteurs de l’Internet des objets – et faire apparaître des insights, des opportunités et des risques qui resteraient autrement cachés.
Les algorithmes de machine learning peuvent également automatiser certaines des étapes les plus complexes du processus d’analyse, ce qui signifie que des utilisateurs métier relativement peu formés – et plus seulement les data scientists – peuvent manier des analyses avancées et prédictives. Le traitement du langage naturel (NLP), un type d’intelligence artificielle, fait progresser le libre-service d’un cran et permet aux utilisateurs de poser des questions sur leurs données (et d’obtenir des réponses) de manière simple et conversationnelle, comme s’ils tapaient une requête dans Google ou posaient une question à Siri.
Et bien sûr, tout cela est disponible sur les appareils mobiles – les utilisateurs peuvent donc obtenir des réponses à des requêtes ad hoc d’où qu’ils soient.
Découvrez SAP Analytics Cloud
Exploitez la Business Intelligence, l’analytique augmentée et la planification optimisées par l’IA dans une solution unique et facile à utiliser.
Les Sablières J. Leonhart ont refondu totalement leur Système d’Information en optant pour SAP S/4HANA Cloud Essentials, appuyé d’un spécifique déployé sur la SAP Business Transformation Platform (ex SAP Cloud Platform). Objectif : disposer d’un ERP standardisé et homogène, mais aussi fiable et évolutif.
Le Groupe Leonhart est un acteur historiquement spécialisé dans l’extraction et la valorisation de sable et de granulats. Il commercialise entre autres des agrégats, des pierres naturelles, du béton prêt à l’emploi et divers produits en béton pour la préfabrication lourde et légère. L’industriel alsacien dispose également de ses propres services de transport et de location d’engins de chantiers. Il a soufflé ses 100 bougies en 2020.
Le groupe réalise un chiffre d’affaires annuel de 120 millions d’euros, pour 600 salariés répartis sur une quinzaine de sites sur le territoire français. Il a connu une forte croissance sur les 20 dernières années. « Au fil de cette croissance, nous nous sommes retrouvés avec un SI très hétérogène, comprenant de nombreux outils spécifiques à chaque activité, plus ou moins bien connectés entre eux », explique Nicolas Battesti, Directeur Administratif et Financier.
La société a souhaité mettre en place un SI standardisé et structurant, couvrant l’ensemble de ses processus métiers et permettant un accès rapide aux données. « Nous avions besoin d’une plate-forme commune à toutes les sociétés du groupe, poursuit Nicolas Battesti. Notre responsable SI a défini un cahier des charges précis et détaillé de notre future solution, puis nous avons démarché les intégrateurs. »
Un ERP SAP, en mode SaaS
L’appel d’offres a été lancé fin 2020, avec comme objectif une étude exhaustive des solutions disponibles sur le marché et des modes de déploiement proposés. Le Groupe Leonhart a rapidement compris les avantages et inconvénients d’un déploiement sur site ou dans le cloud. C’est donc bien informé qu’il a opté pour du SaaS.
« Ce qui nous a plu dans le SaaS, c’est la maîtrise des coûts, explique Nicolas Battesti. Mais également la facilité à monter en version. Auparavant, on travaillait avec des outils qui n’étaient plus adaptés, faute d’avoir su évoluer. Disposer de solutions qui progressent au fil du temps était donc important pour nous. Nous voulions miser sur une offre pérenne. »
Au vu du cahier des charges de l’industriel, Nagarro ES a proposé l’ERP SAP S/4HANA Cloud Essentials, qui couvre les besoins métiers exprimés, avec la possibilité de se connecter au reste du SI de l’entreprise via la SAP Business Transformation Platform (anciennement SAP Cloud Platform). La seule partie non couverte nativement par l’ERP est la pesée des camions entrant et sortant des sablières. Nagarro ES s’est appuyé sur son laboratoire d’innovation pour proposer un développement spécifique reposant sur la SAP Business Transformation Platform et des technologies novatrices, comme la reconnaissance visuelle et l’Internet des Objets. Le résultat est un pont bascule connecté à SAP, avec une technologie qui permet la reconnaissance des plaques d’immatriculation internationales, la pesée du camion, et la génération automatisée du reçu.
Repartir de zéro
Le Groupe Leonhart a été séduit par la richesse fonctionnelle de la solution, mais aussi par la méthodologie SAP Activate, l’approche Fit-to-Standard et la capacité de Nagaro ES à répondre à des besoins métiers spécifiques. « Ce partenaire nous semble solide, en termes de taille, de santé financière et d’expertise des équipes, témoigne Nicolas Battesti. Nous avons jusqu’à maintenant toujours eu à faire à des consultants disponibles et expérimentés, avec la sensation que nos besoins étaient bien compris. »
L’industriel a souhaité repartir d’une page blanche pour son nouvel ERP, avec un périmètre fonctionnel assez large, allant du contrôle de gestion à la finance en passant par la production, la relation client et la logistique. Mais aussi l’analytique : « la BI intégrée nous a beaucoup plu, car elle reste facile d’utilisation, quoique puissante. »
Les ateliers ont commencé début mars 2021. La volonté du Groupe Leonhart de coller au plus près des standards et la trajectoire du projet clairement définie en amont augurent de travaux qui devraient se dérouler dans d’excellentes conditions. La mise en production de l’ERP SAP S/4HANA Cloud Essentials est programmée pour janvier 2022.
https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.png00Service comm.https://ankaa-pmo.com/wp-content/uploads/2017/04/Logo-Ankaa-engineering.pngService comm.2021-06-04 10:44:572021-06-04 10:44:57Leonhart mise sur le cloud pour son nouvel ERP SAP S/4HANA
These days, companies have access to more data sources and formats than ever before: databases, websites, SaaS (software as a service) applications, and analytics tools, to name a few. Unfortunately, the ways businesses often store this data make it challenging to extract the valuable insights hidden within — especially when you need it for smarter data-driven business decision-making.
Standard reporting solutions such as Google Analytics and Mixpanel can help, but there comes a time when your data analysis needs to outgrow capacity. At this point, you might consider building a custom business intelligence (BI) solution, which will have the data integration layer as its foundation.
Gartner predicts that by 2023, over 50% of medium to large enterprises will have adopted a Low-code/No-code application as part of their platform development.
The proliferation of Low-code/No-code tooling can be partially attributed to the COVID-19 pandemic, which has put pressure on businesses around the world to rapidly implement digital solutions. However, adoption of these tools — while indeed accelerated by the pandemic — would have occurred either way.
Even before the pandemic, the largest, richest companies had already formed an oligopsony around the best tech talent and most advanced development tools. Low-Code/No-code, therefore, is an attractive solution for small and mid-sized organizations to level the playing field, and it does so by giving these smaller players the power to do more with their existing resources.
While these benefits are often realized in the short term, the long-term effect of these tools is often shockingly different. The promise of faster and cheaper delivery is the catch — or lure — inside this organizational mousetrap, whereas backlogs, vendor contracts, technical debts, and constant updates are the hammer.
So, what exactly is the No-Code trap, and how can we avoid it?
What is a No-Code Tool?
First, let’s make sure we clear up any confusion regarding naming. So far I have referred Low-Code and No-Code as if they were one term. It’s certainly easy to confuse them — even large analyst firms seem to have a hard time differentiating between the two — and in the broader context of this article, both can lead to the same set of development pitfalls.
Under the magnifying glass, however, there are lots of small details and capabilities that differentiate Low-code and No-code solutions. Most of them aren’t apparent at the UI level, leading to much of the confusion between where the two come from.
In this section, I will spend a little bit of time exploring the important differences between those two, but only to show that when it comes to the central premise of this article they are virtually equivalent.
Low-Code vs. No-Code Tools
The goal behind Low-Code is to minimize the amount of coding necessary for complex tasks through a visual interface (such as Drag ‘N’ Drop) that integrates existing blocks of code into a workflow.
Skilled professionals have the potential to work smarter and faster with Low-Code tools because repetitive coding or duplicating work is streamlined. Through this, they can spend less time on the 80% of work that builds the foundation and focuses more on optimizing the 20% that makes it different. It, therefore, takes on the role of an entry-level employee doing the grunt work for more senior developers/engineers.
No-Code has a very similar look and feel to Low-Code, but is different in one very important dimension. Where Low-Code is meant to optimize the productivity of developers or engineers that already know how to code (even if just a little), No-Code is built for business and product managers that may not know any actual programming languages. It is meant to equip non-technical workers with the tools they need to create applications without formal development training.
No-Code applications need to be self-contained and everything the No-Code vendor thinks the user may need is already built into the tool.
As a result, No-Code applications create a lot of restrictions for the long-term in exchange for quick results in the short-term. This is a great example of a ‘deliberate-prudent’ scenario in the context of the Technical Debt Quadrant, but more on this later.
Advantages of No-Code Solutions
The appeal of both Low-Code and No-Code is pretty obvious. By removing code organizations can remove those that write it — developers — because they are expensive, in short supply, and fundamentally don’t produce things quickly.
The benefits of these two forms of applications in their best forms can be pretty substantial:
Resources: Human Capital is becoming increasingly scarce — and therefore expensive. This can stop a lot of ambitious projects dead in their tracks. Low-Code and No-Code tools minimize the amount of specialized technical skills needed to get an application of the ground, which means things can get done more quickly and at a lower cost.
Low Risk/High ROI: Security processes, data integrations, and cross-platform support are all built into Low-Code and No-Code tools, meaning less risk and more time to focus on your business goals.
Moving to Production: Similarly, for both types of tools a single click is all it takes to send or deploy a model or application you built to production.
Looking at these advantages, it is no wonder that both Low-Code and No-Code have been taking industries by storm recently. While being distinctly different in terms of users, they serve the same goal — that is to say, faster, safer and cheaper deployment. Given these similarities, both terms will be grouped together under the ‘No-Code’ term for the rest of this article unless otherwise specified.
List of No-Code Data Tools
So far, we have covered the applications of No-Code in a very general way, but for the rest of this article, I would like to focus on data modeling. No-Code tools are prevalent in software development, but have also, in particular, started to take hold in this space, and some applications even claim to be an alternative to SQL and other querying languages (crazy, right?!). My reasons for focusing on this are two-fold:
Firstly, there is a lot of existing analysis around this problem for software development and very little for data modeling. Secondly, this is also the area in which I have the most expertise.
Now let’s take a look at some of the vendors that provide No-Code solutions in this space. These in no way constitute a complete list and are, for the most part, not exclusively built for data modeling.
1. No-Code Data Modeling in Power BI
Power BI was created by Microsoft and aims to provide interactive visualizations and business intelligence capabilities to all types of business users. Their simple interface is meant to allow end-users to create their own reports and dashboards through a number of features, including data mapping, transformation, and visualization through dashboards. Power BI does support some R coding capabilities for visualization, but when it comes to data modeling, it is a true No-Code tool.
2. Alteryx as a Low-Code Alternative
Alteryx is meant to make advanced analytics accessible to any data worker. To achieve this, it offers several data analytics solutions. Alteryx specializes in self-service analytics with an intuitive UI. Their offerings can be used as Extract, Transform, Load (ETL) Tools within their own framework. Alteryx allows data workers to organize their data pipelines through their custom features and SQL code blocks. As such, they are easily identified as a Low-Code solution.
3. Is Tableau a No-Code Data Modeling Solution?
Tableau is a visual analytics platform and a direct competitor to Power BI. They were recently acquired by Salesforce which is now hoping to ‘transform the way we use data to solve problems—empowering people and organizations to make the most of their data.’ It is also a pretty obvious No-Code platform that is supposed to appeal to all types of end-users. As of now, it offers fewer tools for data modeling than Power BI, but that is likely to change in the future.
4. Looker is a No-Code Alternative to SQL
Looker is a business intelligence software and big data analytics platform that promises to help you explore, analyze, and share real-time business analytics easily. Very much in line with Tableau and Power BI, it aims to make non-technical end-users proficient in a variety of data tasks such as transformation, modeling, and visualization.
You might be wondering why I am including so many BI/Visualization platforms when talking about potential alternatives to SQL. After all, these tools are only set up to address an organization’s reporting needs, which constitute only one of the use cases for data queries and SQL. This is certainly a valid point, so allow me to clarify my reasoning a bit more.
While it is true that reporting is only one of many potential uses for SQL, it is nevertheless an extremely important one. There is a good reason why there are so many No-Code BI tools in the market—to address heightening demand from enterprises around the world — and therefore, it is worth taking a closer look at their almost inevitable shortcomings.
Un data warehouse (entrepôt de données) est un système de stockage numérique qui connecte et harmonise de grandes quantités de données provenant de nombreuses sources différentes. Il a pour but d’alimenter la Business Intelligence (BI), le reporting et l’analyse, ainsi que soutenir la conformité aux exigences réglementairesafin que les entreprises puissent exploiter leurs données et prendre des décisions intelligentes fondées sur les données. Les data warehouse stockent les données actuelles et historiques dans un seul et même endroit et constituent ainsi une source unique de vérité pour une organisation.
Les données sont envoyées vers un data warehouse à partir de systèmes opérationnels (tels qu’un système ERP ou CRM), de bases de données et de sources externes comme les systèmes partenaires, les appareils IoT, les applications météo ou les réseaux sociaux, généralement de manière régulière. L’émergence du cloud computing a changé la donne. Ces dernières années, le stockage des données a été déplacé de l’infrastructure sur site traditionnelle vers de multiples emplacements, y compris sur site, dans le Cloud privé et dans le Cloud public.
Les data warehouse modernes sont conçus pour gérer à la fois les données structurées et les données non structurées, comme les vidéos, les fichiers image et les données de capteurs. Certains utilisent les outils analytiques intégrés et la technologie de base de données in-memory (qui conserve l’ensemble de données dans la mémoire de l’ordinateur plutôt que dans l’espace disque) pour fournir un accès en temps réel à des données fiables et favoriser une prise de décision en toute confiance. Sans entreposage de données, il est très difficile de combiner des données provenant de sources hétérogènes, de s’assurer qu’elles sont au bon format pour les analyses et d’obtenir une vue des données sur le court terme et sur le long terme.
Avantages de l’entreposage de données
Un data warehouse bien conçu constitue la base de tout programme de BI ou d’analyse réussi. Son principal objectif est d’alimenter les rapports, les tableaux de bord et les outils analytiques devenus indispensables aux entreprises d’aujourd’hui. Un entrepôt de données fournit les informations dont vous avez besoin pour prendre des décisions basées sur les données et vous aide à faire les bons choix, que ce soit pour le développement de nouveaux produits ou la gestion des niveaux de stock. Un data warehouse présente de nombreux avantages. En voici quelques-uns :
Un meilleur reporting analytique : grâce à l’entreposage de données, les décideurs ont accès à des données provenant de plusieurs sources et n’ont plus besoin de prendre des décisions basées sur des informations incomplètes.
Des requêtes plus rapides : les data warehouse sont spécialement conçus pour permettre l’extraction et l’analyse rapides des données. Avec un entrepôt de données, vous pouvez très rapidement demander de grandes quantités de données consolidées avec peu ou pas d’aide du service informatique.
Une amélioration de la qualité des données : avant de charger les données dans l’entrepôt de données le système met en place des nettoyages de données afin de garantir que les données sont converties dans un seul et même format dans le but de faciliter les analyses (et les décisions), qui reposent alors sur des données précises et de haute qualité.
Une visibilité sur les données historiques : en stockant de nombreuses données historiques, un data warehouse permet aux décideurs d’analyser les tendances et les défis passés, de faire des prévisions et d’améliorer l’organisation au quotidien.
Que peut stocker un data warehouse ?
Lorsque les data warehouse sont devenus populaires à la fin des années 1980, ils étaient conçus pour stocker des informations sur les personnes, les produits et les transactions. Ces données, appelées données structurées, étaient bien organisées et mises en forme pour en favoriser l’accès. Cependant, les entreprises ont rapidement voulu stocker, récupérer et analyser des données non structurées, comme des documents, des images, des vidéos, des e-mails, des publications sur les réseaux sociaux et des données brutes issues de capteurs.
Un entrepôt de données moderne peut contenir des données structurées et des données non structurées. En fusionnant ces types de données et en éliminant les silos qui les séparent, les entreprises peuvent obtenir une vue complète et globale sur les informations les plus précieuses.
Termes clés
Il est essentiel de bien comprendre un certain nombre de termes en lien avec les data warehouse. Les plus importants ont été définis ci-dessous. Découvrez d’autres termes et notre FAQ dans notre glossaire.
Data warehouse et base de données
Les bases de données et les data warehouse sont tous deux des systèmes de stockage de données, mais diffèrent de par leurs objectifs. Une base de données stocke généralement des données relatives à un domaine d’activité particulier. Un entrepôt de données stocke les données actuelles et historiques de l’ensemble de l’entreprise et alimente la BI et les outils analytiques. Les data warehouse utilisent un serveur de base de données pour extraire les données présentes dans les bases de données d’une organisation et disposent de fonctionnalités supplémentaires pour la modélisation des données, la gestion du cycle de vie des données, l’intégration des sources de données, etc.
Data warehouse et lac de données
Les data warehouse et les lacs de données sont utilisés pour stocker le Big Data, mais sont des systèmes de stockage très différents. Un data warehouse stocke des données qui ont été formatées dans un but spécifique, tandis qu’un lac de données stocke les données dans leur état brut, non traité, dont l’objectif n’a pas encore été défini. Les entrepôts de données et les lacs de données se complètent souvent. Par exemple, lorsque des données brutes stockées dans un lac s’avèrent utiles pour répondre à une question, elles peuvent être extraites, nettoyées, transformées et utilisées dans un data warehouse à des fins d’analyse. Le volume de données, les performances de la base de données et les coûts du stockage jouent un rôle important dans le choix de la solution de stockage adaptée.
Data warehouse et datamart
Un datamart est une sous-section d’un data warehouse, partitionné spécifiquement pour un service ou un secteur d’activité, comme les ventes, le marketing ou la finance. Certains datamarts sont également créés à des fins opérationnelles autonomes. Alors qu’un data warehouse sert de magasin de données central pour l’ensemble de l’entreprise, un datamart utilise des données pertinentes à un groupe d’utilisateurs désigné. Ces utilisateurs peuvent alors accéder plus facilement aux données, accélérer leurs analyses et contrôler leurs propres données. Plusieurs datamarts sont souvent déployés dans un data warehouse.
Quels sont les composants clés d’un data warehouse ?
Un data warehouse classique comporte quatre composants principaux : une base de données centrale, des outils ETL (extraction, transformation, chargement), des métadonnées et des outils d’accès. Tous ces composants sont conçus pour être rapides afin de vous assurer d’obtenir rapidement des résultats et vous permettre d’analyser les données à la volée.
Base de données centrale : une base de données sert de fondement à votre data warehouse. Depuis le départ, on utilisait essentiellement des bases de données relationnelles standard exécutées sur site ou dans le Cloud. Mais en raison du Big Data, du besoin d’une véritable performance en temps réel et d’une réduction drastique des coûts de la RAM, les bases de données in-memory sont en train de monter en puissance.
Intégration des données : les données sont extraites des systèmes source et modifiées pour aligner les informations afin qu’elles puissent être rapidement utilisées à des fins analytiques à l’aide de différentes approches d’intégration des données telles que l’ETL (extraction, transformation, chargement) et les services de réplication de données en temps réel, de traitement en masse, de transformation des données et de qualité et d’enrichissement des données.
Métadonnées : les métadonnées sont des données relatives à vos données. Elles indiquent la source, l’utilisation, les valeurs et d’autres fonctionnalités des ensembles de données présents dans votre data warehouse. Il existe des métadonnées de gestion, qui ajoutent du contexte à vos données, et des métadonnées techniques, qui décrivent comment accéder aux données, définissent leur emplacement ainsi que leur structure.
Outils d’accès du data warehouse : les outils d’accès permettent aux utilisateurs d’interagir avec les données de votre data warehouse. Exemples d’outils d’accès : outils de requête et de reporting, outils de développement d’applications, outils d’exploration de données et outils OLAP.
Architecture de data warehouse
Auparavant, les data warehouse fonctionnaient par couches, lesquelles correspondaient au flux des données de gestion.
Couche de données
Les données sont extraites de vos sources, puis transformées et chargées dans le niveau inférieur à l’aide des outils ETL. Le niveau inférieur comprend votre serveur de base de données, les datamarts et les lacs de données. Les métadonnées sont créées à ce niveau et les outils d’intégration des données, tels que la virtualisation des données, sont utilisés pour combiner et agréger les données en toute transparence.
Couche sémantique
Au niveau intermédiaire, les serveurs OLAP (Online Analytical Processing) et OLTP (Online Transaction Processing) restructurent les données pour favoriser des requêtes et des analyses rapides et complexes.
Couche analytique
Le niveau supérieur est la couche du client frontend. Il contient les outils d’accès du data warehouse qui permettent aux utilisateurs d’interagir avec les données, de créer des tableaux de bord et des rapports, de suivre les KPI, d’explorer et d’analyser les données, de créer des applications, etc. Ce niveau inclut souvent un workbench ou une zone de test pour l’exploration des données et le développement de nouveaux modèles de données.
Un data warehouse standard comprend les trois couches définies ci-dessus. Aujourd’hui, les entrepôts de données modernes combinent OLTP et OLAP dans un seul système.
Les data warehouse, conçus pour faciliter la prise de décision, ont été essentiellement créés et gérés par les équipes informatiques. Néanmoins, ces dernières années, ils ont évolué pour renforcer l’autonomie des utilisateurs fonctionnels, réduisant ainsi leur dépendance aux équipes informatiques pour accéder aux données et obtenir des informations exploitables. Parmi les fonctionnalités clés d’entreposage de données qui ont permis de renforcer l’autonomie des utilisateurs fonctionnels, on retrouve les suivantes :
La couche sémantique ou de gestion fournit des expressions en langage naturel et permet à tout le monde de comprendre instantanément les données, de définir des relations entre les éléments dans le modèle de données et d’enrichir les zones de données avec de nouvelles informations.
Les espaces de travail virtuels permettent aux équipes de regrouper les connexions et modèles de données dans un lieu sécurisé et géré, afin de mieux collaborer au sein d’un espace commun, avec un ensemble de données commun.
Le Cloud a encore amélioré la prise de décision en permettant aux employés de disposer d’un large éventail d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.
Kate Wright, responsable de la Business Intelligence augmentée chez SAP, évoque la valeur d’un data warehouse Cloud moderne.
Les 7 principaux avantages d’un data warehouse Cloud
Les data warehouse Cloud gagnent en popularité, à juste titre. Ces entrepôts modernes offrent plusieurs avantages par rapport aux versions sur site traditionnelles. Voici les sept principaux avantages d’un data warehouse Cloud :
Déploiement rapide : grâce à l’entreposage de données Cloud, vous pouvez acquérir une puissance de calcul et un stockage de données presque illimités en quelques clics seulement, et créer votre propre data warehouse, datamarts et systèmes de test en quelques minutes.
Faible coût total de possession (TCO) : les modèles de tarification du data warehouse en tant que service (DWaaS) sont établis de sorte que vous payez uniquement les ressources dont vous avez besoin, lorsque vous en avez besoin. Vous n’avez pas besoin de prévoir vos besoins à long terme ou de payer pour d’autres traitements tout au long de l’année. Vous pouvez également éviter les coûts initiaux tels que le matériel coûteux, les salles de serveurs et le personnel de maintenance. Séparer les coûts du stockage des coûts informatiques vous permet également de réduire les dépenses.
Élasticité : un data warehouse Cloud vous permet d’ajuster vos capacités à la hausse ou à la baisse selon vos besoins. Le Cloud offre un environnement virtualisé et hautement distribué capable de gérer d’immenses volumes de données qui peuvent diminuer ou augmenter.
Sécurité et restauration après sinistre : dans de nombreux cas, les data warehouse Cloud apportent une sécurité des données et un chiffrage plus forts que les entrepôts sur site. Les données sont également automatiquement dupliquées et sauvegardées, ce qui vous permet de minimiser le risque de perte de données.
Technologies en temps réel : les data warehouse Cloud basés sur la technologie de base de données in-memory présentent des vitesses de traitement des données extrêmement rapides, offrant ainsi des données en temps réel et une connaissance instantanée de la situation.
Nouvelles technologies : les data warehouse Cloud vous permettent d’intégrer facilement de nouvelles technologies telles que l’apprentissage automatique, qui peuvent fournir une expérience guidée aux utilisateurs fonctionnels et une aide décisionnelle sous la forme de suggestions de questions à poser, par exemple.
Plus grande autonomie des utilisateurs fonctionnels : les data warehouse Cloud offrent aux employés, de manière globale et uniforme, une vue unique sur les données issues de nombreuses sources et un vaste ensemble d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.
Meilleures pratiques concernant l’entreposage des données
Pour atteindre vos objectifs et économiser du temps et de l’argent, il est recommandé de suivre certaines étapes éprouvées lors de la création d’un data warehouse ou l’ajout de nouvelles applications à un entrepôt existant. Certaines sont axées sur votre activité tandis que d’autres s’inscrivent dans le cadre de votre programme informatique global. Vous pouvez commencer avec la liste de meilleures pratiques ci-dessous, mais vous en découvrirez d’autres au fil de vos collaborations avec vos partenaires technologiques et de services.
Meilleures pratiques métier
Meilleures pratiques informatiques
Définir les informations dont vous avez besoin. Une fois que vous aurez cerné vos besoins initiaux, vous serez en mesure de trouver les sources de données qui vous aideront à les combler. La plupart du temps, les groupes commerciaux, les clients et les fournisseurs auront des recommandations à vous faire.
Surveiller la performance et la sécurité. Les informations de votre data warehouse sont certes précieuses, mais elles doivent quand même être facilement accessibles pour apporter de la valeur à l’entreprise. Surveillez attentivement l’utilisation du système pour vous assurer que les niveaux de performance sont élevés.
Documenter l’emplacement, la structure et la qualité de vos données actuelles. Vous pouvez ensuite identifier les lacunes en matière de données et les règles de gestion pour transformer les données afin de répondre aux exigences de votre entrepôt.
Gérer les normes de qualité des données, les métadonnées, la structure et la gouvernance. De nouvelles sources de données précieuses sont régulièrement disponibles, mais nécessitent une gestion cohérente au sein d’un data warehouse. Suivez les procédures de nettoyage des données, de définition des métadonnées et de respect des normes de gouvernance.
Former une équipe. Cette équipe doit comprendre les dirigeants, les responsables et le personnel qui utiliseront et fourniront les informations. Par exemple, identifiez le reporting standard et les KPI dont ils ont besoin pour effectuer leurs tâches.
Fournir une architecture agile. Plus vos unités d’affaires et d’entreprise utiliseront les données, plus vos besoins en matière de datamarts et d’entrepôts augmenteront. Une plate-forme flexible s’avérera bien plus utile qu’un produit limité et restrictif.
Hiérarchiser vos applications de data warehouse. Sélectionnez un ou deux projets pilotes présentant des exigences raisonnables et une bonne valeur commerciale.
Automatiser les processus tels que la maintenance. Outre la valeur ajoutée apportée à la Business Intelligence, l’apprentissage automatique peut automatiser les fonctions de gestion technique du data warehouse pour maintenir la vitesse et réduire les coûts d’exploitation.
Choisir un partenaire technologique compétent pour l’entrepôt de données. Ce dernier doit offrir les services d’implémentation et l’expérience dont vous avez besoin pour la réalisation de vos projets. Assurez-vous qu’il puisse répondre à vos besoins en déploiement, y compris les services Cloud et les options sur site.
Utiliser le Cloud de manière stratégique. Les unités d’affaires et les services ont des besoins en déploiement différents. Utilisez des systèmes sur site si nécessaire et misez sur des data warehouse Cloud pour bénéficier d’une évolutivité, d’une réduction des coûts et d’un accès sur téléphone et tablette.
Développer un bon plan de projet. Travaillez avec votre équipe sur un plan et un calendrier réalistes qui rendent possible les communications et le reporting de statut.
En résumé
Les data warehouse modernes, et, de plus en plus, les data warehouse Cloud, constitueront un élément clé de toute initiative de transformation numérique pour les entreprises mères et leurs unités d’affaires. Les data warehouse exploitent les systèmes de gestion actuels, en particulier lorsque vous combinez des données issues de plusieurs systèmes internes avec de nouvelles informations importantes provenant d’organisations externes.
Les tableaux de bord, les indicateurs de performance clés, les alertes et le reporting répondent aux exigences des cadres dirigeants, de la direction et du personnel, ainsi qu’aux besoins des clients et des fournisseurs importants. Les data warehouse fournissent également des outils d’exploration et d’analyse de données rapides et complexes, et n’ont pas d’impact sur les performances des autres systèmes de gestion.
Découvrez la solution SAP Data Warehouse Cloud
Unifiez vos données et analyses pour prendre des décisions avisées et obtenir la flexibilité nécessaire pour un contrôle efficace des coûts, notamment grâce à un paiement selon l’utilisation.
Paramètres des cookies et politique de confidentialité
Comment nous utilisons les cookies
Nous utilisons les cookies pour nous faire savoir quand vous visitez nos sites Web, comment vous interagissez avec nous, pour enrichir votre expérience utilisateur et pour personnaliser votre relation avec notre site Web.
Cliquez sur les différents titres de catégories pour en savoir plus. Vous pouvez également modifier certaines de vos préférences. Notez que le blocage de certains types de cookies peut avoir un impact sur votre expérience sur nos sites Web et les services que nous sommes en mesure d'offrir.
Cookies essentiels sur ce site
These cookies are strictly necessary to provide you with services available through our website and to use some of its features.
Because these cookies are strictly necessary to deliver the website, you cannot refuse them without impacting how our site functions. You can block or delete them by changing your browser settings and force blocking all cookies on this website.
Cookies Google Analytics
Ces cookies recueillent des renseignements qui sont utilisés sous forme agrégée pour nous aider à comprendre comment notre site Web est utilisé ou l'efficacité de nos campagnes de marketing, ou pour nous aider à personnaliser notre site Web et notre application pour vous afin d'améliorer votre expérience.
Si vous ne voulez pas que nous suivions votre visite sur notre site, vous pouvez désactiver le suivi dans votre navigateur ici :
Autres services
Nous utilisons également différents services externes comme Google Webfonts, Google Maps et les fournisseurs externes de vidéo. Comme ces fournisseurs peuvent collecter des données personnelles comme votre adresse IP, nous vous permettons de les bloquer ici. Veuillez noter que cela pourrait réduire considérablement la fonctionnalité et l'apparence de notre site. Les changements prendront effet une fois que vous aurez rechargé la page.
.
Paramètres de Google Webfont Settings :
Google Map :
Vimeo et Youtube :
Politique de confidentialité
Vous pouvez lire nos cookies et nos paramètres de confidentialité en détail sur la page suivante