Articles

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

La modélisation des données correspond au processus de création de diagrammes de flux de données. Lors de la création d’une structure de base de données, qu’elle soit nouvelle ou non, le concepteur commence par élaborer un diagramme illustrant la façon dont les données entreront et sortiront de la base de données. Ce diagramme est utilisé pour définir les caractéristiques des formats et structures de données, ainsi que des fonctions de gestion de base de données, afin de répondre efficacement aux exigences des flux de données. Une fois la base de données créée et déployée, le modèle de données servira de documentation expliquant les motifs de création de la base de données ainsi que la manière dont les flux de données ont été conçus.

Le modèle de données résultant de ce processus établit une structure de relations entre les éléments de données dans une base de données et sert de guide d’utilisation des données. Les modèles de données sont un élément fondamental du développement et de l’analyse de logiciels. Ils fournissent une méthode standardisée pour définir et mettre en forme les contenus de base de données de manière cohérente dans les systèmes, ce qui permet à diverses applications de partager les mêmes données.


Pourquoi la modélisation des données est-elle importante ?

Un modèle de données complet et optimisé permet de créer une base de données logique et simplifiée qui élimine la redondance, réduit les besoins en stockage et permet une récupération efficace. Elle dote également tous les systèmes de ce que l’on appelle une « source unique de la vérité », ce qui est essentiel pour assurer des opérations efficaces et garantir une conformité vérifiable aux réglementations et exigences réglementaires. La modélisation des données est une étape clé dans deux fonctions vitales d’une entreprise numérique.

Projets de développement logiciel (nouveaux ou personnalisations) mis en place par le service informatique

Avant de concevoir et de créer un projet logiciel, il doit exister une vision documentée de ce à quoi ressemblera le produit final et de son comportement. Une grande partie de cette vision concerne l’ensemble de règles de gestion qui régissent les fonctionnalités souhaitées. L’autre partie est la description des données : les flux de données (ou le modèle de données) et la conception de la base de données qui les prendra en charge.

La modélisation des données est une trace de cette vision et fournit une feuille de route pour les concepteurs de logiciels. Grâce à la définition et à la documentation complètes des flux de données et de la base de données, ainsi qu’au développement des systèmes conformément à ces spécifications, les systèmes devraient être en mesure de fournir les fonctionnalités attendues requises pour garantir l’exactitude des données (en supposant que les procédures ont été correctement suivies).

Analyses et visualisation (ou Business Intelligence) : un outil de prise de décision clé pour les utilisateurs

Avec l’augmentation des volumes de données et le nombre croissant d’utilisateurs, les entreprises ont besoin de transformer les données brutes en informations exploitables pour prendre des décisions. Sans surprise, la demande en analyse des données a augmenté de façon spectaculaire. La visualisation des données rend les données encore plus accessibles aux utilisateurs en les présentant sous forme graphique.

Les modèles de données actuels transforment les données brutes en informations utiles qui peuvent être transposées dans des visualisations dynamiques. La modélisation des données prépare les données pour l’analyse : nettoyage des données, définition des mesures et des dimensions, amélioration des données par l’établissement de hiérarchies, la définition d’unités et de devises et l’ajout de formules.


Quels sont les types de modélisation des données ?

Les trois types de modèles de données clés sont le modèle relationnel, le modèle dimensionnel et le modèle entité-association. Il en existe d’autres qui ne sont pas communément utilisés, notamment les types hiérarchique, réseau, orienté objet et à plusieurs valeurs. Le type de modèle définit la structure logique, à savoir comment les données sont stockées, organisées et extraites.

  1. Type relationnel : bien qu’« ancien » dans son approche, le modèle de base de données le plus couramment utilisé aujourd’hui est le relationnel, qui stocke les données dans des enregistrements au format fixe et organise les données dans des tables avec des lignes et des colonnes. Le type de modèle de données le plus basique comporte deux éléments : des mesures et des dimensions. Les mesures sont des valeurs numériques, telles que les quantités et le chiffre d’affaires, utilisées dans les calculs mathématiques comme la somme ou la moyenne. Les dimensions peuvent correspondre à des valeurs numériques ou textuelles. Elles ne sont pas utilisées dans les calculs et incluent des descriptions ou des emplacements. Les données brutes sont définies comme une mesure ou une dimension. Autres termes utilisés dans la conception de base de données relationnelle : « relations » (la table comportant des lignes et des colonnes), « attributs » (colonnes), « nuplets » (lignes) et « domaine » (ensemble de valeurs autorisées dans une colonne). Bien qu’il existe d’autres termes et exigences structurelles qui définissent une base de données relationnelle, le facteur essentiel concerne les relations définies dans cette structure. Les éléments de données communs (ou clés) relient les tables et les ensembles de données. Les tables peuvent également être explicitement liées, comme une relation parent/enfant, y compris les relations dites un-à-un (one-to-one), un-à-plusieurs (one-to-many) ou plusieurs-à-plusieurs (many-to-many).
  2. Type dimensionnel : moins rigide et structurée, l’approche dimensionnelle privilégie une structure de données contextuelle davantage liée à l’utilisation professionnelle ou au contexte. Cette structure de base de données est optimisée pour les requêtes en ligne et les outils d’entreposage de données. Les éléments de données critiques, comme une quantité de transaction par exemple, sont appelés « faits » et sont accompagnés d’informations de référence appelées « dimensions », telles que l’ID de produit, le prix unitaire ou la date de la transaction. Une table de faits est une table primaire dans un modèle dimensionnel. La récupération peut être rapide et efficace (avec des données pour un type d’activité spécifique stockées ensemble), mais l’absence de relations peut compliquer l’extraction analytique et l’utilisation des données. Étant donné que la structure des données est liée à la fonction qui produit et utilise les données, la combinaison de données produites par divers systèmes (dans un entrepôt de données, par exemple) peut poser des problèmes.
  3. Modèle entité-association (modèle E-R) : un modèle E-R représente une structure de données métier sous forme graphique contenant d’une part des boîtes de différentes formes pour représenter des activités, des fonctions ou des « entités », et d’autre part des lignes qui représentent des dépendances, des relations ou des « associations ». Le modèle E-R est ensuite utilisé pour créer une base de données relationnelle dans laquelle chaque ligne représente une entité et comporte des zones qui contiennent des attributs. Comme dans toutes les bases de données relationnelles, les éléments de données « clés » sont utilisés pour relier les tables entre elles.

Quels sont les trois niveaux d’abstraction des données ?

Il existe de nombreux types de modèles de données, avec différents types de mises en forme possibles. La communauté du traitement des données identifie trois types de modélisation permettant de représenter les niveaux de pensée au fur et à mesure que les modèles sont développés.

Modèle de données conceptuel

Ce modèle constitue une « vue d’ensemble » et représente la structure globale et le contenu, mais pas le détail du plan de données. Il s’agit du point de départ standard de la modélisation des données qui permet d’identifier les différents ensembles de données et flux de données dans l’organisation. Le modèle conceptuel dessine les grandes lignes pour le développement des modèles logiques et physiques, et constitue une part importante de la documentation relative à l’architecture des données.

Modèle de données logique

Le deuxième niveau de détail est le modèle de données logique. Il est étroitement lié à la définition générale du « modèle de données » en ce sens qu’il décrit le flux de données et le contenu de la base de données. Le modèle logique ajoute des détails à la structure globale du modèle conceptuel, mais n’inclut pas de spécifications pour la base de données en elle-même, car le modèle peut être appliqué à diverses technologies et divers produits de base de données. (Notez qu’il peut ne pas exister de modèle conceptuel si le projet est lié à une application unique ou à un autre système limité).

Modèle de données physique

Le modèle de base de données physique décrit comment le modèle logique sera réalisé. Il doit contenir suffisamment de détails pour permettre aux techniciens de créer la structure de base de données dans les matériels et les logiciels pour prendre en charge les applications qui l’utiliseront. Il va sans dire que le modèle physique est spécifique à un système logiciel de base de données en particulier. Il peut exister plusieurs modèles physiques dérivés d’un seul et même modèle logique si plusieurs systèmes de base de données seront utilisés.

Processus et techniques de modélisation des données

La modélisation des données est par essence un processus descendant qui débute par l’élaboration du modèle conceptuel pour établir la vision globale, puis se poursuit avec le modèle logique pour s’achever par la conception détaillée contenue dans le modèle physique.

L’élaboration du modèle conceptuel consiste principalement à mettre des idées sous la forme d’un graphique qui ressemble au diagramme des flux de données conçu par un développeur.

Les outils de modélisation des données modernes peuvent vous aider à définir et à créer vos modèles de données logiques et physiques et vos bases de données. Voici quelques techniques et étapes classiques de modélisation des données :

  • Déterminez les entités et créez un diagramme entité-association. Les entités sont considérées comme des « éléments de données qui intéressent votre entreprise ». Par exemple, « client » serait une entité. « Vente » en serait une autre. Dans un diagramme entité-association, vous documentez la manière dont ces différentes entités sont liées les unes aux autres dans votre entreprise, et les connexions qui existent entre elles.
  • Définissez vos faits, mesures et dimensions. Un fait est la partie de vos données qui indique une occurrence ou une transaction spécifique, comme la vente d’un produit. Vos mesures sont quantitatives, comme la quantité, le chiffre d’affaires, les coûts, etc. Vos dimensions sont des mesures qualitatives, telles que les descriptions, les lieux et les dates.
  • Créez un lien de vue de données à l’aide d’un outil graphique ou via des requêtes SQL. Si vous ne maîtrisez pas SQL, l’option la plus intuitive sera l’outil graphique : il vous permet de faire glisser des éléments dans votre modèle et de créer visuellement vos connexions. Lors de la création d’une vue, vous avez la possibilité de combiner des tables et d’autres vues dans une sortie unique. Lorsque vous sélectionnez une source dans la vue graphique et que vous la faites glisser dans une source déjà associée à la sortie, vous pouvez soit la joindre, soit créer une union de ces tables.

Les solutions analytiques modernes peuvent également vous aider à sélectionner, filtrer et connecter des sources de données à l’aide d’un affichage graphique de type glisser-déposer. Des outils avancés sont disponibles pour les experts en données qui travaillent généralement au sein des équipes informatiques. Toutefois, les utilisateurs peuvent également créer leurs propres présentations en créant visuellement un modèle de données et en organisant des tables, des graphiques, des cartes et d’autres objets pour élaborer une présentation basée sur des analyses de données.


Exemples de modélisation des données

Pour toute application, qu’elle soit professionnelle, de divertissement, personnelle ou autre, la modélisation des données est une étape préalable nécessaire à la conception du système et à la définition de l’infrastructure nécessaire à sa mise en œuvre. Cela concerne tout type de système transactionnel, de suite d’applications de traitement des données, ou tout autre système qui collecte, crée ou utilise des données.

La modélisation des données est essentielle pour l’entreposage de données car un entrepôt de données est un référentiel de données provenant de plusieurs sources, qui contiennent probablement des données similaires ou liées, mais disponibles sous des formats différents. Il est nécessaire de mapper en premier lieu les formats et la structure de l’entrepôt afin de déterminer comment manipuler chaque ensemble de données entrant pour répondre aux besoins de la conception de l’entrepôt, afin que les données soient utiles pour l’analyse et l’exploration de données. Le modèle de données est alors un catalyseur important pour les outils analytiques, les systèmes d’information pour dirigeants (tableaux de bord), l’exploration de données et l’intégration à tous les systèmes et applications de données.

Dans les premières étapes de conception de n’importe quel système, la modélisation des données est une condition préalable essentielle dont dépendent toutes les autres étapes pour établir la base sur laquelle reposent tous les programmes, fonctions et outils. Le modèle de données est comparable à un langage commun permettant aux systèmes de communiquer selon leur compréhension et leur acceptation des données, comme décrit dans le modèle. Dans le monde actuel de Big Datad’apprentissage automatiqued’intelligence artificiellede connectivité Cloudd’IdO et de systèmes distribués, dont l’informatique en périphérie, la modélisation des données s’avère plus importante que jamais.


Évolution de la modélisation des données

De façon très concrète, la modélisation des données est apparue en même temps que le traitement des données, le stockage de données et la programmation informatique, bien que le terme lui-même n’ait probablement été utilisé qu’au moment où les systèmes de gestion de base de données ont commencé à évoluer dans les années 1960. Il n’y a rien de nouveau ou d’innovant dans le concept de planification et d’architecture d’une nouvelle structure. La modélisation des données elle-même est devenue plus structurée et formalisée au fur et à mesure que davantage de données, de bases de données et de variétés de données sont apparues.

Aujourd’hui, la modélisation des données est plus essentielle que jamais, étant donné que les techniciens se retrouvent face à de nouvelles sources de données (capteurs IdO, appareils de localisation, flux de clics, réseaux sociaux) et à une montée des données non structurées (texte, audio, vidéo, sorties de capteurs brutes), à des volumes et à une vitesse qui dépassent les capacités des systèmes traditionnels. Il existe désormais une demande constante de nouveaux systèmes, de nouvelles structures et techniques innovantes de bases de données, et de nouveaux modèles de données pour rassembler ces nouveaux efforts de développement.


Quelle est la prochaine étape de la modélisation des données ?

La connectivité des informations et les grandes quantités de données provenant de nombreuses sources disparates (capteurs, voix, vidéo, emails, etc.) étendent le champ d’application des projets de modélisation pour les professionnels de l’informatique. Internet est, bien sûr, l’un des moteurs de cette évolution. Le Cloud est en grand partie la solution car il s’agit de la seule infrastructure informatique suffisamment grande, évolutive et agile pour répondre aux exigences actuelles et futures dans un monde hyperconnecté.

Les options de conception de base de données évoluent également. Il y a dix ans, la structure dominante de la base de données était relationnelle, orientée lignes et utilisait la technologie traditionnelle de l’espace disque. Les données du grand livre ou de la gestion des stocks d’un système ERP standard étaient stockées dans des dizaines de tables différentes qui doivent être mises à jour et modélisées. Aujourd’hui, les solutions ERP modernes stockent des données actives dans la mémoire à l’aide d’une conception en colonnes, ce qui réduit considérablement le nombre de tables et accroît la vitesse et l’efficacité.

Pour les professionnels du secteur, les nouveaux outils en libre-service disponibles aujourd’hui continueront à s’améliorer. De nouveaux outils seront également introduits pour rendre la modélisation et la visualisation des données encore plus simples et plus collaboratives.


Synthèse

Un modèle de données bien pensé et complet est la clé du développement d’une base de données véritablement fonctionnelle, utile, sécurisée et exacte. Commencez par le modèle conceptuel pour présenter tous les composants et fonctions du modèle de données. Affinez ensuite ces plans dans un modèle de données logique qui décrit les flux de données et définit clairement les données nécessaires et la manière dont elles seront acquises, traitées, stockées et distribuées. Le modèle de données logique donne lieu au modèle de données physique spécifique à un produit de base de données et constitue le document de conception détaillé qui guide la création de la base de données et du logiciel d’application.

Une bonne modélisation des données et une bonne conception de base de données sont essentielles au développement de bases de données et de systèmes d’application fonctionnels, fiables et sécurisés, qui fonctionnent bien avec les entrepôts de données et les outils analytiques, et facilitent l’échange de données entre les partenaires et entre les suites d’application. Des modèles de données bien pensés aident à garantir l’intégrité des données, ce qui rend les données de votre entreprise encore plus précieuses et fiables.


Découvrez les outils modernes de modélisation des données de SAP Data Warehouse Cloud

En savoir plus


 

The post Qu’est-ce que la modélisation des données ? appeared first on SAP France News.

Source de l’article sur sap.com

Un data warehouse (entrepôt de données) est un système de stockage numérique qui connecte et harmonise de grandes quantités de données provenant de nombreuses sources différentes. Il a pour but d’alimenter la Business Intelligence (BI), le reporting et l’analyse, ainsi que soutenir la conformité aux exigences réglementaires afin que les entreprises puissent exploiter leurs données et prendre des décisions intelligentes fondées sur les données. Les data warehouse stockent les données actuelles et historiques dans un seul et même endroit et constituent ainsi une source unique de vérité pour une organisation.

Les données sont envoyées vers un data warehouse à partir de systèmes opérationnels (tels qu’un système ERP ou CRM), de bases de données et de sources externes comme les systèmes partenaires, les appareils IoT, les applications météo ou les réseaux sociaux, généralement de manière régulière. L’émergence du cloud computing a changé la donne. Ces dernières années, le stockage des données a été déplacé de l’infrastructure sur site traditionnelle vers de multiples emplacements, y compris sur site, dans le Cloud privé et dans le Cloud public.

Les data warehouse modernes sont conçus pour gérer à la fois les données structurées et les données non structurées, comme les vidéos, les fichiers image et les données de capteurs. Certains utilisent les outils analytiques intégrés et la technologie de base de données in-memory (qui conserve l’ensemble de données dans la mémoire de l’ordinateur plutôt que dans l’espace disque) pour fournir un accès en temps réel à des données fiables et favoriser une prise de décision en toute confiance. Sans entreposage de données, il est très difficile de combiner des données provenant de sources hétérogènes, de s’assurer qu’elles sont au bon format pour les analyses et d’obtenir une vue des données sur le court terme et sur le long terme.

Schéma qui montre ce qu'est un data warehouse


Avantages de l’entreposage de données

Un data warehouse bien conçu constitue la base de tout programme de BI ou d’analyse réussi. Son principal objectif est d’alimenter les rapports, les tableaux de bord et les outils analytiques devenus indispensables aux entreprises d’aujourd’hui. Un entrepôt de données fournit les informations dont vous avez besoin pour prendre des décisions basées sur les données et vous aide à faire les bons choix, que ce soit pour le développement de nouveaux produits ou la gestion des niveaux de stock. Un data warehouse présente de nombreux avantages. En voici quelques-uns :

  • Un meilleur reporting analytique : grâce à l’entreposage de données, les décideurs ont accès à des données provenant de plusieurs sources et n’ont plus besoin de prendre des décisions basées sur des informations incomplètes.
  • Des requêtes plus rapides : les data warehouse sont spécialement conçus pour permettre l’extraction et l’analyse rapides des données. Avec un entrepôt de données, vous pouvez très rapidement demander de grandes quantités de données consolidées avec peu ou pas d’aide du service informatique.
  • Une amélioration de la qualité des données : avant de charger les données dans l’entrepôt de données le système met en place des nettoyages de données afin de garantir que les données sont converties dans un seul et même format dans le but de faciliter les analyses (et les décisions), qui reposent alors sur des données précises et de haute qualité.
  • Une visibilité sur les données historiques : en stockant de nombreuses données historiques, un data warehouse permet aux décideurs d’analyser les tendances et les défis passés, de faire des prévisions et d’améliorer l’organisation au quotidien.

Capture d'écran de la solution SAP Data Warehouse Cloud


Que peut stocker un data warehouse ?

Lorsque les data warehouse sont devenus populaires à la fin des années 1980, ils étaient conçus pour stocker des informations sur les personnes, les produits et les transactions. Ces données, appelées données structurées, étaient bien organisées et mises en forme pour en favoriser l’accès. Cependant, les entreprises ont rapidement voulu stocker, récupérer et analyser des données non structurées, comme des documents, des images, des vidéos, des e-mails, des publications sur les réseaux sociaux et des données brutes issues de capteurs.

Un entrepôt de données moderne peut contenir des données structurées et des données non structurées. En fusionnant ces types de données et en éliminant les silos qui les séparent, les entreprises peuvent obtenir une vue complète et globale sur les informations les plus précieuses.


Termes clés

Il est essentiel de bien comprendre un certain nombre de termes en lien avec les data warehouse. Les plus importants ont été définis ci-dessous. Découvrez d’autres termes et notre FAQ dans notre glossaire.

Data warehouse et base de données

Les bases de données et les data warehouse sont tous deux des systèmes de stockage de données, mais diffèrent de par leurs objectifs. Une base de données stocke généralement des données relatives à un domaine d’activité particulier. Un entrepôt de données stocke les données actuelles et historiques de l’ensemble de l’entreprise et alimente la BI et les outils analytiques. Les data warehouse utilisent un serveur de base de données pour extraire les données présentes dans les bases de données d’une organisation et disposent de fonctionnalités supplémentaires pour la modélisation des données, la gestion du cycle de vie des données, l’intégration des sources de données, etc.

Data warehouse et lac de données

Les data warehouse et les lacs de données sont utilisés pour stocker le Big Data, mais sont des systèmes de stockage très différents. Un data warehouse stocke des données qui ont été formatées dans un but spécifique, tandis qu’un lac de données stocke les données dans leur état brut, non traité, dont l’objectif n’a pas encore été défini. Les entrepôts de données et les lacs de données se complètent souvent. Par exemple, lorsque des données brutes stockées dans un lac s’avèrent utiles pour répondre à une question, elles peuvent être extraites, nettoyées, transformées et utilisées dans un data warehouse à des fins d’analyse. Le volume de données, les performances de la base de données et les coûts du stockage jouent un rôle important dans le choix de la solution de stockage adaptée.

Diagramme qui montre la différence entre un data warehouse et un lac de données

Data warehouse et datamart

Un datamart est une sous-section d’un data warehouse, partitionné spécifiquement pour un service ou un secteur d’activité, comme les ventes, le marketing ou la finance. Certains datamarts sont également créés à des fins opérationnelles autonomes. Alors qu’un data warehouse sert de magasin de données central pour l’ensemble de l’entreprise, un datamart utilise des données pertinentes à un groupe d’utilisateurs désigné. Ces utilisateurs peuvent alors accéder plus facilement aux données, accélérer leurs analyses et contrôler leurs propres données. Plusieurs datamarts sont souvent déployés dans un data warehouse.

Diagramme d'un data mart et de son fonctionnement


Quels sont les composants clés d’un data warehouse ?

Un data warehouse classique comporte quatre composants principaux : une base de données centrale, des outils ETL (extraction, transformation, chargement), des métadonnées et des outils d’accès. Tous ces composants sont conçus pour être rapides afin de vous assurer d’obtenir rapidement des résultats et vous permettre d’analyser les données à la volée.

Diagramme montrant les composants d'un data warehouse

  1. Base de données centrale : une base de données sert de fondement à votre data warehouse. Depuis le départ, on utilisait essentiellement des bases de données relationnelles standard exécutées sur site ou dans le Cloud. Mais en raison du Big Data, du besoin d’une véritable performance en temps réel et d’une réduction drastique des coûts de la RAM, les bases de données in-memory sont en train de monter en puissance.
  2. Intégration des données : les données sont extraites des systèmes source et modifiées pour aligner les informations afin qu’elles puissent être rapidement utilisées à des fins analytiques à l’aide de différentes approches d’intégration des données telles que l’ETL (extraction, transformation, chargement) et les services de réplication de données en temps réel, de traitement en masse, de transformation des données et de qualité et d’enrichissement des données.
  3. Métadonnées : les métadonnées sont des données relatives à vos données. Elles indiquent la source, l’utilisation, les valeurs et d’autres fonctionnalités des ensembles de données présents dans votre data warehouse. Il existe des métadonnées de gestion, qui ajoutent du contexte à vos données, et des métadonnées techniques, qui décrivent comment accéder aux données, définissent leur emplacement ainsi que leur structure.
  4. Outils d’accès du data warehouse : les outils d’accès permettent aux utilisateurs d’interagir avec les données de votre data warehouse. Exemples d’outils d’accès : outils de requête et de reporting, outils de développement d’applications, outils d’exploration de données et outils OLAP.

Architecture de data warehouse 

Auparavant, les data warehouse fonctionnaient par couches, lesquelles correspondaient au flux des données de gestion.

Diagramme de l'architecture d'un data warehouse

Couche de données

Les données sont extraites de vos sources, puis transformées et chargées dans le niveau inférieur à l’aide des outils ETL. Le niveau inférieur comprend votre serveur de base de données, les datamarts et les lacs de données. Les métadonnées sont créées à ce niveau et les outils d’intégration des données, tels que la virtualisation des données, sont utilisés pour combiner et agréger les données en toute transparence.

Couche sémantique

Au niveau intermédiaire, les serveurs OLAP (Online Analytical Processing) et OLTP (Online Transaction Processing) restructurent les données pour favoriser des requêtes et des analyses rapides et complexes.

Couche analytique

Le niveau supérieur est la couche du client frontend. Il contient les outils d’accès du data warehouse qui permettent aux utilisateurs d’interagir avec les données, de créer des tableaux de bord et des rapports, de suivre les KPI, d’explorer et d’analyser les données, de créer des applications, etc. Ce niveau inclut souvent un workbench  ou une zone de test pour l’exploration des données et le développement de nouveaux modèles de données.

Un data warehouse standard comprend les trois couches définies ci-dessus. Aujourd’hui, les entrepôts de données modernes combinent OLTP et OLAP dans un seul système.

Les data warehouse, conçus pour faciliter la prise de décision, ont été essentiellement créés et gérés par les équipes informatiques. Néanmoins, ces dernières années, ils ont évolué pour renforcer l’autonomie des utilisateurs fonctionnels, réduisant ainsi leur dépendance aux équipes informatiques pour accéder aux données et obtenir des informations exploitables. Parmi les fonctionnalités clés d’entreposage de données qui ont permis de renforcer l’autonomie des utilisateurs fonctionnels, on retrouve les suivantes :

  1. La couche sémantique ou de gestion fournit des expressions en langage naturel et permet à tout le monde de comprendre instantanément les données, de définir des relations entre les éléments dans le modèle de données et d’enrichir les zones de données avec de nouvelles informations.
  2. Les espaces de travail virtuels permettent aux équipes de regrouper les connexions et modèles de données dans un lieu sécurisé et géré, afin de mieux collaborer au sein d’un espace commun, avec un ensemble de données commun.
  3. Le Cloud a encore amélioré la prise de décision en permettant aux employés de disposer d’un large éventail d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.

 

The Future of Analytics Has Arrived

Click the button below to load the content from YouTube.

The Future of Analytics Has Arrived

Kate Wright, responsable de la Business Intelligence augmentée chez SAP, évoque la valeur d’un data warehouse Cloud moderne.


Les 7 principaux avantages d’un data warehouse Cloud  

Les data warehouse Cloud gagnent en popularité, à juste titre. Ces entrepôts modernes offrent plusieurs avantages par rapport aux versions sur site traditionnelles. Voici les sept principaux avantages d’un data warehouse Cloud :

  1. Déploiement rapide : grâce à l’entreposage de données Cloud, vous pouvez acquérir une puissance de calcul et un stockage de données presque illimités en quelques clics seulement, et créer votre propre data warehouse, datamarts et systèmes de test en quelques minutes.
  2. Faible coût total de possession (TCO) : les modèles de tarification du data warehouse en tant que service (DWaaS) sont établis de sorte que vous payez uniquement les ressources dont vous avez besoin, lorsque vous en avez besoin. Vous n’avez pas besoin de prévoir vos besoins à long terme ou de payer pour d’autres traitements tout au long de l’année. Vous pouvez également éviter les coûts initiaux tels que le matériel coûteux, les salles de serveurs et le personnel de maintenance. Séparer les coûts du stockage des coûts informatiques vous permet également de réduire les dépenses.
  3. Élasticité : un data warehouse Cloud vous permet d’ajuster vos capacités à la hausse ou à la baisse selon vos besoins. Le Cloud offre un environnement virtualisé et hautement distribué capable de gérer d’immenses volumes de données qui peuvent diminuer ou augmenter.
  4. Sécurité et restauration après sinistre : dans de nombreux cas, les data warehouse Cloud apportent une sécurité des données et un chiffrage plus forts que les entrepôts sur site. Les données sont également automatiquement dupliquées et sauvegardées, ce qui vous permet de minimiser le risque de perte de données.
  5. Technologies en temps réel : les data warehouse Cloud basés sur la technologie de base de données in-memory présentent des vitesses de traitement des données extrêmement rapides, offrant ainsi des données en temps réel et une connaissance instantanée de la situation.
  6. Nouvelles technologies : les data warehouse Cloud vous permettent d’intégrer facilement de nouvelles technologies telles que l’apprentissage automatique, qui peuvent fournir une expérience guidée aux utilisateurs fonctionnels et une aide décisionnelle sous la forme de suggestions de questions à poser, par exemple.
  7. Plus grande autonomie des utilisateurs fonctionnels : les data warehouse Cloud offrent aux employés, de manière globale et uniforme, une vue unique sur les données issues de nombreuses sources et un vaste ensemble d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.
Capture d'écran de la solution SAP Data Warehouse Cloud
L’entreposage de données prend en charge l’analyse complète des dépenses de l’entreprise par service, fournisseur, région et statut, pour n’en citer que quelques-unes.

Meilleures pratiques concernant l’entreposage des données

Pour atteindre vos objectifs et économiser du temps et de l’argent, il est recommandé de suivre certaines étapes éprouvées lors de la création d’un data warehouse ou l’ajout de nouvelles applications à un entrepôt existant. Certaines sont axées sur votre activité tandis que d’autres s’inscrivent dans le cadre de votre programme informatique global. Vous pouvez commencer avec la liste de meilleures pratiques ci-dessous, mais vous en découvrirez d’autres au fil de vos collaborations avec vos partenaires technologiques et de services.

Meilleures pratiques métier

Meilleures pratiques informatiques

Définir les informations dont vous avez besoin. Une fois que vous aurez cerné vos besoins initiaux, vous serez en mesure de trouver les sources de données qui vous aideront à les combler. La plupart du temps, les groupes commerciaux, les clients et les fournisseurs auront des recommandations à vous faire. 

Surveiller la performance et la sécurité. Les informations de votre data warehouse sont certes précieuses, mais elles doivent quand même être facilement accessibles pour apporter de la valeur à l’entreprise. Surveillez attentivement l’utilisation du système pour vous assurer que les niveaux de performance sont élevés. 

Documenter l’emplacement, la structure et la qualité de vos données actuelles. Vous pouvez ensuite identifier les lacunes en matière de données et les règles de gestion pour transformer les données afin de répondre aux exigences de votre entrepôt.

Gérer les normes de qualité des données, les métadonnées, la structure et la gouvernance. De nouvelles sources de données précieuses sont régulièrement disponibles, mais nécessitent une gestion cohérente au sein d’un data warehouse. Suivez les procédures de nettoyage des données, de définition des métadonnées et de respect des normes de gouvernance.

Former une équipe. Cette équipe doit comprendre les dirigeants, les responsables et le personnel qui utiliseront et fourniront les informations. Par exemple, identifiez le reporting standard et les KPI dont ils ont besoin pour effectuer leurs tâches.

Fournir une architecture agile. Plus vos unités d’affaires et d’entreprise utiliseront les données, plus vos besoins en matière de datamarts et d’entrepôts augmenteront. Une plate-forme flexible s’avérera bien plus utile qu’un produit limité et restrictif. 

Hiérarchiser vos applications de data warehouse. Sélectionnez un ou deux projets pilotes présentant des exigences raisonnables et une bonne valeur commerciale.

Automatiser les processus tels que la maintenance. Outre la valeur ajoutée apportée à la Business Intelligence, l’apprentissage automatique peut automatiser les fonctions de gestion technique du data warehouse pour maintenir la vitesse et réduire les coûts d’exploitation.

Choisir un partenaire technologique compétent pour l’entrepôt de données. Ce dernier doit offrir les services d’implémentation et l’expérience dont vous avez besoin pour la réalisation de vos projets. Assurez-vous qu’il puisse répondre à vos besoins en déploiement, y compris les services Cloud et les options sur site. 

Utiliser le Cloud de manière stratégique. Les unités d’affaires et les services ont des besoins en déploiement différents. Utilisez des systèmes sur site si nécessaire et misez sur des data warehouse Cloud pour bénéficier d’une évolutivité, d’une réduction des coûts et d’un accès sur téléphone et tablette.  

Développer un bon plan de projet. Travaillez avec votre équipe sur un plan et un calendrier réalistes qui rendent possible les communications et le reporting de statut.


En résumé 

Les data warehouse modernes, et, de plus en plus, les data warehouse Cloud, constitueront un élément clé de toute initiative de transformation numérique pour les entreprises mères et leurs unités d’affaires. Les data warehouse exploitent les systèmes de gestion actuels, en particulier lorsque vous combinez des données issues de plusieurs systèmes internes avec de nouvelles informations importantes provenant d’organisations externes.

Les tableaux de bord, les indicateurs de performance clés, les alertes et le reporting répondent aux exigences des cadres dirigeants, de la direction et du personnel, ainsi qu’aux besoins des clients et des fournisseurs importants. Les data warehouse fournissent également des outils d’exploration et d’analyse de données rapides et complexes, et n’ont pas d’impact sur les performances des autres systèmes de gestion.


Pictogramme qui représente un entrepôt de données

Découvrez la solution SAP Data Warehouse Cloud

Unifiez vos données et analyses pour prendre des décisions avisées et obtenir la flexibilité nécessaire pour un contrôle efficace des coûts, notamment grâce à un paiement selon l’utilisation.

En savoir plus


Publié en anglais sur insights.sap.com

The post Qu’est-ce qu’un Data Warehouse ? appeared first on SAP France News.

Source de l’article sur sap.com

WALLDORF, Allemagne – 18 décembre 2020 – SAP SE (NYSE : SAP) a dévoilé la solution SAP® SuccessFactors® Time Tracking. Cette nouvelle solution cloud offre aux entreprises des outils simples et innovants pour enregistrer, approuver et contrôler le temps de travail de leurs collaborateurs. Dotée d’une interface utilisateur intuitive, la solution SAP SuccessFactors Time Tracking améliore l’expérience des collaborateurs et permet de s’assurer que les salariés sont payées avec précision, dans les délais et conformément aux réglementations locales.

Grâce à des fonctionnalités avancées de gestion du temps et des présences, SAP SuccessFactors Time Tracking offre une vue en temps réel de la saisie des temps du personnel, ce qui permet une plus grande transparence des rémunérations et un meilleur contrôle des horaires et des heures supplémentaires. Les dirigeants peuvent suivre et minimiser les coûts de main-d’œuvre grâce à des informations et des tableaux de bord intégrés, ce qui contribue à améliorer la productivité de l’ensemble du personnel. La solution s’intègre aux solutions SAP SuccessFactors Employee Central, SAP SuccessFactors Employee Central Payroll ainsi qu’aux solutions de paie SAP classiques. La solution s’intègre également avec les badgeuses du marché. Les entreprises peuvent ainsi partager des données pertinentes entre plusieurs systèmes afin de garantir l’exactitude des paiements. En outre, la solution SAP SuccessFactors Time Tracking est une solution internationale conçue pour prendre en charge les spécificités locales notamment les fuseaux horaires, les langues, les calendriers de vacances, les règlementaires de paie spécifiques à chaque pays.

« La solution SAP SuccessFactors Time Tracking offre aux employés la personnalisation et la simplicité qu’ils sont en droit d’attendre d’une expérience de site internet grand public », a déclaré Amy Wilson, vice-présidente senior, HXM Product & Design, SAP SuccessFactors. « En même temps, elle apporte l’innovation dont nos clients ont besoin pour gérer des effectifs diversifiés et mondiaux et leur offre une plus grande flexibilité dans leur démarche vers le cloud ». 

Les principaux avantages et caractéristiques prévus pour la solution SAP SuccessFactors sont les suivants :

  • Une plus grande flexibilité pour les employés : Pour aider les employés à gérer leur équilibre entre vie professionnelle et vie privée, les salariés éligibles peuvent choisir soit d’être payés pour leurs heures supplémentaires, soit de les utiliser pour prendre des congés supplémentaires. La gestion des horaires flexibles permet aux employés de déterminer le rythme de travail qui leur conviennent le mieux dans le respect des règles imposées par l’employeur.
  • Gestion simplifiée des horaires de travail : Le suivi intelligent des horaires permet aux collaborateurs de pointer à l’entrée et à la sortie et de suivre leur temps de travail au cours de la journée. Il permet aux RH de définir des alertes automatiques pour rappeler aux employés et aux responsables de remplir les feuilles de présence et les pointages de sortie. Les alertes de temps fournissent des avertissements et des messages d’erreur qui permettent aux administrateurs d’examiner et de corriger les problèmes de gestion et de pointage, tels que les heures supplémentaires excessives. En outre, la fonction de suivi de la valorisation des temps fournit des informations détaillées sur chaque étape de valorisation pour un employé, en montrant comment les saisies de temps spécifiques sont calculées. Cela permet aux RH de répondre rapidement et facilement aux questions des collaborateurs concernant leur rémunération.
  • Amélioration de la transparence des processus de rémunération : Grâce à des flux d’approbation intelligents, les RH peuvent définir des règles pour automatiser l’approbation des feuilles de temps par lots. Grâce à l’approbation d’un seul enregistrement, les gestionnaires peuvent pré-approuver des demandes spécifiques, telles que le temps de déplacement associé au temps de travail effectif.
  • Une visibilité accrue sur l’ensemble des effectifs : Les responsables disposent d’une parfaite visibilité sur les coûts salariaux, y compris les feuilles de temps planifiées et enregistrées, sur les heures de travail et les coûts associés. Cela permet de connaître les coûts de main-d’œuvre, le suivi des congés et de la productivité, et ainsi de prendre de meilleures décisions.

« La nouvelle solution SAP SuccessFactors Time Tracking est un ajout important à la suite SAP SuccessFactors Human Experience Management« , a déclaré Steve Goldberg, vice-président et directeur de recherche de Ventana Research Inc. « L’automatisation et l’activation de ces processus peuvent être ardues, voire complexes, et les limites des solutions existantes sur le terrain n’ont pas aidé. Cette solution de gestion du temps basée sur le cloud offre un large éventail de fonctionnalités essentielles et innovantes, associées au type d’interface utilisateur moderne que les clients attendent des solutions SAP SuccessFactors ».

La disponibilité de la solution SAP SuccessFactors Time Tracking est prévue pour janvier 2021. Pour en savoir plus sur la solution, consultez le site sap.com/time-tracking.

Visitez le SAP News Center. Suivez SAP sur Twitter @SAPNews.

The post SAP SuccessFactors Time Tracking : une nouvelle solution cloud pour simplifier les processus RH et améliorer l’expérience des salariés appeared first on SAP France News.

Source de l’article sur sap.com

Le climat économique et social actuel a mis les entreprises de toutes tailles face à des défis inédits. Notre époque n’avait encore jamais connu de tels chamboulements, à la fois internes et externes. Les directeurs et services financiers, qui s’efforcent de bien gouverner leur entreprise, vivent sans doute les moments les plus difficiles de leur carrière.

À l’heure actuelle, le directeur financier et surtout l’équipe de planification et d’analyse financières doivent continuer d’avancer malgré de nombreuses incertitudes, notamment :

  • l’impact des perturbations des canaux de ventes sur le chiffre d’affaires
  • la gestion du flux de trésorerie et des liquidités
  • la gestion des dépenses et la maîtrise des coûts
  • les projections financières optimistes et les conseils basés sur des suppositions floues

Incertitudes et choix à faire

Pour le service de planification et d’analyse financières, ce ne sont pas des questions isolées, mais tout un ensemble de problèmes et de doutes qu’il faut gérer de manière globale. Faut-il puiser dans une ligne de crédit pour préserver la fluidité du fonds de roulement ? Le flux de trésorerie et les liquidités actuels permettront-ils de couvrir les dépenses à court terme ainsi que les initiatives de capital actuelles et à venir ? Peut-on bénéficier des programmes gouvernementaux d’aide salariale ? Que dire aux actionnaires sur les prévisions du solde de l’année ? Existe-t-il des moyens d’aider nos clients à réussir ?

Ces questions se posent aux services financiers, mais aussi à l’ensemble de l’entreprise, dont les différentes équipes se penchent sur les budgets et les tactiques envisageables.

  • Les programmes actuels tiennent-ils compte du marketing ?
  • La chaîne logistique est-elle confrontée à des disruptions ?
  • Quelles sont les conséquences pour la planification de la demande
  • Quelles sont les suggestions des RH concernant les niveaux d’effectifs actuels, et quels effets auront-elles sur les résultats ?

Il faut regrouper tous ces budgets et modèles individuels en une vue unique pour pouvoir comprendre les interdépendances.

Planification d’entreprise collaborative pour éliminer les silos

Un paradigme de planification moderne permettrait de résoudre facilement ces problèmes : la planification d’entreprise collaborative. Elle consiste entre autres à éliminer les silos, et ainsi à relier instantanément toutes sortes de plans. Les finances disposent donc d’un aperçu réel de la santé financière actuelle pour ne prodiguer que les conseils les plus avisés. Par exemple, elles peuvent évaluer l’impact d’un plan commercial sur les campagnes marketing, ou relier un processus S&OP (ventes et opérations) rapproché à un plan financier. Un analyste peut déterminer quel plan d’effectifs pourrait impacter la productivité des collaborateurs et la trésorerie.

Les finances doivent aussi pouvoir prendre des décisions rapides. Grâce à la planification d’entreprise collaborative, le service financier n’est pas tenu de suivre les plans établis. Aujourd’hui, on ne peut plus travailler dans un environnement où les plus mauvais services financiers repoussent les décisions parce qu’ils utilisent des feuilles de calcul et outils de planification obsolètes. Si au contraire ils disposent des technologies adéquates, ils pourront instantanément simuler l’impact de plusieurs scénarios. Les outils d’analyse modernes associés aux outils d’analyse prédictive et au Machine Learning leur permettront de suivre les recommandations pour obtenir les meilleurs résultats. Quant aux tableaux de bord et à la visualisation intégrée, ils offrent aux utilisateurs finaux un reporting en temps réel et une expérience esthétiquement agréable avec un risque d’erreur minimal, contrairement aux feuilles de calcul.

Une discussion instantanée pour une prise de décision rapide

Enfin, la plupart des organisations, y compris les services financiers, ont étendu leur capacité de travail à l’espace virtuel ; elles ne sont plus limitées par les murs de l’entreprise. La planification d’entreprise collaborative encourage la discussion instantanée pendant la planification et la prévision. Les problèmes géopolitiques ont eu des répercussions extraordinaires sur les prix des marchandises. Une situation qui, tout comme les problèmes liés à la pandémie, nécessite une collaboration et un consensus immédiats. Les décisions doivent être prises sans délai, sans le soutien des réunions, messages vocaux ou fils d’e-mails.

Avec la planification d’entreprise collaborative, les services financiers peuvent guider leur entreprise pour l’aider à obtenir les meilleurs résultats et à continuer d’avancer dans le bon sens malgré les difficultés du moment. La planification d’entreprise collaborative permet aux finances de comprendre tous les aspects de leur entreprise, de recommander et d’évaluer divers scénarios, de prendre les bonnes décisions, et de se positionner comme les véritables leaders de l’entreprise.

Pour en savoir plus, lisez ce rapport de Ventana Research intitulé « Planification d’entreprise collaborative : Améliorer la valeur opérationnelle de la planification et de la budgétisation à l’échelle de l’entreprise ».

À propos de Pras Chatterjee

Pras Chatterjee est directeur marketing produits principal pour la planification et l’analyse chez SAP, en particulier pour les solutions SAP Analytics Cloud et SAP Business Planning and Consolidation. Avant de rejoindre le service Marketing produits, Pras était directeur du cabinet SAP EPM et responsable des services SAP Business Analytics en Amérique du Nord. Il a également été architecte de solutions pour SAP, spécialisé dans la planification et les consolidations dans le monde entier. Comptable agréé, Pras a travaillé au service financier de diverses sociétés de logiciels, dont plusieurs entreprises du Fortune 500.

The post Accélérez les décisions pour tenir le coup en ces temps de disruption sans précédent appeared first on SAP France News.

Source de l’article sur sap.com

Comment améliorer, contrôler et automatiser ses processus ? L’utilisation de SAP Cloud Platform permet aux entreprises d’atteindre leurs objectifs de Process Excellence.

Une connaissance fine des processus et la capacité à les améliorer en continu sont les clés de l’excellence opérationnelle de l’entreprise. Ceci nécessite agilité, collaboration, automatisation et intelligence dans les processus.

Cet objectif d’excellence des processus peut être atteint au travers d’un cycle comprenant quatre étapes :

  1. compréhension des processus ;
  2. amélioration des processus ;
  3. automatisation des processus ;
  4. surveillance et ajustement des processus.

« Il est essentiel de comprendre les processus existants, avant de pouvoir les améliorer et en tirer plus de valeur », résume Olivier Enault, Presales for Information & Process Excellence, SAP France. La première phase consiste donc à découvrir les processus au travers de la technologie Process Mining de Celonis, qui va les détecter et les analyser.

Redessiner les processus avec SAP Cloud Platform Workflow

SAP Cloud Platform Workflow va permettre de créer ou redéfinir des processus, de façon transparente et simple. « SAP Cloud Platform Workflow propose un moteur complet de design et d’orchestration des workflows, explique Laurent Rieu, Business Development Director EMEA, SAP. Il permet de digitaliser des processus précédemment basés sur des opérations manuelles (par exemple des échanges de mails) et de les orchestrer de manière rigoureuse. »

L’exemple type de processus RH est l’arrivée d’un nouvel employé. En liaison avec le SI, le processus va enchainer des actions, combinant des règles métiers prédéfinies et des tâches effectuées manuellement. Un premier manager va par exemple vérifier que le coach et le matériel assigné à l’employé sont les bons. Un second va se charger d’organiser le déplacement du nouvel employé, lié à sa formation, etc. Et en fin de chaine, il sera possible de collecter l’expérience utilisateur au travers de l’offre Qualtrics, afin d’améliorer encore ce processus.

Automatiser les processus avec SAP Intelligent RPA

Toutes les tâches sans valeur ajoutée sont ensuite automatisées au travers de SAP Intelligent Robotic Process Automation. « Lancés par les utilisateurs ou déclenchés automatiquement suivant un évènement donné, les robots proposent un ROI très rapide, témoigne Laurent Rieu. Les projets de RPA sont courts (quelques semaines) et libèrent immédiatement du temps pour les collaborateurs de l’entreprise. »

L’objectif n’est pas d’éliminer l’humain de l’équation, mais d’automatiser tout ce qui peut l’être. Selon les cas, les processus seront donc entièrement automatisés (sous la supervision d’un responsable) ou partiellement automatisés, les robots servant alors de lien et de support aux différents intervenants.

Déploiement et surveillance assurés par SAP Cloud Platform

Les processus sont déployés par la suite sur SAP Cloud Platform. Le monitoring est alors pris en charge par SAP Cloud Platform Process Visibility. Cet outil offre une vue en temps réel des processus et de leurs instances et fait remonter immédiatement les informations sous la forme d’indicateurs de performance destinés aux utilisateurs métier. Ainsi, des tableaux de bords permettent d’identifier rapidement tout incident ou ralentissement.

Les informations fournies par SAP Cloud Platform Process Visibility serviront de base à un nouveau cycle d’amélioration et d’automatisation des processus. C’est cette boucle d’amélioration continue qui permettra d’atteindre l’objectif d’excellence des processus.

Accélérer la mise en œuvre des projets de digitalisation et d’automatisation des processus

Maintenant que la proposition de valeur des activités de digitalisation et d’automatisation des processus est claire, la question importante reste la suivante : « Comment accélérer la réalisation de tels projets ? ».

SAP Cloud Platform ne se contente pas de fournir les briques technologiques pour implémenter ces scénarios de digitalisation et d’automatisation des processus. Nous allons plus loin et proposons des modèles complets de processus, de robots d’automatisation et de tableaux de bord de pilotage prêts à l’emploi pour permettre de simplifier la mise en œuvre rapide de tels scénarios, tout en fournissant la flexibilité requise pour assurer l’adéquation entre ces modèles et les besoins de nos clients.

Vous trouverez ainsi une collection grandissante de robots d’automatisation prédéfinis sur notre site en ligne Intelligent RPA Store

Vous trouverez également un ensemble de modèles de processus et de tableaux de bord sur notre site API Business Hub

The post Atteignez l’excellence des processus avec la SAP Cloud Platform appeared first on SAP France News.

Source de l’article sur sap.com

Alors que les collaborateurs commencent à abandonner progressivement cette longue période de travail à distance et à retourner sur leur lieu de travail, les entreprises se demandent à quel moment et de quelle manière il convient de le faire en toute sécurité. Il s’agit d’une tâche essentielle et d’un nouveau défi pour tous, tant pour les employés que pour les responsables des ressources humaines (RH).

Tout d’abord, la santé ainsi que le bien-être des collaborateurs et de leurs familles sont en jeu. Deuxièmement, il existe des risques commerciaux que les employeurs peuvent ne pas prendre en compte, allant du respect de la vie privée au non-respect du règlement général sur la protection des données (RGPD).

Aux États-Unis, par exemple, les Centres pour le contrôle et la prévention des maladies (CDC) ont récemment formulé des recommandations détaillées pour améliorer la sécurité dans les immeubles de bureaux, notamment en contrôlant les températures et les symptômes. Par ailleurs, l’Equal Employment Opportunity Commission (EEOC) des États-Unis continue de réviser ses lignes directrices aux employeurs afin d’équilibrer le respect du Americans with Disabilities Act (ADA) et des CDC.

Cette situation peut être éprouvante pour n’importe quelle organisation. Nombreuses sont celles qui choisissent d’adopter une longue période de travail à distance avec des horaires flexibles. Les entreprises qui sont implantées dans plusieurs régions se trouvent dans des phases et des environnements très différents. De l’Asie à l’Europe, certaines régions se montrent plus agressives en matière de déconfinement.

La première recommandation que j’adresse aux clients qui envisagent de faire revenir leurs employés au travail en toute sécurité est de commencer par un plan qui intégrera les processus RH. Pour aider les clients de tous les secteurs et de tous les pays à gérer cette transition, SAP a publié les principales mises à jour de la solution SAP SuccessFactors Visa and Permits Management ainsi que l’application partenaire Guardian by AlertEnterprise.

Une technologie SAP tournée vers l’avenir pour un lieu de travail sûr et sain

Au lancement, la solution SAP SuccessFactors Visa and Permits avait un cas d’utilisation particulier, comme en témoigne son nom. Cependant, en travaillant avec ses clients pour étendre ses capacités, SAP a découvert de nombreux cas d’utilisation autour du suivi des certificats, des licences, des justificatifs et de bien d’autres choses encore qui sont particulièrement pertinentes aujourd’hui. Grâce à cette solution, les utilisateurs peuvent désormais contrôler le processus visant à faire revenir les employés au bureau tout en automatisant l’application de politiques complexes et évolutives en matière de santé et de sécurité liées au COVID-19 pour mieux protéger les personnes.

En quoi ces outils sont-ils utiles ?

Pour assurer un retour au travail sûr et sain, voici une approche en trois étapes qui vous permettra de démarrer.

Préparation

Grâce à la solution SAP SuccessFactors Visa and Permits, soutenez le déconfinement tout en minimisant les risques, et gérez les procédures de santé et de sécurité qui encadrent le retour au travail des collaborateurs.

  • Prévoyez pour vos collaborateurs un moyen sûr d’envoyer les documents, comme une preuve de certificat numérique de santé ou des justificatifs, avant leur retour au travail.
  • Suivez les coûts du dépistage. Les fonctionnalités de libre-service permettent aux utilisateurs de remplir et de soumettre des documents afin de réduire le travail manuel.
  • Gérez les renseignements médicaux sensibles des collaborateurs. Par exemple, les lignes directrices de l’EEOC précisent que l’ADA demande que les renseignements médicaux concernant un employé soient stockés séparément du dossier personnel de l’individu afin de limiter l’accès aux informations confidentielles. Autrement dit, au lieu de stocker les nouveaux renseignements médicaux dans SAP SuccessFactors Employee Central, ces informations peuvent être gérées dans SAP SuccessFactors Visa and Permits, ce qui contribue à la fois à sécuriser les données et à protéger les collaborateurs.
  • Réduisez le risque d’encourir de lourdes sanctions financières, comme le non-respect du RGPD en matière de « traitement de catégories particulières de données à caractère personnel ». Respectez les réglementations légales supplémentaires et les règles en matière de confidentialité des données, comme la Health Insurance Portability And Accountability Act ou HIPAA.
  • Configurez les processus de notification, d’approbation, de renouvellement et plus. Les tableaux de bord fournissent un aperçu de la conformité, et les actions en temps réel permettent aux entreprises de gérer en toute confiance leur personnel dans un environnement en constante évolution.
  • En ce qui concerne l’intégration, les entreprises ont la possibilité de simplifier le processus d’embauche afin de traiter les formalités administratives le plus tôt possible pour que les nouveaux collaborateurs puissent commencer à travailler.

Prévention

Faites revenir le personnel non essentiel au bureau en toute sécurité grâce à la solution AlertEnterprise Health & Safety Access Governance.

  • Contrôlez le nombre de personnes dans les locaux, gérez l’accès aux sites qui sont temporairement saturés et autorisez de nouveaux modes de travail par roulement
  • Prévoyez un système d’autodéclaration et d’autoattestation avec un rétablissement contrôlé de l’accès au lieu de travail déterminé par la politique. Par exemple, les employés et les visiteurs peuvent s’autoévaluer et vérifier s’ils ont de la fièvre, si quelqu’un dans leur foyer a été déclaré positif au COVID-19, etc.
  • Gérez les contrôles d’entrée au site grâce au libre-service pour les contrôles préalables, comme les contrôles de température, avec l’application de politiques et la gestion de l’accès.
  • Mettez en place des systèmes de badges et de sécurité pour gérer l’accès à l’espace de travail et contribuer à l’application des politiques de l’entreprise, comme avec le retrait automatique de l’accès.

Détection

Minimisez les risques permanents grâce à la solution AlertEnterprise Health & Safety Intelligence Tracker et protégez votre lieu de travail.

  • Utilisez les analyses pour suivre les personnes qui ont été exposées au COVID-19 ou qui pourraient l’être. Cette technologie permet de suivre une infection suspecte ou confirmée et de détecter les personnes ainsi que les zones susceptibles d’avoir été exposées au virus.
  • Déterminez les zones exposées pour les mettre en quarantaine ou les assainir. Les zones à haut risque peuvent alors être désinfectées, et les personnes à haut risque peuvent se voir retirer leur accès de sécurité.
  • Prenez des décisions à partir de données concrètes, comme les niveaux d’exposition, les cartes thermiques de localisation, et d’autres analyses de santé et de sécurité.

En ce qui concerne le déconfinement, les clients comprennent qu’il ne s’agit pas de revenir au travail comme si de rien n’était. Ils savent que le déconfinement ne se résume pas à choisir une date pour ouvrir les portes et à distribuer du gel hydroalcoolique. En cette période d’incertitude, ils veulent apprendre à préserver la santé, la sécurité et la sûreté de leurs collaborateurs et clientèle.

Si chacun doit jouer son rôle en assumant une responsabilité personnelle, les employeurs peuvent ouvrir la voie à un retour au travail sûr et sain.

 

Imran Sajid est le directeur international de la gestion du capital humain pour SAP SuccessFactors.

Publié pour la première fois en anglais sur news.sap.com

The post Préparer, prévenir, détecter : comment les employeurs peuvent assurer un retour au travail sûr et sain appeared first on SAP France News.

Source de l’article sur sap.com

WALLDORF, Allemagne – 18 juin 2020SAP SE (NYSE : SAP) a annoncé aujourd’hui de nouvelles capacités, des améliorations et une plus grande unification du portefeuille Business Technology Platform pour aider les entreprises à transformer les données en valeur commerciale.

La plateforme technologique de SAP permet aux développeurs et aux utilisateurs d’accéder à des services et des outils intégrés de bout en bout pour réaliser une valeur ajoutée dans trois domaines essentiels de l’informatique : l’excellence des données, l’intégration des processus et leur extension.

L’annonce a été faite lors de la conférence SAPPHIRE NOW® Converge, qui se tient en ligne du 15 au 19 juin 2020.

« De nombreux clients avec lesquels j’ai échangé ont exprimé le besoin d’agilité et de rapidité d’exécution, rendu encore plus urgent par la pandémie COVID-19 », a déclaré Juergen Mueller, CTO et membre du conseil d’administration de SAP. « Pour réaliser ces deux objectifs, la technologie devient encore plus importante, et SAP peut aider à relever ces défis. Nous avons apporté des améliorations significatives à chaque composante majeure de notre plate-forme technologique pour aider les clients de tous les secteurs à surmonter les obstacles liés à l’omniprésence des données, à la complexité des technologies de l’information et à la volatilité des affaires ».

Des organisations telles que Parkland Health and Hospital System à Dallas utilisent la SAP Business Technology Platform combinée à la Qualtrics® XM Platform pour la gestion de l’expérience ainsi que prédire l’activité et les ressources nécessaires pour l’accueil et le suivi des patients, un besoin critique pendant la crise COVID-19.

« À Parkland, nous nous consacrons à la santé et au bien-être des individus et des communautés que nous adressons en fixant la norme d’excellence pour les systèmes de santé publics et universitaires », a déclaré Scott Harrison, directeur des données du système de santé et des hôpitaux de Parkland. « Notre personnel clinique utilise des tableaux de bord numériqiues construits avec la Business Technology Platform de SAP pour l’analyse et la planification, et la plate-forme Qualtrics XM pour l’analyse des sentiments. Nous estimons qu’un socle technologique totalement intégré est essentiel pour les plus de 240 000 patients des urgences que nous soignons chaque année, et pour soutenir notre croissance et nos innovations futures ».

L’unité commerciale Henkel Adhesive Technologies, leader mondial des adhésifs, des mastics et des revêtements fonctionnels, met au point une application pour ses quelques 4 500 représentants commerciaux, basée sur la SAP Business Technology Platform. « Nous voulons créer un environnement de travail numérique moderne et efficace, en augmentant la vitesse et l’efficacité des activités de vente et en renforçant ainsi l’expérience des clients dans le monde entier », a déclaré Sascha Latzberg, Directeur Sales & Channel Excellence CRM chez Henkel Adhesive Technologies. « Notre plateforme numérique CRM nous permet d’être rapides et flexibles et accroît l’indépendance des représentants commerciaux qui se déplacent et travaillent depuis leur domicile. Avec l’aide de la SAP Business Technology Platform et de nos analyses avancées, nous pouvons exploiter les données CRM pour obtenir des informations qui nous aident à créer une valeur ajoutée pour nos clients ».

Que ce soit sur site, dans le cloud ou dans un modèle hybride, la SAP Business Technology Platform permet aux entreprises de :

Excellence des données

Cette année marque le dixième anniversaire de SAP HANA, qui compte désormais plus de 32 400 clients. La dernière version, SAP HANA 2.0 SPS 05, devrait être livrée à la fin du mois de juin. Elle prendra en charge des scénarios hybrides avec la plate-forme de données SAP HANA Cloud et offrira de nouvelles fonctionnalités, notamment l’extension de stockage natif SAP HANA améliorée pour simplifier la gestion des données et réduire le coût total de possession. Selon les prévisions d’IDC, les clients de SAP HANA obtiendront un retour sur investissement moyen de 679 % sur cinq ans. Le Cloud SAP HANA fournit une base puissante de gestion et d’analyse des données pour les solutions d’innovation telles que le Cloud SAP Data Warehouse.

Elle est maintenant disponible sur Amazon Web Services, en plus de Microsoft Azure, pour offrir une plus grande flexibilité et un plus grand choix aux clients qui passent au cloud. SAP prévoit un essai ouvert pour SAP HANA Cloud début juillet.

SAP Data Warehouse Cloud et SAP Analytics Cloud comprennent une gamme étendue de scenarios pré-construits de bout en bout qui répondent aux questions commerciales et techniques clés des entreprises qui cherchent à obtenir rapidement des informations à partir de données.

La dernière mise à jour de SAP Data Warehouse Cloud inclut du contenu métier pour le secteur du retail. Un écosystème en pleine croissance, avec des centaines de partenaires devrait fournir davantage de contenu et de connecteurs de données pré-construits pour le Data Warehouse Cloud de SAP sur le SAP App Center.

Afin d’aider les utilisateurs et les analystes à créer plus facilement des modèles de données compréhensibles en utilisant des termes commerciaux, la nouvelle fonction de couche commerciale de SAP Data Warehouse Cloud est prévue pour le début du troisième trimestre 2020. SAP Data Warehouse Cloud offrira également également une fonctionnalité intégrée de flux de données, permettant aux clients de choisir parmi une large gamme de connecteurs pour construire des processus d’intégration de données hautement évolutifs vers et depuis n’importe quelle source de données.

SAP Data Warehouse Cloud est plus étroitement intégré à SAP Analytics Cloud pour un environnement de données et d’analyse plus unifié. Cela permet d’obtenir une image claire et précise de toutes les données afin de transformer les analyses en véritables informations commerciales. La plateforme SAP BusinessObjects™ Business Intelligence 4.3 est sortie le 12 juin 2020 et est plus étroitement intégrée à SAP Analytics Cloud pour une transition plus facile vers le cloud. Les fonctionnalités de planification et de prévision sont intégrées dans la dernière mise à jour de SAP Analytics Cloud pour une planification plus rapide et plus puissante, et sont actuellement disponibles pour un essai gratuit.

Découvrez comment des entreprises telles que Porsche AG, Geberit AG, et Idorsia Pharmaceuticals Ltd, prévoient d’utiliser la puissance du Cloud SAP HANA, du Cloud SAP Data Warehouse, du Cloud SAP Analytics et de la plate-forme SAP Cloud.

Intégration

Grâce à la nouvelle tarification simplifiée de SAP Cloud Platform Integration Suite, les clients peuvent bénéficier d’un package basé sur la valeur et d’une tarification attractive ainsi que d’un achat et d’une consommation simplifiés des services d’intégration. Les clients peuvent désormais s’inscrire une seule fois pour utiliser toutes les fonctionnalités au lieu de devoir passer par plusieurs services sous licence. Cela leur offre la possibilité de consommer un service de la suite à la demande à tout moment grâce à un système de mesure simplifié basé sur des messages. En outre, SAP fournit des packs d’intégration pré-construits entre les applications SAP avec des messages standard sans frais supplémentaires.

Extension

Les améliorations apportées aux flux de travail grâce à la suite SAP Cloud Platform Extension Suite et les nouveaux ensembles de contenus de processus en direct aideront les clients à adapter et à étendre leurs processus commerciaux à la volée et en temps réel pour répondre à l’évolution des demandes et accroître l’efficacité.

Les experts en processus métier peuvent désormais gérer les flux de travail sur les processus en cours d’exécution, comme pour l’approbation des dépenses d’investissement, en utilisant un outil dédié pour découvrir, configurer et exécuter les extensions d’applications, le tout sans l’aide d’un service informatique. Il en résulte un temps de valorisation plus court et des coûts de mise en œuvre plus faibles.

Honeywell et SAP ont récemment annoncé qu’ils s’étaient associés pour créer une solution commune basée sur le cloud pour le secteur de l’immobilier. La solution, qui devrait être basée sur Honeywell Forge et SAP Cloud Platform, vise à rationaliser les données opérationnelles et commerciales pour gagner en efficacité, à améliorer les performances de l’entreprise en obtenant des informations commerciales précieuses et à améliorer la gestion de l’expérience des employés grâce à une analyse puissante des données sur les sentiments.

Pour plus de détails, cliquez ici.

Pour connaitre les nouveautés annoncées lors du SAPPHIRE, cliquer ici.

Trouvez, essayez et achetez des solutions SAP en ligne sur SAP Store et SAP.com.

Pour en savoir plus, regarder cette vidéo d’expert.

The post SAP Business Technology Platform: Un trio entre excellence, intégration et extension des données appeared first on SAP France News.

Source de l’article sur sap.com

Nombre d’amalgames sont faits lorsque sont abordés les plans de continuité d’activité, de reprise d’activité, de continuité informatique…
Tentons de clarifier les éléments de vocabulaire.

PCA : Haute disponibilité de la production

Le Plan de Continuité d’Activité (PCA) définit pour l’entreprise les architectures, les moyens et les procédures nécessaires pour assurer une continuité de son activité.
En cas d’incidents, de toute taille et toute nature, l’activité des métiers n’est pas interrompue.
Nous retrouvons ici la mise en oeuvre d’équipements, de procédures qui garantissent la continuité d’activité comme par exemple un système de production électrique en cas de défection du fournisseur d’énergie, des lignes de production « clonées » pour garantir la poursuite de fabrication en cas d’arrêt machines inopinés.

PRA : Reprise en cas de sinistre

Organisation palliative en cas d’absence de PCA, ou élément complémentaire du PCA, le Plan de Reprise d’Activité (PRA) est l’ensemble des processus qui permettent de repartir après un sinistre. Bien souvent sont définis des modes dégradés qui permettent à l’entreprise de redémarrer son activité, dans des locaux de transition, avec des solutions de gestion manuelles. Le sinistre pouvant être la cause d’une dégradation partielle ou totale des outils de production et de gestion. La priorité est de faire repartir les moyens de production ou de service pour reprendre le service client au plus vite et ne pas entraîner d’impacts commerciaux préjudiciables pour la société.

PCI et PRI : Pour les informaticiens

Les directions des systèmes d’information doivent à leur niveau assurer une mise en oeuvre de Plan de continuité et de reprise d’activité informatique.
Pour l’informaticien, d’une part Recovery Time Objective (RTO) qui correspond à la durée nécessaire à une « remise en production » d’un environnement informatique et d’autre part Recovery Point Objective (RPO) qui correspond à la période de données non récupérables, sont parmi les principaux indicateurs.

L’amalgame de terminologie est souvent fait entre métiers et DSI.  PRA et PCA sont utilisés par tous.
Dans l’approche développée chez Ankaa Engineering, nous provoquons une distinction entre les périmètres de responsabilité des métiers et ceux de la DSI.
Nous avons trop souvent rencontré des entreprises dans lesquelles la mise en oeuvre d’un PCA et PRA avaient été transmis à la DSI, DSI qui réduisait à son stricte périmètre de responsabilité son étude et mise en oeuvre de plans.
L’usage de terminologies appropriées apporte une clarification des périmètres et responsabilités.

PCC : L’oublié

Le Plan de Communication en cas de Crise (PCC) est très souvent oublié alors qu’il est essentiel et fondamental.
Deux niveaux sont à considérer :
– L’identification des indicateurs et de leurs  seuils respectifs de déclenchement des PCA, PRA, PCI, PRI (quand doit on activer le(s) plan(s) et comment).
– La diffusion et le contrôle de connaissance des procédures associées aux plans auprès de l’ensemble des salariés et sous-traitants.

La communication en cas de crise aborde en second lieu les besoins éventuels de relations publiques et presse.

Plan SOS

SOS : Le plan général

Selon l’approche méthodologique Ankaa Engineering®, PCA PRA PCI PRI et PCC composent l’ensemble du Suivi Opérationnel de Service (SOS).

Respect des contraintes réglementaires (BALE, SARBANES OXLEY, etc) , priorité aux opérations métier servent de base à l’identification des activités critiques.
A l’inverse d’une approche strictement basée sur le nombre d’appels téléphoniques susceptible d’être reçus par le service support, le serveur à reconstruire ou redémarrer en premier n’est pas celui de la messagerie (Oups !)…mais bien celui qui permet à la production de repartir (GPAO, GC, CRM, etc) et aux factures de ventes d’être émises.

Une analyse de l’exposition aux risques (AMDEC) permet de limiter le périmètre des plans et donc les budgets associés.
Plus l’objectif  de continuité est ambitieux, plus les budgets à affecter aux contournement des risques sont conséquents.

Consultations fournisseurs, aménagements techniques, simulation de crise et rédactions de procédures demandent du temps.
Les processus à activer par les salariés et sous-traitants en cas de crise demandent une organisation de suivi à l’intégration.

Et le travail dans ce domaine est perpétuel…
Chaque changement de processus métier, organisationnel ou réglementaire demandera un contrôle de cohérence du plan en place et un alignement en cas d’écarts.

Gérer un SOS est un vrai métier.

Abordons le domaine des Achats, en terme d’interventions en Conseil organisationnel-processus-méthodologies, abordé de fait sous l’angle d’actions en amélioration, professionnalisation et « best practice » ; ou autrement dit, sur un plan technique, d’actions sur la réduction des coûts, la rationalisation du panel Fournisseurs, l’outsourcing de familles d’achats, etc.

Qu’est-ce que l’audit des fournisseurs ?

Définition : Pratique qui permet d’évaluer son Fournisseur, à l’aide d’une méthode et d’un outil, sur plusieurs critères et axes (ex : pour les principaux axes, ceux de Qualité – Coût – Délai) d’analyses prédéfinis. Le processus d’audit est piloté par l’Acheteur, mais les acteurs sont bien plus larges. Ils peuvent être, par exemple, les Prescripteurs, les Comptables, les Qualité/BE, les Approvisionneurs.
Résultat : Il résulte de l’évaluation d’un Fournisseur, une Note finale et des Notes intermédiaires, puis des restitutions graphiques, inhérentes aux choix faits sur les niveaux de pondération et système de notation lors de la mise en oeuvre de la pratique.
But : Cette pratique permet d’apprécier un Fournisseur selon ses propres critères ou sa stratégie achat, de le situer selon ses concurrents, et d’aviser de la suite du partenariat selon les résultats obtenus, voire les résultats obtenus au terme du plan d’actions correctives.
Evolution : Hier, la pratique était réalisée par l’Acheteur, pratiquement seul et pour sa famille d’achats.
Aujourd’hui, certaine Organisation (surtout les grands Groupes) ont mis en place des Départements dédiés, qui rendent compte aux Acheteurs. La pratique s’est fortement professionnalisée avec l’évolution des Achats. Ceci dit, à ce jour, certaines Entreprises n’évaluent toujours pas leurs Fournisseurs.
A eux, s’adressent ce message ou à ceux qui aimeraient améliorer leur façon de faire.

Quels bénéfices tirer d’un audit des fournisseurs ?

Le « processus » en soi et les « résultats » obtenus proposent plusieurs centres d’intérêts.
D’un point de vue « processus », quelques-uns des bénéfices sont le développement de la proximité avec son Fournisseur et ses Prescripteurs, l’évolution du partenariat, l’assise de l’Acheteur face à son Fournisseur (une équité de la relation souvent rétablie, un respect réciproque), …
D’un point de vue « résultats », quelques apports résident en l’évolution du Fournisseur par sa mise en oeuvre des actions correctives qui lui ont été assignées par un accord commun, l’émergence de leviers de réduction des coûts pour l’Acheteur lesquels apparaissent sous des composantes du prix plus visibles et dissuasives du côté du Fournisseur, ou encore, le bénéfice de l’évitement d’une perte financière importante.

Audit de ses fournisseurs

Des exemples évocateurs…

Une Structure pour laquelle j’ai défini et mis en place les méthodologie et outil d’audit des Fournisseurs, aurait pu éviter une perte d’exploitation d’une valeur de 136.5 K€ par la démarche de l’évaluation. Le problème d’origine technique ; les visites sur site des Techniciens n’ont pas suffi. Qui puis est, ce manque à gagner représente la moitié du prix d’achat de l’équipement qui a dysfonctionné, engendrant une perte financière non
négligeable.
Je ne vous ai pas présenté volontairement, les axes d’évaluation possibles, les critères d’audit, les niveaux de pondération ou systèmes de notations, les outils disponibles, les outils achats de sélection des Fournisseurs, le suivi est les types d’actions correctives … ce n’est pas le sujet et ce serait trop dense.
Sachez juste, que ces éléments sont adaptables à vos familles et stratégies d’achats puis à vos marchés Fournisseurs.

Quel pourrait être le coût d’une mise en oeuvre ?

Outre le coût, intéressons-nous au ROI.
Ma dernière intervention d’une durée de 3,5 mois sur le sujet, a permis d’atteindre le ROI sous 2 mois, avec un coût de mise en oeuvre représentant 0,4% du CA Achats (ne considérant que le CA réalisé auprès des Fournisseurs de Cl. A-B multi familles).

 

Quelle est votre maturité Achat ? Comment challenger vous vos Fournisseurs ? Quelle connaissance avez-vous de vos Fournisseurs ? etc.
Besoin d’auditer vos fournisseurs ? Rencontrons-nous pour en parler.

 

Sandrine
Consultante Ankaa Engineering®
Professionnelle de 20 ans en Management de la fonction Achat et en Conseil organisationnel et de transformation, Sandrine a travaillé au sein d’environnements multiculturels, aux côtés d’équipes pluridisciplinaires.
Elle a exercé aussi bien auprès de grands Groupes que de PME-PMI, lui permettant ainsi d’approcher des problématiques différentes, des modes de fonctionnement hétérogènes, des circuits de décisions variés, des priorités et enjeux originaux.
Le parcours à dominante industrielle de Sandrine, lui a donné la possibilité de développer certaines compétences dont quelques-unes la distinguent ; telles qu’une double compétence métier, une bonne capacité d’adaptation, un fort sens du résultat et du service, une grande pratique de méthodes et outils métiers.
Ses domaines de prédilection :

  • Strategies achats – Optimisation de processus – Organisation – Methode
  • Sourcing, negociation, contractualisation
  • Pilotage de projets et changements – Evaluation sous KPI
  • Perimetres internationaux, Gestion simultanee, Management transverse