Articles

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com

Les données jouent un rôle clé dans le fonctionnement des entreprises. Il est donc essentiel de leur donner du sens et de déterminer leur pertinence parmi la multitude d’informations générées par les systèmes et technologies qui soutiennent nos économies mondiales hautement connectées. Les données sont omniprésentes, mais inutiles en tant que telles. Pour exploiter toutes les formes de données et les utiliser de manière pratique et efficace dans les chaînes logistiques, les réseaux d’employés, les écosystèmes de clients et de partenaires, etc., les entreprises doivent mettre en œuvre une stratégie, une gouvernance et un modèle de data management performants.

Qu’est-ce que le data management (ou gestion des données) ? Le data management consiste à collecter, organiser et accéder aux données en vue d’améliorer la productivité, l’efficacité et la prise de décision. Compte tenu de l’importance accrue des données, il est essentiel que toute entreprise, indépendamment de sa taille et de son secteur d’activité, mette en place un système moderne et une stratégie efficace de data management.

Petite infographie qui illustre les principaux éléments du data management

Le processus de data management comprend un large éventail de tâches et de procédures. Par exemple :

  • Collecte, traitement, validation et stockage des données
  • Intégration de différents types de données émanant de sources disparates, notamment des données structurées et non structurées
  • Haute disponibilité des données et restauration après sinistre
  • Gestion de l’utilisation des données et de l’accès aux données par les collaborateurs et les applications
  • Protection et sécurisation des données en garantissant leur confidentialité

Pourquoi le data management est-il important ?

Les applications, solutions analytiques et algorithmes utilisés dans une entreprise (c’est-à-dire les règles et les processus associés au moyen desquels les ordinateurs résolvent les problèmes et exécutent les tâches) reposent sur un accès transparent aux données. Fondamentalement, un système de data management permet de garantir la sécurité, la disponibilité et l’exactitude des données. Mais ses avantages ne s’arrêtent pas là.

Transformer le Big Data en actif à forte valeur ajoutée

Les données trop volumineuses peuvent être inutiles, voire nuisibles, si elles ne sont pas gérées de manière appropriée. Toutefois, avec les outils adéquats, les entreprises peuvent exploiter le Big Data pour enrichir plus que jamais les renseignements dont elles disposent et améliorer leurs capacités prévisionnelles. Le Big Data peut les aider à mieux comprendre les attentes de leurs clients et à leur offrir une expérience exceptionnelle. L’analyse et l’interprétation du Big Data permet également de mettre en place de nouveaux modèles de gestion axés sur les données, tels que les offres de services basées sur l’Internet des Objets (IoT) en temps réel et les données de capteurs.

163 zettaoctets de données en 2025 (IDC)

80 % des données mondiales seront non structurées en 2025 (IDC)

Les Big Data sont des ensembles de données extrêmement volumineux, souvent caractérisés par les cinq V : le volume de données collectées, la variété des types de données, la vitesse à laquelle les données sont générées, la véracité des données et leur valeur.

Il est bien connu que les entreprises pilotées par les données disposent d’un avantage concurrentiel majeur. En utilisant des outils avancés, les entreprises peuvent gérer des volumes de données plus importants provenant de sources plus diversifiées que jamais. Elles peuvent aussi exploiter des données très variées, structurées et non structurées ou en temps réel, notamment les données des dispositifs IoT, les fichiers audio et vidéo, les données du parcours de navigation sur Internet et les commentaires sur les réseaux sociaux, ce qui leur offre davantage de possibilités de monétiser les données et de les utiliser comme véritable actif.

Créer une infrastructure de données qui favorise la transformation numérique

On dit souvent que les données sont le moteur de la transformation numérique. L’intelligence artificielle (IA), le machine learning, l’Industrie 4.0, les analyses avancées, l’Internet des Objets et l’automatisation intelligente requièrent d’énormes volumes de données ponctuelles, exactes et sécurisées.

L’importance des données et des technologies axées sur les données n’a fait que se renforcer depuis l’apparition de la COVID-19. De nombreuses entreprises ressentent le besoin urgent d’exploiter leurs données de manière plus efficace pour prévoir les événements à venir, réagir rapidement et intégrer la résilience dans leurs plans et modèles de gestion.

Le machine learning, par exemple, requiert des ensembles de données extrêmement volumineux et diversifiés pour « apprendre », identifier des modèles complexes, résoudre les problèmes et assurer la mise à jour et l’exécution efficace des modèles et algorithmes. Les analyses avancées (qui exploitent souvent l’apprentissage automatique) requièrent également de gros volumes de données de haute qualité pour pouvoir générer des informations pertinentes et exploitables qui puissent être utilisées en toute confiance. Quant à l’IoT et l’IoT industriel, ils s’exécutent sur un flux constant de données de machines et capteurs à 1,6 millions de kilomètres par minute.

Les données sont le dénominateur commun de tout projet de transformation numérique. Pour transformer leurs processus, tirer parti des nouvelles technologies et devenir intelligentes, les entreprises doivent disposer d’une infrastructure de données solide. En résumé, d’un système de data management moderne.

« La survie de toute entreprise dépendra d’une architecture agile centrée sur les données, capable de s’adapter au rythme constant du changement. »

Donald Feinberg, vice-président de Gartner

Garantir la conformité aux lois en matière de confidentialité des données

Une gestion appropriée des données est également essentielle pour garantir la conformité aux lois nationales et internationales en matière de confidentialité des données, telles que le Règlement général sur la protection des données (RGPD) et la loi californienne sur la protection de la vie privée des consommateurs (California Consumer Privacy Act ou « CCPA ») aux États-Unis, et répondre aux exigences de confidentialité et de sécurité spécifiques du secteur. En outre, il est essentiel de mettre en place des politiques et procédures solides en matière de data management pour satisfaire aux exigences d’audit.


Systèmes et composants du data management

Les systèmes de data management reposent sur des plates-formes et intègrent une combinaison de composants et processus qui vous aident à tirer profit de vos données. Il peut s’agir de systèmes de gestion de base de données, d’entrepôts de données, de lacs de données, d’outils d’intégration de données, d’outils analytiques, etc.

Systèmes de gestion de base de données (SGBD)

Il existe différents types de systèmes de gestion de base de données. Les systèmes les plus courants sont les systèmes de gestion de base de données relationnelle (SGBDR), les systèmes de gestion de base de données orientée objet (SGBDOO), les bases de données in-memory et les bases de données en colonnes.

Petite infographie des différents types de systèmes de gestion de base de données

  • Système de Gestion de Base de Données Relationnelle (SGBDR) :il s’agit d’un système qui contient des définitions de données permettant aux programmes et aux systèmes d’extraction de référencer les éléments de données par nom, plutôt que de décrire à chaque fois la structure et l’emplacement des données. En fonction du modèle relationnel, le système SGBDR gère également les relations entre les éléments de données qui améliorent l’accès et empêchent les doublons. Par exemple, la définition et les caractéristiques de base d’un élément sont stockées une seule fois et liées aux lignes de détail des commandes clients et aux tables de détermination du prix.
  • Système de Gestion de Base de Données Orientée Objet (SGBDOO) :il s’agit d’une approche différente de la définition et du stockage de données, développée et utilisée par les développeurs de systèmes de programmation orientée objet (SPOO). Les données sont stockées en tant qu’objets, entités autonomes et auto-décrites, plutôt que dans des tables à l’image du système SGBDR.
  • Base de données in-memory :une base de données in-memory (BDIM) stocke les données dans la mémoire principale (RAM) d’un ordinateur, plutôt que sur un lecteur de disque. L’extraction des données étant beaucoup plus rapide qu’à partir d’un système basé sur disque, les bases de données in-memory sont couramment utilisées par les applications qui exigent des temps de réponse rapides. Par exemple, les données qu’il fallait auparavant compiler dans un rapport sont désormais accessibles et peuvent être analysées en quelques minutes, voire quelques secondes.
  • Base de données en colonnes : une base de données en colonnes stocke des groupes de données liées (une « colonne » d’informations) pour y accéder plus rapidement. Cette base de données est utilisée dans les applications de gestion in-memory modernes et dans de nombreuses applications d’entrepôt de données autonomes dans lesquelles la vitesse d’extraction (d’un éventail de données limité) est importante.

Entrepôts et lacs de données

  • Entrepôt de données :un entrepôt de données est un référentiel central de données cumulées à partir de différentes sources à des fins de reporting et d’analyse.
  • Lac de données :un lac de données est un vaste pool de données stockées dans leur format brut ou naturel. Les lacs de données sont généralement utilisés pour stocker le Big Data, y compris les données structurées, non structurées et semi-structurées.

Gestion des données de base (MDM)

La gestion des données de base est une discipline qui consiste à créer une référence de base fiable (référence unique) de toutes les données de gestion importantes, telles que les données produit, les données client, les données d’actifs, les données financières, etc. Elle garantit que l’entreprise n’utilise pas plusieurs versions potentiellement incohérentes des données dans ses différentes activités, y compris dans les processus, les opérations, l’analyse et le reporting. La consolidation des données, la gouvernance des données et la gestion de la qualité des données constituent les trois piliers clés d’une gestion des données de base efficace.

« Une discipline basée sur la technologie dans laquelle l’entreprise et l’organisation informatique collaborent pour garantir l’uniformité, la précision, l’administration, la cohérence sémantique et la responsabilité des ressources de données de base partagées officielles de l’entreprise. »

Définition de la gestion des données de base par Gartner

Gestion du Big Data

De nouveaux types de bases de données et d’outils ont été développés pour gérer le Big Data : d’énormes volumes de données structurées, non structurées et semi-structurées inondent les entreprises aujourd’hui. Outre les infrastructures basées sur le Cloud et les techniques de traitement hautement efficaces mises en place pour gérer le volume et la vitesse, de nouvelles approches ont vu le jour pour interpréter et gérer la variété de données. Pour que les outils de data management puissent comprendre et utiliser différents types de données non structurées, par exemple, de nouveaux processus de prétraitement permettent d’identifier et de classer les éléments de données en vue de faciliter leur stockage et leur extraction.

Intégration des données

L’intégration des données consiste à intégrer, transformer, combiner et mettre à disposition les données à l’endroit et au moment où les utilisateurs en ont besoin. Cette intégration s’effectue dans l’entreprise et au-delà, chez les partenaires et dans les cas d’utilisation et les sources de données tierces, pour répondre aux besoins de consommation de données de toutes les applications et de tous les processus de gestion. Les techniques utilisées incluent le déplacement des données en masse/par lots, l’extraction, la transformation, le chargement (ETL), la capture des données de modification, la réplication des données, la virtualisation des données, l’intégration des données de streaming, l’orchestration des données, etc.

Gouvernance, sécurité et conformité des données

La gouvernance des données est un ensemble de règles et de responsabilités visant à garantir la disponibilité, la qualité, la conformité et la sécurité des données dans toute l’organisation. Elle définit l’infrastructure et désigne les collaborateurs (ou postes) au sein d’une organisation dotés du pouvoir et de la responsabilité nécessaires pour assurer le traitement et la sauvegarde de types de données spécifiques. La gouvernance des données est un aspect clé de la conformité. Alors que les mécanismes de stockage, de traitement et de sécurité sont gérés par les systèmes, la gouvernance des collaborateurs permet de s’assurer que les données sont exactes, correctement gérées et protégées avant d’être entrées dans les systèmes, lorsqu’elles sont utilisées, puis lorsqu’elles sont extraites des systèmes à d’autres fins d’utilisation et de stockage. La gouvernance détermine comment les responsables utilisent les processus et les technologies pour gérer et protéger les données.

La sécurité des données est bien évidemment une préoccupation majeure dans notre monde actuel constamment menacé par les pirates informatiques, les virus, les cyberattaques et les violations de données. Bien que la sécurité soit intégrée dans les systèmes et les applications, la gouvernance des données garantit que ces systèmes sont correctement configurés et administrés pour protéger les données, et que les procédures et les responsabilités sont appliquées pour assurer leur protection en dehors des systèmes et de la base de données.

Business Intelligence et analyses

La plupart des systèmes de data management, sinon tous, incluent des outils de reporting et d’extraction des données de base, et beaucoup d’entre eux intègrent ou sont fournis avec de puissantes applications d’extraction, d’analyses et de reporting. Les applications d’analyses et de reporting sont également disponibles auprès de développeurs tiers et sont presque toujours incluses dans le groupe d’applications en tant que fonctionnalité standard ou en tant que module complémentaire facultatif pour des fonctionnalités plus avancées.

La puissance des systèmes de data management actuels réside, dans une large mesure, dans les outils d’extraction ad hoc qui permettent aux utilisateurs disposant d’un minimum de formation de créer leurs propres extractions de données à l’écran et d’imprimer des rapports en bénéficiant d’une grande flexibilité dans la mise en forme, les calculs, les tris et les résumés. En outre, les professionnels peuvent utiliser ces outils ou des jeux d’outils d’analyses plus avancés pour aller encore plus loin en termes de calculs, comparaisons, mathématiques abstraites et mises en forme. Les nouvelles applications analytiques permettent de relier les bases de données traditionnelles, les entrepôts de données et les lacs de données pour intégrer le Big Data aux données des applications de gestion en vue d’améliorer les prévisions, les analyses et la planification.


Qu’est-ce qu’une stratégie de gestion des données d’entreprise et quelle est son utilité ?

De nombreuses entreprises se sont montrées passives dans leur approche de stratégie de data management en acceptant ce que leur fournisseur d’applications de gestion avait intégré dans leurs systèmes. Mais cela ne suffit plus. Avec l’explosion actuelle des données et leur importance accrue dans le fonctionnement de toute entreprise, il devient indispensable d’adopter une approche plus proactive et plus globale du data management. D’un point de vue pratique, cela implique de définir une stratégie des données visant à :

  • identifier les types de données spécifiques utiles à votre entreprise ;
  • attribuer des responsabilités pour chaque type de données ; et
  • définir des procédures régissant l’acquisition, la collecte et la gestion de ces données.

La mise en œuvre d’une infrastructure et d’une stratégie de gestion des données d’entreprise offre notamment l’avantage de fédérer l’entreprise, en coordonnant toutes les activités et décisions à l’appui de ses objectifs, à savoir offrir des produits et des services de qualité de manière efficace. Une stratégie globale de data management et une intégration transparente des données permettent de décloisonner les informations. Elles aident chaque service, responsable et employé à mieux comprendre sa contribution individuelle à la réussite de l’entreprise, et à adopter des décisions et des actions alignées sur ces objectifs.


Évolution du data management

La gestion efficace des données joue un rôle clé dans la réussite des entreprises depuis plus de 50 ans : elle permet d’améliorer la précision du reporting, de repérer les tendances et de prendre de meilleures décisions pour favoriser la transformation numérique et exploiter les nouvelles technologies et les nouveaux modèles de gestion. Les données représentent aujourd’hui une nouvelle forme de capital et les organisations visionnaires sont toujours à l’affût de nouveaux moyens de les exploiter à leur avantage. Ces dernières tendances en matière de data management méritent d’être surveillées et peuvent être pertinentes pour votre entreprise et votre secteur d’activité :

  • Structure de données : la plupart des entreprises disposent aujourd’hui de différents types de données déployées sur site et dans le Cloud, et utilisent plusieurs systèmes de gestion de bases de données, outils et technologies de traitement. Une structure de données, qui est une combinaison personnalisée d’architecture et de technologie, utilise une intégration et une orchestration dynamiques des données pour permettre un accès et un partage transparents des données dans un environnement distribué.
  • Data management dans le Cloud :de nombreuses entreprises se sont mises à migrer tout ou partie de leur plateforme de gestion des données dans le Cloud. Le data management dans le Cloud offre tous les avantages du Cloud, notamment l’évolutivité, la sécurité avancée des données, l’amélioration de l’accès aux données, les sauvegardes automatisées et la restauration après sinistre, les économies de coûts, etc. Les solutions de base de données Cloud et base de données en tant que service (DBaaS), les entrepôts de données Cloud et les lacs de données Cloud montent en puissance.
  • Data management augmenté :c’est l’une des dernières tendances. Identifiée par Gartner comme une technologie au potentiel perturbateur d’ici 2022, la gestion des données augmentée exploite l’IA et l’apprentissage automatique pour donner aux processus de gestion la capacité de s’autoconfigurer et s’autorégler. Le data management augmenté automatise tout, de la qualité des données et de la gestion des données de base jusqu’à l’intégration des données, ce qui permet au personnel technique qualifié de se concentrer sur des tâches à plus forte valeur ajoutée.

« D’ici 2022, les tâches manuelles de data management seront réduites de 45 % grâce à l’apprentissage automatique et à la gestion automatisée des niveaux de service. »

Gartner

  • Analyse augmentée : l’analyse augmentée, une autre tendance technologique de pointe identifiée par Gartner, est en train d’émerger. L’analyse augmentée exploite l’intelligence artificielle, l’apprentissage automatique et le traitement du langage naturel (TLN) pour rechercher automatiquement les informations les plus importantes, mais aussi pour démocratiser l’accès aux analyses avancées afin que tous les collaborateurs, et pas uniquement les experts en Big Data, puissent interroger leurs données et obtenir des réponses d’une manière naturelle et conversationnelle.

Découvrez d’autres termes et tendances en matière de data management.


Synthèse

L’information est dérivée des données et si elle synonyme de pouvoir, cela signifie que la gestion et l’exploitation efficaces de vos données pourraient représenter une formidable opportunité de croissance pour votre entreprise. Les responsabilités en matière de data management et le rôle des analystes de bases de données (DBA) évoluent vers un modèle d’agent du changement, qui favorise l’adoption du Cloud, exploite les nouvelles tendances et technologies et apporte une valeur stratégique à l’entreprise.


Pictogramme qui représente un entrepôt de données

Solutions de data management et de bases de données

Découvrez comment SAP peut vous aider à gérer, administrer et intégrer vos données d’entreprise pour disposer d’analyses fiables et prendre des décisions avisées.

En savoir plus


Publié en anglais sur insights.sap.com

The post Qu’est-ce que le data management ? appeared first on SAP France News.

Source de l’article sur sap.com

Les risques croissants liés aux cybermenaces, à la protection des données et aux nouvelles lois sur la confidentialité poussent les entreprises leaders à identifier et mettre en place des mesures efficaces de limitation des risques.

Alors que votre entreprise s’engage dans la transformation numérique et transfère toujours plus d’applications vers le cloud, vous avez besoin d’une sécurité plus intelligente, automatisée et intégrée. SAP vous aide à atteindre ces objectifs avec les solutions SAP pour la cybersécurité et la protection des données. Ces solutions uniques considèrent en parallèle les transactions métier et les risques liés à la sécurité, et contribuent à la sécurité des données, propice à une confiance numérique durable.

Nos solutions vous aideront à :

  • Détecter et traiter les activités suspectes dans les environnements logiciels SAP®.
  • Analyser le langage de programmation ABAP® et le code source non-ABAP pour identifier les risques.
  • Effectuer une surveillance des systèmes et applications à gros volumes, avec alertes et outils analytiques, mais aussi intégration à d’autres outils de gestion des événements et des informations de sécurité (SIEM).
  • Assurer le contrôle de vos données et une transparence optimale dans les environnements de type Hyperscale (clouds publics).
  • Gérer et faciliter la sécurisation des données personnelles, en toute conformité, avec notamment des capacités liées au masquage et à la journalisation.

Invitation spéciale :

Rejoignez-moi, ainsi que mes collègues Evelyne Salie, Anne Marie Colombo et Wasif Gilani, pour obtenir des informations de SAP, mais aussi de notre invité spécial, Kevin Heckel de Deloitte, le 23 mars 2021, pour notre présentation intitulée « Cybermenaces, confidentialité et sécurité », proposée dans le cadre du sommet virtuel SAP Finance and Risk.

Nous évoquerons ces sujets et la façon dont les technologies SAP peuvent aider les professionnels de la sécurité, de la protection des données et de la confidentialité à transformer votre approche en matière d’automatisation et de conformité.

Wasif Gilani nous parlera d’une nouvelle solution incontournable : SAP Data Custodian.

Nous évoquerons également deux autres solutions : SAP Enterprise Threat Detection et notre tableau de bord de cybersécurité SAP Analytics Cloud (Arndt Lingscheid et Gabriele Fiata).

En somme, nous vous proposons 45 minutes particulièrement riches et intenses, axées sur la cybersécurité et la protection des données, et la présentation de multiples fonctionnalités absolument incontournables.

Nous sommes impatients de vous retrouver à l’occasion de cet événement virtuel unique !  Rendez-vous à 11 h (UTC-4) ou bien à la demande, une fois l’événement terminé.

Et en attendant, voici quelques suggestions :

Consultez ce document de deux pages consacré à la manière dont Deloitte a utilisé SAP Enterprise Threat Detection pour optimiser la surveillance des menaces de sécurité pour nombre de ses applications.

Accédez à notre dizaine de sessions à la demande pour bénéficier de présentations de produits approfondies et pour découvrir les nombreux cas dans lesquels SAP utilise ses propres solutions pour gérer les risques, automatiser des centaines de contrôles et effectuer ses propres programmes d’audit interne à travers l’entreprise. Inscrivez-vous pour regarder la session de votre choix et approfondir les domaines de la GRC (gouvernance, gestion des risques et conformité), de la gouvernance des accès, de la confidentialité et de la cybersécurité.

The post Adoptez une stratégie gagnante face aux cybermenaces et aux risques liés à la confidentialité et à la sécurité appeared first on SAP France News.

Source de l’article sur sap.com

SAP Analytics Cloud concrétise la Business Intelligence de nouvelle génération, avec une ouverture totale, un plus large ensemble de fonctionnalités et l’intégration de technologies intelligentes, allant jusqu’au prédictif.

« Être une entreprise Intelligente, c’est rechercher au sein de l’ERP les voies d’automatisation, d’intégration et de fluidification des processus, explique Florian Hamon, Business Development Director, SAP Center of Excellence, SAP. SAP Analytics Cloud ou SAC participe à ce mouvement, avec son analytique temps réel et ses fonctionnalités avancées. »

SAP Analytics Cloud combine dans une unique offre cloud une solution de Business Intelligence avancée, des outils de planification et des capacités d’analyse augmentée. Des atouts clés pour accélérer le processus de décision.

Une solution conçue pour les défis d’aujourd’hui…

SAP Analytics Cloud est né d’un triple constat : un changement de paradigme en matière de BI, une très forte accélération des solutions cloud et la volonté d’accéder aux solutions métiers depuis tout type de support.

Concernant la Business Intelligence, SAP Analytics Cloud est capable de se connecter à toutes les sources de données grâce à des connecteurs SQL, BusinessObjects et SAP. La création de stories s’effectue à la souris, avec la possibilité de personnaliser les dashboards et d’insérer des éléments visuels évolués (par exemple de la cartographie). Des fonctions avancées de collaboration et de partage sont proposées. Enfin, une intégration native avec Excel est assuré, au travers d’Analysis for Office.

Sur le terrain du planning, SAP Analytics Cloud permet une planification dans l’instant, c’est-à-dire en live. Vous allez pouvoir ainsi analyser et restituer depuis le même outil. Mais aussi simuler, au travers de scénarios de type what-if, qui permettront d’explorer différentes options de décision. Là encore, le collaboratif (partage de plannings, délégation de tâches) est au cœur du module planning de SAC.

… et de demain

Le pilier Smart de SAP Analytics Cloud est primordial. Ses fonctionnalités intelligentes s’appuient massivement sur les algorithmes et le Machine Learning.

  • Découverte intelligente : SAC va proposer automatiquement et intelligemment des dashboards clés en main construits automatiquement à partir d’un jeu de données, sans préparation préalable. Des KPI variés sont proposés et les indicateurs clés influençant les données sont mis en valeur.
  • Interrogation des données : il est possible d’automatiser la génération de contenu en effectuant des recherches exprimées en langage naturel. Vous n’aurez plus besoin de passer par le service informatique pour disposer d’une restitution personnalisée.
  • Analyse intelligente : cette fonctionnalité permet de comprendre ce qui se cache derrière une donnée de base. Elle pourra également détecter des patterns dans les données ou donner la raison d’un point de données particulier.
  • Terminons par l’une des fonctionnalités les plus innovantes de SAP Analytics Cloud, les scénarios prédictifs : l’entrainement de modèles de Machine Learning avec des données existantes permettra par la suite de les utiliser sur de nouveaux jeux de données. Une technologie qui ouvre la voie à l’analyse prédictive !

The post Dépoussiérez votre décisionnel avec SAP Analytics Cloud appeared first on SAP France News.

Source de l’article sur sap.com

BERLIN – SAP SE (NYSE : SAP) annonce que son fonds d’investissement, SAP.iO Fund, a soutenu Jina AI, une entreprise berlinoise fournissant une solution de recherche basée sur les réseaux de neurones, en open source.

Jina AI combine les récentes avancées en matière de Machine Learning en traitement du langage naturel, vision et reconnaissance vocale dans une nouvelle plate-forme de recherche, afin d’offrir une plus grande précision, flexibilité et adaptabilité aux entrées de recherche.

Le projet principal de Jina AI, Jina on GitHub, permet aux utilisateurs de créer une solution de recherche native dans le cloud, fonctionnant sur la base du Deep Learning. Jina permet de réduire de plusieurs mois à quelques minutes le temps nécessaire à la construction d’un réseau de neurones prêt pour la production et adapté aux environnements commerciaux ; qui exigent un cycle de développement rapide. Depuis la sortie de On GitHub en mai 2020, ce projet a déjà attiré plus de 2 000 engagements de la part de 48 contributeurs du monde entier. Dès maintenant, Jina prend en charge la recherche de texte, d’image, de vidéo, d’audio et de données multimodales. D’autres types de données seront pris en charge à l’avenir.

« Alors que les entreprises accélèrent leurs transformations numériques, un besoin est apparu pour une recherche d’entreprise plus efficace et précise » a déclaré Ram Jambunathan, vice-président senior de SAP et directeur général de SAP.iO. « Nous sommes enthousiasmés par le potentiel de Jina AI à fournir une solution de recherche précise aux clients de SAP. »

Jina AI a été fondée par le Dr Han Xiao, qui est connu pour le développement de l’infrastructure de recherche de nouvelle génération pour l’application de messagerie de Tencent, WeChat. Il est également connu pour son leadership au sein du bureau du programme Open Source de Tencent, où il a encouragé la culture open source et de développement de la société. Xiao a été membre du conseil d’administration de la Linux Foundation AI en 2019 et est fondateur et président de l’association germano-chinoise de l’IA.

 

The post Le fonds SAP.iO investit dans Jina AI, société de recherche basée sur les réseaux de neurones appeared first on SAP France News.

Source de l’article sur sap.com

La crise économique actuelle pousse les entreprises vers des logiciels et des services basés sur le cloud computing qui sont peu gourmands en ressources, rentables et faciles à déployer. SAP est dans une position unique pour offrir ces solutions.

Le groupe New Ventures and Technologies de l’entreprise, dirigé par Max Wessel, est une unité exploratoire mise en place pour produire rapidement des technologies de pointe, orientées vers l’avenir. En plus de diriger le groupe, M. Wessel est directeur de l’innovation pour SAP et directeur général de SAP Bay Area. Wessel nous parle ici de son approche pour encourager l’innovation.

Fostering Innovation in the Intelligent Enterprise

Click the button below to load the content from YouTube.

Fostering Innovation in the Intelligent Enterprise

Q : Qu’est-ce que l’innovation chez SAP ?

R : L’innovation est un grand mot, et nous en faisons beaucoup chez SAP. C’est dans chaque changement progressif que nous apportons à un produit, dans chaque itération de notre modèle commercial et de notre approche pour engager les clients. Et nous devrions être fiers de tout cela. Lorsque les clients nous demandent ce qu’ils pensent de l’innovation, c’est souvent à propos de l’adoption de technologies et de modèles commerciaux véritablement nouveaux. Ces dernières années, SAP a fait de grands progrès en ciblant les changeurs de jeu en plus de notre activité principale. Par exemple, l’équipe Voice AI de Newport Beach utilise le traitement du langage naturel pour analyser les données du centre d’appel SAP Concur afin de déterminer l’efficacité d’un engagement. Au lieu de passer des centaines d’heures à vérifier manuellement les journaux d’appels, l’intelligence artificielle (IA) prend le relais. C’est un excellent exemple de l’utilisation d’une nouvelle technologie pour résoudre un problème ancien. Comment SAP crée-t-il de l’innovation organique ?

Dans toute l’entreprise, nous introduisons de nouvelles fonctionnalités, de nouveaux produits et de nouveaux services sur ce qui semble être une base quotidienne. Cette innovation nous a permis de nous implanter solidement dans l’environnement de nos clients. Cependant, pour assurer une croissance transformatrice, nous avons également besoin d’une grande vision. Nous devons nous projeter dans dix ans, identifier les grands problèmes qui méritent d’être résolus, puis les attaquer de manière à apporter de la valeur à nos clients.

Parallèlement à cette vision, SAP doit donner à ses innovateurs les moyens d’explorer de nouvelles technologies, de travailler avec les clients sur des preuves de concept (POC) et de partager de grandes idées avec des collègues du monde entier. C’est cet échange qui nous permet d’identifier ensemble les grandes idées. L’année dernière, plus de 20 000 employés se sont engagés dans notre programme d’intrapreneurs, et lors de notre réunion de lancement du développement en janvier, nous avons officiellement lancé l’outil SAP Technology Radar, une plateforme centrale et interne d’échange de connaissances sur les nouvelles technologies. Nous voulons que chaque employé contribue au processus de développement de SAP. Et notre équipe New Ventures and Technologies soutient cette conversation.

Quelles sont les grandes tendances que vous observez ?

Il existe encore un énorme potentiel pour l’apprentissage machine au sein de l’entreprise. C’est pourquoi nous continuons à pousser les capacités d’IA dans la reconnaissance vocale et à étudier la génération de données synthétiques et les nouvelles méthodes de cryptage. Nous pensons qu’elles joueront un rôle dans l’introduction de capacités d’IA avancées dans l’entreprise.

Mais ce n’est pas seulement une question de technologies. Il s’agit aussi de simplifier le déploiement et la personnalisation des logiciels grâce à des logiciels « sans code » et à l’automatisation des processus d’entreprise. Ces progrès permettront à presque tout le monde de créer une application commerciale, sans avoir besoin d’être ingénieur.

La dernière tendance est l’application de nouveaux modèles commerciaux pour fournir des logiciels de manière fondamentalement différente. Par exemple, nous sommes désormais en mesure de mettre en relation des petites et moyennes entreprises (PME) avec des partenaires de prêt dans Ariba Network, en utilisant leurs factures comme point de référence pour le crédit. Cela nous a permis d’ouvrir le crédit à des entreprises qui en ont désespérément besoin pendant la crise économique actuelle, sans frais pour les entreprises ou pour nos clients SAP Ariba – tout cela parce que nous avons expérimenté ce nouveau modèle commercial au cours des deux dernières années.

Comment trouvez-vous ces points forts dans le portefeuille de SAP ?

SAP brille lorsque nous comprenons le problème du client, que nous avons une expertise approfondie du domaine dans un secteur d’activité donné et que nous infusons de nouvelles technologies pour résoudre le problème. Le produit de prêt aux PME que je viens de mentionner, Apparent Financing by SAP, est venu de l’équipe d’Ariba Network sur la base de conversations qu’ils ont eues avec leurs clients. Ils avaient une compréhension approfondie du problème du client, mais ils avaient besoin d’un partenaire technologique et l’ont trouvé dans notre organisation.

Une partie de notre rôle consiste à entamer une conversation avec l’ensemble de SAP sur l’avenir. Chaque année, nous menons diverses campagnes d’innovation chez SAP. Grâce à ces efforts, une grande partie des projets que nous lançons viennent directement des experts de notre entreprise. J’encourage mon équipe à adopter l’esprit d’un débutant en prenant du recul pour écouter toutes les idées des experts en produits et comprendre où se trouvent les nouvelles opportunités.

Comment éviter la cannibalisation de nos solutions classiques ?

Je préfère que nous cannibalisions nos solutions classiques plutôt que de laisser un concurrent le faire. C’est là que nous devons faire preuve de créativité et de conviction. Si nous sommes convaincus que le monde changera dans 10 ans, nous devrions alors nous engager dans une cannibalisation des flux existants. Le passage au « cloud » au cours de la dernière décennie est une chose dont SAP devrait être immensément fier. Mais le nuage est plus qu’un nouveau mécanisme de livraison, et il nous a obligé à réorganiser beaucoup de nos produits. Et nous l’avons fait avec audace, convaincus que le nuage serait le mécanisme de diffusion préféré de nombre de nos clients dans de nombreuses situations.

Comment pouvons-nous inciter nos employés à être plus innovants ?

Je m’oppose à la prémisse selon laquelle les employés ne sont pas assez innovants. Je reçois de nos collègues plus d’idées plus créatives et une compréhension plus approfondie d’un problème de l’industrie que vous ne pouvez l’imaginer. Au lieu d’inciter les gens à être plus innovants, nous devons les responsabiliser. L’une des initiatives dont je suis le plus fier chez SAP est notre programme d’intrapreneuriat. Lorsque j’ai repris l’organisation, moins de 3 000 personnes participaient chaque année à notre groupe d’exploration et d’accélération. Nous en avons maintenant plus de 20 000, et l’objectif cette année est d’en engager 25 000.

La raison pour laquelle nous menons le programme intrapreneuriat n’est pas que nous pensons qu’il va générer de meilleures idées – les idées sont déjà là. Il s’agit de donner aux gens un moyen de développer ces idées, de les tester et de les commercialiser. Et plus nous en ferons pour faciliter l’innovation, plus il sera facile pour les gens d’innover.

Que devons-nous faire pour permettre un meilleur rendement de l’innovation ?

Je pense que nous avons besoin de trois ingrédients : un capital patient, une structure créative et un mandat exécutif. S’attaquer aux grands problèmes prend du temps, et c’est pourquoi nous devons planifier en termes d’horizons temporels de dix ans. Nous devons mettre en place de petites équipes pour résoudre les problèmes que seul SAP peut résoudre et leur donner la patience et la structure qui leur permettent d’apporter de la valeur au marché. Si elles s’attaquent à des problèmes suffisamment importants, si on leur donne ce mandat, si on leur permet d’emprunter une voie non linéaire, elles feront des choses étonnantes.

En tant que directeur général de SAP Bay Area, quels avantages y a-t-il à faire partie des 20 sites mondiaux qui composent le réseau de laboratoires SAP ?

Au début de la pandémie COVID-19, nous avons pu joindre tous les directeurs de laboratoires par téléphone pour comprendre les meilleures pratiques réglementaires et les communications numériques dans différents environnements culturels. C’est un parfait exemple de la façon dont nous pouvons exploiter le meilleur d’une force de développement mondiale pour favoriser l’amélioration. Mais nous combinons également des idées et des forces lorsqu’il s’agit d’activer la base d’employés pour stimuler l’innovation, de créer des hackathons, de donner aux employés les moyens de trouver de nouvelles idées commerciales ou d’étendre notre portée dans l’écosystème afin d’identifier des partenaires locaux qui peuvent mettre nos produits et services sur le marché.

Quelle est votre recette personnelle pour pérenniser SAP ?

Tout ce que nous faisons du point de vue de l’innovation doit viser à rendre les logiciels d’entreprise plus personnels, plus flexibles et plus ouverts. Il est plus facile que jamais de connecter les systèmes entre eux, ce qui signifie que plus vos systèmes et votre écosystème sont ouverts, plus vous pouvez proposer une grande variété d’innovations. SAP compte 100 000 employés, mais 7,5 milliards de personnes sur la planète sont motivées pour nous aider à améliorer le fonctionnement du monde. Nous serions négligents si nous ne nous ouvrions pas aux idées extérieures sur la manière de faire évoluer les logiciels d’entreprise.

 

 

Publié initialement en anglais sur news.sap.com

The post Comment promouvoir l’innovation, avec Max Wessel appeared first on SAP France News.

Source de l’article sur sap.com

Rosny-sous-Bois, ville dynamique de Seine Saint-Denis, anticipe les nombreuses transformations engendrées par le Grand Paris notamment sur son nombre d’habitants. Déjà desservie par le RER E, la commune de 45 000 habitants entrée dans la métropole du Grand Paris en 2016, verra s’ouvrir trois nouvelles stations de la ligne 11 en 2023, et une station de la future ligne 15 en 2025. Ainsi, la mairie anticipe sa croissance démographique pour devenir un ville phare de l’est parisien. Pour anticiper ces changements, le numérique est un atout du futur Rosny-sous-Bois. La ville a donc choisi la solution SAP Conversational AI pour accueillir au mieux ses futurs citoyens.

La mise en place d’un chatbot, première pierre vers une vocalisation des services de la ville

Depuis janvier 2019, un chatbot développé par la solution SAP Conversational AI fait office d’interface privilégiée avec les habitants de Rosny-sous-Bois. L’objectif est d’assurer un premier niveau de service public différenciant par rapport aux villes voisines en proposant un service simple d’utilisation capable de répondre aux questions des citoyens de la commune en 24/7.

« Nous avons choisi la solution SAP car elle était la seule à pouvoir couvrir l’ensemble de nos services. Son caractère langage agnostique nous permet également de prendre le tournant de la vocalisation des services. En effet, Nous souhaitions également pouvoir répondre en plusieurs langues pour répondre à des populations non-francophones et offrir des services publics de qualité pour tous les habitants », explique Menahd Ouchenir, Conseiller Municipal délégué à la ville numérique.

Une solution rapidement adoptée par les habitants de la ville

En l’espace d’un an, le chatbot de SAP est rentré dans le quotidien des habitants de la ville de Rosny-sous-Bois. Ils n’hésitent pas à lui poser des questions impactant leur quotidien : les jours de collecte des poubelles, les transports fonctionnant en période de grève, les services disponibles pendant le confinement ou encore les dates des élections municipales.

« Les habitants de la ville ont rapidement fait du chatbot un outil de leur vie quotidienne : nous comptabilisons maintenant 2 500 utilisateurs uniques par mois, 4,5 messages par utilisateur, un taux de compréhension de 74%, et un taux de précision de 0,878. Pendant la période de confinement, cela nous a permis de maintenir un lien supplémentaire avec les habitants de la ville et de répondre à leurs interrogations. En complément, le chatbot est un atout de communication et pousser les utilisateurs à aller vers les contenus du site. Cela nous permet donc d’aller plus loin dans notre rôle de service public », ajoute Menahd Ouchenir.

Améliorer constamment la solution pour accueillir les futures populations de la façon la plus efficace possible

Avec 300 intentions et 2 700 tournures de questions comprises par le chatbot, la solution proposée par SAP est largement opérationnelle. Toutefois, les équipes communication et événementiel de la mairie analysent constamment les questions posées par les habitants afin d’enregistrer de nouvelles tournures de phrases et de nouveaux sujets pour que l’IA les comprenne de manière optimale par la suite. L’objectif final est maintenant d’arriver à soulager les différents pôles de la mairie en déléguant l’ensemble des questions quotidiennes au chatbot, et ainsi faciliter l’emménagement des nouveaux rosnéens.

L’avantage de cette solution est sa capacité à adresser des périmètres et métiers hétérogènes, et ainsi de répondre à des questions sur un grand nombre de domaines.

« Le résultat de cette intégration à notre site web est très satisfaisant. Nous souhaitons à long terme enrichir notre socle de données technologiques grâce à SAP pour pouvoir nous diriger vers une vocalisation toujours plus sophistiquée », conclue Menahd Ouchenir.

The post La mairie de Rosny-sous-Bois utilise le chatbot de SAP pour converser avec ses habitants et anticiper sa croissance démographique appeared first on SAP France News.

Source de l’article sur sap.com