Articles

Acome modernise son ERP au travers d’une migration vers l’ERP intelligent SAP S/4HANA. Un socle solide qui lui permettra de concrétiser son projet de transformation, consistant à gérer la production industrielle depuis l’ERP.

Acome est un spécialiste des câbles de haute technicité, qui propose ses solutions aux acteurs du monde de l’automobile, des télécoms, du bâtiment ou encore du transport ferroviaire. De par son positionnement, Acome est un acteur clé du développement des véhicules de nouvelle génération, de la fibre, des bâtiments connectés et des villes intelligentes.

Première SCOP de France, Acome dispose de nombreux sites industriels et commerciaux, dans l’hexagone comme à l’étranger. Le groupe ACOME emploie 2000 collaborateurs, dont 1200 en France, pour un chiffre d’affaires annuel de 552 millions d’euros.

« Nous souhaitions refondre notre système d’information industriel, avec – entre autres – la mise en place d’un MES, explique Anne-Laure Gout, Responsable du service Études informatique de la DSI d’Acome. Michael Barbé a su nous convaincre que notre SI industriel pourrait tout à fait être intégré dans notre ERP SAP. La fin de maintenance de SAP ECC approchant, la DSI avait dans le même temps décidé d’opérer la migration vers l’ERP SAP S/4HANA. »

L’industriel décide donc de rapprocher ces deux projets. « Un premier partenaire nous avait proposé de repartir d’une feuille blanche, avec un projet de type greenfield, ce qui ne nous convenait pas. Nous nous sommes alors tournés vers PASàPAS, qui nous suit depuis des années, afin de mener une migration à fonctionnalités et périmètre constants. L’objectif était d’assurer la bascule vers l’ERP SAP S/4HANA avec un minimum d’impacts pour les métiers. »

Découvrez le témoignage de notre client.

Un engagement important de la part de PASàPAS

Le travail s’est fait de concert entre les équipes métiers d’Acome, porteuses du projet industriel, et la DSI de la SCOP, souhaitant opérer la migration de SAP ECC vers SAP S/4HANA. Le projet de migration a démarré en février 2021, pour se terminer 15 mois plus tard, le 30 mai 2022.

« De nombreuses personnes ont été impliquées, que ce soit chez PASàPAS, qui a mobilisé une cinquantaine de consultants, que du côté d’Acome, avec une équipe projet de 50 personnes et 80 key users, explique Michael Barbé, Directeur de programme chez Acome. Nous avons su rester concentrés tout au long de ces 15 mois, avec des objectifs précis qui nous ont permis de ne pas nous éparpiller et de mettre en fonction notre nouvel ERP dans les délais fixés. Le tout avec un appui sans faille de notre direction et des métiers. »

L’objectif de l’entreprise était de disposer d’un socle solide, propice au déploiement de nouvelles fonctionnalités. L’ERP SAP S/4HANA couvre d’ores et déjà un large périmètre (achats, ventes, finance, maintenance…), mais devrait prendre de l’ampleur rapidement (production, revue budgétaire…). Le tout avec la volonté de recourir aussi peu que possible aux spécifiques. « Nous voulions mettre en place une solution cohérente, qui permette de revenir à l’essentiel en s’appuyant autant que possible sur des processus standards. »

Migration réussie ! Place à l’innovation

L’ERP SAP S/4HANA est aujourd’hui en production. « Une importante phase de stabilisation a été réalisée pendant le premier mois, mais tout est aujourd’hui fonctionnel, avec une nette amélioration des performances par rapport à notre ancien ERP. Nous pouvons donc considérer cette étape de conversion comme réussie. Ce n’est toutefois que le premier jalon de notre projet de transformation », détaille Anne-Laure Gout. Si une ‘fiorisation’ progressive de l’interface et une revue des processus sont prévues, c’est bien le volet industriel qui est aujourd’hui au coeur des attentions.

« Nous redémarrons maintenant la phase industrielle de notre projet, confirme Michael Barbé. Dès janvier 2023, notre atelier de production de tubes dédiés aux planchers chauffants sera équipé de l’ERP SAP S/4HANA. Les machines de l’atelier seront connectées au SI, afin de permettre une remontée des données et un pilotage de ces équipements dans l’ERP. Nous espérons avec cet outil être capables d’aller chercher de nouveaux gains sur le terrain de la performance industrielle. L’ERP sera ensuite déployé sur une autre de nos activités courant 2024, puis progressivement sur des activités de plus en plus complexes. »

PASàPAS est reconduit sur toute cette première phase de déploiement et devrait donc accompagner Acome sur ce projet au minimum jusqu’à la fin du premier trimestre 2024. À mesure que ce SI industriel sera déployé, le nombre d’utilisateurs de l’ERP SAP S/4HANA va s’accroître chez Acome. « Nous avons d’ores et déjà adapté notre parc de licences afin de permettre aux opérateurs travaillant en production d’accéder à l’ERP. Demain, 500 utilisateurs pourront ainsi se connecter à SAP S/4HANA », conclut Anne-Laure Gout.

The post L’ERP SAP S/4HANA devient le socle du futur SI industriel d’Acome appeared first on SAP France News.

Source de l’article sur sap.com

Cloud Computing et Objets Portables : Une Puissante Association

Les objets portables et le cloud computing sont une puissante association qui offre de nombreuses possibilités pour améliorer la productivité et la collaboration.

L’évolution des technologies portables

The Power of Cloud Computing

Cloud computing is a key factor in the development of wearable technology. By connecting wearable devices to the cloud, users can access a wide range of features and services. For example, cloud-connected wearables can access real-time data from the internet, such as weather forecasts or traffic updates. They can also store data in the cloud, allowing users to access it from any device. Additionally, cloud-connected wearables can be used to control other devices, such as lights or thermostats. This allows users to automate their homes and offices with minimal effort.

Le Révolution des Objets Connectés

Le marché des objets connectés a connu une croissance remarquable au cours de la dernière décennie. Les objets connectés ne sont plus limités à compter les pas ou à surveiller les fréquences cardiaques. Ils englobent maintenant une vaste gamme d’applications, allant de la santé et du fitness à la réalité augmentée et à la réalité virtuelle. Les montres intelligentes peuvent mesurer vos schémas de sommeil, les trackers de fitness peuvent surveiller votre santé cardiaque et les lunettes de réalité augmentée peuvent superposer des informations numériques sur le monde réel. Ces appareils ont évolué pour devenir des outils puissants, améliorant nos vies quotidiennes.

Le Pouvoir du Cloud Computing

Le cloud computing est un facteur clé dans le développement de la technologie portable. En connectant des appareils portables au cloud, les utilisateurs peuvent accéder à une large gamme de fonctionnalités et de services. Par exemple, les appareils portables connectés au cloud peuvent accéder à des données en temps réel sur Internet, telles que des prévisions météorologiques ou des mises à jour de trafic. Ils peuvent également stocker des données dans le cloud, permettant aux utilisateurs d’y accéder depuis n’importe quel appareil. De plus, les appareils portables connectés au cloud peuvent être utilisés pour contrôler d’autres appareils, tels que des lumières ou des thermostats. Cela permet aux utilisateurs d’automatiser leurs maisons et leurs bureaux avec un effort minimal.

L’Avenir du Codage

Le codage est un autre élément essentiel pour améliorer les capacités des objets connectés. Les développeurs peuvent utiliser le codage pour créer des applications personnalisées qui tirent parti des données recueillies par les appareils portables. Les applications peuvent être conçues pour fournir des informations personnalisées et pertinentes aux utilisateurs, telles que des conseils sur la santé et le fitness ou des mises à jour sur les conditions météorologiques locales. Le codage peut également être utilisé pour créer des applications qui intègrent les objets connectés à d’autres appareils, permettant aux utilisateurs de contrôler leurs appareils à distance.

Le codage est un outil puissant qui permet aux développeurs de créer des applications qui tirent parti des données recueillies par les objets connectés. Les applications peuvent être conçues pour fournir des informations personnalisées et pertinentes aux utilisateurs, tout en leur permettant de contrôler leurs appareils à distance. En combinant le cloud computing et le codage, les développeurs peuvent créer des applications qui tirent parti des capacités des objets connectés et qui améliore
Source de l’article sur DZONE

Amélioration de la sécurité IoT: Outils d'analyse de sécurité IoT

Les outils d’analyse de sécurité IoT sont essentiels pour améliorer la sécurité des objets connectés. Ils offrent une protection contre les menaces et permettent de garantir la confidentialité des données.

L’arrivée de l’Internet des Objets (IoT) a ouvert une nouvelle ère de connectivité, révolutionnant divers secteurs, notamment les foyers, les industries et les zones urbaines. Cependant, cette connectivité étendue entraîne également des défis de sécurité importants, nécessitant des mécanismes robustes de détection et de réponse aux menaces. Les outils d’analyse de sécurité IoT sont devenus des composants essentiels pour faire face à ces défis, exploitant des techniques d’apprentissage automatique avancées pour identifier des modèles de comportement inhabituels et des menaces potentielles au sein des réseaux IoT. Cet article explore le rôle essentiel que jouent les outils d’analyse de sécurité IoT pour améliorer la sécurité IoT.

  • The sheer number of devices connected to a single network, each of which may have different security protocols.
  • The diversity of communication protocols and data formats used by IoT devices.
  • The complexity of the underlying infrastructure, which may include multiple layers of networks, cloud services, and mobile applications.

These complexities make it difficult for traditional security solutions to identify and respond to potential threats in real-time. This is where IoT Security Analytics Tools come into play.

The Role of IoT Security Analytics Tools

IoT Security Analytics Tools are designed to detect and respond to potential threats in real-time. These tools leverage advanced machine learning techniques to identify unusual behavior patterns and potential threats within IoT networks. They can detect anomalies in device communication, identify malicious activities, and alert administrators to potential threats. Additionally, they can provide detailed insights into the security posture of an IoT network, enabling administrators to take proactive measures to mitigate risks.

IoT Security Analytics Tools can also be used to monitor user activity on connected devices. This helps administrators identify suspicious activities and take appropriate action. Furthermore, these tools can be used to detect and respond to data breaches, helping organizations protect their sensitive data from unauthorized access.

Conclusion

IoT Security Analytics Tools are essential components for enhancing the security of IoT networks. These tools leverage advanced machine learning techniques to identify unusual behavior patterns and potential threats in real-time. They can also be used to monitor user activity on connected devices, detect data breaches, and provide detailed insights into the security posture of an IoT network. As such, these tools are invaluable for ensuring the security of IoT environments.

La complexité de la sécurité IoT

La sécurisation des environnements IoT présente des défis distincts :

  • Le nombre élevé de périphériques connectés à un seul réseau, chacun pouvant avoir des protocoles de sécurité différents.
  • La diversité des protocoles de communication et des formats de données utilisés par les périphériques IoT.
  • La complexité de l’infrastructure sous-jacente, qui peut inclure plusieurs couches de réseaux, de services cloud et d’applications mobiles.

Ces complexités rendent difficile pour les solutions de sécurité traditionnelles d’identifier et de réagir aux menaces potentielles en temps réel. C’est là que les outils d’analyse de sécurité IoT entrent en jeu.

Le rôle des outils d’analyse de sécurité IoT

Les outils d’analyse de sécurité IoT sont conçus pour détecter et réagir aux menaces potentielles en temps réel. Ces outils utilisent des techniques d’apprentissage automatique avancées pour identifier des modèles de comportement inhabituels et des menaces potentielles dans les réseaux IoT. Ils peuvent détecter des anomalies dans la communication des périphériques, identifier des activités malveillantes et alerter les administrateurs des menaces potentielles. De plus, ils peuvent fournir des informations détaillées sur la posture de sécurité d’un réseau IoT, permettant aux administrateurs de prendre des mesures proactives pour atténuer les risques.

Les outils d’analyse de sécurité IoT peuvent également être utilisés pour surveiller l’activité des utilisateurs sur les périphériques connectés. Cela aide les administrateurs à identifier les activités suspectes et à prendre les mesures appropriées. De plus, ces outils peuvent être utilisés pour détecter et réagir aux violations de données, aid
Source de l’article sur DZONE

Spring Cloud: Comment Gérer Config. Microservices (2e Partie)

Dans cet article, nous allons poursuivre notre exploration de Spring Cloud et voir comment gérer la configuration des microservices. Préparez-vous à découvrir les dernières fonctionnalités de Spring Cloud !

Dans la première partie de cet article, nous avons vu comment configurer un scénario simple avec un serveur Spring Cloud Config et son client correspondant. Le serveur était configuré avec un profil natif et la configuration était stockée dans le classpath, dans un sous-dossier nommé config. La démo était composée d’une seule instance de serveur et de client.

Dans la deuxième partie, nous allons montrer comment configurer Spring Cloud Config pour se connecter et utiliser un dépôt Git externe. Puis, dans les prochaines sections, nous parlerons du rafraîchissement des données de configuration sans redémarrage des services.

## Configurer Spring Cloud Config pour se connecter à un dépôt Git externe

En tant qu’informaticien enthousiaste, je suis très intéressé par les nouvelles technologies et leurs applications. Dans cet article, je vais vous parler de l’utilisation d’un logiciel de configuration de Spring Cloud Config pour gérer les paramètres de votre application.

Tout d’abord, nous allons voir comment configurer un scénario simple avec un serveur Spring Cloud Config et son client correspondant. Le serveur est configuré avec un profil natif et la configuration est stockée dans le classpath, dans un sous-dossier nommé config. La démo est constituée d’une seule instance de serveur et de client.

Ensuite, nous verrons comment configurer Spring Cloud Config pour se connecter et utiliser un dépôt Git externe. Dans les sections suivantes, nous parlerons du rafraîchissement des données de configuration sans redémarrer les services. Pour ce faire, nous utiliserons le logiciel Spring Cloud Bus qui permet de publier des messages sur un bus de messages et de les diffuser à tous les clients connectés. Nous verrons également comment configurer le client pour qu’il puisse recevoir et traiter ces messages.

Enfin, nous verrons comment le logiciel Spring Cloud Config peut être utilisé pour gérer les paramètres de votre application. Nous verrons comment le serveur peut être configuré pour lire la configuration à partir d’une source externe, comme un dépôt Git, et comment le client peut être configuré pour récupérer la configuration à partir du serveur. Nous verrons également comment le logiciel peut être utilisé pour mettre à jour la configuration sans redémarrer les services.

Source de l’article sur DZONE

Tester la sécurité des objets connectés

Tester la sécurité des objets connectés est essentiel pour protéger nos données et notre vie privée. Découvrez comment vous assurer que vos appareils sont en sécurité.

## La sécurité de l’Internet des objets (IoT) est essentielle

L’Internet des objets (IoT) a révolutionné nos vies et apporté de nombreux avantages, mais il présente une grande surface d’attaque et n’est pas sûr tant qu’il n’est pas sécurisé. Les appareils IoT sont une cible facile pour les cybercriminels et les pirates informatiques s’ils ne sont pas correctement sécurisés. Vous pouvez avoir de graves problèmes avec des données financières et confidentielles qui sont invitées, volées ou cryptées.

Il est difficile de repérer et de discuter des risques pour les organisations, sans parler de la construction d’une méthodologie globale pour y faire face, sans connaissances pratiques de ce qu’est la sécurité IoT et sans la tester. La prise de conscience des menaces de sécurité et la façon d’y échapper est la première étape, car les solutions IoT nécessitent beaucoup plus de tests qu’auparavant. La sécurité intégrée est souvent absente lorsqu’il s’agit d’introduire de nouvelles fonctionnalités et produits sur le marché.

En tant que scientifique informatique enthousiaste, je sais que le test est une partie essentielle du processus de développement de produits IoT. Les tests peuvent être effectués à chaque étape du cycle de développement, depuis le développement jusqu’à la mise en production. Les tests peuvent être effectués manuellement ou automatiquement, selon les besoins spécifiques et les contraintes budgétaires. Les tests peuvent inclure des tests fonctionnels, des tests de performance, des tests de sécurité et des tests de conformité. Les tests peuvent être effectués sur des appareils physiques ou virtuels, en fonction des exigences et des contraintes. Les tests peuvent également être effectués à l’aide d’outils spécialisés tels que des outils de test d’intrusion, des outils de test d’authentification et des outils de test de sécurité.

Les tests peuvent aider à identifier les vulnérabilités et à déterminer si les produits IoT sont conformes aux normes de sécurité et aux exigences réglementaires. Les tests peuvent également aider à améliorer l’efficacité et la fiabilité des produits IoT et à réduire les risques liés à la sécurité. Les tests peuvent également aider à améliorer la qualité du produit et à réduire le temps et les coûts de développement. Les tests peuvent également aider à améliorer l’expérience utilisateur et à assurer un meilleur niveau de sécurité pour les utilisateurs finaux.

En conclusion, le test est essentiel pour assurer la sécurité des produits IoT. Les tests peuvent être effectués à chaque étape du cycle de développement et peuvent aider à identifier les vulnérabilités, à améliorer l’efficacité et la fiabilité des produits IoT, à réduire les risques liés à la sécurité et à améliorer l’expérience utilisateur.

Source de l’article sur DZONE

De spécialiste de l’ingénierie industrielle, ATS accélère sa transformation numérique et lance sur le marché un portfolio de nouveaux services digitaux notamment sur base de solutions SAP Cloud PLM et Assets (de l’Ingénierie à la machine as a service). Un acteur OT et IT, capable d’accompagner les organisations dans leur voyage vers l’industrie 4.0.

ATS, c’est avant tout une aventure familiale, démarrée en 1989 au Creusot. L’histoire d’un spécialiste en ingénierie industrielle (ATS Engineering), mais aussi en conception et réalisation de moyens de production automatisés (ATS Solutions). L’entreprise compte aujourd’hui 200 collaborateurs, pour un chiffre d’affaires annuel d’environ 20 millions d’euros.

“La quatrième révolution industrielle nous donne l’opportunité de transformer l’industrie, en la rendant à la fois plus performante et plus attractive. Notre ambition est d’accompagner dans leur transformation les femmes et les hommes (end-users) opérant sur des sites industriels, en apportant de nouveaux outils et services pour remettre l’Homme au centre et réinventer l’expérience Homme-machine.” Explique Rodolphe Roy, Président d’ATS. “Faire grandir l’Humain pour amener plaisir et reconnaissance dans l’industrie : Un élément crucial pour booster l’attractivité et attirer de nouveaux talents.”

Le numérique, nouveau pilier d’ATS

Le premier jalon de la transformation d’ATS est posé en 2011, lorsque Rodolphe Roy en devient l’actionnaire unique. En 2017, une fois le rachat sécurisé, la transformation du groupe peut commencer, avec comme nouvel axe le numérique.

La société est dans le même temps repérée par BPI France, qui l’invite à rejoindre le programme accélérateur PME/PMI, puis la French Fab, le porte-drapeau de l’industrie française en tant qu’ambassadeur pour la Bourgogne. Ce programme accélérateur pousse également ATS à aller au-delà de l’OT pour proposer des services IT à ses clients et remettre l’innovation au centre de sa transformation.

Des LAB’Innovation sont ainsi déployés sur chacun des sites d’ATS, afin de permettre à tous les collaborateurs de l’entreprise d’explorer et d’innover avec de nouvelles technologies digitales, comme le cloud, l’ingénierie collaborative en Réalité Virtuelle, l’impression 3D ou encore la capture de la réalité. Le tout en lien avec les clients et partenaires de l’entreprise.

« Notre langue maternelle est l’OT, mais nous avons fait IT seconde langue, ce qui nous permet d’accompagner les industriels dans leur transformation numérique. Nous avons pour vocation à être la courroie de distribution entre ces deux mondes. »

Il est vrai qu’en tant que concepteur de moyens de production automatisés, et connectés, ATS Solutions apporte déjà un savoir-faire à mi-chemin entre OT et IT, pour le compte de clients prestigieux comme Air Liquide, Arkema, Schneider Electric ou encore le CEA.

ATS Connect, l’intégrateur OT/IT des industriels

“Avec ATS Solutions, nous proposons aux industriels des nouveaux moyens de production (CAPEX) automatisés, connectés et flexibles, rappelle Rodolphe Roy. Toutefois, nous étions un peu frustrés de ne pas pouvoir les accompagner dans leurs phases d’exploitation (OPEX), ni dans leurs projets de numérisation de leurs parcs machines existants.”

“Notre nouvelle activité portée par ATS Connect répond à cela, mais pas seulement : nous accélérons sur l’accompagnement à la transition énergétique et environnementale des industriels, jusqu’aux projets de villes intelligentes (smart city).” Complète Jordan Lecat, COO d’ATS Connect.

ATS Connect est chargée de porter les projets de connexion digitale des équipements. Cela commence par un audit 4.0 du moyen de production, des échanges systématiques avec les utilisateurs finaux pour identifier leurs points de douleurs. Nous traitons ensuite la collecte des données et le traitement de l’information pour créer les bons outils de suivi de performance et de maintenance. Le tout en faisant appel au besoin à des technologies innovantes capables de projeter les entreprises dans le monde de l’industrie 4.0. À ce titre, ATS Connect devient un intégrateur de bout en bout de solutions OT/IT.

SAP, éditeur clé pour ATS

Autre jalon de la transformation d’ATS, la rencontre avec SAP en 2018. ATS voit dans les solutions Cloud Public PLM et Assets, respectivement SAP Enterprise Product Development (SAP EPD) et SAP Intelligent Asset Management (SAP AIM) associé à SAP Business Technology Platform (SAP BTP), une plate-forme ouverte et collaborative de choix pour gérer les équipements des industriels et porter des projets avancés, comme la mise en place de jumeaux numériques connectés. Cette plateforme Cloud devient ainsi un catalyseur pour le développement commercial des nouveaux services numériques d’ATS Connect.

« ATS Connect se positionne clairement comme offreur de solutions Industrie 4.0, explique Jordan Lecat. Nous collectons la data, que nous faisons remonter sur la plate-forme Cloud SAP, afin de proposer des services innovants à nos clients. Par exemple de la maintenance prédictive. Avec ATS Connect, nous pouvons enfin proposer une gestion de bout en bout des moyens de production des industriels. »

Dans le cadre du partenariat entre SAP et le Collectif Continuité Numérique, ATS Connect participe par ailleurs au développement de démonstrateurs Industrie 4.0 autour des jumeaux numériques, lesquels sont déployés sur les Experience Centers SAP de Paris et Barcelone. ATS rejoint ainsi l’écosystème SAP relatif à l’industrie du futur. « Ceci nous rend d’autant plus fiers que nous partageons les valeurs et ambitions portées par SAP et ses Experience Centers : Meet, Inspire, Engage. »

 

The post ATS accompagne les industriels dans leur transformation numérique appeared first on SAP France News.

Source de l’article sur sap.com

Imaginez:

… Vous êtes tranquillement installé à bord d’un Paris-Lyon et une classe de neige débarque dans votre wagon…

… Vous avez pris le dernier train pour prolonger au maximum votre weekend et rien dans le frigo à la maison quand vous rentrez à 23h

Ces expériences, nous les avons tous vécues et cela ne nous encourage pas toujours à voyager davantage en train. A l’occasion de l’année européenne du Ferroviaire et alors que la transition écologique devient plus que jamais une nécessité, SAP France a mené une étude auprès des 15-25 ans avec le média JAM pour mieux comprendre leurs attentes et besoins en termes d’expérience et de services.

En effet, cette Génération Z façonne les comportements de demain et apparaît particulièrement sensible aux enjeux d’une mobilité raisonnée pour lutter contre les effets du changement climatique.

Quelles sont les attentes des 12-25 ans pour les voyages en train ?

Click the button below to load the content from YouTube.

Quelles sont les attentes des 12-25 ans pour les voyages en train ?

FOCUS #1: 79% des jeunes interrogés seraient prêts à rallonger leur temps de trajet pour réduire leurs émissions de CO2.

Cette tendance rejoint l’étude SAP EMEA South menée auprès de consommateurs espagnols et italiens. Plus intéressant encore 23% seraient prêts à le faire mais sous l’exigence d’avoir le confort nécessaire pour passer du temps utile.

Et dans cette lignée, ils sont prêts de 2 jeunes sur 3 à trouver le principe d’éco-fidélité ”carrément” intéressant et 96% à y voir de l’intérêt. Cumuler des points échangeables contre réduction et cartes cadeaux « éthiques » pour chaque trajet effectué en train, scooter ou voiture électrique, vélo en libre service, à pied, … semble répondre à une attente de gamification mais aussi de mesure tangible de son impact environnemental.

FOCUS #2: 66% des 15-25 ans interrogés déclarent mettre à profit le temps utile pendant leur voyage en train

Parce qu’adopter le train ce n’est pas seulement réduire son empreinte carbone mais c’est aussi avoir du temps « utile » – lire, regarder une série, travailler – nous avons exploré l’impact de cette dimension pour les 15-25 ans.

Le reste déclare ne pas le faire vraiment mais seulement 7% d’entre eux ne le font pas du tout.

Ce qui peut laisser entendre qu’avec davantage de connectivité et de services, les jeunes profitant du #tempsutile seraient plus nombreux. A l’heure du slow travel, c’est un différentiateur fort du train par rapport aux autres modes de transport. C’est un nouveau champ des possibles à explorer sous l’angle des services connectés et en temps réel.

FOCUS #3: 60% des jeunes interrogés seraient prêts à payer pour avoir accès à des services de voyage connecté comme l’upgrade en 1ère ou davantage de services #TempsUtile

L’option la plus populaire est la possibilité de payer un prix fixe auquel on agrège des options selon les trajets : une opportunité pour générer de nouveaux revenus tout en améliorant le confort et l’expérience des passagers !

Retrouvez prochainement l’analyse de nos experts SAP pour décrypter les nouveaux leviers à actionner pour répondre à ces attentes des 15-25 ans et plus largement du marché passager en France !

Contactez-moi directement sur LinkedIn pour échanger et avoir accès aux vidéos en avant-première

Méthodologie de l’étude

Etude menée auprès de 1000 jeunes représentatifs de la population des 15-25 ans en France selon les quotas de l’INSEE (juillet à septembre 2021) avec le média JAM

Voilà à quoi elle ressemblait :

Étude SAP et Jam sur Messenger

Click the button below to load the content from YouTube.

Étude SAP et Jam sur Messenger

 

The post Quelles sont les attentes des 15-25 ans pour leurs déplacements en train ? appeared first on SAP France News.

Source de l’article sur sap.com

J’ai récemment eu une conversation avec le responsable produits d’un grand fabricant d’équipements industriels. Chaque machine comporte de  multiples variantes, est vendue à des centaines de clients, ce qui représente des milliers d’installations à travers le monde et peut être utilisée pendant des décennies. Mon interlocuteur m’expliquait qu’il avait reçu un appel d’un de ses clients  pour la mise à niveau d’une de ses machines pour en augmenter la productivité et optimiser. De ce fait, les équipes de ce responsable produits  vont être très occupées pour répondre à cette demande au cours des prochaines semaines, voire des prochains mois. Imaginez maintenant le nombre de ressources et le temps qui seraient nécessaires s’il avait à répondre à plusieurs demandes similaires en parallèle.

Voyons quelles sont les tâches les plus importantes qui sont requises pour élaborer un plan de réponse complet à destination de ce client :

  • évaluer le potentiel de revenus de la demande de mise à niveau ;
  • analyser la réplicabilité de la solution auprès d’autres clients ;
  • vérifier l’état de fonctionnement de l’équipement ;
  • évaluer le mode d’utilisation de la machine ;
  • valider la compatibilité de la dernière configuration proposée par l’ingénierie ;
  • comprendre les nouvelles exigences applicatives ;
  • effectuer une analyse des risques ;
  • analyser les perturbations de la chaîne d’approvisionnement ;
  • collaborer avec les fournisseurs et les partenaires pour élaborer le plan d’exécution ;
  • et probablement bien plus encore…

Il est également important de noter le nombre de systèmes, de processus et de partenaires requis pour construire et appliquer ce plan d’intervention.

Tout est question de stratégie globale

Nous voyons de nombreux clients de tous secteurs, en particulier dans la haute technologie, l’énergie, les équipements industriels, la santé, l’aérospatiale et le pétrole et le gaz, cherchant à tirer une part croissante de leurs revenus de services stratégiques. C’est un objectif commun aux fabricants d’équipements d’origine (OEM) recherchant des marges plus élevées, une proximité accrue avec leurs clients et des revenus récurrents.

Pour y parvenir, les entreprises doivent élaborer une stratégie globale, en intégrant les services d’ingénierie à la gestion des actifs, afin de rapprocher les OEM des opérateurs.

Dans cet article, je vous expose les éléments stratégiques liés à l’intégration du monde de l’ingénierie et de l’opérationnel, qui permettront aux OEM et aux opérateurs de maximiser la valeur de leur collaboration et de mettre en place une base permettant d’explorer de nouveaux business models, tel que le Product as a Service.

Éléments stratégiques d’une intégration des services d’ingénierie à la gestion des actifs

Ne serait-il pas intéressant de disposer d’un package de solutions prêt à l’emploi permettant de gérer tous les actifs installés, prenant en compte leur durée de vie et leur état ?

Comment y parvenir ?

Voyons quelques-uns des éléments stratégiques qui permettront de briser les silos fonctionnels, pour bénéficier d’une vue à 360 degrés du cycle de vie des produits et des actifs.

 

 

  • Tout d’abord, un OEM doit savoir déterminer la configuration d’un actif existant à partir des spécifications du produit issues de l’ingénierie. Il s’agit ici de la capacité à suivre et à gérer entièrement l’actif lors son installation, puis tout au long de son cycle de vie et jusqu’à sa mise hors service. L’un des aspects importants est de comparer dynamiquement l’actif en fonctionnement avec les configurations d’ingénierie les plus récentes, afin de prendre les bonnes décisions de maintenance ou de mise à niveau.
  • Le deuxième élément est la façon dont les partenaires collaborent et partagent des données. En créant un écosystème collaboratif de nouvelle génération basé sur le cloud, les équipementiers, les opérateurs, les fournisseurs et les partenaires de service vont disposer d’une plate-forme commune. Elle permettra de rassembler l’ensemble des partenaires, de partager du contenu, des données, et même d’étendre les processus métiers au-delà des murs de l’entreprise. L’objectif est de permettre aux OEM et aux opérateurs de déterminer quelles mesures doivent être prises et à quel moment.
  • Le troisième aspect est l’efficacité avec laquelle nous utilisons les données d’ingénierie en amont pour améliorer la gestion des actifs. Avec une ingénierie de service efficace, nous pouvons établir une nomenclature des services, des conceptions de services, identifier des systèmes critiques, définir des caractéristiques de performance, planifier des stratégies de service, créer des aides visuelles et bien plus encore. Les données de l’ingénierie de service peuvent être utilisées efficacement dans plusieurs flux de gestion des actifs, tels que la planification de la demande, les services sur le terrain, la gestion des garanties, les plans de maintenance et les stratégies d’actifs. En activant une continuité numérique de bout en bout, il est possible de connecter les données tout au long de la chaîne de valeur d’un service, de sa conception à son utilisation.
  • Enfin, l’un des éléments clés est de permettre aux entreprises de capturer et d’analyser les données transactionnelles et de performance des actifs opérationnels. Une fois restituées sous forme exploitable, ces informations permettront de générer des plans de service dynamiques, mais aussi d’identifier les modifications de conception à apporter, ainsi que les mises à niveau possibles afin de maximiser la valeur d’un actif. Cette boucle de rétroaction continue reposant sur l’ensemble de la base installée permettra aux OEM de proposer de meilleurs produits, plus durables.

Afin de répondre à cette évolution des besoins métiers sur le terrain de l’intégration des services d’ingénierie à la gestion des actifs, SAP et Siemens Digital Industries Software ont récemment annoncé  une extension de leur partenariat qui leur permettra de fournir de nouvelles solutions de gestion du cycle de vie intelligent des services et des actifs. Il est essentiel que tous ces éléments stratégiques soient liés aux processus métiers de la chaîne d’approvisionnement et qu’ils soient accessibles sur une plate-forme unique pour que les équipementiers et les opérateurs puissent en tirer une valeur commerciale.

 

Découvrez la valeur stratégique qu’il y a à gérer le cycle de vie de produits intelligents et connectés avec des technologies numériques à travers l’ensemble de votre entreprise et de l’entreprise étendue.

Demandez le livre blanc PLM 2021 de CIMdata.

 

The post Que se passe-t-il lorsque l’ingénierie et la gestion des actifs convergent ? Place au rapprochement ! appeared first on SAP France News.

Source de l’article sur sap.com

Les Sablières J. Leonhart ont refondu totalement leur Système d’Information en optant pour SAP S/4HANA Cloud Essentials, appuyé d’un spécifique déployé sur la SAP Business Transformation Platform (ex SAP Cloud Platform). Objectif : disposer d’un ERP standardisé et homogène, mais aussi fiable et évolutif.

Le Groupe Leonhart est un acteur historiquement spécialisé dans l’extraction et la valorisation de sable et de granulats. Il commercialise entre autres des agrégats, des pierres naturelles, du béton prêt à l’emploi et divers produits en béton pour la préfabrication lourde et légère. L’industriel alsacien dispose également de ses propres services de transport et de location d’engins de chantiers. Il a soufflé ses 100 bougies en 2020.

Le groupe réalise un chiffre d’affaires annuel de 120 millions d’euros, pour 600 salariés répartis sur une quinzaine de sites sur le territoire français. Il a connu une forte croissance sur les 20 dernières années. « Au fil de cette croissance, nous nous sommes retrouvés avec un SI très hétérogène, comprenant de nombreux outils spécifiques à chaque activité, plus ou moins bien connectés entre eux », explique Nicolas Battesti, Directeur Administratif et Financier.

La société a souhaité mettre en place un SI standardisé et structurant, couvrant l’ensemble de ses processus métiers et permettant un accès rapide aux données. « Nous avions besoin d’une plate-forme commune à toutes les sociétés du groupe, poursuit Nicolas Battesti. Notre responsable SI a défini un cahier des charges précis et détaillé de notre future solution, puis nous avons démarché les intégrateurs. »

Un ERP SAP, en mode SaaS

L’appel d’offres a été lancé fin 2020, avec comme objectif une étude exhaustive des solutions disponibles sur le marché et des modes de déploiement proposés. Le Groupe Leonhart a rapidement compris les avantages et inconvénients d’un déploiement sur site ou dans le cloud. C’est donc bien informé qu’il a opté pour du SaaS.

« Ce qui nous a plu dans le SaaS, c’est la maîtrise des coûts, explique Nicolas Battesti. Mais également la facilité à monter en version. Auparavant, on travaillait avec des outils qui n’étaient plus adaptés, faute d’avoir su évoluer. Disposer de solutions qui progressent au fil du temps était donc important pour nous. Nous voulions miser sur une offre pérenne. »

Au vu du cahier des charges de l’industriel, Nagarro ES a proposé l’ERP SAP S/4HANA Cloud Essentials, qui couvre les besoins métiers exprimés, avec la possibilité de se connecter au reste du SI de l’entreprise via la SAP Business Transformation Platform (anciennement SAP Cloud Platform). La seule partie non couverte nativement par l’ERP est la pesée des camions entrant et sortant des sablières. Nagarro ES s’est appuyé sur son laboratoire d’innovation pour proposer un développement spécifique reposant sur la SAP Business Transformation Platform et des technologies novatrices, comme la reconnaissance visuelle et l’Internet des Objets. Le résultat est un pont bascule connecté à SAP, avec une technologie qui permet la reconnaissance des plaques d’immatriculation internationales, la pesée du camion, et la génération automatisée du reçu.

Repartir de zéro

Le Groupe Leonhart a été séduit par la richesse fonctionnelle de la solution, mais aussi par la méthodologie SAP Activate, l’approche Fit-to-Standard et la capacité de Nagaro ES à répondre à des besoins métiers spécifiques. « Ce partenaire nous semble solide, en termes de taille, de santé financière et d’expertise des équipes, témoigne Nicolas Battesti. Nous avons jusqu’à maintenant toujours eu à faire à des consultants disponibles et expérimentés, avec la sensation que nos besoins étaient bien compris. »

L’industriel a souhaité repartir d’une page blanche pour son nouvel ERP, avec un périmètre fonctionnel assez large, allant du contrôle de gestion à la finance en passant par la production, la relation client et la logistique. Mais aussi l’analytique : « la BI intégrée nous a beaucoup plu, car elle reste facile d’utilisation, quoique puissante. »

Les ateliers ont commencé début mars 2021. La volonté du Groupe Leonhart de coller au plus près des standards et la trajectoire du projet clairement définie en amont augurent de travaux qui devraient se dérouler dans d’excellentes conditions. La mise en production de l’ERP SAP S/4HANA Cloud Essentials est programmée pour janvier 2022.

 

The post Leonhart mise sur le cloud pour son nouvel ERP SAP S/4HANA appeared first on SAP France News.

Source de l’article sur sap.com

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com