Articles

Appliquer des méthodes d'apprentissage machine pour rechercher des défauts ferroviaires (2e partie)

Dans cette deuxième partie, nous allons explorer comment appliquer des méthodes d’apprentissage machine pour rechercher des défauts ferroviaires.

Assurer la sécurité du trafic ferroviaire par l’inspection non destructive des rails

L’inspection non destructive des rails afin de garantir la sécurité des transports ferroviaires est régulièrement effectuée à l’aide de différentes approches et méthodes. L’une des principales approches pour déterminer l’état opérationnel des rails ferroviaires est le test non destructif à ultrasons [1]. Actuellement, la recherche d’images de défauts de rail à l’aide des modèles de défauts reçus est effectuée par un être humain. La réussite du développement d’algorithmes de recherche et de classification des données permet de proposer l’utilisation de méthodes d’apprentissage automatique pour identifier les défauts des rails et réduire la charge de travail des humains en créant des systèmes experts.

La complexité de la création de tels systèmes est décrite dans [1, 3-6, 22] et est due, d’une part, à la variété des images graphiques obtenues lors de l’inspection ultrasonore multicanal des rails, et d’autre part, au petit nombre de copies de données avec des défauts (non équilibrés). Une des possibilités pour créer des systèmes experts dans ce domaine est une approche basée sur la décomposition de la tâche complexe d’analyse du défautogramme multicanal entier en canaux individuels ou en ensembles leur caractérisant les types individuels de défauts. 

L’utilisation d’un système expert pour la recherche et la classification des défauts des rails à l’aide d’un test non destructif à ultrasons peut être une solution efficace pour résoudre le problème. Les systèmes experts peuvent être utilisés pour analyser les données obtenues par ultrasons et fournir une estimation précise et fiable du niveau de sécurité des rails. Les systèmes experts peuvent également être utilisés pour prédire les défauts possibles et leur emplacement sur les rails, ce qui peut aider à améliorer la sécurité des transports ferroviaires.

Les systèmes experts peuvent également être utilisés pour analyser les données obtenues par ultrasons et fournir une estimation précise et fiable du niveau de sécurité des rails. Les systèmes experts peuvent également être utilisés pour prédire les défauts possibles et leur emplacement sur les rails, ce qui peut aider à améliorer la sécurité des transports ferroviaires. Les systèmes experts peuvent également être utilisés pour surveiller le niveau de sécurité des rails et prévenir les accidents ferroviaires. Les systèmes experts peuvent également être utilisés pour surveiller le niveau de sécurité des rails et prévenir les accidents ferroviaires. Les systèmes experts peuvent également être utilisés pour surveiller le niveau de sécurité des rails et prévenir les accidents ferroviaires.

Enfin, les systèmes experts peuvent être utilisés pour améliorer les processus d’inspection non destructive des rails. Les systèmes experts peuvent être utilisés pour automatiser le processus d’inspection non destructive des rails, ce qui permet d’accélérer le processus et d’améliorer la qualité des inspections. Les systèmes experts peuvent également être utilisés pour analyser les données obtenues par ultrasons et fournir une estimation précise et fiable

Source de l’article sur DZONE

Apprentissage profond en reconnaissance d'images: Techniques et défis

L’apprentissage profond en reconnaissance d’images est une technologie puissante qui permet de résoudre des problèmes complexes. Découvrez les techniques et les défis associés à cette technologie.

Dans le vaste royaume de l’intelligence artificielle, l’apprentissage profond est devenu un jeu-changer, en particulier dans le domaine de la reconnaissance d’images. La capacité des machines à reconnaître et à catégoriser des images, à la manière du cerveau humain, a ouvert une multitude d’opportunités et de défis. Plongeons-nous dans les techniques que l’apprentissage profond offre pour la reconnaissance d’images et les obstacles qui y sont associés.

Data: For CNNs to work, large amounts of data are required. The more data that is available, the more accurate the results will be. This is because the network needs to be trained on a variety of images, so it can learn to recognize patterns and distinguish between different objects.

Hurdles: The main challenge with CNNs is that they require a lot of data and computing power. This can be expensive and time-consuming, and it can also lead to overfitting if not enough data is available. Additionally, CNNs are not able to generalize well, meaning they are not able to recognize objects that they have not been trained on.

Réseaux de neurones convolutionnels (CNN)

Technique : Les CNN sont le pilier des systèmes de reconnaissance d’images modernes. Ils se composent de plusieurs couches de petites collections de neurones qui traitent des parties de l’image d’entrée, appelées champs réceptifs. Les résultats de ces collections sont ensuite assemblés de manière à se chevaucher, afin d’obtenir une meilleure représentation de l’image d’origine ; c’est une caractéristique distinctive des CNN.

Données : Pour que les CNN fonctionnent, des quantités importantes de données sont nécessaires. Plus il y a de données disponibles, plus les résultats seront précis. C’est parce que le réseau doit être formé sur une variété d’images, afin qu’il puisse apprendre à reconnaître des modèles et à distinguer différents objets.

Hurdles : Le principal défi avec les CNN est qu’ils nécessitent beaucoup de données et de puissance de calcul. Cela peut être coûteux et prendre du temps, et cela peut également entraîner un surajustement si pas assez de données sont disponibles. De plus, les CNN ne sont pas en mesure de généraliser bien, ce qui signifie qu’ils ne sont pas en mesure de reconnaître des objets qu’ils n’ont pas été formés.

Réseaux neuronaux profonds (DNN)

Technique : Les DNN sont une variante des CNN qui peuvent être utilisés pour la reconnaissance d’images. Ils sont constitués de plusieurs couches de neurones qui traitent des parties de l’image d’entrée et produisent des résultats plus précis que les CNN. Les DNN peuvent également être utilisés pour la classification d’images et la segmentation d’images.

Données : Les DNN nécessitent également des grandes quantités de données pour fonctionner correctement. Cependant, ils peuvent être entraînés sur des jeux de données plus petits que les CNN et peuvent donc être plus efficaces lorsqu’il n’y a pas assez de données disponibles.

Hurdles : Le principal défi avec les DNN est qu’ils nécessitent beaucoup de temps et de puissance de calcul pour être entraînés correctement. De plus, ils sont sensibles aux bruit et aux variations dans les données d’entrée, ce qui peut entraîner des résultats imprécis.

Source de l’article sur DZONE

Taxonomie des anti-modèles Scrum

La taxonomie des anti-modèles Scrum est une classification des pratiques qui sont contraires à l’approche Scrum. Découvrons comment ces pratiques peuvent nuire à l’efficacité de votre équipe.

TL; DR : Taxonomie des anti-patterns Scrum

TL; DR: Taxonomie des anti-patterns Scrum

Alors que le processus d’édition du Guide des anti-patterns Scrum est sur le point de se terminer, il est temps de passer à l’étape suivante. Le tout nouveau Guide des anti-patterns Scrum offre plus de 180 anti-patterns organisés par rôles, événements, artefacts et engagements. Cependant, le guide ne crée pas une taxonomie d’anti-patterns Scrum de niveau métal ou abstrait. Par conséquent, le guide ne fournit pas de stratégie globale pour contrer ou éviter les anti-patterns Scrum à un niveau personnel, culturel, structurel ou organisationnel. La question est de savoir s’il est possible de créer une telle taxonomie.

Lisez la suite et en apprenez plus sur les premières étapes de la finalisation du grand tableau des anti-patterns Scrum.

La taxonomie des anti-patterns Scrum est un outil précieux pour les développeurs et les équipes qui cherchent à améliorer leur processus de développement et à éviter les erreurs courantes. Une taxonomie des anti-patterns Scrum peut être utilisée pour identifier les problèmes courants et les solutions possibles. Elle peut également être utilisée pour comprendre comment les différents aspects du développement peuvent interagir et affecter le processus global. Une taxonomie des anti-patterns Scrum peut également aider à identifier les bonnes pratiques et à définir des objectifs pour améliorer le processus de développement.

Une taxonomie des anti-patterns Scrum peut être divisée en quatre catégories principales : le code, le processus, l’organisation et la culture. Chaque catégorie peut être divisée en sous-catégories plus spécifiques. Par exemple, la catégorie « code » peut être divisée en sous-catégories telles que le codage, la documentation, la qualité et la sécurité. La catégorie « processus » peut être divisée en sous-catégories telles que la planification, l’estimation, le suivi et la gestion des changements. La catégorie « organisation » peut être divisée en sous-catégories telles que la structure organisationnelle, la communication et la collaboration. Enfin, la catégorie « culture » peut être divisée en sous-catégories telles que l’apprentissage, l’innovation et l’amélioration continue.

Une fois que les différentes catégories et sous-catégories sont identifiées, il est possible de créer une taxonomie des anti-patterns Scrum. Cette taxonomie peut être utilisée pour identifier les problèmes courants et les solutions possibles. Elle peut également être utilisée pour comprendre comment les différents aspects du développement peuvent interagir et affecter le processus global. Enfin, elle peut aider à identifier les bonnes pratiques et à définir des objectifs pour améliorer le processus de développement.

La taxonomie des anti-patterns Scrum est un outil précieux pour les développeurs et les équipes qui cherchent à améliorer leur processus de développement et à éviter les erreurs courantes. En créant une taxonomie des anti-patterns Scrum, il est possible d’identifier les

Source de l’article sur DZONE

Analyser et Classer le Sentiment des Textes en Java

Découvrez comment analyser et classer le sentiment des textes en Java grâce à cet article ! Nous allons vous guider pas à pas pour vous aider à maîtriser cette technique.

L’empathie mutuelle joue un rôle clé dans la définition du succès de la relation entre une entreprise et ses clients

De la même manière que l’empathie mutuelle définit le développement de relations à long terme avec nos amis, elle joue également un rôle clé dans la définition du succès de la relation de notre entreprise avec ses clients. Lorsque les clients prennent le temps de taper leurs pensées et leurs sentiments dans une critique d’un produit ou d’un service, partager leurs sentiments via une plate-forme de médias sociaux ou fournir des commentaires via un médium similaire, il est de notre devoir d’éprouver de l’empathie pour eux en tant qu’êtres humains et de déterminer collectivement comment ils se sentent par rapport à ce qu’ils ont vécu. En utilisant des solutions programmatiques, nous pouvons rapidement analyser et ensuite ajuster (ou maintenir) l’expérience que nous offrons à nos clients à grande échelle, améliorant efficacement les relations des clients avec notre marque.

Bien sûr, contrairement au cerveau humain, les ordinateurs ne sont pas élevés et socialisés pour tirer des conclusions émotionnelles spécifiques d’une langue humaine en évolution. Ils doivent être formés pour le faire – et c’est là que le domaine de l’analyse et de la classification des sentiments entre en jeu. En utilisant des techniques de traitement du langage naturel (NLP), nous pouvons former des algorithmes d’apprentissage automatique pour analyser et classer des sentiments uniques dans le texte. Ces algorithmes peuvent être entraînés sur des jeux de données étiquetés qui contiennent des exemples de phrases et de leurs sentiments associés. Une fois entraînés, ces algorithmes peuvent être appliqués à des données non étiquetées pour prédire le sentiment associé à chaque phrase.

Les algorithmes d’analyse et de classification des sentiments peuvent être utilisés pour comprendre les sentiments des clients à l’égard de votre marque, produit ou service. Les données collectées peuvent être analysées pour déterminer si les clients sont satisfaits ou insatisfaits, et pourquoi. Les données peuvent également être utilisées pour identifier les points forts et les points faibles du produit ou du service, ainsi que pour comprendre les tendances et les préférences des clients. Les données peuvent également être utilisées pour améliorer l’expérience client en répondant aux besoins et aux préférences des clients. Enfin, les données peuvent être utilisées pour aider à développer des stratégies marketing plus efficaces et plus ciblées.

Source de l’article sur DZONE

What Is Text Classification?

Text Classification is the process of categorizing text into one or more different classes to organize, structure, and filter into any parameter. For example, text classification is used in legal documents, medical studies, and files, or as simple as product reviews. Data is more important than ever; companies are spending fortunes trying to extract as many insights as possible.

With text/document data being much more abundant than other data types, new methods of utilizing them are imperative. Since data is inherently unstructured and extremely plentiful, organizing data to understand it in digestible ways can drastically improve its value. Using Text Classification with Machine Learning can automatically structure relevant text in a faster and more cost-effective way.

Source de l’article sur DZONE

Since the seminal paper “Attention Is All You Need” of Vaswani et al, transformer models have become by far the state of the art in NLP technology. With applications ranging from NER, text classification, question answering, or text generation, the applications of this amazing technology are limitless.

More specifically, BERT — which stands for Bidirectional Encoder Representations from Transformers — leverages the transformer architecture in a novel way. For example, BERT analyses both sides of the sentence with a randomly masked word to make a prediction. In addition to predicting the masked token, BERT predicts the sequence of the sentences by adding a classification token [CLS] at the beginning of the first sentence and tries to predict if the second sentence follows the first one by adding a separation token [SEP] between the two sentences.

Source de l’article sur DZONE

SAP & Siemens jettent les bases d’un partenariat ambitieux : ouvrir la voie à de nouvelles opportunités, supprimer les silos et accélérer la transformation.

SAP & Siemens jettent les bases d’un partenariat ambitieux

Depuis l’annonce du partenariat signé entre SAP et Siemens le 14 juillet 2020, nous avons été ravis de voir à quel point les utilisateurs, partenaires et analystes adhéraient à cette initiative audacieuse et à notre ambition commune d’ouvrir la voie à de nouvelles opportunités, de supprimer les silos et d’accélérer la transformation. Tenir la promesse d’un retour sur investissement plus rapide, de processus de développement durables et de nouvelles opportunités métiers nécessite un nouveau niveau d’intégration. Et c’est ce dans quoi SAP et Siemens ont investi massivement – jusqu’à maintenant dans les coulisses.

La continuité numérique requiert un meilleur niveau d’intégration

Nous savons que nos clients sont aujourd’hui mis au défi d’améliorer leur vitesse de mise sur le marché tout en créant des produits toujours plus complexes et de meilleure qualité. Bien que nos solutions offrent des capacités de pointe dans leurs domaines fonctionnels respectifs, le véritable bénéfice ne peut venir que d’une communication en boucle fermée native et transparente entre le développement produits et la gestion d’entreprise. C’est le cap que nous suivons conjointement :

Combiner l’expertise en intégration de SAP et Siemens

L’intégration entre les systèmes d’ingénierie et d’entreprise n’est pas un phénomène nouveau. Mais il reste complexe. Pourquoi ? Parce que se mettre d’accord sur un langage commun, des processus communs et les solutions et architectures techniques associées à travers tous les secteurs d’activité, les organisations et les réseaux est une tâche difficile. Sans compter les exigences propres à l’ingénierie, aux métiers, à l’informatique et à l’industrie.

Un partenariat stratégique tel celui que nous avons mis en place avec Siemens est une excellente occasion de résoudre certains de ces problèmes fondamentaux. Nous nous appuyons sur l’idée que nos systèmes d’ingénierie et d’entreprise seront égaux et adopteront le niveau d’interopérabilité et de visibilité nécessaire pour concrétiser l’idée de continuité numérique.

 

Un modèle de données unique : garant du succès

Un modèle de données aligné entre SAP et Siemens est à la base de l’intégration en tant que couche intermédiaire. Cet alignement est rendu possible grâce à un niveau d’abstraction des données qui seront échangées entre Siemens Teamcenter et l’ERP SAP S/4HANA.  Ce modèle de données doit être compréhensible des deux côtés et dotée d’une sémantique claire, adaptée à toutes les implémentations.

Ce modèle de données aligné continuera à évoluer afin de permettre le  développement de nouveaux scénarios d’intégration.

Aperçu de la feuille de route 2021-2022 : une innovation continue s’appuyant sur des fondations solides

Depuis l’annonce du partenariat, les équipes de développement de Siemens et SAP se sont réunies pour mettre en œuvre les principes évoqués ci-dessus. Elles ont commencé parse concentrer sur le développement d’un ’échange transparent des données produits, afin de permettre une intégration bidirectionnelle des processus. Puis ont mis l’accent sur une couverture de bout en bout de processus métiers spécifiques : en commençant par la fabrication sur stock (MTS), la configuration à la commande (CTO) et l’ingénierie à la commande (ETO).

Le résultat est une feuille de route définie conjointement, qui commence avec une première version programmée au quatrième trimestre 2021.

Etape 1 : intégration du PLM vers SAP

La première release s’appuiera sur notre modèle commun et les processus de bout en bout sous-jacents afin d’établir les fondations de  permettant une traçabilité,  une fédération des données et des liensinter systèmes. Elle se concentrera sur les processus et le transfert de données depuis le  Teamcenter vers SAP, tels que :

  • Création des fiches article dans SAP basés sur les sémantiques métiers
  • Transfert des données de classification pour permettre un flux d’informations cohérent vers SAP
  • Création des fiches info document dans SAP
  • Transfert de la nomenclature vers SAP
  • Capacité pour Teamcenter de déclencher des modifications en provenance de l’ingénierie

Etape 2 : élargir le scope et fermer la boucle entre le développement produit et SAP

Début 2022, la prochaine vague d’innovations se focalisera sur la « fermeture de la boucle » entre SAP et le développement produit. Nous nous concentrerons sur les fondations des processus métier avancés, y compris les scénarios de configuration à la commande (CTO), d’ingénierie à la commande (ETO), etc. Voici quelques fonctionnalités clés de cette version :

  • Création de fiches articles et de nomenclatures spécifiques
  • Capacité pour SAP de déclencher des changements d’ingénierie et de fabrication
  • Transfert de la définition de la configuration des produits à variantes
  • Fourniture de données pertinentes pour la fabrication tout au long du processus métier
  • Transfert des gammes SAP
  • Mise à disposition d’une solution cross système pour la gestion du portefeuille produits et projets (PPM)

Etape 3 : interopérabilité bidirectionnelle des systèmes et scénarios d’intégration avancés

Nous avons également prévu une seconde version en 2022, qui ne se concentrera pas seulement sur l’amélioration continue des processus avancés de configuration (CTO) et d’ingénierie (ETO), mais également sur une intégration bidirectionnelle favorisant transparence et interopérabilité. Les fonctionnalités proposées comprendront :

  • Gestion des nomenclatures spécifiques à la commande dans SAP
  • Échange de modèles produit pour la configuration de variantes et règles de contraintes d’ingénierie
  • Mise à disposition de scénarios Engineering to Order (ETO) sans couture
  • Échange d’informations sur les fournisseurs basés sur les informations fournisseurs
  • Activation de la traçabilité inter systèmes pour les workflows
  • Activation de l’analyse d’impact inter systèmes

Si vous souhaitez en savoir davantage sur notre feuille de route, rendez-vous dans les prochaines semaines sur le SAP Roadmap Explorer.

The post Feuille de route pour une intégration avancée entre SAP et Teamcenter appeared first on SAP France News.

Source de l’article sur sap.com

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

WALLDORF – Pour la 14ème année consécutive, SAP SE (NYSE : SAP) a été désignée leader du secteur des logiciels au Dow Jones Sustainability Indices (DJSI). SAP a dépassé ses scores des années précédentes et a creusé l’écart par rapport à ses pairs du secteur, malgré les défis causés par la pandémie.

SAP a obtenu 74 points sur 100 (2019 : 69) au score global, soit cinq points de plus que l’entreprise classée en deuxième position. SAP a amélioré sa valeur de percentile dans 15 des 20 catégories par rapport à 2019, notamment en matière de « sécurité de l’information/cybersécurité et disponibilité des systèmes », d’« attraction et de rétention des talents » et de « rapports environnementaux ».

Cette évaluation souligne les efforts déployés par SAP pour mettre en place une stratégie de cloud fiable et conforme, en valorisant les employés comme son atout le plus important et en améliorant ses capacités de reporting interne. Cette année, 83 entreprises du secteur des logiciels ont participé, soit plus du double par rapport à l’année dernière. SAP a également amélioré sa notation dans les trois dimensions principales :

  • Gouvernance et économie : 65 (2019 : 61)
  • Environnement : 87 (2019 : 83)
  • Social : 81 (2019 : 73)

« Nous sommes fiers de notre classement au Dow Jones Sustainability Indices. Cela nous prouve une fois de plus que nous avons une responsabilité particulière en tant que leader de la durabilité dans l’industrie du logiciel », a déclaré Luka Mucic, directeur financier et membre du conseil d’administration de SAP SE. « Cela nous pousse à redoubler d’efforts auprès de nos clients pour leur fournir des solutions destinées à leur transformation durable, afin que nous puissions tous ensemble construire une économie plus inclusive et plus régénératrice ».

Créés en 1999 par la société de gestion d’investissements RobecoSAM, les DJSI sont les plus anciens indices de référence mondiaux en matière de durabilité. Ils sont cotés en bourse depuis leur création. Basé sur l’évaluation de la durabilité des entreprises (Corporate Sutainability Assessment, CSA) de SAM, le DJSI fournit une analyse des performances économiques, environnementales et sociales des entreprises. Ils comprennent des critères de durabilité généraux ainsi que spécifiques à chaque secteur pour chacune des 60 industries définies selon l’Industry Classification Benchmark (ICB).

En 2020, la solide performance environnementale, sociale et de gouvernance (ESG) de SAP a également été reconnue par d’autres notations ESG. SAP est restée présente dans la série d’indices FTSE4 Good Index et dans les indices Euronext Vigeo Eiris (Europe 120 et Eurozone 120). SAP a de nouveau été reconnue comme un leader ESG par MSCI Inc. (anciennement Morgan Stanley Capital International), qui lui a attribué la meilleure note, soit « AAA ». Et pour la première fois, SAP a figuré dans le nouveau classement du Wall Street Journal des 100 entreprises les mieux gérées sur le plan du développement durable.

Reconnaissant l’importance croissante des performances ESG non seulement pour son activité, mais aussi pour la réussite de ses clients, SAP fait du pilotage et du reporting holistique un domaine d’action essentiel. Grâce à son programme Climate 21 et à d’autres programmes axés, par exemple, sur l’économie circulaire, SAP propose des offres qui aident ses clients à améliorer leurs propres performances en matière de développement durable. Le rapport interne de SAP reflète sa conviction que les entreprises peuvent mesurer leur succès de manière plus globale grâce à de nouvelles pratiques comptables qui relient les impacts économiques, sociaux et environnementaux. SAP a également rejoint des initiatives internationales telles que celles de la Value Balancing Alliance e.V. et des initiatives locales telles que QuartaVista, un projet financé par le gouvernement allemand qui vise à standardiser les mesures générales de l’impact des entreprises.

The post SAP conforte sa position de leader dans les indices de durabilité du Dow Jones appeared first on SAP France News.

Source de l’article sur sap.com

Machine learning refers to the process of enabling computer systems to learn with data using statistical techniques without being explicitly programmed. It is the process of active engagement with algorithms in order to enable them to learn from and make predictions on data. Machine learning is closely associated with computational statistics, mathematical optimization, and data learning. It is associated with predictive analysis, which allows producing reliable and fast results by learning from historical trends. There are basically two kinds of machine learning tasks:

  1. Supervised learning: The computer is presented with some example inputs, based on which the desired outputs are to be formed. The computer is made to learn general rules of converting inputs to outputs.

    Source de l’article sur DZONE