Articles

Lors de sa conférence globale SAPPHIRE NOW®, SAP SE (NYSE : SAP) a dévoilé SAP® Business Network, la première étape d’une stratégie ambitieuse visant à créer de nouvelles communautés professionnelles capables d’améliorer les résultats commerciaux, de mieux gérer l’évolution des conditions économiques et géopolitiques et de renforcer les contributions au développement durable.

Le groupe a également annoncé un certain nombre de nouvelles innovations destinées à aider les clients à transformer leurs processus d’entreprise, à améliorer leurs performances et à donner le meilleur d’eux-mêmes. Les points forts de ces innovations prévues sont les suivants :

Les solutions de Business Process Intelligence proposent désormais la solution SAP Process Insights

Dans le cadre du portefeuille de solutions de Business Process Intelligence (BPI), la solution SAP Process Insights permet aux entreprises d’analyser et d’améliorer leurs processus de gestion dans le monde réel. EY, Deloitte et Infosys Limited sont les premiers partenaires stratégiques à travailler avec le portefeuille BPI de SAP pour aider les entreprises à se transformer. Pour en savoir plus : « SAP annonce la nouvelle solution SAP Process Insights pour une compréhension rapide et facile de la performance des processus« .

Verify, une nouvelle fonctionnalité de SAP Concur®, utilise l’intelligence artificielle et le machine learning pour simplifier la vérification des notes de frais

Le service Verify, une nouvelle fonctionnalité des solutions SAP Concur®, utilise l’intelligence artificielle et le machine learning pour identifier automatiquement les problèmes et anomalies potentiels des notes de frais. Les modèles d’IA sont construits à partir de l’analyse de plus de 1 000 milliards de dollars de dépenses et de dizaines de millions de dépenses et de reçus. Verify peut approuver les notes de frais automatiquement, tout en signalant d’éventuelles anomalies pour que les auditeurs les examinent. Grâce à cette expérience alimentée par l’IA, les auditeurs ne perdent plus de temps à examiner des notes de frais conformes, mais restent en capacité de détecter des problèmes de conformité ou de fraude. Pour en savoir plus : « Verify applique l’intelligence artificielle et l’apprentissage automatique pour simplifier l’audit des dépenses« .

SAP Upscale Commerce, une solution no-code pour un engagement direct du consommateur

La solution SAP Upscale Commerce est une solution de commerce en ligne sans code qui permet aux détaillants de taille moyenne de créer une expérience d’achat omnicanale en quelques minutes. Grâce à l’IA intégrée, les détaillants peuvent proposer des offres personnalisées basées sur une vision à 360 degrés de leurs clients, à partir du ressenti client et des données d’achat. Grâce à une architecture API « headless », les détaillants peuvent fournir aux clients des informations en temps réel sur leurs achats et leur livraison, quel que soit le canal. SAP Upscale Commerce est intégré à SAP S/4HANA®, ce qui permet de s’assurer que les expériences en contact client fonctionnent avec les systèmes back-end de finance, de logistique et d’exécution pour offrir une expérience client fluide. Pour en savoir plus : « SAP Upscale Commerce offre aux marques du Midmarket une voie sans code et sans maintenance vers l’engagement direct du consommateur« .

Trois nouvelles fonctionnalités de la SAP Business Technology Platform, pour exploiter les données en toute transparence

La solution SAP Analytics Cloud offre désormais des fonctionnalités d’analyse et de planification de la main-d’œuvre opérationnelle et une intégration avec les solutions SAP SuccessFactors®. Ces fonctionnalités relient les données opérationnelles, financières et humaines pour donner aux entreprises une vision plus complète de leur personnel. Pour en savoir plus : « Enabling Human-Centric & Data-Driven Workforce Planning« .

La nouvelle marketplace de données pour la solution SAP Data Warehouse Cloud, quant à elle, permet aux clients et aux partenaires de se connecter à des fournisseurs de données de tous les secteurs et de toutes les branches d’activité afin d’obtenir des informations pour une meilleure prise de décision.

SAP étend également son offre low-code/no-code : Les services SAP Intelligent Robotic Process Automation peuvent désormais capturer et automatiser les interactions des utilisateurs et s’intégrer à SAP Process Insights pour identifier les opportunités d’automatisation à fort impact.

Vous pouvez en savoir plus sur les mises à jour de la plate-forme SAP Business Technology et obtenir d’autres informations dans le guide de l’innovation de SAPPHIRE NOW.

À propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com .

Contacts presse SAP
Daniel Margato, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Mateo Moreau : 06.31.80.86.93 – presse-sap@publicisconsultants.com
SAP News Center. Suivez SAP sur Twitter : @SAPNews.

 

 

The post SAPPHIRE NOW : de nouvelles innovations SAP pour renforcer l’autonomie des clients appeared first on SAP France News.

Source de l’article sur sap.com

CockroachDB is a cloud-native SQL database that features both scalability and consistency. The database is designed to withstand data center failures by deploying multiple instances of symmetric nodes in a cluster consisting of several machines, disks, and data centers. Kubernetes’ built-in capabilities to scale and survive node failures make it well suited to orchestrate CockroachDB’s databases. This is particularly for the reason that Kubernetes simplifies cluster management and helps maintain high-availability by replicating data across independent nodes. 

This guide focuses on how OpenEBS LocalPV devices can be used to persist storage for Kubernetes-Hosted CockroachDB clusters. 

Source de l’article sur DZONE


1. Prefix Tree

1.1 Description

The prefix tree is related to the greedy algorithm; let’s not talk about the relationship first.

Prefix tree is also called Trie, word search tree, etc. It is a tree structure used to store a large number of strings.

Source de l’article sur DZONE

These days, companies have access to more data sources and formats than ever before: databases, websites, SaaS (software as a service) applications, and analytics tools, to name a few. Unfortunately, the ways businesses often store this data make it challenging to extract the valuable insights hidden within — especially when you need it for smarter data-driven business decision-making.

Standard reporting solutions such as Google Analytics and Mixpanel can help, but there comes a time when your data analysis needs to outgrow capacity. At this point, you might consider building a custom business intelligence (BI) solution, which will have the data integration layer as its foundation.

Source de l’article sur DZONE

SAP Manufacturing Execution s’invite sur les lignes d’assemblage du géant Airbus. Une solution qui permet de faciliter le travail des opérateurs, tout en améliorant les performances des lignes de production.

Airbus est un acteur bien connu dans le monde de l’aviation civile, avec plus de 12.600 avions livrés à ses clients. C’est aussi un acteur majeur dans le monde des hélicoptères (plus de 12.000 appareils assemblés), de la défense et de l’espace.

Avant la crise sanitaire, les livraisons étaient en forte croissance (+37 % sur 5 ans) et le carnet de commandes promettait du travail aux usines d’Airbus pour les 8,5 années à venir. L’arrivée du Coronavirus et son impact massif sur les déplacements par avion ont provoqué une chute massive des activités de la société. Si l’entreprise travaille déjà sur les avions de demain, avec par exemple des modèles à l’impact carbone réduit de 25 %, elle doit aussi optimiser sa production.

« Dans ce contexte d’adaptation rapide au changement, l’introduction d’un système de pilotage de la production (MES, pour Manufacturing Execution System) va être un élément clé de notre transformation », explique Alexandre Sizaret, Head of Production System Efficiency & Manufacturing Digitalisation, Airbus. Le projet a été lancé fin 2016, mais l’arrivée de la crise lui a donné un nouvel élan.

SAP et Sopra Steria à la manœuvre

SAP Manufacturing Execution (SAP ME) est aligné avec les principes du système d’information d’Airbus, AOS (Airbus Operating System) : standardisation des processus, management visuel, suivi et amélioration continus. Il vient naturellement compléter l’ERP et le PLM au sein des usines. Enfin, son interface utilisateur simple est adaptée aux opérateurs travaillant sur des chaînes de production.

Airbus veut répondre à plusieurs challenges au travers de SAP ME : l’organisation de la production (organisation des effectifs, allocation des ressources…) ; le pilotage de l’activité (lignes de production, séquences à exécuter et avancement des séquences) ; l’interfaçage avec l’opérateur (au travers de tablettes, voire de smartphones) ; le support (détection des problèmes et alerte du manager, de la maintenance ou d’autres fonctions support).

Un core model pour toutes les usines Airbus

Pour son projet, Airbus a opté pour une approche core model associant une équipe pluridisciplinaire et multifonctionnelle. « Nous avons mis tout le monde autour de la table – opérateurs, management, intervenants métiers et techniques – afin de mettre au point une unique solution adaptée à toutes les usines, dans tous les pays », explique Alexandre Sizaret.

Après les phases de cadrage et de maquettage, la construction de la solution a été réalisée, avec une mise en place des différentes fonctionnalités de manière incrémentale. Une première version a été déployée sur des usines pilotes volontaires. L’organisation a souhaité ensuite prendre un peu de recul pour identifier les sources d’irritation. Dans le même temps, une analyse a été menée sur l’utilisation du MES et l’adhésion aux processus proposés. « Nous avons voulu vérifier que l’outil répondait bien aux besoins exprimés et qu’il était correctement utilisé. » Une importante phase de consolidation avant le déploiement à grande échelle de SAP ME.

La solution est aujourd’hui présente sur l’ensemble des sites européens du groupe : 10 usines et 2 lignes d’assemblage final. Soit un total de 279 stations de production. 7700 personnes ont été formées, dont 5500 sont des utilisateurs réguliers de SAP Manufacturing Execution. Plus de 2,4 millions d’opérations ont été effectuées sur SAP ME au cours de l’année 2020. Pour tenir cette charge, le système est réparti sur quatre sites, selon un même core model.

Au sein des sites de production, des écrans géants ont été déployés, secondés par des tablettes, smartphones et équipements IoT (scanners, lecteurs de badges…). SAP ME interagit directement avec l’ERP SAP, que ce soit pour la qualité, la conformité, la gestion des aléas, la maintenance ou encore la logistique. Il interagit aussi avec le PLM. Il est ainsi possible de visualiser pièces et maquettes en 3D et de disposer d’instructions de montage détaillées.

Plus d’efficacité au quotidien

SAP Manufacturing Execution est vu par Airbus comme un facilitateur du travail des opérateurs. Mais aussi comme un élément clé pour mesurer, soutenir et améliorer les performances des lignes de production. « Parmi les bénéfices les plus visibles, nous constatons une réduction des temps de production, des déplacements des opérateurs, de la documentation de production et plus généralement du recours aux documents papier, constate Alexandre Sizaret. Un autre bénéfice, moins facilement mesurable, est l’amélioration des performances des lignes de production, au travers d’un meilleur pilotage et d’une meilleure réactivité face aux aléas. »

Le MES est un élément clé pour épauler la production au quotidien, mais aussi un socle qui va aider  à la démocratisation de nouvelles technologies, comme les jumeaux numériques ou la maintenance prédictive. « Nous souhaitons aller vers l’opérateur 4.0 en le connectant à la bonne information, au bon moment, au travers de technologies comme la réalité virtuelle, la réalité augmentée ou l’interaction vocale avec les solutions numériques. Nous voulons également nous servir de la puissance de la data pour améliorer les processus, détecter les bonnes pratiques et prévenir les aléas. C’est un changement de paradigme qui nous permettra de basculer de la réaction à l’anticipation. »

 

 

The post Airbus place SAP Manufacturing Execution au cœur de sa production appeared first on SAP France News.

Source de l’article sur sap.com

For many enterprise-grade applications, providing a point where you can access in-depth analysis about your data has become a crucial feature. There are many approaches to this — you can build your own web application and backend that has views allowing customers to filter and analyze data. Alternatively, you can use the embedded analytics capabilities of Looker, Tableau, or Sisense — all of which are large business intelligence tools, with a host of features and connectors into all sorts of data sources.
But if you’re already on AWS, then it really is worth considering QuickSight to present analytics in your web application.

This series will guide you through the intricacies of creating a multi-tenant solution with QuickSight, dealing with data security across customers and within organizations. We’ll need to go beyond to AWS console and dive into the CLI/API commands that you’ll need to manage all of this.

Source de l’article sur DZONE

In this article, we will discuss a use case where data from one kafka cluster has to be migrated to another Kafka Cluster. Here the target is strimzi and the source is a standalone Kafka cluster.  Target means where data has to be copied and the source is from where we want to copy/migrate data. I have an article on how to use mirrormaker with apache kafka clusters about mirrormaker version 1. This article is about mirrormaker 2, which has more features than mirrormaker1.

At the time of writing this article, the latest version of strimzi is 0.22.1 and can be downloaded from here.

Source de l’article sur DZONE

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

From dev tools to productivity to a little bit of fun with sudoku, this month’s collection of new tools is packed with something for everyone.

Here’s what new for designers this month.

May’s Top Picks

Am I FLoCed?

Am I FLoCed? Is a tool to see if you are part of a Google Chrome origin trial. It tests a new tracking feature called Federated Learning of Cohorts (FLoC). According to Google, the trial currently affects 0.5% of users in selected regions, including Australia, Brazil, Canada, India, Indonesia, Japan, Mexico, New Zealand, the Philippines, and the United States. The page will try to detect whether you’ve been made a guinea pig in Google’s ad-tech experiment.

According to the designers of Am I FloCed: “FLoC runs in your browser. It uses your browsing history from the past week to assign you to a group with other ‘similar’ people around the world. Each group receives a label, called a FLoC ID, which is supposed to capture meaningful information about your habits and interests. FLoC then displays this label to everyone you interact with on the web. This makes it easier to identify you with browser fingerprinting, and it gives trackers a head start on profiling you.”

Uncut

Uncut is a Libre typeface catalog that just got started in April. It features contemporary typefaces and styles and is set to be updated regularly. Sort by sans serif, serif, monospace, or display typefaces. Plus, you can submit a typeface for inclusion.

Dashblock

Dashblock allows you to build automations without coding. Use it to create visual automations, or turn blocks into use-cases. (It is a premium tool, but comes with a 14-day free trial to test it out.)

Instant

Instant is a fast and secure one-click checkout tool that works with WooCommerce. Users fill out a short form the first time they shop and then join the network to enable instant, frictionless, 1-click checkouts without passwords. It makes shopping easier and cuts abandoned carts.

5 Image Tools

Triangula

Triangula uses a modified genetic algorithm to triangulate images. It works best with images smaller than 3000px and with fewer than 3000 points, typically producing an optimal result within a couple of minutes. The result is a nifty-looking image.

Content-Aware Image Resizing in Javascript

Content-Aware Image Resizing in Javascript solves that problem with images where you have a photo but it just doesn’t quite fit. A crop doesn’t work because you lose important information. The carver slices and cuts photos to give you the image elements you want in the size you want them. It’s probably a good idea to read through the tutorial before jumping into the open-source code on GitHub.

Globs Design

Globs Design uses toggles and drag and drop to help you create funky shapes and fills that you can save in SVG format for projects.

Root Illustrations

Root Illustrations is a stylish set of people-based illustrations that you can customize to create scenes for your projects. Construct a scene and then snag your set of vector graphics that also work with Sketch and Figma. The set includes 24 characters, more than 100 details, and the ability to change colors and styles.

Make Your Photo 16×9

Make Your Photo 16×9 is as simple as it sounds. It is a cropping tool that allows you to upload any shape of photo – even vertical – and pick options to fill the space to make it fit the standard 16×9 aspect ratio.

6 Dev Tools

Devbook

Devbook is a search engine for developers that helps them to find the resources they need and answer their questions faster. Fast, accessible right from a code editor, and fully controllable with just a keyboard.

Madosel

Madosel is a fast, advanced responsive HTML front-end framework that’s in an alpha version. The open-source tool is made to create websites and apps that look great on any device. Plus, it is semantic, readable, flexible, and customizable.

Say Hello to CSS Container Queries

Say Hello to CSS Container Queries helps solve a problem with media queries and smart stacking of elements. CSS Container Queries allow you to make a fluid component that adjusts based on the parent element and everything is independent of viewport width. This post takes you through everything you need to do to implement this yourself.

Frontend Toolkit

Frontend Toolkit is a customizable dashboard that you can use to keep up with recurring tasks. It’s one of those little tools that can speed up workflows.

Flatfile

Flatfile is a production-ready importer for SaaS applications. It allows you to auto-format customer spreadsheets without manual cleaning of data and you can do it all without a CSV parser. The tool also includes an elegant UI component to guide users through the process.

Plasmic

Plasmic is a visual website builder that works with your codebase. It’s designed to speed up development with developers focusing on code (not pixel pushing) and allows non-developers to publish pages and content. The premium tool works with any hosting, CMS, or framework and you can adapt it by the component, section, or page.

2 Productivity Tools

Calendso

Calendso is an open-source calendar scheduling tool. It’s flexible with the ability to host it yourself or with the makers of the calendar. It is API-driven and allows you to control events and information. The interface is simple and sleek and can integrate into your website.

Slidev

Slidev is a set of presentation slides for developers. What’s different about this presentation deck is that you can write slides in a single markdown file with themes, code blocks, and interactive components.

4 Icons and UI Kits

Iconic

Iconic is a set of pixel-perfect icons that gets updated each week. The collection of 24×24 px elements in SVG format contains 160 icons and counting. The simple style is easy to implement and you can search for just what you need by category.

5 Dashboard Templates for Figma

5 Dashboard Templates for Figma is a set of free ready-made screens with light and dark modes for each that you can use with components such as calendars, charts, tables, and more. The free elements are a preview of a larger premium Figma set if you like how they look and work.

Free Mobile Chat UI Kit

Free Mobile Chat UI Kit is a tool of components for Sketch, Figma, and Adobe XD that includes more than 50 messaging screens with light and dark modes.

Stratum UI Design Kit

Stratum UI Design Kit is a collection of more than 9,000 consistent elements for Figma. It’s packed with elements and tools that make this premium UI kit a tool that gets projects moving quickly.

4 Type Tools and Fresh Fonts

Fluid Typography

Fluid Typography is a nifty tool that allows you to test headings in any size at different viewports to ensure it looks great everywhere. Then you can copy the CSS and use it in your projects.

Eighty-Eight

Eighty-Eight is a funky block-style typeface for display use.

Harmonique

Harmonique is a robust typeface family with lovely serifs and alternates. It’s a type family of two styles that work in harmony together to add distinction and personality to your own typographic compositions. Harmonique’s low contrast forms have the appeal of a humanist sans serif typeface.

Sketchup

Sketchup is a charming display typeface that has a nice pen style. The free version has a limited character set.

Just for Fun

Generating and Solving Sudokus in CSS

Generating and Solving Sudokus in CSS by Lee Meyer for CSS-Tricks is a fun deep dive into using CSS for something you might not expect. It’s a complicated – but fun – look at some of the things CSS can do with plenty of code snippets. The final result is a solvable puzzle with 16 squares.

Source

The post 26 Exciting New Tools For Designers, May 2021 first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

A VPN is a way to keep your identity a secret and protect your traffic on the internet. Your internet traffic passes through a tunnel that encrypts your data that no one can see, such as your internet service provider or government when you connect to a VPN server.

Let us list down why you need to use a VPN.

Source de l’article sur DZONE