Articles

Après avoir mis SAP HANA au cœur du SI financier de SCOR, SAP annonce que son client a finalisé avec succès sa roadmap finance. Annoncée en 2015, cette dernière permet aux différents métiers de la finance de SCOR de répondre sereinement aux objectifs des années à venir. La raison d’être du projet : être au service des métiers pour soutenir l’excellence opérationnelle du domaine finance.

Quatrième réassureur mondial, SCOR offre à ses clients une gamme innovante et diversifiée de solutions et de services pour le contrôle et la gestion des risques via une assise financière solide. Fidèle à sa devise « l’Art et la Science du Risque », le Groupe met son expertise reconnue au sein du secteur et ses solutions financières de pointe au service du bien-être et de la résilience des populations.

Répondre à de nombreux enjeux business et numérique pour évoluer technologiquement

SCOR concrétise sa roadmap 2015-2020 avec la conversion vers S/4HANA opérée en Juillet 2020, point d’orgue d’une ambition métier supportée par SAP HANA visant à mettre en place une plateforme financière unique et intégrée pour l’ensemble des besoins de la Finance.

Ce plan sur 5 ans a permis la mise en place des axes suivants :

  • Le passage des portfolio Analytics (SAP BW) et EPM (SAP BFC) sur une instance SAP HANA unique
  • La migration du General Ledger (ECC) sur S/4HANA;
  • La création et le développement de la Reporting Factory, s’appuyant sur un catalogue analytique en temps réel et réconcilié « by design » par une consolidation très précise grâce à 3 outils SAP intégrés :
    • Analysis For Office (AO) pour l’analyse et la manipulation des données
    • SAP Analysis Cloud (SAC) pour le dashborading
    • Disclosure Management (DM) pour le reporting statique
  • La digitalisation et la robotisation des processus Finance au sein du Groupe

Un déploiement prenant en considération tous les paramètres, coûts, délais et qualité grâce à l’expertise consolidée métier, projets et systèmes du SAP Competency Center de SCOR dirigé par François Bossard, qui s’est vu être complétée par le déploiement sur une instance unique de la gestion de la trésorerie (SAP TRM), de la communication bancaire (SAP BCM), de la gestion budgétaire (SAP eBPC) et de la sécurisation du cycle de développement (Solution Manager).

SCOR est désormais doté d’un avantage concurrentiel indéniable pour les 3 prochaines années dans le domaine de la Finance en termes d’innovations technologiques. Sa plateforme est complètement intégrée et dotée d’interfaces répondant en temps réel voire en streaming, un niveau d’intégration que de nombreux acteurs commencent tout juste à entrevoir. Ces avancées sont dues à un concept fonctionnel clé : la réconciliation « by design » de l’ensemble des domaines de la finance au sein d’une plateforme unifiée.

« SCOR posait il y a 10 ans les bases d’une vision rationnalisée de son système d’information financier en migrant l’ensemble de ses comptabilités dans SAP. Ces cinq dernières années, il nous paraissait naturel de faire fructifier cet acquis via une roadmap de développement ambitieuse, associant enrichissements fonctionnels et innovations technologiques pour en tirer tous les bénéfices, optimisant nos processus financiers et nos capacités analytiques. Grâce à ces acquis et à une migration fluide vers S/4HANA réalisée en quelques mois, nous pouvons compter sur une plateforme financière performante qui est en mesure d’encaisser les impacts des prochaines échéances d’évolution règlementaire IFRS9 et IFSR17 », précise Marc Philippe, Directeur des Systèmes d’Information du Groupe SCOR.

Une implémentation réussie pour aller plus loin dans l’excellence opérationnelle

Déployée en juillet 2020, SAP S/4HANA, montre déjà de nombreux bénéfices : des économies sur de nombreux projets, des gains de temps pour mieux redéployer les ressources, la mise en place de process plus intégrés, plus automatisés, plus simples et plus informés pour permettre aux équipes de se concentrer sur leur valeur ajoutée et ainsi libérer du temps aux collaborateurs pour se concentrer sur l’opérationnel. Cette nouvelle étape répond à une logique stratégique sur le moyen long-terme. En effet, elle permet de se rapprocher tactiquement de la roadmap SAP, d’avoir toujours un œil sur l’innovation, d’aller encore plus loin dans l’excellence opérationnelle ou encore de se rapprocher davantage de la réalité comptable tout en abordant de manière plus sereine les challenges normatifs de l’industrie pour les 3 prochaines années.

A l’initiative et à la direction de cette roadmap, y compris la conversion vers S/4HANA venant la conclure, Marc Henry, Head of Finance Projects, Systems, Processes and Controls du Groupe SCOR, précise que « S/4HANA nous permet de construire et développer IFRS9 et IFRS17 sur la nouvelle plateforme sans avoir à faire de migration par la suite. La solution nous permet aussi de développer de nouvelles fonctionnalités clés comme l’ajout de devises, de ledger, de GAAPs et d’aller encore plus loin dans l’intégration du domaine de la finance ».

La solution SAP Analytics Cloud permet de déployer un ensemble de best practices, de capitaliser sur l’ensemble des efforts consentis sur HANA et de s’inscrire comme early-adopter de la roadmap de SAP pour assurer une co-innovation et un partage constant avec toutes les parties prenantes. La solution fournit également au top management des données en temps réel leur permettant d’avoir un avis fiable et factuel sur plusieurs process comme la santé financière de leur division dans le cadre d’un projet ou encore sur le pilotage de KPIs plus globaux. Enfin, SAC permet de rendre les utilisateurs de la solution plus indépendants afin d’être davantage sur l’accompagnement et la certification de la donnée plutôt que sur sa production par les équipes métier.

SAP Business Planning and Consolidation (eBPC) a offert à SCOR la possibilité d’adapter ses plans de planification, de budgétisation, de prévision pour améliorer l’ensemble du processus budgétaire du Groupe. La solution a également permis d’entrevoir des gains additionnels au regard de la roadmap SAP et de son intégration avec d’autres outils déjà existants comme SAP Analytics Cloud Planning. L’objectif : accélérer les cycles budgétaires et de clôture financière, et renforcer l’expérience utilisateur.

« Après le succès de la première implémentation avec SAP, nous souhaitions poursuivre la collaboration. Nous avons pu mettre en place une plate-forme mondiale intégrée, dotée d’une base de données unique disponible en temps réel. SCOR a pu capitaliser sur tout le travail effectué précédemment, avoir un seul point d’accès pour la donnée Finance et rendre certains modules plus flexibles. Nous sommes très fiers d’être une vitrine pour SAP qui nous offre de réels bénéfices opérationnels à court terme », ajoute Marc Henry.

A propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun. Pour plus d’informations, visitez le site www.sap.com.

 

Contacts presse :

Daniel MARGATO, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Pauline BARRIERE : 06.13.73.93.11 – presse-sap@publicisconsultants.com
SAP Press Room; press@sap.com

The post SAP conclut avec succès la roadmap finance de SCOR appeared first on SAP France News.

Source de l’article sur sap.com

Le data mining est le processus d’extraction d’informations utiles à partir d’une accumulation de données, souvent à partir d’un data warehouse (entrepôt de données) ou d’une collection d’ensembles de données liés. Les outils de data mining incluent de puissantes fonctionnalités statistiques, mathématiques et analytiques dont l’objectif principal est de passer au crible de vastes ensembles de données pour identifier les tendances, les modèles et les relations, pour des prises de décisions et une planification éclairées.

Souvent associé aux demandes du service marketing, le data mining est considéré par de nombreux dirigeants comme un moyen de mieux comprendre la demande et de voir l’impact des modifications apportées aux produits, des prix ou des promotions sur les ventes. Mais le data mining présente également des avantages considérables pour d’autres domaines d’activité. Les ingénieurs et les concepteurs peuvent analyser l’efficacité des modifications de produit et rechercher les causes possibles de la réussite ou de l’échec d’un produit en fonction de la manière, du moment et du lieu d’utilisation des produits. Le MRO (entretien, réparation et fonctionnement) est en mesure de mieux planifier le stock de pièces et l’affectation du personnel. Les entreprises de services professionnels peuvent utiliser le data mining pour identifier les nouvelles opportunités liées à l’évolution des tendances économiques et aux changements démographiques.

Le data mining s’avère davantage utile et précieux maintenant que l’on se retrouve avec des ensembles de données plus volumineux et une expérience utilisateur accrue. Logiquement, plus il y a de données, plus elles cachent d’informations et de renseignements. Par ailleurs, plus les utilisateurs se familiarisent avec les outils et comprennent la base de données, plus ils deviennent créatifs vis-à-vis des explorations et des analyses.


Pourquoi utiliser le data mining ?

Le principal avantage du data mining est sa capacité à repérer des modèles et des relations dans de grands volumes de données provenant de plusieurs sources. Avec de plus en plus de données disponibles, provenant de sources aussi variées que les réseaux sociaux, les capteurs à distance et les rapports de plus en plus détaillés sur les mouvements de produits et l’activité du marché, le data mining offre les outils nécessaires pour exploiter pleinement le Big Data et le transformer en renseignements exploitables. De plus, il peut aider à « sortir des sentiers battus ».

Le processus de data mining peut détecter des relations et des modèles surprenants et intrigants dans des fragments d’informations apparemment non liées. Comme les informations tendent à être compartimentées, il a toujours été difficile, voire impossible, de les analyser dans leur ensemble. Toutefois, il peut exister une relation entre les facteurs externes (démographiques ou économiques, par exemple) et la performance des produits d’une entreprise. Les dirigeants, qui examinent régulièrement les chiffres des ventes par territoire, ligne de produits, canal de distribution et région, manquent souvent de contexte externe pour ces informations. Leur analyse souligne « ce qui s’est passé », mais ne détaille pas vraiment « pourquoi cela s’est passé de cette manière ». Le data mining peut apporter une solution.

Le data mining peut rechercher des corrélations avec des facteurs externes. Si la corrélation n’indique pas toujours la causalité, ces tendances peuvent être des indicateurs précieux pour guider les décisions relatives aux produits, aux canaux et à la production. La même analyse peut être bénéfique pour d’autres domaines de l’activité, de la conception de produit à l’efficacité opérationnelle, en passant par la prestation de services.


Historique du data mining

Nous collectons et analysons des données depuis des milliers d’années et, à bien des égards, le processus est resté le même : identifier les informations nécessaires, trouver des sources de données de qualité, collecter et combiner les données, utiliser les outils les plus efficaces pour analyser les données, et tirer parti des enseignements appris. À mesure que l’informatique et les systèmes basés sur les données se sont développés, il en a été de même pour les outils de gestion et d’analyse des données. Le véritable point d’inflexion est venu dans les années 1960 avec le développement de la technologie de base de données relationnelle et des outils de requête en langage naturel orienté utilisateur, tels que Structured Query Language (SQL). Les données n’étaient plus disponibles uniquement via des programmes codés personnalisés. Grâce à cette avancée, les utilisateurs pouvaient explorer leurs données de manière interactive et en extraire les « joyaux cachés ».

Le data mining est traditionnellement un ensemble de compétences spécialisées dans la science des données. Cependant, chaque nouvelle génération d’outils analytiques nécessite dans un premier temps des compétences techniques avancées, mais évolue rapidement pour devenir accessible aux utilisateurs. L’interactivité, c’est-à-dire la possibilité de laisser les données vous parler, est la principale avancée. Posez une question et visualisez la réponse. En fonction de ce que vous apprenez, posez une autre question. Ce type d’itinérance non structurée à travers les données permet à l’utilisateur d’aller au-delà des limites de la conception de bases de données spécifiques à une application et permet de découvrir des relations qui dépassent les limites fonctionnelles et organisationnelles.

Le data mining est une composante clé de la Business Intelligence. Les outils d’exploration de données sont créés dans les tableaux de bord décisionnels, en extrayant des informations du Big Data, y compris les données des réseaux sociaux, des flux de capteurs IoT, des appareils de localisation, du texte non structuré, des vidéos, etc. Le data mining moderne s’appuie sur le Cloud, l’informatique virtuel et les bases de données in-memory pour gérer les données de diverses sources de manière rentable et s’adapter à la demande.


Comment cela fonctionne ?

Il y a environ autant d’approches du data mining qu’il y a d’explorateurs de données. L’approche dépend du type de questions posées, du contenu et de l’organisation de la base de données ou des ensembles de données fournissant la matière première pour la recherche et l’analyse. Cela dit, certaines étapes organisationnelles et préparatoires doivent être accomplies pour préparer les données, les outils et les utilisateurs :

  1. Comprendre le problème, ou du moins le domaine d’enquête.Le décideur, qui doit prendre les commandes de cette grande aventure de data mining, a besoin d’une compréhension générale du domaine dans lequel il travaillera, à savoir les types de données internes et externes qui doivent faire partie de cette exploration. On suppose qu’il a une connaissance approfondie de l’entreprise et des domaines fonctionnels impliqués.
  2. Collecte de données. Commencez par vos systèmes et bases de données internes. Liez-les à l’aide de leurs modèles de données et de divers outils relationnels, ou rassemblez les données dans un entrepôt de données (data warehouse). Cela inclut toutes les données provenant de sources externes qui font partie de vos opérations, telles que les données de force de vente et/ou de service, les données IoT ou des réseaux sociaux. Recherchez et acquérez auprès des associations professionnelles et des gouvernements les droits sur les données externes, notamment les données démographiques, économiques et relatives au marché, telles que les tendances du secteur et les indices financiers. Intégrez-les dans le périmètre du kit d’outils (intégrez-les dans votre data warehouse ou reliez-les à l’environnement de data mining).
  3. Préparation et compréhension des données.Faites appel aux experts en la matière pour définir, catégoriser et organiser les données. Cette partie du processus est parfois appelée « remaniement des données ». Certaines données peuvent nécessiter un nettoyage pour supprimer les doublons, les incohérences, les enregistrements incomplets ou les formats obsolètes. La préparation et le nettoyage des données peuvent se poursuivre à mesure que de nouveaux projets ou des données provenant de nouveaux champs d’enquête deviennent intéressants.
  4. Formation des utilisateurs.Vous ne donneriez pas à votre adolescent les clés de la Ferrari sans qu’il n’ait appris à conduire ou qu’il n’ait pratiqué la conduite sur route avec un moniteur. Par conséquent, veillez à dispenser une formation formelle à vos futurs explorateurs de données et à les familiariser avec ces outils puissants. La formation continue est également bienvenue une fois qu’ils maîtrisent les bases et qu’ils peuvent passer à des techniques plus avancées.

Techniques de data mining

Gardez à l’esprit que l’exploration de données est basée sur un kit d’outils plutôt que sur une routine ou un processus fixe. Les techniques spécifiques de data mining citées ici ne sont que des exemples d’utilisation des outils par les organisations afin d’explorer leurs données et rechercher des tendances, des corrélations et des renseignements.

D’une manière générale, les approches de data mining peuvent être catégorisées comme étant orientées (vers un résultat spécifique souhaité) ou non orientées, comme un simple processus de découverte. D’autres explorations peuvent être destinées au tri ou à la classification des données, telles que le regroupement des clients potentiels en fonction d’attributs commerciaux comme le secteur, les produits, la taille et le lieu géographique. De même, la détection de cas particuliers ou d’anomalies est une méthode automatisée de reconnaissance des anomalies réelles (plutôt que simple variabilité) dans un ensemble de données qui affiche des modèles identifiables.

Association

Un autre objectif intéressant est l’association, qui relie deux événements ou activités apparemment non liés. Il existe un récit bien connu des débuts de l’analyse et du data mining, peut-être fictif, selon lequel une chaîne de magasins découvrait une corrélation entre les ventes de bière et de couches. Il avait été supposé que les nouveaux papas stressés qui sortaient tard le soir pour acheter des couches pouvaient aussi prendre un pack de 6 bières dans la foulée. Les magasins ont alors placé la bière et les couches à proximité, ce qui a augmenté les ventes de bière.

Clustering

Cette approche vise à regrouper les données par similitudes plutôt que par hypothèses prédéfinies. Par exemple, lorsque vous explorez vos informations commerciales clients combinées à des données externes démographiques et de crédit à la consommation, vous pourriez découvrir que vos clients les plus rentables vivent dans des villes de taille moyenne.

La majorité du temps, le data mining est exécuté en soutien à la prévision. Plus vous comprenez les modèles et les comportements, mieux vous pouvez prévoir les actions futures liées aux causes ou aux corrélations.

Régression

L’une des techniques mathématiques proposées dans les kits d’outils de data mining est l’analyse de régression, qui prédit un nombre en fonction de modèles historiques projetés dans le futur. Divers autres algorithmes de détection et de suivi des modèles fournissent des outils flexibles pour aider les utilisateurs à mieux comprendre les données et le comportement qu’elles représentent.

Ce ne sont là que quelques-uns des outils et des techniques disponibles dans les kits d’outils de data mining. Le choix de l’outil ou de la technique est en quelque sorte automatisé en ce sens que les techniques seront appliquées en fonction de la manière dont la question est posée. Auparavant, l’exploration de données revenait à « découper en tranches » la base de données, mais la pratique est aujourd’hui plus sophistiquée et les termes comme association, clustering et régression sont monnaie courante.


Exemples de cas d’utilisation

Le data mining est essentiel à l’analyse des sentiments, à l’optimisation des prix, au marketing de bases de données, à la gestion des risques de crédit, à la formation et à l’assistance, à la détection des fraudes, aux diagnostics médicaux, à l’évaluation des risques, aux systèmes de recommandation (à savoir, « les clients qui ont acheté ceci ont également aimé… »), et bien plus encore. Elle peut être un outil efficace dans pratiquement n’importe quel secteur, y compris la distribution de détail, la distribution de gros, les services, la fabrication, les télécommunications, les communications, les assurances, l’éducation, la santé, la banque, la science, l’ingénierie et le marketing en ligne ou les réseaux sociaux.

Développement de produit

Les entreprises qui conçoivent, fabriquent ou distribuent des produits physiques peuvent identifier des opportunités pour mieux cibler leurs produits en analysant les habitudes d’achat conjuguées aux données économiques et démographiques. Leurs concepteurs et ingénieurs peuvent également recouper les commentaires des clients et des utilisateurs, les données de réparation et d’autres données pour identifier les opportunités d’amélioration des produits.

Production

Les fabricants peuvent suivre les tendances de qualité, les données de réparation, les taux de production et les données de performance des produits sur le terrain pour identifier les problèmes de production. Ils peuvent également détecter les améliorations pouvant être apportées aux processus afin d’accroître la qualité, gagner du temps, réduire les coûts, améliorer la performance des produits et/ou repérer tout besoin de renouvellement d’équipements.

Industries
des services

Dans le secteur des services, les utilisateurs peuvent trouver des opportunités similaires d’amélioration des produits en comparant les commentaires des clients (directs ou publiés sur les réseaux sociaux ou d’autres sources) et les données relatives aux services, canaux, performance des pairs, régions, tarifs, ou encore les données démographiques ou économiques.

Enfin, toutes ces découvertes doivent être transposées dans les prévisions et la planification afin que l’ensemble de l’entreprise soit en phase avec les changements de la demande anticipés grâce à une connaissance plus approfondie du client, et soit ainsi mieux positionnée pour exploiter les opportunités venant d’être identifiées.


Défis liés au data mining

  • Big Data : la génération de données est de plus en plus rapide, ce qui offre de plus en plus d’opportunités pour le data mining. Cependant, des outils d’exploration de données modernes sont nécessaires pour extraire une signification du Big Data, compte tenu du volume élevé, de la grande rapidité et de la grande variété des structures de données, ainsi que du volume croissant de données non structurées. De nombreux systèmes existants ont du mal à gérer, à stocker et à utiliser ce grand flux d’intrants.
  • Compétence de l’utilisateur : les outils d’exploration et d’analyses des données sont conçus pour aider les utilisateurs et les décideurs à comprendre et à obtenir des informations à partir de grands volumes de données. Bien que hautement techniques, ces outils puissants offrent désormais une excellente expérience utilisateur, de sorte que pratiquement tous les utilisateurs sont en mesure d’utiliser ces outils avec un minimum de formation. Toutefois, pour tirer pleinement profit des avantages, l’utilisateur doit comprendre les données disponibles et le contexte commercial des informations qu’il recherche. Il doit également savoir, au moins de manière générale, comment fonctionnent les outils et ce qu’ils peuvent faire. Ces outils ne sont pas hors de portée du responsable ou dirigeant moyen, mais nécessitent un apprentissage, raison pour laquelle les utilisateurs doivent consacrer du temps au développement de cette nouvelle compétence.
  • Qualité et disponibilité des données : avec ces énormes quantités de nouvelles données, il existe également des masses de données incomplètes, incorrectes, trompeuses, frauduleuses, endommagées ou simplement inutiles. Les outils peuvent contribuer à résoudre ce problème, mais les utilisateurs doivent constamment tenir compte de la source des données et de sa crédibilité et fiabilité. Les préoccupations en matière de confidentialité sont également importantes, tant en ce qui concerne l’acquisition des données que la prise en charge et la gestion une fois qu’elles sont en votre possession.

Pictogramme qui représente un entrepôt de données

Renforcez votre expertise en matière de gestion des données

Comprenez le processus de gestion des données et les avantages qu’il peut apporter à votre organisation.

En savoir plus

 


FAQ sur le data mining

Quelle est la différence entre le machine learning et le data mining ?

Le data mining consiste à utiliser des outils analytiques avancés pour extraire des informations utiles d’une accumulation de données. Le machine learning est un type d’intelligence artificielle (IA) qui permet aux systèmes d’apprendre par l’expérience. L’exploration de données peut utiliser le machine learning lorsque les programmes analytiques ont la possibilité d’adapter leurs fonctionnalités en fonction de l’analyse de données qu’ils effectuent.

Existe-t-il une différence entre le data mining et l’analyse de données ?

L’analyse des données est un terme général pour le large éventail de pratiques visant à identifier les informations utiles, à les évaluer et à fournir des réponses spécifiques. Le data mining est un type d’analyse des données qui se concentre sur l’exploration de grands ensembles de données combinés pour découvrir des modèles, des tendances et des relations susceptibles de générer des informations et des prévisions.

Le data mining est-il identique à la science des données ?

La science des données est un terme qui inclut de nombreuses technologies de l’information, y compris les statistiques, les mathématiques et les techniques de calcul sophistiquées appliquées aux données. Le data mining est un cas d’utilisation de la science des données centré sur l’analyse de grands ensembles de données provenant d’un large éventail de sources.

Le data mining est-il identique au data warehouse ?

Un data warehouse est un ensemble de données, généralement provenant de sources multiples (ERPCRM, par exemple) qu’une entreprise rassemblera dans l’entrepôt à des fins d’archivage et d’analyse à grande échelle, comme le data mining.

The post Qu’est-ce que le data mining ? appeared first on SAP France News.

Source de l’article sur sap.com

Struggling to keep up with technology, or feeling overwhelmed with so many things to learn? Do you feel you are a competent developer, but you don’t see the results in your career? Maybe you feel like you don’t belong or that you are not good enough? Those are common symptoms, you are not alone! This talk will show you what’s behind those feelings, why you can’t keep up, and how to solve that. Come learn what the last 10 years of brain science have shown about our career and what the best developers do differently. Discover the exact skills you need to grow, and how to apply them in your project today. Become a better Java developer, create unlimited growth and forge your own path to success. Speaker Bio: https://java.mn/about/ Since 1995, Bruno helps Java developers improve their careers and work on cool projects with great people! Java Evangelist at ToolsCloud and Leader of SouJava, the Brazilian Java Users Society, Bruno discuss Java and the Developer Career in his https://code4.life project. 

Follow Bruno on Twitter: https://twitter.com/brjavaman

Source de l’article sur DZONE

In the last decade, advances in processing power and speed have allowed us to move from tedious and time-consuming manual practices to fast and easy automated data analysis. The more complex the data sets collected, the greater the potential to uncover relevant information. Retailers, banks, manufacturers, healthcare companies, etc., are using data mining to uncover the relationships between everything from price optimization, promotions, and demographics to how economics, risk, competition, and online presence affect their business models, revenues, operations, and customer relationships. Today, data scientists have become indispensable to organizations around the world as companies seek to achieve bigger goals than ever before with data science. In this article, you will learn about the main use cases of data mining and how it has opened up a world of possibilities for businesses.

Today, organizations have access to more data than ever before. However, making sense of the huge volumes of structured and unstructured data to implement improvements across the organization can be extremely difficult due to the sheer volume of information.

Source de l’article sur DZONE

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com

Inclusive design is all about designing sites with everyone in mind instead of designing for your own preferences. It’s an essential component in a professional-grade site and the cornerstone of a successful project.

Accessibility (A11y for short) is the technical branch of inclusive design. Accessibility is a science: it knows what markup is required to make the text available to the visually impaired; it knows the minimum button size for someone with limited motor control; it knows how complex navigation can be for someone with cognitive dysfunction. Accessibility is the engine that powers an inclusive design.

Because accessibility is so complex, it takes a huge wealth of knowledge to do it well. Luckily for you and me, there’s now a free resource you can use to brush up on your skills and improve the ROI of your site.

Stark has just acquired a11yresource and relaunched it as the Stark Public Library — reportedly the largest accessibility resource on the web. The library contains around a thousand different resources. You’ll find blog articles, checklists, formal courses, tools, links to web standards, and a whole lot more. As the library grows, the expectation is that Stark will add new features aimed at fostering a community.

Stark is a suite of accessibility tools for designers that integrates with XD, Sketch, and Figma. It’s free to use the basic package, and the commercial plan is $60 per year. The Public Library is free for everyone to access.

Source

The post Stark Launches Public Library For Accessibility first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Le changement climatique est un sujet brûlant. Pour y remédier, tous les pays du monde se doivent d’agir et de mener des actions coordonnées. Depuis plus de 10 ans, SAP s’emploie à agir contre le changement climatique. L’éditeur a fixé ses premiers objectifs de baisse des émissions de CO2 dès 2009. Bien qu’il ait une nouvelle fois été classé numéro 1 des éditeurs de logiciels dans les indices de durabilité du Dow Jones cette année, le plus dur reste à accomplir.

Dans le cadre du mouvement #FridaysForFuture, des milliers d’étudiants descendent dans la rue chaque vendredi pour manifester en faveur de la protection du climat. Le rapport annuel sur l’écart entre les besoins et les perspectives en matière de réduction des émissions qui vient d’être publié a tiré une autre sonnette d’alarme avant la conférence sur le climat de cette semaine. En comparant la tendance des émissions de gaz à effet de serre à leur niveau souhaitable, le rapport souligne que ces émissions doivent baisser de 7,6 % par an sur la prochaine décennie pour que l’humanité parvienne à contenir l’élévation des températures du globe à 1,5 °C. Un réchauffement supérieur à 1,5 degré entraînerait des phénomènes climatiques plus fréquents et plus intenses, à l’image des vagues de chaleur et des tempêtes observées ces dernières années, et ferait planer de graves menaces sur les populations, les pays, l’environnement, mais aussi les entreprises.

Favoriser l’action pour le climat via les solutions SAP

Pour lutter contre les dommages causés par le changement climatique, SAP s’appuie sur la numérisation. Ce faisant, l’éditeur aide ses clients à réduire leurs émissions de CO2 et à contribuer à l’objectif de développement durable numéro 13 des Nations unies, à savoir Mesures relatives à la lutte contre les changements climatiques.

« Le principal levier de SAP se traduit par son portefeuille de produits, qui permet aux clients d’agir de manière positive sur le plan économique, environnemental et social », explique Daniel Schmid, directeur du développement durable de SAP. « Avec plus de 437 000 clients à son actif, notre entreprise dispose d’un énorme potentiel pour changer les choses. »

Une partie de ce potentiel a déjà été réalisée en collaboration avec les clients.

Lors dialogue consacré aux aspects stratégiques du développement durable qui s’est tenu au siège de SAP en septembre, Hanno Schoklitsch, fondateur et PDG de Kaiserwetter, a parlé de la façon dont son entreprise recourt à l’Internet des Objets (IdO) et l’intelligence artificielle (IA) pour accélérer la transition vers les énergies vertes. Il a présenté le dernier bilan d’ARISTOTELES, plateforme IdO optimisée par SAP Cloud Platform, qui s’appuie sur des analyses de données intelligentes et des simulations de données prédictives pour améliorer les investissements et le financement en faveur de l’efficacité énergétique.

Il est essentiel d’amplifier cet impact. En conséquence, les équipes SAP s’activent à faire évoluer les solutions SAP qui aident à transformer la mobilité urbaine et qui soutiennent les réseaux de chaîne logistique pour qu’ils gagnent en transparence, dans l’objectif de passer à une économie circulaire « zéro déchet » et de lutter contre la pollution plastique.

Donner l’exemple : efforts consentis en interne

Cliquez pour agrandir

Tout en cherchant à élaborer des produits et services qui aident les clients à déployer des modèles économiques durables, SAP s’engage à réduire ses propres émissions de gaz à effet de serre. Des mesures ont déjà été mises en place pour atteindre cet objectif.

SAP s’est fixé l’objectif de réduire de 85 % ses émissions de CO2 tout au long de la chaîne de création de valeur d’ici 2050, un objectif qui s’inscrit dans l’initiative « Science Based Targets ». Dans ce cadre-là, l’éditeur a récemment renforcé son engagement en adoptant les objectifs de réduction des émissions de 1,5 ºC dans l’optique d’une future neutralité carbone. Pour atteindre la neutralité carbone dans ses propres activités d’ici 2025, SAP s’appuie sur une stratégie en trois volets : éviterréduirecompenser.

  • Éviter : dans la mesure du possible, SAP s’emploie à éviter les émissions de gaz à effet de serre. Il s’agit d’une priorité absolue, qui passe par exemple par le recours aux télécommunications virtuelles en lieu et place des vols d’affaires.
  • Réduire : au cas où les émissions de gaz à effet de serre ne pourraient pas être évitées, SAP cherche à renforcer l’efficacité et réduire tous les types d’émissions, par exemple avec l’efficacité énergétique des bâtiments, les opérations des centres de données, le covoiturage, l’autopartage et la mobilité connectée.
  • Compenser : SAP a élargi ses modèles de compensation des déplacements professionnels. Dans le cas des vols d’affaires, un prix interne du carbone a été établi pour compenser les émissions de CO2, et SAP a émis des cartes de carburant neutres en carbone pour toutes les voitures de fonction.

En 2009, SAP s’est fixé l’objectif de ramener les émissions de gaz à effet de serre aux niveaux de 2000 d’ici 2020. Ce résultat a été atteint dès la fin 2017 alors que les effectifs de SAP ont été multipliés par quatre au cours de cette période. L’année dernière, SAP a fait tomber ses émissions à 310 kilotonnes, dépassant ainsi son objectif annuel de réduire le nombre de ses émissions de CO2 à moins de 333 kilotonnes. Les chiffres exacts sont disponibles dans le rapport intégré annuel. En outre, un tableau de bord interne de durabilité permet aux employés de découvrir la répartition de ces rejets par pays, par site et par secteur d’activité.

Tous les centres de données et établissements SAP fonctionnent aux énergies vertes depuis 2014. En outre, SAP introduit progressivement un système de management environnemental conforme à la norme ISO 14001 sur les sites SAP du monde entier.  En 2019, 55 sites SAP avaient déjà obtenu la certification ISO 14001.  Un système de management de l’énergie certifié ISO 50001 est intégré aux systèmes de gestion existants de certains sites, tels que le siège de SAP à Walldorf et St. Leon-Rot, pour améliorer en continu la performance énergétique de l’entreprise.

La mobilité joue également un rôle clé dans la lutte contre le changement climatique. C’est la raison pour laquelle le profil des employés qui font la navette entre domicile et lieu de travail est pris en compte dans le calcul des émissions de CO2 de SAP. Avec son large éventail de voitures électriques, à ses systèmes de transport public spéciaux ainsi qu’à son vif soutien du vélo et du covoiturage, SAP propose différents moyens de se déplacer et de voyager de manière durable. Les résultats de l’enquête 2018 sur les trajets domicile-travail ont révélé une tendance positive : en 2018, les émissions quotidiennes de CO2 en lien avec ces trajets ont diminué de 4,7 % par rapport à l’année précédente. L’utilisation de la voiture a baissé de 5 %, celle des transports publics est restée stable et le recours au vélo a augmenté de 15 %. Le travail à domicile a progressé de 11 % d’une année sur l’autre.

Si les émissions de CO2 ne peuvent être évitées ou réduites, auquel cas SAP investit dans des projets de compensation d’émissions et reçoit en retour des crédits carbone des projets sponsorisés. L’accent est mis sur des projets ambitieux, tels que le Fonds Livelihoods qui conjugue reboisement et amélioration des moyens de subsistance des communautés rurales et satisfait aux critères du label GOLD standard du WWF (World Wide Fund for Nature). À ce jour, 2,3 millions d’arbres ont été plantés, dont 1 million entre 2018 et 2019, par exemple, dans le cadre du projet « Réserve de forêt de Kikonda » en Ouganda.

Agir au niveau individuel

Chacun de nous, nous pouvons de bien des façons changer les choses, tant dans notre vie personnelle que professionnelle. Les employés de SAP sont désireux d’apporter une contribution positive. Selon l’enquête annuelle menée auprès du personnel, 93 % des employés conviennent qu’il est important pour SAP de poursuivre sa stratégie de développement durable. Plus de 200 personnes s’engagent comme défenseurs du développement durable au sein d’un réseau mondial pour encourager le changement et inspirer leurs collègues.

Le programme SAP Next-Gen, mis en place en collaboration avec les laboratoires d’innovation technologique de l’ONU, soutient une série de hackathons en faveur de l’action climat, Reboot the Earth, dont la finale aura lieu lors du sommet pour le climat à New York prévu en septembre prochain. De nombreux employés de SAP sur différents sites se sont portés volontaires pour jouer le rôle de juges dans les concours locaux.

Les lignes directrices de la programmation durable compilées par l’équipe Performance and Scalability de SAP ont également valeur d’exemple. Selon Detlef Thom, expert produit SAP en développement : « Pour les développeurs de logiciels et les architectes, appuyer le développement durable et contribuer à l’informatique écoresponsable implique de concevoir des programmes logiciels qui utilisent efficacement les ressources informatiques tout en économisant de l’énergie. Cela devient encore plus impératif si l’on tient compte du grand nombre de transactions commerciales que gère un système SAP à l’échelle mondiale. »

The post SAP, acteur de la lutte contre le changement climatique appeared first on SAP France News.

Source de l’article sur sap.com

For many, SEO is more of an art than a science, a mysterious process in which a tiny tweak to a site’s code can propel it to page one of Google or send it plummeting to the depths of page 50.

Myths abound, but the answers are readily available if you know where to look. How much do you know about SEO? Let’s find out!

Source

The post Quiz: How Much Do You Know About SEO? first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Levallois – 8 mars 2021 – SAP annonce son intention de parvenir à la neutralité carbone de ses activités d’ici la fin 2023, soit deux ans plus tôt que prévu. Cette annonce coïncide avec la publication du rapport intégré 2020 de SAP. L’année dernière, l’entreprise a plus qu’atteint son objectif de réduction d’émissions de gaz à effet de serre (GES) avec la mise en place de nouvelles façons de travailler et de voyager des 100 000 collaborateurs SAP, engendrées par la pandémie de la COVID-19.

La forte diminution des vols d’affaires a contribué de manière significative à la réduction de l’empreinte carbone de SAP en 2020. Les employés travaillant principalement à domicile, les émissions de carbone causées par les trajets quotidiens et l’exploitation des immeubles de bureaux ont diminué. En conséquence, SAP a pu dépasser de 43% son objectif de réduction des émissions nettes de carbone sur l’année 2020, en générant 135 kilotonnes (kt) au lieu des 238 kt prévues. À titre de comparaison, les émissions de SAP en 2019 étaient de 300 kt. En accélérant la mise en place d’opérations neutres en carbone, SAP anticipe l’évolution actuelle et confirme son rôle de pionnier dans la protection du climat.

En s’efforçant de devenir neutre en carbone, SAP prend en compte toutes ses émissions directes et indirectes, ainsi que certaines émissions provenant de la chaîne d’approvisionnement, notamment celles liées aux vols d’affaires, aux voyages d’affaires en voiture de location et aux datacenters de sociétés partenaires. L’entreprise utilise l’approche consistant à éviter, réduire et compenser les émissions. Dans la mesure du possible, SAP cherche à éviter la création de GES par diverses pratiques commerciales, telles que l’utilisation des technologies de télécommunication plutôt que les déplacements. Si les émissions ne peuvent être évitées, SAP exploite des innovations, telles que l’éclairage à faible consommation d’énergie dans les bureaux, les systèmes de refroidissement efficaces dans les datacenters et les solutions de mobilité alternatives. Enfin, SAP compense les émissions inévitables en soutenant des projets climatiques et en travaillant avec des partenaires qui respectent la norme de qualité avancée par la Fondation Gold Standard ou des normes de qualité équivalentes. En outre, SAP mène continuellement de nouvelles initiatives d’entreprise, comme l’application d’un tarif interne carbone sur les vols d’affaires.

Depuis 2017, SAP poursuit également un objectif climatique certifié par l’initiative Science Based Targets (SBTi) pour apporter sa propre contribution à la limitation du réchauffement climatique à 1,5°C au-dessus des niveaux préindustriels. Si son objectif « zéro carbone » s’applique principalement à ses propres activités, l’objectif climatique de SAP englobe également la chaîne de valeur en amont et en aval. Depuis 2014, SAP utilise 100% d’énergie renouvelable pour alimenter tous ses data centers. Grâce à son cloud vert, SAP peut proposer à ses clients des solutions de cloud computing neutres en carbone.

SAP apporte son soutien aux objectifs de développement durable fixés en 2015 par les Etats membres des Nations unies, en se concentrant particulièrement sur l’objectif 13, Action pour le climat. Ici, la plus grande force de SAP réside dans sa capacité à aider ses plus de 400 000 clients dans le monde à mettre en œuvre des mesures de protection du climat grâce à des offres telles que le programme Climate 21. Avec ses clients et partenaires, SAP fournira plus d’informations sur les solutions dans ce contexte ainsi que sur l’économie circulaire, le pilotage holistique et le reporting lors du SAP Sustainability Summit qui se tiendra virtuellement les 28 et 29 avril 2021.

The post SAP accélère ses efforts pour la protection du climat et vise la neutralité carbone d’ici 2023 appeared first on SAP France News.

Source de l’article sur sap.com

Un personnel polyvalent est essentiel pour surmonter les défis, notamment ceux liés au COVID-19. Les entreprises reconnaissent désormais l’importance de l’upskilling et du reskilling. Mais elles ne savent pas toujours comment procéder à grande échelle. Ou comment exploiter efficacement des technologies comme les learning management systems (LMS). Si les collaborateurs peuvent accéder à une pléthore de formations, certifications et badges, de nombreux dirigeants peinent encore à discerner ce qui aura le plus d’impact.

Beaucoup d’organisations ont démontré leur capacité à faire basculer leurs salariés en télétravail presque du jour au lendemain. Alors que les entreprises commencent à s’adapter à cette nouvelle réalité, on peut se demander comment progresser sur d’autres problématiques. Comme celle de l’apprentissage sur le lieu de travail. Avec des solutions et des technologies innovantes les dirigeants étudient la meilleure façon d’y parvenir, en évaluant comment communiquer de manière authentique, recueillir des insights et mettre en œuvre des formations plus efficaces.

Parallèlement à une stratégie des effectifs, les entreprises peuvent suivre les étapes suivantes pour soutenir la formation et le développement de leurs collaborateurs.

collaborateur au bureau

1. Déterminer les déficits de compétences et anticiper les besoins à long terme

Après avoir déterminé leurs objectifs et évalué plusieurs scénarios, les entreprises élaborent une stratégie des effectifs adaptée. Pour la déployer, une étape clé est de combler l’écart entre les compétences que vos collaborateurs ont déjà et celles qu’ils doivent acquérir. De nombreuses entreprises, lorsqu’elles s’adaptent à l’incertitude économique, évaluent ces écarts tout en déterminant s’il faut réduire les effectifs. Aussi important soit-il de réfléchir aux besoins d’aujourd’hui, considérer les besoins en effectifs et compétences pour les 5 à 10 prochaines années est tout aussi central, si ce n’est plus. Si certaines compétences techniques deviennent rapidement caduques, d’autres, comme le leadership, représentent un investissement pour l’avenir. Il a également été démontré qu’un programme de formation solide aide à attirer et retenir les meilleurs talents.

La première étape dans l’élaboration d’une stratégie de gestion des talents est l’identification des emplois et des carrières qui nécessiteront l’upskilling des collaborateurs. Par exemple, de nombreux emplois seront reconfigurés avec des technologies telles que l’intelligence artificielle (IA). Les organisations devraient commencer par identifier les tâches essentielles à la croissance et à l’amélioration de l’expérience client. Ensuite, elles devraient identifier les ressources nécessaires pour les accomplir. Ressources qui incluent notamment les machines intelligentes et salariés requalifiés. Les nouvelles descriptions de poste devraient refléter le besoin de ces collaborateurs plus stratégiques et créatifs. Dans le cadre du recrutement, les technologies RH peuvent aujourd’hui aider les entreprises à prédire la réussite en évaluant la personnalité et les capacités cognitives des candidats.

De plus, pour évaluer en continu les compétences des collaborateurs, il faut envisager de développer une bibliothèque des compétences. Une base de données de ce que les salariés doivent savoir et des compétences qu’ils doivent posséder pour performer dans leurs fonctions. Dans un sens, il s’agit de descriptions de postes basées sur les compétences.

2. Interroger les collaborateurs

Les plates-formes technologiques RH peuvent recueillir des données en temps réel sur l’expérience des collaborateurs et les objectifs business, afin d’aider les entreprises à bien prioriser en matière d’upskilling. En interrogeant les collaborateurs, elles peuvent diagnostiquer les compétences actuelles d’une personne et recueillir des informations sur les compétences adjacentes.

Comprendre les besoins d’un collaborateur est essentiel, non seulement pour la stratégie d’upskilling, mais aussi pour améliorer l’expérience employé et la fidélisation. Pour de meilleurs résultats à long terme, les entreprises devraient aligner leurs efforts d’upskilling sur les plans de carrière des collaborateurs et leur développement. Un personnel heureux est souvent un personnel productif. Des recherches ont montré que les collaborateurs sont souvent « au mieux de leur carrière » lorsque leurs talents, leurs passions et les besoins de l’entreprise sont alignés.

3. Tenir compte des compétences, des connaissances et de l’expérience

Dans certains domaines, l’acquisition et le transfert des connaissances sont tout aussi importants que les compétences. Bien que les data scientists puissent être très demandés pour intégrer les technologies d’IA dans une entreprise, il n’est pas toujours suffisant qu’un collaborateur cherche à obtenir une certification en data science pour assurer la fonction. Les candidats devront avoir une connaissance approfondie des mathématiques ou de l’informatique pour comprendre le fonctionnement des algorithmes. Lorsque les entreprises n’ont pas la taille, la crédibilité ou l’expertise nécessaires dans certains domaines, elles peuvent s’associer à des institutions, organisations académiques ou professionnelles, pour une formation personnalisée.

Un cadre d’apprentissage largement référencé, le modèle « 70-20-10 », encourage les entreprises à promouvoir 70 % de l’apprentissage par l’expérience, 20 % par autrui (mentorat, coaching), et 10 % par la formation formelle. Mais le modèle peut être pondéré selon les domaines et compétences. Par exemple, les pilotes de ligne ont des exigences différentes selon la licence qu’ils souhaitent obtenir, notamment privée ou commerciale. Beaucoup estiment qu’une formation rigoureuse et formelle devrait peser plus de 10 % dans de nombreux domaines.

4. Repenser, remodeler et rééquiper les RH pour soutenir un processus d’apprentissage continu

L’une des clés d’une stratégie des effectifs réussie consiste à diffuser une culture de l’apprentissage. Les collaborateurs peuvent manquer de temps pour suivre une formation de deux heures. Heureusement la technologie, des applications aux systèmes de gestion de la formation (LMS), permet aux collaborateurs d’acquérir des compétences et de partager des connaissances entre eux par le biais d’un upskilling itératif. Ces capsules de formation peuvent prendre la forme de vidéos d’apprentissage de 10 minutes, au format « snacking », qu’ils peuvent visionner aussi bien hors ligne et sur smartphone qu’à la maison.

L’époque où les entreprises donnaient la priorité aux compétences de base et assignaient des sessions de formation à leurs collaborateurs est révolue. Aujourd’hui, les dirigeants peuvent tirer parti des technologies et des écosystèmes pour permettre aux collaborateurs de piloter leur propre apprentissage. Des outils personnalisables qui utilisent l’IA et le machine learning peuvent par exemple fournir une formation, un coaching et des feedbacks personnalisés.

5. Motiver les collaborateurs en les aidant à suivre leurs progrès

Il n’y a pas de modèle unique pour l’upskilling. Au lieu de proposer des plans de formation normatifs, les dirigeants devraient, pour une formation et un développement professionnel réussis, lire les signaux émis par leurs employés.

Grâce à des plans de développement des collaborateurs personnalisés et à l’apprentissage social, les collaborateurs peuvent rester engagés et concentrés grâce à la mise en réseau virtuelle et au mentorat, tandis que les managers les motivent pour atteindre les objectifs. Pour soutenir un personnel en distanciel, les messageries instantanées et les social boards peuvent être très utiles pour retrouver la dynamique collective. Parmi les autres techniques de motivation, on peut citer la gamification associée à des récompenses financières ou des cartes-cadeaux. Et les derniers learning management systems (LMS) permettent aux entreprises de délivrer, de suivre et de gérer le contenu, les certifications et les données des collaborateurs comme une source unique d’enregistrement de l’apprentissage.

Suivant la tendance croissante au partage et à la consommation d’information sur les médias sociaux, de nombreuses personnes s’attendent à avoir la maîtrise du moment et de la façon dont elles apprennent. Et encourager les collaborateurs à créer et à contribuer à leur propre contenu d’apprentissage en créant leurs propres « playlists d’apprentissage» leur permet de devenir, en matière de formation, leur propre patron. Et cela ouvre les portes du progrès individuel.

Grâce à une stratégie des effectifs qui s’aligne sur les objectifs stratégiques, les entreprises peuvent appliquer ces mesures pratiques pour identifier les opportunités de reskilling et les déficits à combler. Grâce à une amélioration de l’expérience et des résultats relatifs au reskilling, les entreprises peuvent soutenir un personnel à l’épreuve du temps. 

L’évolution des réalités dans le monde entier – de la modification des chaînes d’approvisionnement aux business models – a un impact sur toutes les entreprises. Celles qui peuvent réorienter leur personnel pourront relever les défis de l’avenir.

Publié en anglais sur insights.sap.com

The post Upskilling de vos effectifs : de la stratégie à l’action appeared first on SAP France News.

Source de l’article sur sap.com