Articles

26 Exciting New Tools For Designers, May 2021

From dev tools to productivity to a little bit of fun with sudoku, this month’s collection of new tools is packed with something for everyone.

Here’s what new for designers this month.

May’s Top Picks

Am I FLoCed?

Am I FLoCed? Is a tool to see if you are part of a Google Chrome origin trial. It tests a new tracking feature called Federated Learning of Cohorts (FLoC). According to Google, the trial currently affects 0.5% of users in selected regions, including Australia, Brazil, Canada, India, Indonesia, Japan, Mexico, New Zealand, the Philippines, and the United States. The page will try to detect whether you’ve been made a guinea pig in Google’s ad-tech experiment.

According to the designers of Am I FloCed: “FLoC runs in your browser. It uses your browsing history from the past week to assign you to a group with other ‘similar’ people around the world. Each group receives a label, called a FLoC ID, which is supposed to capture meaningful information about your habits and interests. FLoC then displays this label to everyone you interact with on the web. This makes it easier to identify you with browser fingerprinting, and it gives trackers a head start on profiling you.”

Uncut

Uncut is a Libre typeface catalog that just got started in April. It features contemporary typefaces and styles and is set to be updated regularly. Sort by sans serif, serif, monospace, or display typefaces. Plus, you can submit a typeface for inclusion.

Dashblock

Dashblock allows you to build automations without coding. Use it to create visual automations, or turn blocks into use-cases. (It is a premium tool, but comes with a 14-day free trial to test it out.)

Instant

Instant is a fast and secure one-click checkout tool that works with WooCommerce. Users fill out a short form the first time they shop and then join the network to enable instant, frictionless, 1-click checkouts without passwords. It makes shopping easier and cuts abandoned carts.

5 Image Tools

Triangula

Triangula uses a modified genetic algorithm to triangulate images. It works best with images smaller than 3000px and with fewer than 3000 points, typically producing an optimal result within a couple of minutes. The result is a nifty-looking image.

Content-Aware Image Resizing in Javascript

Content-Aware Image Resizing in Javascript solves that problem with images where you have a photo but it just doesn’t quite fit. A crop doesn’t work because you lose important information. The carver slices and cuts photos to give you the image elements you want in the size you want them. It’s probably a good idea to read through the tutorial before jumping into the open-source code on GitHub.

Globs Design

Globs Design uses toggles and drag and drop to help you create funky shapes and fills that you can save in SVG format for projects.

Root Illustrations

Root Illustrations is a stylish set of people-based illustrations that you can customize to create scenes for your projects. Construct a scene and then snag your set of vector graphics that also work with Sketch and Figma. The set includes 24 characters, more than 100 details, and the ability to change colors and styles.

Make Your Photo 16×9

Make Your Photo 16×9 is as simple as it sounds. It is a cropping tool that allows you to upload any shape of photo – even vertical – and pick options to fill the space to make it fit the standard 16×9 aspect ratio.

6 Dev Tools

Devbook

Devbook is a search engine for developers that helps them to find the resources they need and answer their questions faster. Fast, accessible right from a code editor, and fully controllable with just a keyboard.

Madosel

Madosel is a fast, advanced responsive HTML front-end framework that’s in an alpha version. The open-source tool is made to create websites and apps that look great on any device. Plus, it is semantic, readable, flexible, and customizable.

Say Hello to CSS Container Queries

Say Hello to CSS Container Queries helps solve a problem with media queries and smart stacking of elements. CSS Container Queries allow you to make a fluid component that adjusts based on the parent element and everything is independent of viewport width. This post takes you through everything you need to do to implement this yourself.

Frontend Toolkit

Frontend Toolkit is a customizable dashboard that you can use to keep up with recurring tasks. It’s one of those little tools that can speed up workflows.

Flatfile

Flatfile is a production-ready importer for SaaS applications. It allows you to auto-format customer spreadsheets without manual cleaning of data and you can do it all without a CSV parser. The tool also includes an elegant UI component to guide users through the process.

Plasmic

Plasmic is a visual website builder that works with your codebase. It’s designed to speed up development with developers focusing on code (not pixel pushing) and allows non-developers to publish pages and content. The premium tool works with any hosting, CMS, or framework and you can adapt it by the component, section, or page.

2 Productivity Tools

Calendso

Calendso is an open-source calendar scheduling tool. It’s flexible with the ability to host it yourself or with the makers of the calendar. It is API-driven and allows you to control events and information. The interface is simple and sleek and can integrate into your website.

Slidev

Slidev is a set of presentation slides for developers. What’s different about this presentation deck is that you can write slides in a single markdown file with themes, code blocks, and interactive components.

4 Icons and UI Kits

Iconic

Iconic is a set of pixel-perfect icons that gets updated each week. The collection of 24×24 px elements in SVG format contains 160 icons and counting. The simple style is easy to implement and you can search for just what you need by category.

5 Dashboard Templates for Figma

5 Dashboard Templates for Figma is a set of free ready-made screens with light and dark modes for each that you can use with components such as calendars, charts, tables, and more. The free elements are a preview of a larger premium Figma set if you like how they look and work.

Free Mobile Chat UI Kit

Free Mobile Chat UI Kit is a tool of components for Sketch, Figma, and Adobe XD that includes more than 50 messaging screens with light and dark modes.

Stratum UI Design Kit

Stratum UI Design Kit is a collection of more than 9,000 consistent elements for Figma. It’s packed with elements and tools that make this premium UI kit a tool that gets projects moving quickly.

4 Type Tools and Fresh Fonts

Fluid Typography

Fluid Typography is a nifty tool that allows you to test headings in any size at different viewports to ensure it looks great everywhere. Then you can copy the CSS and use it in your projects.

Eighty-Eight

Eighty-Eight is a funky block-style typeface for display use.

Harmonique

Harmonique is a robust typeface family with lovely serifs and alternates. It’s a type family of two styles that work in harmony together to add distinction and personality to your own typographic compositions. Harmonique’s low contrast forms have the appeal of a humanist sans serif typeface.

Sketchup

Sketchup is a charming display typeface that has a nice pen style. The free version has a limited character set.

Just for Fun

Generating and Solving Sudokus in CSS

Generating and Solving Sudokus in CSS by Lee Meyer for CSS-Tricks is a fun deep dive into using CSS for something you might not expect. It’s a complicated – but fun – look at some of the things CSS can do with plenty of code snippets. The final result is a solvable puzzle with 16 squares.

Source

The post 26 Exciting New Tools For Designers, May 2021 first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Qu’est-ce que la modélisation des données ?

La modélisation des données correspond au processus de création de diagrammes de flux de données. Lors de la création d’une structure de base de données, qu’elle soit nouvelle ou non, le concepteur commence par élaborer un diagramme illustrant la façon dont les données entreront et sortiront de la base de données. Ce diagramme est utilisé pour définir les caractéristiques des formats et structures de données, ainsi que des fonctions de gestion de base de données, afin de répondre efficacement aux exigences des flux de données. Une fois la base de données créée et déployée, le modèle de données servira de documentation expliquant les motifs de création de la base de données ainsi que la manière dont les flux de données ont été conçus.

Le modèle de données résultant de ce processus établit une structure de relations entre les éléments de données dans une base de données et sert de guide d’utilisation des données. Les modèles de données sont un élément fondamental du développement et de l’analyse de logiciels. Ils fournissent une méthode standardisée pour définir et mettre en forme les contenus de base de données de manière cohérente dans les systèmes, ce qui permet à diverses applications de partager les mêmes données.


Pourquoi la modélisation des données est-elle importante ?

Un modèle de données complet et optimisé permet de créer une base de données logique et simplifiée qui élimine la redondance, réduit les besoins en stockage et permet une récupération efficace. Elle dote également tous les systèmes de ce que l’on appelle une « source unique de la vérité », ce qui est essentiel pour assurer des opérations efficaces et garantir une conformité vérifiable aux réglementations et exigences réglementaires. La modélisation des données est une étape clé dans deux fonctions vitales d’une entreprise numérique.

Projets de développement logiciel (nouveaux ou personnalisations) mis en place par le service informatique

Avant de concevoir et de créer un projet logiciel, il doit exister une vision documentée de ce à quoi ressemblera le produit final et de son comportement. Une grande partie de cette vision concerne l’ensemble de règles de gestion qui régissent les fonctionnalités souhaitées. L’autre partie est la description des données : les flux de données (ou le modèle de données) et la conception de la base de données qui les prendra en charge.

La modélisation des données est une trace de cette vision et fournit une feuille de route pour les concepteurs de logiciels. Grâce à la définition et à la documentation complètes des flux de données et de la base de données, ainsi qu’au développement des systèmes conformément à ces spécifications, les systèmes devraient être en mesure de fournir les fonctionnalités attendues requises pour garantir l’exactitude des données (en supposant que les procédures ont été correctement suivies).

Analyses et visualisation (ou Business Intelligence) : un outil de prise de décision clé pour les utilisateurs

Avec l’augmentation des volumes de données et le nombre croissant d’utilisateurs, les entreprises ont besoin de transformer les données brutes en informations exploitables pour prendre des décisions. Sans surprise, la demande en analyse des données a augmenté de façon spectaculaire. La visualisation des données rend les données encore plus accessibles aux utilisateurs en les présentant sous forme graphique.

Les modèles de données actuels transforment les données brutes en informations utiles qui peuvent être transposées dans des visualisations dynamiques. La modélisation des données prépare les données pour l’analyse : nettoyage des données, définition des mesures et des dimensions, amélioration des données par l’établissement de hiérarchies, la définition d’unités et de devises et l’ajout de formules.


Quels sont les types de modélisation des données ?

Les trois types de modèles de données clés sont le modèle relationnel, le modèle dimensionnel et le modèle entité-association. Il en existe d’autres qui ne sont pas communément utilisés, notamment les types hiérarchique, réseau, orienté objet et à plusieurs valeurs. Le type de modèle définit la structure logique, à savoir comment les données sont stockées, organisées et extraites.

  1. Type relationnel : bien qu’« ancien » dans son approche, le modèle de base de données le plus couramment utilisé aujourd’hui est le relationnel, qui stocke les données dans des enregistrements au format fixe et organise les données dans des tables avec des lignes et des colonnes. Le type de modèle de données le plus basique comporte deux éléments : des mesures et des dimensions. Les mesures sont des valeurs numériques, telles que les quantités et le chiffre d’affaires, utilisées dans les calculs mathématiques comme la somme ou la moyenne. Les dimensions peuvent correspondre à des valeurs numériques ou textuelles. Elles ne sont pas utilisées dans les calculs et incluent des descriptions ou des emplacements. Les données brutes sont définies comme une mesure ou une dimension. Autres termes utilisés dans la conception de base de données relationnelle : « relations » (la table comportant des lignes et des colonnes), « attributs » (colonnes), « nuplets » (lignes) et « domaine » (ensemble de valeurs autorisées dans une colonne). Bien qu’il existe d’autres termes et exigences structurelles qui définissent une base de données relationnelle, le facteur essentiel concerne les relations définies dans cette structure. Les éléments de données communs (ou clés) relient les tables et les ensembles de données. Les tables peuvent également être explicitement liées, comme une relation parent/enfant, y compris les relations dites un-à-un (one-to-one), un-à-plusieurs (one-to-many) ou plusieurs-à-plusieurs (many-to-many).
  2. Type dimensionnel : moins rigide et structurée, l’approche dimensionnelle privilégie une structure de données contextuelle davantage liée à l’utilisation professionnelle ou au contexte. Cette structure de base de données est optimisée pour les requêtes en ligne et les outils d’entreposage de données. Les éléments de données critiques, comme une quantité de transaction par exemple, sont appelés « faits » et sont accompagnés d’informations de référence appelées « dimensions », telles que l’ID de produit, le prix unitaire ou la date de la transaction. Une table de faits est une table primaire dans un modèle dimensionnel. La récupération peut être rapide et efficace (avec des données pour un type d’activité spécifique stockées ensemble), mais l’absence de relations peut compliquer l’extraction analytique et l’utilisation des données. Étant donné que la structure des données est liée à la fonction qui produit et utilise les données, la combinaison de données produites par divers systèmes (dans un entrepôt de données, par exemple) peut poser des problèmes.
  3. Modèle entité-association (modèle E-R) : un modèle E-R représente une structure de données métier sous forme graphique contenant d’une part des boîtes de différentes formes pour représenter des activités, des fonctions ou des « entités », et d’autre part des lignes qui représentent des dépendances, des relations ou des « associations ». Le modèle E-R est ensuite utilisé pour créer une base de données relationnelle dans laquelle chaque ligne représente une entité et comporte des zones qui contiennent des attributs. Comme dans toutes les bases de données relationnelles, les éléments de données « clés » sont utilisés pour relier les tables entre elles.

Quels sont les trois niveaux d’abstraction des données ?

Il existe de nombreux types de modèles de données, avec différents types de mises en forme possibles. La communauté du traitement des données identifie trois types de modélisation permettant de représenter les niveaux de pensée au fur et à mesure que les modèles sont développés.

Modèle de données conceptuel

Ce modèle constitue une « vue d’ensemble » et représente la structure globale et le contenu, mais pas le détail du plan de données. Il s’agit du point de départ standard de la modélisation des données qui permet d’identifier les différents ensembles de données et flux de données dans l’organisation. Le modèle conceptuel dessine les grandes lignes pour le développement des modèles logiques et physiques, et constitue une part importante de la documentation relative à l’architecture des données.

Modèle de données logique

Le deuxième niveau de détail est le modèle de données logique. Il est étroitement lié à la définition générale du « modèle de données » en ce sens qu’il décrit le flux de données et le contenu de la base de données. Le modèle logique ajoute des détails à la structure globale du modèle conceptuel, mais n’inclut pas de spécifications pour la base de données en elle-même, car le modèle peut être appliqué à diverses technologies et divers produits de base de données. (Notez qu’il peut ne pas exister de modèle conceptuel si le projet est lié à une application unique ou à un autre système limité).

Modèle de données physique

Le modèle de base de données physique décrit comment le modèle logique sera réalisé. Il doit contenir suffisamment de détails pour permettre aux techniciens de créer la structure de base de données dans les matériels et les logiciels pour prendre en charge les applications qui l’utiliseront. Il va sans dire que le modèle physique est spécifique à un système logiciel de base de données en particulier. Il peut exister plusieurs modèles physiques dérivés d’un seul et même modèle logique si plusieurs systèmes de base de données seront utilisés.

Processus et techniques de modélisation des données

La modélisation des données est par essence un processus descendant qui débute par l’élaboration du modèle conceptuel pour établir la vision globale, puis se poursuit avec le modèle logique pour s’achever par la conception détaillée contenue dans le modèle physique.

L’élaboration du modèle conceptuel consiste principalement à mettre des idées sous la forme d’un graphique qui ressemble au diagramme des flux de données conçu par un développeur.

Les outils de modélisation des données modernes peuvent vous aider à définir et à créer vos modèles de données logiques et physiques et vos bases de données. Voici quelques techniques et étapes classiques de modélisation des données :

  • Déterminez les entités et créez un diagramme entité-association. Les entités sont considérées comme des « éléments de données qui intéressent votre entreprise ». Par exemple, « client » serait une entité. « Vente » en serait une autre. Dans un diagramme entité-association, vous documentez la manière dont ces différentes entités sont liées les unes aux autres dans votre entreprise, et les connexions qui existent entre elles.
  • Définissez vos faits, mesures et dimensions. Un fait est la partie de vos données qui indique une occurrence ou une transaction spécifique, comme la vente d’un produit. Vos mesures sont quantitatives, comme la quantité, le chiffre d’affaires, les coûts, etc. Vos dimensions sont des mesures qualitatives, telles que les descriptions, les lieux et les dates.
  • Créez un lien de vue de données à l’aide d’un outil graphique ou via des requêtes SQL. Si vous ne maîtrisez pas SQL, l’option la plus intuitive sera l’outil graphique : il vous permet de faire glisser des éléments dans votre modèle et de créer visuellement vos connexions. Lors de la création d’une vue, vous avez la possibilité de combiner des tables et d’autres vues dans une sortie unique. Lorsque vous sélectionnez une source dans la vue graphique et que vous la faites glisser dans une source déjà associée à la sortie, vous pouvez soit la joindre, soit créer une union de ces tables.

Les solutions analytiques modernes peuvent également vous aider à sélectionner, filtrer et connecter des sources de données à l’aide d’un affichage graphique de type glisser-déposer. Des outils avancés sont disponibles pour les experts en données qui travaillent généralement au sein des équipes informatiques. Toutefois, les utilisateurs peuvent également créer leurs propres présentations en créant visuellement un modèle de données et en organisant des tables, des graphiques, des cartes et d’autres objets pour élaborer une présentation basée sur des analyses de données.


Exemples de modélisation des données

Pour toute application, qu’elle soit professionnelle, de divertissement, personnelle ou autre, la modélisation des données est une étape préalable nécessaire à la conception du système et à la définition de l’infrastructure nécessaire à sa mise en œuvre. Cela concerne tout type de système transactionnel, de suite d’applications de traitement des données, ou tout autre système qui collecte, crée ou utilise des données.

La modélisation des données est essentielle pour l’entreposage de données car un entrepôt de données est un référentiel de données provenant de plusieurs sources, qui contiennent probablement des données similaires ou liées, mais disponibles sous des formats différents. Il est nécessaire de mapper en premier lieu les formats et la structure de l’entrepôt afin de déterminer comment manipuler chaque ensemble de données entrant pour répondre aux besoins de la conception de l’entrepôt, afin que les données soient utiles pour l’analyse et l’exploration de données. Le modèle de données est alors un catalyseur important pour les outils analytiques, les systèmes d’information pour dirigeants (tableaux de bord), l’exploration de données et l’intégration à tous les systèmes et applications de données.

Dans les premières étapes de conception de n’importe quel système, la modélisation des données est une condition préalable essentielle dont dépendent toutes les autres étapes pour établir la base sur laquelle reposent tous les programmes, fonctions et outils. Le modèle de données est comparable à un langage commun permettant aux systèmes de communiquer selon leur compréhension et leur acceptation des données, comme décrit dans le modèle. Dans le monde actuel de Big Datad’apprentissage automatiqued’intelligence artificiellede connectivité Cloudd’IdO et de systèmes distribués, dont l’informatique en périphérie, la modélisation des données s’avère plus importante que jamais.


Évolution de la modélisation des données

De façon très concrète, la modélisation des données est apparue en même temps que le traitement des données, le stockage de données et la programmation informatique, bien que le terme lui-même n’ait probablement été utilisé qu’au moment où les systèmes de gestion de base de données ont commencé à évoluer dans les années 1960. Il n’y a rien de nouveau ou d’innovant dans le concept de planification et d’architecture d’une nouvelle structure. La modélisation des données elle-même est devenue plus structurée et formalisée au fur et à mesure que davantage de données, de bases de données et de variétés de données sont apparues.

Aujourd’hui, la modélisation des données est plus essentielle que jamais, étant donné que les techniciens se retrouvent face à de nouvelles sources de données (capteurs IdO, appareils de localisation, flux de clics, réseaux sociaux) et à une montée des données non structurées (texte, audio, vidéo, sorties de capteurs brutes), à des volumes et à une vitesse qui dépassent les capacités des systèmes traditionnels. Il existe désormais une demande constante de nouveaux systèmes, de nouvelles structures et techniques innovantes de bases de données, et de nouveaux modèles de données pour rassembler ces nouveaux efforts de développement.


Quelle est la prochaine étape de la modélisation des données ?

La connectivité des informations et les grandes quantités de données provenant de nombreuses sources disparates (capteurs, voix, vidéo, emails, etc.) étendent le champ d’application des projets de modélisation pour les professionnels de l’informatique. Internet est, bien sûr, l’un des moteurs de cette évolution. Le Cloud est en grand partie la solution car il s’agit de la seule infrastructure informatique suffisamment grande, évolutive et agile pour répondre aux exigences actuelles et futures dans un monde hyperconnecté.

Les options de conception de base de données évoluent également. Il y a dix ans, la structure dominante de la base de données était relationnelle, orientée lignes et utilisait la technologie traditionnelle de l’espace disque. Les données du grand livre ou de la gestion des stocks d’un système ERP standard étaient stockées dans des dizaines de tables différentes qui doivent être mises à jour et modélisées. Aujourd’hui, les solutions ERP modernes stockent des données actives dans la mémoire à l’aide d’une conception en colonnes, ce qui réduit considérablement le nombre de tables et accroît la vitesse et l’efficacité.

Pour les professionnels du secteur, les nouveaux outils en libre-service disponibles aujourd’hui continueront à s’améliorer. De nouveaux outils seront également introduits pour rendre la modélisation et la visualisation des données encore plus simples et plus collaboratives.


Synthèse

Un modèle de données bien pensé et complet est la clé du développement d’une base de données véritablement fonctionnelle, utile, sécurisée et exacte. Commencez par le modèle conceptuel pour présenter tous les composants et fonctions du modèle de données. Affinez ensuite ces plans dans un modèle de données logique qui décrit les flux de données et définit clairement les données nécessaires et la manière dont elles seront acquises, traitées, stockées et distribuées. Le modèle de données logique donne lieu au modèle de données physique spécifique à un produit de base de données et constitue le document de conception détaillé qui guide la création de la base de données et du logiciel d’application.

Une bonne modélisation des données et une bonne conception de base de données sont essentielles au développement de bases de données et de systèmes d’application fonctionnels, fiables et sécurisés, qui fonctionnent bien avec les entrepôts de données et les outils analytiques, et facilitent l’échange de données entre les partenaires et entre les suites d’application. Des modèles de données bien pensés aident à garantir l’intégrité des données, ce qui rend les données de votre entreprise encore plus précieuses et fiables.


Découvrez les outils modernes de modélisation des données de SAP Data Warehouse Cloud

En savoir plus


 

The post Qu’est-ce que la modélisation des données ? appeared first on SAP France News.

Source de l’article sur sap.com

Qu’est-ce qu’un Data Warehouse ?

Un data warehouse (entrepôt de données) est un système de stockage numérique qui connecte et harmonise de grandes quantités de données provenant de nombreuses sources différentes. Il a pour but d’alimenter la Business Intelligence (BI), le reporting et l’analyse, ainsi que soutenir la conformité aux exigences réglementaires afin que les entreprises puissent exploiter leurs données et prendre des décisions intelligentes fondées sur les données. Les data warehouse stockent les données actuelles et historiques dans un seul et même endroit et constituent ainsi une source unique de vérité pour une organisation.

Les données sont envoyées vers un data warehouse à partir de systèmes opérationnels (tels qu’un système ERP ou CRM), de bases de données et de sources externes comme les systèmes partenaires, les appareils IoT, les applications météo ou les réseaux sociaux, généralement de manière régulière. L’émergence du cloud computing a changé la donne. Ces dernières années, le stockage des données a été déplacé de l’infrastructure sur site traditionnelle vers de multiples emplacements, y compris sur site, dans le Cloud privé et dans le Cloud public.

Les data warehouse modernes sont conçus pour gérer à la fois les données structurées et les données non structurées, comme les vidéos, les fichiers image et les données de capteurs. Certains utilisent les outils analytiques intégrés et la technologie de base de données in-memory (qui conserve l’ensemble de données dans la mémoire de l’ordinateur plutôt que dans l’espace disque) pour fournir un accès en temps réel à des données fiables et favoriser une prise de décision en toute confiance. Sans entreposage de données, il est très difficile de combiner des données provenant de sources hétérogènes, de s’assurer qu’elles sont au bon format pour les analyses et d’obtenir une vue des données sur le court terme et sur le long terme.

Schéma qui montre ce qu'est un data warehouse


Avantages de l’entreposage de données

Un data warehouse bien conçu constitue la base de tout programme de BI ou d’analyse réussi. Son principal objectif est d’alimenter les rapports, les tableaux de bord et les outils analytiques devenus indispensables aux entreprises d’aujourd’hui. Un entrepôt de données fournit les informations dont vous avez besoin pour prendre des décisions basées sur les données et vous aide à faire les bons choix, que ce soit pour le développement de nouveaux produits ou la gestion des niveaux de stock. Un data warehouse présente de nombreux avantages. En voici quelques-uns :

  • Un meilleur reporting analytique : grâce à l’entreposage de données, les décideurs ont accès à des données provenant de plusieurs sources et n’ont plus besoin de prendre des décisions basées sur des informations incomplètes.
  • Des requêtes plus rapides : les data warehouse sont spécialement conçus pour permettre l’extraction et l’analyse rapides des données. Avec un entrepôt de données, vous pouvez très rapidement demander de grandes quantités de données consolidées avec peu ou pas d’aide du service informatique.
  • Une amélioration de la qualité des données : avant de charger les données dans l’entrepôt de données le système met en place des nettoyages de données afin de garantir que les données sont converties dans un seul et même format dans le but de faciliter les analyses (et les décisions), qui reposent alors sur des données précises et de haute qualité.
  • Une visibilité sur les données historiques : en stockant de nombreuses données historiques, un data warehouse permet aux décideurs d’analyser les tendances et les défis passés, de faire des prévisions et d’améliorer l’organisation au quotidien.

Capture d'écran de la solution SAP Data Warehouse Cloud


Que peut stocker un data warehouse ?

Lorsque les data warehouse sont devenus populaires à la fin des années 1980, ils étaient conçus pour stocker des informations sur les personnes, les produits et les transactions. Ces données, appelées données structurées, étaient bien organisées et mises en forme pour en favoriser l’accès. Cependant, les entreprises ont rapidement voulu stocker, récupérer et analyser des données non structurées, comme des documents, des images, des vidéos, des e-mails, des publications sur les réseaux sociaux et des données brutes issues de capteurs.

Un entrepôt de données moderne peut contenir des données structurées et des données non structurées. En fusionnant ces types de données et en éliminant les silos qui les séparent, les entreprises peuvent obtenir une vue complète et globale sur les informations les plus précieuses.


Termes clés

Il est essentiel de bien comprendre un certain nombre de termes en lien avec les data warehouse. Les plus importants ont été définis ci-dessous. Découvrez d’autres termes et notre FAQ dans notre glossaire.

Data warehouse et base de données

Les bases de données et les data warehouse sont tous deux des systèmes de stockage de données, mais diffèrent de par leurs objectifs. Une base de données stocke généralement des données relatives à un domaine d’activité particulier. Un entrepôt de données stocke les données actuelles et historiques de l’ensemble de l’entreprise et alimente la BI et les outils analytiques. Les data warehouse utilisent un serveur de base de données pour extraire les données présentes dans les bases de données d’une organisation et disposent de fonctionnalités supplémentaires pour la modélisation des données, la gestion du cycle de vie des données, l’intégration des sources de données, etc.

Data warehouse et lac de données

Les data warehouse et les lacs de données sont utilisés pour stocker le Big Data, mais sont des systèmes de stockage très différents. Un data warehouse stocke des données qui ont été formatées dans un but spécifique, tandis qu’un lac de données stocke les données dans leur état brut, non traité, dont l’objectif n’a pas encore été défini. Les entrepôts de données et les lacs de données se complètent souvent. Par exemple, lorsque des données brutes stockées dans un lac s’avèrent utiles pour répondre à une question, elles peuvent être extraites, nettoyées, transformées et utilisées dans un data warehouse à des fins d’analyse. Le volume de données, les performances de la base de données et les coûts du stockage jouent un rôle important dans le choix de la solution de stockage adaptée.

Diagramme qui montre la différence entre un data warehouse et un lac de données

Data warehouse et datamart

Un datamart est une sous-section d’un data warehouse, partitionné spécifiquement pour un service ou un secteur d’activité, comme les ventes, le marketing ou la finance. Certains datamarts sont également créés à des fins opérationnelles autonomes. Alors qu’un data warehouse sert de magasin de données central pour l’ensemble de l’entreprise, un datamart utilise des données pertinentes à un groupe d’utilisateurs désigné. Ces utilisateurs peuvent alors accéder plus facilement aux données, accélérer leurs analyses et contrôler leurs propres données. Plusieurs datamarts sont souvent déployés dans un data warehouse.

Diagramme d'un data mart et de son fonctionnement


Quels sont les composants clés d’un data warehouse ?

Un data warehouse classique comporte quatre composants principaux : une base de données centrale, des outils ETL (extraction, transformation, chargement), des métadonnées et des outils d’accès. Tous ces composants sont conçus pour être rapides afin de vous assurer d’obtenir rapidement des résultats et vous permettre d’analyser les données à la volée.

Diagramme montrant les composants d'un data warehouse

  1. Base de données centrale : une base de données sert de fondement à votre data warehouse. Depuis le départ, on utilisait essentiellement des bases de données relationnelles standard exécutées sur site ou dans le Cloud. Mais en raison du Big Data, du besoin d’une véritable performance en temps réel et d’une réduction drastique des coûts de la RAM, les bases de données in-memory sont en train de monter en puissance.
  2. Intégration des données : les données sont extraites des systèmes source et modifiées pour aligner les informations afin qu’elles puissent être rapidement utilisées à des fins analytiques à l’aide de différentes approches d’intégration des données telles que l’ETL (extraction, transformation, chargement) et les services de réplication de données en temps réel, de traitement en masse, de transformation des données et de qualité et d’enrichissement des données.
  3. Métadonnées : les métadonnées sont des données relatives à vos données. Elles indiquent la source, l’utilisation, les valeurs et d’autres fonctionnalités des ensembles de données présents dans votre data warehouse. Il existe des métadonnées de gestion, qui ajoutent du contexte à vos données, et des métadonnées techniques, qui décrivent comment accéder aux données, définissent leur emplacement ainsi que leur structure.
  4. Outils d’accès du data warehouse : les outils d’accès permettent aux utilisateurs d’interagir avec les données de votre data warehouse. Exemples d’outils d’accès : outils de requête et de reporting, outils de développement d’applications, outils d’exploration de données et outils OLAP.

Architecture de data warehouse 

Auparavant, les data warehouse fonctionnaient par couches, lesquelles correspondaient au flux des données de gestion.

Diagramme de l'architecture d'un data warehouse

Couche de données

Les données sont extraites de vos sources, puis transformées et chargées dans le niveau inférieur à l’aide des outils ETL. Le niveau inférieur comprend votre serveur de base de données, les datamarts et les lacs de données. Les métadonnées sont créées à ce niveau et les outils d’intégration des données, tels que la virtualisation des données, sont utilisés pour combiner et agréger les données en toute transparence.

Couche sémantique

Au niveau intermédiaire, les serveurs OLAP (Online Analytical Processing) et OLTP (Online Transaction Processing) restructurent les données pour favoriser des requêtes et des analyses rapides et complexes.

Couche analytique

Le niveau supérieur est la couche du client frontend. Il contient les outils d’accès du data warehouse qui permettent aux utilisateurs d’interagir avec les données, de créer des tableaux de bord et des rapports, de suivre les KPI, d’explorer et d’analyser les données, de créer des applications, etc. Ce niveau inclut souvent un workbench  ou une zone de test pour l’exploration des données et le développement de nouveaux modèles de données.

Un data warehouse standard comprend les trois couches définies ci-dessus. Aujourd’hui, les entrepôts de données modernes combinent OLTP et OLAP dans un seul système.

Les data warehouse, conçus pour faciliter la prise de décision, ont été essentiellement créés et gérés par les équipes informatiques. Néanmoins, ces dernières années, ils ont évolué pour renforcer l’autonomie des utilisateurs fonctionnels, réduisant ainsi leur dépendance aux équipes informatiques pour accéder aux données et obtenir des informations exploitables. Parmi les fonctionnalités clés d’entreposage de données qui ont permis de renforcer l’autonomie des utilisateurs fonctionnels, on retrouve les suivantes :

  1. La couche sémantique ou de gestion fournit des expressions en langage naturel et permet à tout le monde de comprendre instantanément les données, de définir des relations entre les éléments dans le modèle de données et d’enrichir les zones de données avec de nouvelles informations.
  2. Les espaces de travail virtuels permettent aux équipes de regrouper les connexions et modèles de données dans un lieu sécurisé et géré, afin de mieux collaborer au sein d’un espace commun, avec un ensemble de données commun.
  3. Le Cloud a encore amélioré la prise de décision en permettant aux employés de disposer d’un large éventail d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.

 

The Future of Analytics Has Arrived

Click the button below to load the content from YouTube.

The Future of Analytics Has Arrived

Kate Wright, responsable de la Business Intelligence augmentée chez SAP, évoque la valeur d’un data warehouse Cloud moderne.


Les 7 principaux avantages d’un data warehouse Cloud  

Les data warehouse Cloud gagnent en popularité, à juste titre. Ces entrepôts modernes offrent plusieurs avantages par rapport aux versions sur site traditionnelles. Voici les sept principaux avantages d’un data warehouse Cloud :

  1. Déploiement rapide : grâce à l’entreposage de données Cloud, vous pouvez acquérir une puissance de calcul et un stockage de données presque illimités en quelques clics seulement, et créer votre propre data warehouse, datamarts et systèmes de test en quelques minutes.
  2. Faible coût total de possession (TCO) : les modèles de tarification du data warehouse en tant que service (DWaaS) sont établis de sorte que vous payez uniquement les ressources dont vous avez besoin, lorsque vous en avez besoin. Vous n’avez pas besoin de prévoir vos besoins à long terme ou de payer pour d’autres traitements tout au long de l’année. Vous pouvez également éviter les coûts initiaux tels que le matériel coûteux, les salles de serveurs et le personnel de maintenance. Séparer les coûts du stockage des coûts informatiques vous permet également de réduire les dépenses.
  3. Élasticité : un data warehouse Cloud vous permet d’ajuster vos capacités à la hausse ou à la baisse selon vos besoins. Le Cloud offre un environnement virtualisé et hautement distribué capable de gérer d’immenses volumes de données qui peuvent diminuer ou augmenter.
  4. Sécurité et restauration après sinistre : dans de nombreux cas, les data warehouse Cloud apportent une sécurité des données et un chiffrage plus forts que les entrepôts sur site. Les données sont également automatiquement dupliquées et sauvegardées, ce qui vous permet de minimiser le risque de perte de données.
  5. Technologies en temps réel : les data warehouse Cloud basés sur la technologie de base de données in-memory présentent des vitesses de traitement des données extrêmement rapides, offrant ainsi des données en temps réel et une connaissance instantanée de la situation.
  6. Nouvelles technologies : les data warehouse Cloud vous permettent d’intégrer facilement de nouvelles technologies telles que l’apprentissage automatique, qui peuvent fournir une expérience guidée aux utilisateurs fonctionnels et une aide décisionnelle sous la forme de suggestions de questions à poser, par exemple.
  7. Plus grande autonomie des utilisateurs fonctionnels : les data warehouse Cloud offrent aux employés, de manière globale et uniforme, une vue unique sur les données issues de nombreuses sources et un vaste ensemble d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.
Capture d'écran de la solution SAP Data Warehouse Cloud
L’entreposage de données prend en charge l’analyse complète des dépenses de l’entreprise par service, fournisseur, région et statut, pour n’en citer que quelques-unes.

Meilleures pratiques concernant l’entreposage des données

Pour atteindre vos objectifs et économiser du temps et de l’argent, il est recommandé de suivre certaines étapes éprouvées lors de la création d’un data warehouse ou l’ajout de nouvelles applications à un entrepôt existant. Certaines sont axées sur votre activité tandis que d’autres s’inscrivent dans le cadre de votre programme informatique global. Vous pouvez commencer avec la liste de meilleures pratiques ci-dessous, mais vous en découvrirez d’autres au fil de vos collaborations avec vos partenaires technologiques et de services.

Meilleures pratiques métier

Meilleures pratiques informatiques

Définir les informations dont vous avez besoin. Une fois que vous aurez cerné vos besoins initiaux, vous serez en mesure de trouver les sources de données qui vous aideront à les combler. La plupart du temps, les groupes commerciaux, les clients et les fournisseurs auront des recommandations à vous faire. 

Surveiller la performance et la sécurité. Les informations de votre data warehouse sont certes précieuses, mais elles doivent quand même être facilement accessibles pour apporter de la valeur à l’entreprise. Surveillez attentivement l’utilisation du système pour vous assurer que les niveaux de performance sont élevés. 

Documenter l’emplacement, la structure et la qualité de vos données actuelles. Vous pouvez ensuite identifier les lacunes en matière de données et les règles de gestion pour transformer les données afin de répondre aux exigences de votre entrepôt.

Gérer les normes de qualité des données, les métadonnées, la structure et la gouvernance. De nouvelles sources de données précieuses sont régulièrement disponibles, mais nécessitent une gestion cohérente au sein d’un data warehouse. Suivez les procédures de nettoyage des données, de définition des métadonnées et de respect des normes de gouvernance.

Former une équipe. Cette équipe doit comprendre les dirigeants, les responsables et le personnel qui utiliseront et fourniront les informations. Par exemple, identifiez le reporting standard et les KPI dont ils ont besoin pour effectuer leurs tâches.

Fournir une architecture agile. Plus vos unités d’affaires et d’entreprise utiliseront les données, plus vos besoins en matière de datamarts et d’entrepôts augmenteront. Une plate-forme flexible s’avérera bien plus utile qu’un produit limité et restrictif. 

Hiérarchiser vos applications de data warehouse. Sélectionnez un ou deux projets pilotes présentant des exigences raisonnables et une bonne valeur commerciale.

Automatiser les processus tels que la maintenance. Outre la valeur ajoutée apportée à la Business Intelligence, l’apprentissage automatique peut automatiser les fonctions de gestion technique du data warehouse pour maintenir la vitesse et réduire les coûts d’exploitation.

Choisir un partenaire technologique compétent pour l’entrepôt de données. Ce dernier doit offrir les services d’implémentation et l’expérience dont vous avez besoin pour la réalisation de vos projets. Assurez-vous qu’il puisse répondre à vos besoins en déploiement, y compris les services Cloud et les options sur site. 

Utiliser le Cloud de manière stratégique. Les unités d’affaires et les services ont des besoins en déploiement différents. Utilisez des systèmes sur site si nécessaire et misez sur des data warehouse Cloud pour bénéficier d’une évolutivité, d’une réduction des coûts et d’un accès sur téléphone et tablette.  

Développer un bon plan de projet. Travaillez avec votre équipe sur un plan et un calendrier réalistes qui rendent possible les communications et le reporting de statut.


En résumé 

Les data warehouse modernes, et, de plus en plus, les data warehouse Cloud, constitueront un élément clé de toute initiative de transformation numérique pour les entreprises mères et leurs unités d’affaires. Les data warehouse exploitent les systèmes de gestion actuels, en particulier lorsque vous combinez des données issues de plusieurs systèmes internes avec de nouvelles informations importantes provenant d’organisations externes.

Les tableaux de bord, les indicateurs de performance clés, les alertes et le reporting répondent aux exigences des cadres dirigeants, de la direction et du personnel, ainsi qu’aux besoins des clients et des fournisseurs importants. Les data warehouse fournissent également des outils d’exploration et d’analyse de données rapides et complexes, et n’ont pas d’impact sur les performances des autres systèmes de gestion.


Pictogramme qui représente un entrepôt de données

Découvrez la solution SAP Data Warehouse Cloud

Unifiez vos données et analyses pour prendre des décisions avisées et obtenir la flexibilité nécessaire pour un contrôle efficace des coûts, notamment grâce à un paiement selon l’utilisation.

En savoir plus


Publié en anglais sur insights.sap.com

The post Qu’est-ce qu’un Data Warehouse ? appeared first on SAP France News.

Source de l’article sur sap.com

La planification financière en 2021 : trois petits mots

La plupart de mes conversations et pensées de ces derniers mois ont tourné autour de trois petits mots. Non, ce ne sont pas les trois petits mots auxquels vous pensez peut-être immédiatement, mais plutôt trois mots particulièrement chers au cœur des professionnels de la planification et de l’analyse financières en ce moment : l’agilité, la réactivité et la résilience.

Ce sont presque devenus des mots d’ordre pour le secteur ces neuf derniers mois, à mesure que les professionnels ont pris conscience de la nécessité de fournir à leur entreprise les informations requises pour prendre des décisions immédiates, de planifier et planifier encore, de générer des prévisions et de simuler de multiples résultats potentiels en fonction de variables en constante évolution. Et il apparaît clairement que certains y étaient bien mieux préparés que d’autres.

Notre enquête 2020 consacrée aux professionnels de la planification et de l’analyse financières, effectuée en collaboration avec FP&A Trends, a mis clairement en évidence une différence dans la réussite des pratiques de planification et d’analyse financières entre notre groupe entier d’entreprises interrogées et celles considérées comme ayant les « bonnes pratiques » en matière de planification et d’analyse financières. Parmi les défis cités par les entreprises interrogées, on retrouve le besoin de meilleurs systèmes de budgétisation et de prévision (cité par 30 % des entreprises interrogées), mais, d’un autre côté, de nombreuses entreprises déclarent utiliser des feuilles de calcul (73 %) dans le cadre de leurs processus de planification et de prévision. Bien sûr, même si nous avons tous utilisé et adoré les feuilles de calcul pour leur abondance et leur disponibilité, nous devons aussi reconnaître qu’elles ont certaines limites : elles nécessitent des interventions manuelles, sont propices aux erreurs de données et de calculs, peuvent devenir compliquées et peu pratiques, et ne pas offrir la flexibilité et l’agilité requises pour des recalculs et simulations rapides. Donc, à l’heure où les équipes de planification et d’analyse financières doivent se montrer particulièrement agiles, réactives et résilientes, les jours sont certainement comptés pour les anciens systèmes de planification, budgétisation et prévision basés sur feuilles de calcul. En fait, il est sans doute temps pour les entreprises d’examiner attentivement l’importance stratégique de la planification et de l’analyse financières pour leur activité, en réfléchissant aux défis identifiés en 2020, pour mieux cerner les opportunités d’améliorations pour 2021 et au-delà.

Et si les entreprises pouvaient…

  • Planifier et prévoir avec une facilité, une agilité et une flexibilité accrues.
  • Simuler de multiples scénarios de gestion en temps réel en réponse aux évolutions du marché.
  • Renforcer la résilience des plans stratégiques, mais aussi des processus et systèmes sur lesquels la planification et l’analyse financières reposent.

Comment de telles capacités permettraient-elles de transformer votre approche en matière d’analyse et de planification financières ?

Et, face à l’actuel besoin d’agilité, de réactivité et de résilience accrues dans le domaine de la planification et de l’analyse financières, quel est votre plan ?

Rejoignez mes collègues Pras Chatterjee et Chris Chan pour notre présentation consacrée à la planification et à l’analyse financières, proposée dans le cadre du SAP Finance and Risk Virtual Summit. Ils échangeront avec des invités spéciaux pour approfondir certaines des problématiques induisant des changements dans les pratiques de planification et d’analyse financières, et identifieront pour les professionnels de la finance des opportunités de transformer leur approche en matière de planification et d’analyse financières. Il s’agira de 45 minutes particulièrement riches et intenses, axées sur la planification et l’analyse financières, et la présentation de multiples fonctionnalités incontournables : ne manquez pas cet événement exceptionnel !

Merci de votre attention, nous espérons vous retrouver bientôt !

Publié en anglais sur blogs.sap.com

The post La planification financière en 2021 : trois petits mots appeared first on SAP France News.

Source de l’article sur sap.com

Devenir une ville intelligente n’est pas un objectif, c’est un mode de vie

Novo Mesto est une petite ville slovène située sur le coude pittoresque de la rivière Krka. Cette ville, dont l’origine remonte à la préhistoire, a toujours su gérer intelligemment ses ressources. L’idée d’assurer aux génération futures un environnement propre est profondément ancrée dans l’état d’esprit collectif. Les citoyens et les touristes peuvent se baigner dans la rivière en plein centre-ville.

« Nous ne sommes ni les premiers ni les derniers à vivre sur cette planète », déclare l’adjoint au maire de la ville, Bostjan Grobler. « Devenir une ville intelligente n’est pas un objectif en soi. L’objectif est de préserver la santé de nos citoyens et la salubrité de notre environnement afin d’offrir des emplois durables et des espaces de vie attrayants. La technologie nous aide à y parvenir. »

L’air pur comme point de départ

Comme beaucoup d’autres villes en Europe, Novo Mesto lutte depuis dix ans contre la pollution atmosphérique.

Celle-ci est particulièrement élevée en hiver, où les mesures font souvent état de particules de suie qui dépassent plusieurs fois par semaine les limites de matières particulaires (PM) fixées par l’Union européenne à 40 microgrammes par mètre cube. Il existe différents types de matières particulaires. Les matières les plus fréquemment mesurées sont des particules en suspension d’un diamètre de 10 microns ou moins, appelées PM10. Pour vous donner une idée, un micron est un millionième d’un mètre et un cheveu humain a une épaisseur d’environ 75 microns.

Selon l’Organisation mondiale de la santé (OMS), le niveau de PM10 doit être inférieur à 20 microgrammes par mètre cube. La ville allemande de Mannheim, par exemple, enregistre une moyenne annuelle de 22 microgrammes, contre 27 à Novo Mesto. Même si ces moyennes sont faibles en comparaison de Shanghai, qui avoisine les 84, elles peuvent entraîner des maladies cardiaques et pulmonaires ainsi qu’une irritation des voies respiratoires, en particulier lorsqu’elles dépassent 40 microgrammes.

Novo Mesto affichait des niveaux élevés de PM10 année après année, mais les dirigeants municipaux ne savaient pas comment y remédier.

« Il était évident que nous devions agir », explique Peter Gersic, responsable du développement de projets pour la municipalité de Novo Mesto, « car la pollution atmosphérique ne disparaît pas toute seule. Mais en toute honnêteté, nous ne savions que faire de ces données. »

Après quelques recherches, la municipalité s’est adressée à SAP et Telekom Slovénie. Juraj Kovac, un analyste de Telekom doué de l’expertise technique adéquate pour mettre en œuvre des solutions de ville intelligente, nous a expliqué le fonctionnement de la solution. Des capteurs ont été installés dans toute la ville pour recueillir des données non seulement sur la pollution atmosphérique, mais aussi sur d’autres indicateurs environnementaux importants, notamment l’utilisation de l’eau et la pollution lumineuse.

« Nous utilisons SAP Leonardo pour collecter les données et SAP Analytics pour les analyser », explique Juraj Kovac. « Toutes nos plateformes IdO s’exécutent sur SAP Cloud Platform. Les données sont utilisées par la municipalité pour prendre des décisions opérationnelles et par les citoyens qui utilisent des applications mobiles, par exemple pour trouver des places de stationnement. »

Améliorer la vie urbaine

L’adjoint au maire comprend désormais que la gestion des ressources de la ville n’est pas uniquement une affaire d’État. Il s’agit d’aider les citoyens à revoir leur mode de vie. « Si nous voulons que les gens prennent moins leur voiture, nous devons leur offrir des alternatives comme les transports publics et les pistes cyclables », déclare Bostjan Grobler. « Il ne suffit pas de motiver les gens à acheter des véhicules électriques. Nous devons veiller à ce qu’ils puissent facilement les garer et les recharger. ».

Ce que Novo Mesto souhaite réaliser à petite échelle grâce à la technologie intelligente existe déjà dans plusieurs villes du monde. Depuis les bâtiments écologiques et la collecte des déchets basée sur des capteurs, jusqu’au développement des transports publics et des services municipaux en ligne, les villes intelligentes révolutionnent la vie urbaine.

La ville de New York, par exemple, a été nommée ville la plus intelligente au monde pendant deux années consécutives notamment pour son recours à un système de relevé automatisé permettant de mieux comprendre comment ses 8,5 millions d’habitants utilisent 1 milliard de gallons d’eau chaque jour. La ville de Londres, qui arrive deuxième au classement, a été récompensée pour son système de transport collectif et ses politiques d’urbanisme.

La Commission de transport de Toronto utilise la technologie SAP pour optimiser la visibilité des processus et la communication pour le personnel œuvrant dans les transports en commun de la ville. La technologie IdO de SAP aide la ville d’Antibes à mieux gérer ses ressources en eau. La ville de Nanjing utilise les capteurs de circulation de SAP pour développer une culture plus écologique et plus humaniste.

Grâce à son utilisation visionnaire de la technologie pour assurer l’attractivité et la durabilité de la ville, Novo Mesto prouve que toute ville, quelle que soit sa taille, peut être une référence pour les générations à venir en matière de qualité de vie urbaine.

Publié en anglais sur Forbes.com

The post Devenir une ville intelligente n’est pas un objectif, c’est un mode de vie appeared first on SAP France News.

Source de l’article sur sap.com

Gagnez en résilience en optimisant la gestion des risques et de la conformité


Le défi :

En ces temps de risques particulièrement évolutifs, les entreprises ne peuvent plus fermer les yeux sur des approches manuelles, cloisonnées et désagrégées en matière de gestion des risques. Elles doivent transformer leurs processus GRC et leurs systèmes SAP clés pour rester résilientes.

Les options possibles :

Avec les solutions SAP® GRC, vous pouvez intégrer des contrôles à un processus de gestion et bénéficier de meilleurs insights sur les anomalies et les potentiels événements à risque. Vous pouvez exploiter le Big Data directement à partir de vos applications SAP pour la surveillance des exceptions et l’obtention de meilleurs insights.

Comme nos solutions partagent une même plateforme technologique, la capacité d’obtenir ces insights en temps réel, via la surveillance automatisée des contrôles et des indicateurs de risques clés (partageables entre nos solutions), vous permet de véritablement transformer vos processus GRC. À partir de nos solutions SAP GRC, vous pouvez procéder à des agrégations et communiquer les principaux risques et statuts de conformité aux décideurs via SAP Digital Boardroom ou via des solutions orientées partenaires, telles que Risk Navigator d’EY.

La phase de découverte :

Nous savons également qu’en matière de transformation numérique la compréhension des fonctionnalités proposées et de leur valeur ajoutée, tout comme la réalisation d’une analyse de rentabilité, sont essentielles. Si vous avez besoin d’aide pour cette analyse, n’hésitez pas à recourir à l’un de ces calculateurs de valeur (pas d’inscription nécessaire).

Voici les calculateurs disponibles, accompagnés d’une brève description :

SAP Access Control (s’applique aussi à SAP Cloud Identity Access Governance) : découvrez les avantages de l’automatisation de l’analyse et de l’atténuation des risques, mais aussi de la gestion des rôles et des privilèges, de la mise en service et des certifications d’accès dans vos environnements hybrides.

SAP Process Control : explorez les améliorations possibles dans des domaines tels que la gestion des risques, les contrôles, le mappage des réglementations et politiques, les tests (notamment la surveillance continue des contrôles), les évaluations, etc.

SAP Risk Management : quantifiez les avantages potentiels d’une approche d’entreprise en matière de gestion des risques dans des domaines tels que la planification, la gestion des réactions ou encore l’identification, l’analyse et le reporting des principaux domaines à risques.

SAP Audit Management : découvrez comment rationaliser les audits internes et améliorer leur qualité en facilitant la documentation des preuves, l’organisation des tâches administratives et la création de rapports, sur site et à distance.

SAP Business Integrity Screening : identifiez les opportunités d’économies potentielles en réduisant les pertes liées à la fraude, via le contrôle de gros volumes de transactions, mais aussi de partenaires, afin de détecter toute anomalie.

Invitation spéciale : en savoir plus à l’occasion de notre prochain événement virtuel !

Rejoignez-moi, ainsi que mes collègues Neil Patrick, Thomas Frenehard et Vishal Verma, pour obtenir des insights de la part de SAP, mais aussi de nos invités spéciaux, Marsha Reppy d’EY et Michael Rasmussen de GRC 20/20, pour notre présentation intitulée « Risk and Compliance », proposée dans le cadre du sommet virtuel SAP Finance and Risk.

Nous évoquerons l’environnement actuel et la façon dont les technologies SAP peuvent aider les professionnels de la gestion des risques, des audits, des contrôles et de la conformité à transformer votre approche en matière d’automatisation et de conformité. Nous évoquerons également nos principales solutions GRC (Thomas Frenehard), ainsi que notre solution SAP Cloud Identity Access Governance (Swetta Singh).

En somme, nous vous proposons 45 minutes particulièrement riches et intenses, axées sur les risques et la conformité, et la présentation de multiples fonctionnalités absolument incontournables.

Informations complémentaires :

En attendant, voici quelques suggestions :

  • Regardez cet entretien de 10 minutes avec le directeur des audits internes d’OYAK Mining Metallurgy Group, Dilek ÇETİN, qui explique comment son entreprise a transformé ses processus d’audit et GRC via un modèle basé sur « trois lignes », pour plus d’automatisation, d’assurance et de visibilité, grâce aux solutions SAP GRC.
  • Accédez à notre dizaine de sessions à la demande pour bénéficier de présentations de produits approfondies et pour découvrir les nombreux cas dans lesquels SAP utilise ses propres solutions pour gérer les risques, automatiser des centaines de contrôles et effectuer ses propres programmes d’audit interne à travers l’entreprise. Inscrivez-vous pour regarder la session de votre choix et approfondir les domaines de la GRC (gouvernance, gestion des risques et conformité), de la gouvernance des accès, de la confidentialité et de la cybersécurité.
  • Découvrez l’approche de KraftHeinz avec les solutions SAP GRC et son parcours avec Risk Navigator d’EY.

Publié en anglais sur blogs.sap.com

The post Gagnez en résilience en optimisant la gestion des risques et de la conformité appeared first on SAP France News.

Source de l’article sur sap.com

25 Exciting New Tools For Designers, April 2021

Rather than spring cleaning, do some spring “shopping” for tools that will make your design life easier. Packed with free options this month, this list is crammed full of tools and elements that you can use in your work every day.

Here’s what new for designers this month:

April’s Top Picks

Charts.css

Charts.css makes creating beautiful online charts that much easier. It’s a modern CSS framework that uses CSS utility classes to style HTML elements as charts. It’s accessible, customizable, responsive, and open source. There’s a quick start option and available source code to work with.

Haikei SVG Generator

Haikei is a web app that helps you generate SVG shapes, backgrounds, and patterns in all types of shapes to use in projects. Everything can be exported into the tools you are already using for easy integration, and every element is customizable. The tool is free right now – no credit card needed – and you get access to 15 generators and can export in SVG and PNG format. A premium option is on the way, and you can sign up to get notified for access.

Fluid Space Calculator

Fluid Space Calculator helps you create a related space system and export the CSS to implement it. The calculator allows you to add space value pairs and multipliers and see the impact on the screen before snagging the related code. It’s great for determining how things will look in different viewports and for creating custom space pairs.

Night Eye WordPress Plugin

Night Eye WordPress Plugin helps you create a dark mode option for your WordPress website with ease. It’s completely customizable, schedulable, and one of those things that users are starting to expect. The plugin has free and paid versions – the only difference is a link to credit the developer.

3 Productivity Boosters

Macro

Macro is a supercharged checklist app for recurring processes. It’s designed to help teams document, assign, track, and automate for maximum efficiency. Now is the time to test this tool because it is free in public beta.

Writex.io

Writex.io is a free writing app that uses AI and smart features to help you write more efficiently. It can check readability as you write, make suggestions, check spelling, and allows you to work with versioning. All the settings are customizable, so you can get help and suggestions when you want them and avoid things you don’t want.

Taloflow

Taloflow, which is in beta, is a tool that helps you find the top cloud and dev tools for your use case. This is designed to be a time-saving solution to finding the right infrastructure and API products for your work.

8 Kits with Illustrations and User Interface Elements

Skribbl

Skribbl is a collection of free, hand-drawn illustrations in a light and fun style. The black and white sketches are friendly, and the collection keeps growing. Plus, the illustrators are allowing them to be used free for any use.

Mobile Chat Kit

Mobile Chat Kit is a free starter kit for building apps in Figma, Sketch, and Adobe XD. It includes more than 50 screen options with mapped-out flows for a quick-start project.

Flowchart.fun

Flowchart.fun is exactly what the name implies. The app allows you to type, create nodes, and link elements to develop simple flow charts quickly. Then you can alter shape and size with drag and drop. Export it for use as an SVG, JPG, or PNG.

Shuffle

Shuffle is a marketplace packed with UI libraries to help you with a variety of digital projects. There are more than 1,500 pre-built components to choose from with professional designs. This premium tool comes with a monthly subscription or lifetime license.

Cryptocurrency 3D Pack

Cryptocurrency 3D Pack is a set of icons with fun colors in three-dimensional shapes that you can use to represent different crypto elements. The pack includes 55 #D icons in PNG and BLEND formats.

Stratum UI Kit for Figma

Stratum UI Kit for Figma includes nine free screens that are ready to use. Options include API documentation, Kanban, document, data dashboard, ecommerce product list, ecommerce product options, payments spreadsheet, cloud storage, and newsfeed.

Conic.css

Conic.css is a collection of simple gradients that you can browse and then click to copy the code into your CSS to use them in projects. It’s quick and easy while using trendy color options.

Artify Illustrations

Artify Illustrations is a Figma plugin that allows you to access more than 5,000 SVG and PNG illustrations within the app. It’s got a built-in search feature, everything is high-resolution, and the huge library includes various styles.

2 Tutorials

A Complete Guide to Accessible Front-End Components

A Complete Guide to Accessible Front-End Components is an amazingly comprehensive guide from Smashing Magazine with everything you need to know about accessible components. From tabs to tables to toggles to tooltips, you’ll find it all here and learn how to use it the right way.

Grid CheatSheet in 2021

Grid CheatSheet in 2021 is a useful guide of everything you can do with CSS Grid. Plus, it has plenty of fun illustrations and an accompanying video.

8 Fresh and Fun Fonts

Athina

Athina is a modern display serif with beautiful connector strokes. The free version is a demo, and there’s a full family that you can buy.

Brique

Brique is a free (personal and commercial) display font with a wide stance and uppercase character set. The letters have a lot of personality and a readable configuration.

Code Next

Code Next is a great geometric sans serif with a full family of styles. Including two variable fonts. It’s highly readable and would work for almost any application.

Inter

Inter is a simple and functional sense serif family with everything from extra light to heavy weights. The extra character personality makes this a fun and functional font option.

Nothing Clean

Nothing Clean is a fun grunge-type option. It’s an all uppercase character set with alternates.

Playout

Playout is a fun, hand-drawn style typeface with interesting glyphs and alternate characters. The most fun feature might be the pawprint characters in the demo set.

Rockford Sans

Rockford Sans is a geometric typeface with subtly rounded edges. It has eight weights and italics. With its large x-height and round features, it’s legible and friendly. It’s suited to cover a wide variety of tasks from editorial to brand design and advertising.

SpaceType

SpaceType is a fun and funky typeface in regular and expanded styles. The stretched letterforms make interesting alternates for display purposes.

Source

The post 25 Exciting New Tools For Designers, April 2021 first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Passer au niveau supérieur avec la reddition parallèle des comptes universelle dans SAP S/4HANA

Les entreprises les plus performantes de demain seront celles qui gèrent leurs activités efficacement, optimisent leur rentabilité et renforcent leur résilience, tout en fournissant des services de manière durable. Toutefois, nous ne pouvons nier que nous faisons face actuellement à des changements plus perturbateurs que jamais, en particulier en cette période sans précédent que nous vivons.

Les chaînes logistiques ont dû s’adapter du jour au lendemain ; les entreprises ont dû se mettre à la vente en ligne en l’espace de quelques jours ; et le changement climatique est une réalité toujours plus présente. Partout dans le monde, les dirigeants d’entreprise n’ont d’autres choix que de transformer leurs activités.

Chez SAP, notre réussite sur le marché repose sur des solutions ERP (progiciels de gestion intégrés) qui aident nos clients à mener leurs activités à une échelle adaptée en toute conformité. Nous poursuivons dans cette voie avec notre suite d’applications de gestion nouvelle génération, dont le périmètre s’étend de la finance à la logistique. SAP S/4HANA exploite les fonctionnalités Cloud émergentes pour aider les clients à tenir face à l’évolution des modèles d’affaires influencée par le progrès technologique, la notion de durabilité ou l’évolution du comportement des clients.

Les entreprises les plus performantes sont les entreprises intelligentes. Et en tant que telles, elles utilisent les informations de façon innovante, efficace et durable, en les connectant aux tâches d’exécution et de gestion. Les entreprises intelligentes prennent leurs décisions en se fondant sur une source d’informations unique partagée, et proposent une expérience utilisateur qui correspond aux méthodes de travail des individus. SAP S/4HANA, qui exploite des processus financiers flexibles et élimine la réplication et la redondance des données, est avantageux pour les professionnels de la finance.

New Sega Textile (Nantong) Co Ltd avait besoin d’une solution ERP Cloud de pointe pouvant être déployée efficacement à l’échelle de ses activités internationales, afin de soutenir sa croissance. Client de SAP S/4HANA Cloud, New Sega fait état d’une baisse de 50 % de ses coûts côté budget et prévision grâce à la planification financière, ainsi qu’à un accroissement de 20 % du nombre d’écritures financières automatisées dans la comptabilité clients à l’aide de l’apprentissage automatique.

Innovations dans la reddition parallèle des comptes universelle

Les directeurs financiers des multinationales doivent présenter des données financières cohérentes en vertu des différentes normes comptables et devises en parallèle. Pour ce faire, ils doivent suivre les normes de reddition parallèle des comptes pour les règles générales comptables nationales et de groupe, qui ont une incidence sur l’évaluation des stocks, les en-cours de fabrication, les valeurs des immobilisations, etc.

Des milliers de clients SAP s’appuient déjà sur les fonctionnalités des systèmes SAP ERP pour gérer plusieurs systèmes comptables en parallèle afin de satisfaire avec précision, efficacité et rentabilité à toutes les exigences légales des personnes utilisant les états financiers. SAP HANA fournit désormais une nouvelle base technologique qui a levé les obstacles techniques et ouvert une foule de nouvelles opportunités pour les entreprises. Dans ce même ordre d’idée, SAP S/4HANA a été créée sur un tout nouveau type d’architecture, plaçant le journal universel au centre. Le journal universel constitue notre base bien établie pour les processus comptables. Il enregistre au même endroit toutes les données financières qui auparavant étaient réparties dans plusieurs tables. Ce faisant, il assure un traitement parallèle cohérent entre tous les livres auxiliaires et flux de valeurs.

Grâce aux dernières fonctionnalités incluses dans SAP S/4HANA, nous proposons une approche de solution qui fait passer la reddition parallèle des comptes au niveau supérieur : vers la reddition parallèle des comptes universelle.

Une innovation importante a été dévoilée dans SAP S/4HANA Cloud version 2011 : il s’agit de l’affectation flexible des normes comptables. Cela signifie que les nouveaux clients SAP S/4HANA Cloud bénéficieront également d’une nouvelle option de configuration permettant l’affectation flexible des règles générales comptables locales (par exemple, le code de commerce et les normes comptables (HGB) en vigueur en Allemagne) en tant que norme comptable principale pour le ledger du groupe. Cette innovation est particulièrement bénéfique pour nos clients exploitant des solutions Cloud, car elle leur offre cette flexibilité de haut niveau qui leur manquait auparavant. Une seule activité de configuration est requise pour mettre à jour l’affectation du ledger à la norme comptable dans toutes les applications financières, comme le grand livre, la gestion de trésorerie, la constatation des produits, etc.

La reddition parallèle des comptes universelle au cœur de l’entreprise intelligente : prochaines phases d’innovation

En outre, la valorisation parallèle est la prochaine innovation majeure qui verra le jour dans le domaine de la finance. Prévue pour SAP S/4HANA en cette année 2021, elle garantira la prise en charge cohérente et universelle des normes de reddition parallèle des comptes pour les processus de bout en bout, tels que la fabrication sur stock/commande et la fabrication d’immobilisations. La reddition parallèle des comptes est désormais active pour l’intégralité de ces processus et permet la représentation de différentes normes comptables dans tout le flux de valeurs. Ainsi, la solution sera en mesure d’évaluer en temps réel les processus de gestion en parallèle pour chaque norme comptable requise. Les clients bénéficieront également d’une transparence et d’une disponibilité accrues des données en temps réel, ainsi que d’une réduction des tâches d’implémentation et de configuration.

À l’avenir, nous continuerons d’améliorer la reddition parallèle des comptes en ajoutant d’autres cas d’utilisation s’inspirant des autres thèmes au programme de la feuille de route, afin d’inclure des vues consolidées et des versions d’exercice alternatives. Les vues consolidées serviront aux clients de base optimisée pour encore plus d’efficacité dans la prise de décision et l’orientation globale de l’entreprise, grâce à une transparence et une précision accrues des données. En outre, la prise en charge cohérente des versions d’exercice alternatives permettra de monter d’un cran le niveau de normalisation, tout en abaissant le degré requis de solutions de contournement et de tâches manuelles connexes. La comptabilité des immobilisations est, par exemple, l’une des composantes où le nombre de tâches manuelles sera considérablement réduit avec les versions d’exercice alternatives.

La finance à l’ère du numérique

Les professionnels de la finance endossent graduellement des rôles plus stratégiques au sein de leur entreprise et doivent de toute urgence dépasser les limites imposées par des infrastructures système complexes et redondantes. Ils ont besoin d’un cœur numérique unique qui réponde à toutes leurs exigences, tant pour les processus transactionnels qu’analytiques. Un système ERP doit faire office de source d’informations unique pour les données financières et opérationnelles d’une entreprise. Les réplications de données, rapprochements et redondances doivent être éliminés à travers la simplification des processus et des technologies, tandis que la continuité des activités se doit d’être garantie et les efforts manuels, limités, via des fonctions financières optimisées par les outils d’analyse.

Riches en innovations, SAP S/4HANA est notre solution de finance intelligente à l’ère du numérique, disponible en édition cloud, on-premise ou un mélange de ces deux options de déploiement. S’exécutant sur la plateforme in-memory SAP HANA, notre solution permet une reddition des comptes flexible et facile d’utilisation pour la gestion comptable, la clôture comptable et financière, la gestion de trésorerie et des flux, la comptabilité fournisseurs et clients, la gestion des risques et bien plus encore. Pour en savoir plus sur les avantages que SAP S/4HANA peut procurer à votre entreprise, rendez-vous sur SAP.com.

Jan Gilg est président de SAP S/4HANA
Cet article est initialement paru sur LinkedIn.

The post Passer au niveau supérieur avec la reddition parallèle des comptes universelle dans SAP S/4HANA appeared first on SAP France News.

Source de l’article sur sap.com

L’ERP Intelligent : la clé pour renforcer la résilience financière aujourd’hui et demain

L’argent est roi, certes mais pas que. C’est également l’un des éléments clés pour assurer la résilience et la continuité de l’activité sur le long terme. Il joue un rôle dans les challenges qui touchent l’entreprise, comme par exemple l’expérience collaborateur et client, le partenariat avec les fournisseurs ou mêmes les résultats financiers. Avec SAP S/4HANA, les entreprises peuvent répondre à tous ces enjeux en optimisant leur bilan.

Selon les partenaires de McKinsey, Kevin Laczkowski et Mihir Mysore, il est essentiel de combiner les compétences centrales avec des leviers financiers (tels que l’optimisation du bilan) pour renforcer la résilience, en prévision d’une récession ou d’une reprise.

Pour obtenir un tel avantage concurrentiel, il faut disposer d’informations intelligentes issues d’une infrastructure technologique axée sur l’intégration. En intégrant étroitement les systèmes et les données communes, les entreprises peuvent tirer parti de la rapidité et de l’agilité des outils in-memory pour dégager des modèles et perspectives cachés. Ce faisant, les entreprises peuvent consolider leurs opérations, maintenir des relations étroites avec leurs clients, développer l’agilité des chaînes logistiques dynamiques et gérer les ressources de manière plus synchronisée.

Une résilience optimisée grâce à des données ERP en temps réel et une connectivité intelligente

Bien que les systèmes hérités puissent automatiser différentes parties des opérations de gestion, ils ne peuvent pas fournir les informations en temps réel nécessaires pour régler le problème des surstocks ou offrir un service client à l’instant t. Trop souvent, les décisions sont basées sur des modèles transactionnels historiques peu centrés sur le client et trop rigides pour laisser place aux idées novatrices qui nécessiteraient d’être distribuées et adaptées dans toute l’entreprise.

Dès que l’entreprise passe à un progiciel de gestion intégré (ERP) intelligent, c’est une plateforme pour la reprise, la croissance et la résilience qui prend vie. Et en cette ère criblée d’incertitudes, il est grand temps de prendre conscience de cette force. Mais les dirigeants doivent d’abord sélectionner et implémenter une solution ERP qui offre des avantages quantifiables à l’échelle de l’entreprise : depuis le service client, les ventes et les stocks, jusqu’à la gestion du fonds de roulement, du coût des articles, de la main-d’œuvre et des frais généraux.

Envisagez de passer à SAP S/4HANA. Ses retombées n’ont pas tant affaire avec la taille de l’entreprise et le secteur d’activité. Il s’agit surtout de mettre en place un système informatique complet et unifié que tous les employés peuvent adopter et comprendre de façon intuitive. La solution relie directement les processus externes et tiers aux processus internes et aux structures de données, de manière suffisamment cohérente et flexible pour rendre des informations intelligentes rapidement accessibles, visibles et exploitables. 

Grâce à une visibilité accrue, des outils de prévision précis et des données pertinentes générées en temps réel sur les partenaires internes et externes, les entreprises peuvent, par exemple, abaisser considérablement leurs coûts de stock et améliorer leur taux de rotation de plus de 20 %. Nous ne parlons pas ici d’une réduction ponctuelle des dépenses, mais d’une vaste baisse continue des frais généraux dans les domaines du transport, de l’entreposage et de la manutention, avec en outre moins d’obsolescence, de frais d’assurance, de taxes, de dommages et de pertes au niveau des stocks. Même en ces temps où les taux d’intérêt diminuent, les entreprises peuvent réduire leurs coûts de stockage.

Voici les autres avantages à tirer de l’utilisation de SAP S/4HANA pour optimiser votre bilan :

1. Opérations hautes performances

Avec les fonctionnalités des solutions ERP intelligentes, les entreprises peuvent fabriquer et acheter les produits ou services dont elles ont besoin, et les livrer en temps voulu et à l’endroit convenu. Et tout s’opère avec l’agilité nécessaire pour ajuster les plans opérationnels et les pratiques, afin de répondre aux attentes des clients.

Les fonctionnalités prédictives de SAP S/4HANA permettent de revoir rapidement la planification des besoins en composants en tenant compte des données en temps réel. Elles permettent d’éliminer les décisions hypothétiques lors de la gestion des opérations internes, et de minimiser les en-cours de fabrication et les stocks de produits finis de manière optimale et précise.

2. Plus grande collaboration au sein du réseau de fournisseurs

L’amélioration des pratiques d’approvisionnement donne souvent lieu à des négociations plus poussées avec les fournisseurs, ce qui se traduit par des réductions de coûts et une hausse de 30 %d’efficacité dans les achats de matières premières (intrants). L’intégration et la collaboration étroites entre les fournisseurs renforcent la capacité de l’entreprise à planifier les changements, à négocier et à fournir une meilleure assurance qualité, avec plus de répercussions positives sur l’expérience finale du client.

SAP S/4HANA peut aider les entreprises à identifier et à éliminer les goulots d’étranglement dans les processus des chaînes logistiques, ainsi qu’à répondre à l’évolution de la demande. Les responsables opérationnels utilisent ces informations pour ajuster les quantités de produits et les délais de livraison. Leurs fournisseurs qui bénéficient d’une visibilité sur les besoins des consommateurs peuvent alors mieux remplir leurs obligations et répercuter les économies qui en résultent sur le prix de vente.

3. Optimisation de la main-d’œuvre

Avec des possibilités de prévision et d’organisation plus étendues, les cas de ruptures de stock et d’interruptions sont moins fréquents. Ces bons résultats offrent d’autres avantages : la gestion plus avisée des ressources, une meilleure qualité et une formation revalorisée ; moins de temps consacré aux commandes urgentes et reprises précipitées et moins d’heures supplémentaires effectuées par les collaborateurs ; et une contraction des travaux effectués dans des conditions stressantes et ne répondant pas aux attentes.

Avec SAP S/4HANA, les entreprises bénéficient d’une visibilité accrue sur l’évolution des priorités. Elles peuvent automatiser la communication avec les clients et fournisseurs, et fixer des dates de livraison judicieuses, ce qui est essentiel pour fidéliser les clients.

4. Opérations financières maîtrisées

Grâce à une expérience de livraison et de réception plus automatisée ainsi qu’à des contrats clients et fournisseurs bien négociés, les organisations peuvent optimiser leur solidité financière de manière à augmenter leur fonds de roulement.

SAP S/4HANA sert de base pour automatiser la gestion du recouvrement et des liquidités grâce à l’apprentissage automatique et à l’intelligence artificielle (IA). Cela peut conduire, en retour, à une baisse du nombre de jours de retard des créances et à des délais de facturation réduits de plus de 50 %, tout en limitant la fraude et en augmentant les liquidités disponibles. De plus, le processus de vérification automatisée passant par la mise en correspondance de trois facteurs favorise les remises fournisseurs, la planification de la trésorerie et les prévisions financières afin d’optimiser le capital à portée de main.

5. Cohérence et rentabilité du service client et des ventes

À l’aide des données expérientielles et opérationnelles qu’elles exploitent pour comprendre leurs clients, les entreprises peuvent exécuter des modèles de gestion ciblés et différenciés. Par exemple, les modèles de tarification qui répondent de manière créative aux besoins des clients peuvent prendre en charge le stock géré par le fournisseur, la facturation basée sur l’utilisation, les configurations de produits uniques et d’autres stratégies d’intégration à long terme.

En connectant étroitement les besoins des clients aux services de ventes et production, SAP S/4HANA donne aux entreprises les moyens d’offrir un service client plus prévisible et différencié, contribuant au chiffre d’affaires et à la fidélité des clients. Les améliorations apportées dans la gestion de la relation client donnent lieu à des livraisons dans les délais, avec moins de retours et de reprises, quelle que soit l’unicité du produit.

Gagner en force grâce à un bilan optimisé

Dans la dimension économique, nous arrivons à un point où les priorités des directeurs financiers dépassent le cadre de la finance. En plus de gérer les flux de trésorerie, les délais de recouvrement des créances ainsi que la comptabilité clients et fournisseurs en vue d’optimiser les flux de trésorerie, ceux-ci guident les tâches organisationnelles pour améliorer les processus de gestion et l’intelligence à l’échelle de l’entreprise. Plus important encore, après examen de leurs bilans et comptes de résultat, ils élaborent de nouvelles stratégies pour faire face aux incertitudes du marché actuel.

Avec une telle approche de la direction financière, les entreprises sont plus à même de se différencier et de pénétrer le marché de façon organique, tout en réduisant les créances et les stocks, en optimisant le nombre d’articles gérés en stock et la main-d’œuvre, et en accroissant le volume des ventes. Et plus les entreprises font preuve de résilience grâce à SAP S/4HANA, plus leur situation financière s’améliore : les cours des actions affichent une tendance à la hausse, les bénéfices augmentent et le chiffre d’affaires est plus prévisible.


Découvrez comment SAP S/4HANA peut vous aider à obtenir un bilan consolidant la résilience de votre entreprise, pour surmonter les difficultés d’aujourd’hui et se préparer au monde de demain. Consultez l’article « What Companies Should Do to Prepare for a Recession » (Ce que les entreprises doivent faire pour se préparer à la récession) de la Harvard Business Review et découvrez l’ERP intelligent d’aujourd’hui, SAP S/4HANA.

The post L’ERP Intelligent : la clé pour renforcer la résilience financière aujourd’hui et demain appeared first on SAP France News.

Source de l’article sur sap.com

Qu’est-ce que le Big Data ?

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com