Articles

Spring and fresh designs are in the air. This month, it’s obvious that designers are feeling creative with new and interesting concepts that range from a new style for cards, homepage experimentation with multiple entry points or calls to action, and risky typography options.

Here’s what’s trending in design this month.

1. “Flat” Cards

Card-style design elements that allow users to click through to other content aren’t new, but the design of these cards is fresh and interesting.

Rather than more heavily designed cards with shadows and layers of content, flat styles are trending. Expect this trend to explode thanks to usage by Google for a shopping experience page.

The Google example below is interesting because Google’s Material Design guidelines are what helped card-style elements grow in popularity previously. However, those cards did include more layers, color options, buttons inside the cards, and shadows.

Today’s trending cards are completely flat. And beautiful.

Each of these websites does it in a slightly different way.

Heartcore, a consumer technology VC company, uses a series of flat cards as a navigation element to help users find their way through the website. Each features a bright color background with an illustration and a simple text block.

Each card has a nice hover state where only the illustration zooms inside the card frame. This is an interesting effect because it is exactly the opposite of the previous iteration of cards, which zoomed the entire card as a hover state.

Google Shopping uses that whole card bounce hover state (plus a not-so-flat shadow) for each card. The initial design is sleek with the pairing of white and image cards with simple text in each. You are enticed to click around to see what happens.

Click on Greece is a travel website design that uses simple cards with a minimal color and text overlay. The consistency of these cards makes the design pop and the beauty of the images draw you in. Each card also has a hover state with a darker color mask to guide navigation and make text elements easier to read.

2. Multiple Homepage Entry Points

For a long time, designers have been working off the philosophy that the homepage should have one direct entry point, creating a direct funnel for the user experience.

These designs throw that idea out the window, with multiple entry points and click elements.

You can think of it as the “create your own adventure” option for these designs.

It can be a risky concept if you are diving into analytics to pay attention to user paths. You want to make sure you know what choices users are making so that you can help them on the journey to the content and information that you want them to get from the visit.

But this type of design scheme does feel somewhat personalized, putting the user in more control.

Parcouse Epicuriens uses three flat card-style elements to help users pick what they want to see from the home page. There’s no other button or direct call to action, which is somewhat uncommon in today’s website design landscape. Users have to pick from one of the cards, scroll, or enter using the hamburger menu icon.

Tasty Find uses search options to help users start their journey. What’s interesting here are the choices – search for the food you want, pick something random, or (in the small print) find even more options. Users get three choices to begin their journey with the website.

What’s interesting is how simple this complex user journey looks. The design is easy to digest, but so many options could overwhelm users. This is one of those situations where you have to watch return search data and information and weigh the risk versus the reward of so much choice. It’ll be interesting to watch this design over time and see if the options decrease in number.

Accord also has several levels of user engagement opportunity. Option 1: Every block contains a click element. Option 2: Use the search at the top to narrow choices. This is an interesting configuration as the homepage for an e-commerce website because they get right to product selection and shopping without a softer sell or introduction.

3. Risky Typography

Typographic risk has been an ongoing theme for a little while. Designers are embracing experimental and novelty typefaces to stand out in the cluttered website space. Sometimes it works beautifully, and other times, it can fall short.

Here, each of these trending website designs uses a risky typography treatment. The risks are a little different for each design, from readability to comprehension to font delivery.

How Many Plants has duel typography risks: A funky typeface paired with odd word breaks. Interestingly enough, readability isn’t as big of a concern as you might think. This is likely because there aren’t many words, and they are short. Plus, the imagery ties in nicely.

Do you notice a similarity between How Many Plants and The Great Lake? The typography has the same style with a blocky, slab, sans serif with alternating thick and thin strokes. (It’s the same font.)

The risk in the typography design for The Great Lake isn’t in the homepage display, although you might wonder what the design is about. It is carrying this font throughout the design. While it looks great large and with only a few words, it gets a little more difficult the more you see it. This type of mental reading weight can be difficult for visitors over time, creating an element of risk.

Zmaslo uses an interesting typeface with a liquid effect on top of an unusual word. That combination of text elements makes you think hard to read the homepage, despite its neat looks. The risk here is weighing visual interest against comprehension. Depending on the audience, this risk can be worth the chance.

Conclusion

Spring always seems to be that time of year where designers start thinking about new, fresh design elements. That might explain some of the “riskier” design choices and experimentation here.

Regardless of the motivation, it is always fun to see the creative stretch happen. It can be even more interesting to see what elements from these trends continue to grow in the coming months.

Source

The post 3 Essential Design Trends, May 2021 first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Gartner predicts that by 2023, over 50% of medium to large enterprises will have adopted a Low-code/No-code application as part of their platform development.
The proliferation of Low-code/No-code tooling can be partially attributed to the COVID-19 pandemic, which has put pressure on businesses around the world to rapidly implement digital solutions. However, adoption of these tools — while indeed accelerated by the pandemic — would have occurred either way.
Even before the pandemic, the largest, richest companies had already formed an oligopsony around the best tech talent and most advanced development tools. Low-Code/No-code, therefore, is an attractive solution for small and mid-sized organizations to level the playing field, and it does so by giving these smaller players the power to do more with their existing resources.
While these benefits are often realized in the short term, the long-term effect of these tools is often shockingly different. The promise of faster and cheaper delivery is the catch — or lure — inside this organizational mousetrap, whereas backlogs, vendor contracts, technical debts, and constant updates are the hammer.
So, what exactly is the No-Code trap, and how can we avoid it?

What is a No-Code Tool?

First, let’s make sure we clear up any confusion regarding naming. So far I have referred Low-Code and No-Code as if they were one term. It’s certainly easy to confuse them — even large analyst firms seem to have a hard time differentiating between the two — and in the broader context of this article, both can lead to the same set of development pitfalls.
Under the magnifying glass, however, there are lots of small details and capabilities that differentiate Low-code and No-code solutions. Most of them aren’t apparent at the UI level, leading to much of the confusion between where the two come from.
In this section, I will spend a little bit of time exploring the important differences between those two, but only to show that when it comes to the central premise of this article they are virtually equivalent.

Low-Code vs. No-Code Tools

The goal behind Low-Code is to minimize the amount of coding necessary for complex tasks through a visual interface (such as Drag ‘N’ Drop) that integrates existing blocks of code into a workflow.
Skilled professionals have the potential to work smarter and faster with Low-Code tools because repetitive coding or duplicating work is streamlined. Through this, they can spend less time on the 80% of work that builds the foundation and focuses more on optimizing the 20% that makes it different. It, therefore, takes on the role of an entry-level employee doing the grunt work for more senior developers/engineers.
No-Code has a very similar look and feel to Low-Code, but is different in one very important dimension. Where Low-Code is meant to optimize the productivity of developers or engineers that already know how to code (even if just a little), No-Code is built for business and product managers that may not know any actual programming languages. It is meant to equip non-technical workers with the tools they need to create applications without formal development training.
No-Code applications need to be self-contained and everything the No-Code vendor thinks the user may need is already built into the tool.
As a result, No-Code applications create a lot of restrictions for the long-term in exchange for quick results in the short-term. This is a great example of a ‘deliberate-prudent’ scenario in the context of the Technical Debt Quadrant, but more on this later.

Advantages of No-Code Solutions

The appeal of both Low-Code and No-Code is pretty obvious. By removing code organizations can remove those that write it — developers — because they are expensive, in short supply, and fundamentally don’t produce things quickly.
The benefits of these two forms of applications in their best forms can be pretty substantial:
  • Resources: Human Capital is becoming increasingly scarce — and therefore expensive. This can stop a lot of ambitious projects dead in their tracks. Low-Code and No-Code tools minimize the amount of specialized technical skills needed to get an application of the ground, which means things can get done more quickly and at a lower cost.
  • Low Risk/High ROISecurity processes, data integrations, and cross-platform support are all built into Low-Code and No-Code tools, meaning less risk and more time to focus on your business goals.
  • Moving to Production: Similarly, for both types of tools a single click is all it takes to send or deploy a model or application you built to production.
Looking at these advantages, it is no wonder that both Low-Code and No-Code have been taking industries by storm recently. While being distinctly different in terms of users, they serve the same goal — that is to say, faster, safer and cheaper deployment. Given these similarities, both terms will be grouped together under the ‘No-Code’ term for the rest of this article unless otherwise specified.

List of No-Code Data Tools

So far, we have covered the applications of No-Code in a very general way, but for the rest of this article, I would like to focus on data modeling. No-Code tools are prevalent in software development, but have also, in particular, started to take hold in this space, and some applications even claim to be an alternative to SQL and other querying languages (crazy, right?!). My reasons for focusing on this are two-fold: 
Firstly, there is a lot of existing analysis around this problem for software development and very little for data modeling. Secondly, this is also the area in which I have the most expertise.
Now let’s take a look at some of the vendors that provide No-Code solutions in this space. These in no way constitute a complete list and are, for the most part, not exclusively built for data modeling. 

1. No-Code Data Modeling in Power BI

Power BI was created by Microsoft and aims to provide interactive visualizations and business intelligence capabilities to all types of business users. Their simple interface is meant to allow end-users to create their own reports and dashboards through a number of features, including data mapping, transformation, and visualization through dashboards. Power BI does support some R coding capabilities for visualization, but when it comes to data modeling, it is a true No-Code tool.

2. Alteryx as a Low-Code Alternative

Alteryx is meant to make advanced analytics accessible to any data worker. To achieve this, it offers several data analytics solutions. Alteryx specializes in self-service analytics with an intuitive UI. Their offerings can be used as Extract, Transform, Load (ETL) Tools within their own framework. Alteryx allows data workers to organize their data pipelines through their custom features and SQL code blocks. As such, they are easily identified as a Low-Code solution.

3. Is Tableau a No-Code Data Modeling Solution?

Tableau is a visual analytics platform and a direct competitor to Power BI. They were recently acquired by Salesforce which is now hoping to ‘transform the way we use data to solve problems—empowering people and organizations to make the most of their data.’ It is also a pretty obvious No-Code platform that is supposed to appeal to all types of end-users. As of now, it offers fewer tools for data modeling than Power BI, but that is likely to change in the future.

4. Looker is a No-Code Alternative to SQL

Looker is a business intelligence software and big data analytics platform that promises to help you explore, analyze, and share real-time business analytics easily. Very much in line with Tableau and Power BI, it aims to make non-technical end-users proficient in a variety of data tasks such as transformation, modeling, and visualization.

You might be wondering why I am including so many BI/Visualization platforms when talking about potential alternatives to SQL. After all, these tools are only set up to address an organization’s reporting needs, which constitute only one of the use cases for data queries and SQL. This is certainly a valid point, so allow me to clarify my reasoning a bit more.

While it is true that reporting is only one of many potential uses for SQL, it is nevertheless an extremely important one. There is a good reason why there are so many No-Code BI tools in the market—to address heightening demand from enterprises around the world — and therefore, it is worth taking a closer look at their almost inevitable shortcomings.

Source de l’article sur DZONE

Un data warehouse (entrepôt de données) est un système de stockage numérique qui connecte et harmonise de grandes quantités de données provenant de nombreuses sources différentes. Il a pour but d’alimenter la Business Intelligence (BI), le reporting et l’analyse, ainsi que soutenir la conformité aux exigences réglementaires afin que les entreprises puissent exploiter leurs données et prendre des décisions intelligentes fondées sur les données. Les data warehouse stockent les données actuelles et historiques dans un seul et même endroit et constituent ainsi une source unique de vérité pour une organisation.

Les données sont envoyées vers un data warehouse à partir de systèmes opérationnels (tels qu’un système ERP ou CRM), de bases de données et de sources externes comme les systèmes partenaires, les appareils IoT, les applications météo ou les réseaux sociaux, généralement de manière régulière. L’émergence du cloud computing a changé la donne. Ces dernières années, le stockage des données a été déplacé de l’infrastructure sur site traditionnelle vers de multiples emplacements, y compris sur site, dans le Cloud privé et dans le Cloud public.

Les data warehouse modernes sont conçus pour gérer à la fois les données structurées et les données non structurées, comme les vidéos, les fichiers image et les données de capteurs. Certains utilisent les outils analytiques intégrés et la technologie de base de données in-memory (qui conserve l’ensemble de données dans la mémoire de l’ordinateur plutôt que dans l’espace disque) pour fournir un accès en temps réel à des données fiables et favoriser une prise de décision en toute confiance. Sans entreposage de données, il est très difficile de combiner des données provenant de sources hétérogènes, de s’assurer qu’elles sont au bon format pour les analyses et d’obtenir une vue des données sur le court terme et sur le long terme.

Schéma qui montre ce qu'est un data warehouse


Avantages de l’entreposage de données

Un data warehouse bien conçu constitue la base de tout programme de BI ou d’analyse réussi. Son principal objectif est d’alimenter les rapports, les tableaux de bord et les outils analytiques devenus indispensables aux entreprises d’aujourd’hui. Un entrepôt de données fournit les informations dont vous avez besoin pour prendre des décisions basées sur les données et vous aide à faire les bons choix, que ce soit pour le développement de nouveaux produits ou la gestion des niveaux de stock. Un data warehouse présente de nombreux avantages. En voici quelques-uns :

  • Un meilleur reporting analytique : grâce à l’entreposage de données, les décideurs ont accès à des données provenant de plusieurs sources et n’ont plus besoin de prendre des décisions basées sur des informations incomplètes.
  • Des requêtes plus rapides : les data warehouse sont spécialement conçus pour permettre l’extraction et l’analyse rapides des données. Avec un entrepôt de données, vous pouvez très rapidement demander de grandes quantités de données consolidées avec peu ou pas d’aide du service informatique.
  • Une amélioration de la qualité des données : avant de charger les données dans l’entrepôt de données le système met en place des nettoyages de données afin de garantir que les données sont converties dans un seul et même format dans le but de faciliter les analyses (et les décisions), qui reposent alors sur des données précises et de haute qualité.
  • Une visibilité sur les données historiques : en stockant de nombreuses données historiques, un data warehouse permet aux décideurs d’analyser les tendances et les défis passés, de faire des prévisions et d’améliorer l’organisation au quotidien.

Capture d'écran de la solution SAP Data Warehouse Cloud


Que peut stocker un data warehouse ?

Lorsque les data warehouse sont devenus populaires à la fin des années 1980, ils étaient conçus pour stocker des informations sur les personnes, les produits et les transactions. Ces données, appelées données structurées, étaient bien organisées et mises en forme pour en favoriser l’accès. Cependant, les entreprises ont rapidement voulu stocker, récupérer et analyser des données non structurées, comme des documents, des images, des vidéos, des e-mails, des publications sur les réseaux sociaux et des données brutes issues de capteurs.

Un entrepôt de données moderne peut contenir des données structurées et des données non structurées. En fusionnant ces types de données et en éliminant les silos qui les séparent, les entreprises peuvent obtenir une vue complète et globale sur les informations les plus précieuses.


Termes clés

Il est essentiel de bien comprendre un certain nombre de termes en lien avec les data warehouse. Les plus importants ont été définis ci-dessous. Découvrez d’autres termes et notre FAQ dans notre glossaire.

Data warehouse et base de données

Les bases de données et les data warehouse sont tous deux des systèmes de stockage de données, mais diffèrent de par leurs objectifs. Une base de données stocke généralement des données relatives à un domaine d’activité particulier. Un entrepôt de données stocke les données actuelles et historiques de l’ensemble de l’entreprise et alimente la BI et les outils analytiques. Les data warehouse utilisent un serveur de base de données pour extraire les données présentes dans les bases de données d’une organisation et disposent de fonctionnalités supplémentaires pour la modélisation des données, la gestion du cycle de vie des données, l’intégration des sources de données, etc.

Data warehouse et lac de données

Les data warehouse et les lacs de données sont utilisés pour stocker le Big Data, mais sont des systèmes de stockage très différents. Un data warehouse stocke des données qui ont été formatées dans un but spécifique, tandis qu’un lac de données stocke les données dans leur état brut, non traité, dont l’objectif n’a pas encore été défini. Les entrepôts de données et les lacs de données se complètent souvent. Par exemple, lorsque des données brutes stockées dans un lac s’avèrent utiles pour répondre à une question, elles peuvent être extraites, nettoyées, transformées et utilisées dans un data warehouse à des fins d’analyse. Le volume de données, les performances de la base de données et les coûts du stockage jouent un rôle important dans le choix de la solution de stockage adaptée.

Diagramme qui montre la différence entre un data warehouse et un lac de données

Data warehouse et datamart

Un datamart est une sous-section d’un data warehouse, partitionné spécifiquement pour un service ou un secteur d’activité, comme les ventes, le marketing ou la finance. Certains datamarts sont également créés à des fins opérationnelles autonomes. Alors qu’un data warehouse sert de magasin de données central pour l’ensemble de l’entreprise, un datamart utilise des données pertinentes à un groupe d’utilisateurs désigné. Ces utilisateurs peuvent alors accéder plus facilement aux données, accélérer leurs analyses et contrôler leurs propres données. Plusieurs datamarts sont souvent déployés dans un data warehouse.

Diagramme d'un data mart et de son fonctionnement


Quels sont les composants clés d’un data warehouse ?

Un data warehouse classique comporte quatre composants principaux : une base de données centrale, des outils ETL (extraction, transformation, chargement), des métadonnées et des outils d’accès. Tous ces composants sont conçus pour être rapides afin de vous assurer d’obtenir rapidement des résultats et vous permettre d’analyser les données à la volée.

Diagramme montrant les composants d'un data warehouse

  1. Base de données centrale : une base de données sert de fondement à votre data warehouse. Depuis le départ, on utilisait essentiellement des bases de données relationnelles standard exécutées sur site ou dans le Cloud. Mais en raison du Big Data, du besoin d’une véritable performance en temps réel et d’une réduction drastique des coûts de la RAM, les bases de données in-memory sont en train de monter en puissance.
  2. Intégration des données : les données sont extraites des systèmes source et modifiées pour aligner les informations afin qu’elles puissent être rapidement utilisées à des fins analytiques à l’aide de différentes approches d’intégration des données telles que l’ETL (extraction, transformation, chargement) et les services de réplication de données en temps réel, de traitement en masse, de transformation des données et de qualité et d’enrichissement des données.
  3. Métadonnées : les métadonnées sont des données relatives à vos données. Elles indiquent la source, l’utilisation, les valeurs et d’autres fonctionnalités des ensembles de données présents dans votre data warehouse. Il existe des métadonnées de gestion, qui ajoutent du contexte à vos données, et des métadonnées techniques, qui décrivent comment accéder aux données, définissent leur emplacement ainsi que leur structure.
  4. Outils d’accès du data warehouse : les outils d’accès permettent aux utilisateurs d’interagir avec les données de votre data warehouse. Exemples d’outils d’accès : outils de requête et de reporting, outils de développement d’applications, outils d’exploration de données et outils OLAP.

Architecture de data warehouse 

Auparavant, les data warehouse fonctionnaient par couches, lesquelles correspondaient au flux des données de gestion.

Diagramme de l'architecture d'un data warehouse

Couche de données

Les données sont extraites de vos sources, puis transformées et chargées dans le niveau inférieur à l’aide des outils ETL. Le niveau inférieur comprend votre serveur de base de données, les datamarts et les lacs de données. Les métadonnées sont créées à ce niveau et les outils d’intégration des données, tels que la virtualisation des données, sont utilisés pour combiner et agréger les données en toute transparence.

Couche sémantique

Au niveau intermédiaire, les serveurs OLAP (Online Analytical Processing) et OLTP (Online Transaction Processing) restructurent les données pour favoriser des requêtes et des analyses rapides et complexes.

Couche analytique

Le niveau supérieur est la couche du client frontend. Il contient les outils d’accès du data warehouse qui permettent aux utilisateurs d’interagir avec les données, de créer des tableaux de bord et des rapports, de suivre les KPI, d’explorer et d’analyser les données, de créer des applications, etc. Ce niveau inclut souvent un workbench  ou une zone de test pour l’exploration des données et le développement de nouveaux modèles de données.

Un data warehouse standard comprend les trois couches définies ci-dessus. Aujourd’hui, les entrepôts de données modernes combinent OLTP et OLAP dans un seul système.

Les data warehouse, conçus pour faciliter la prise de décision, ont été essentiellement créés et gérés par les équipes informatiques. Néanmoins, ces dernières années, ils ont évolué pour renforcer l’autonomie des utilisateurs fonctionnels, réduisant ainsi leur dépendance aux équipes informatiques pour accéder aux données et obtenir des informations exploitables. Parmi les fonctionnalités clés d’entreposage de données qui ont permis de renforcer l’autonomie des utilisateurs fonctionnels, on retrouve les suivantes :

  1. La couche sémantique ou de gestion fournit des expressions en langage naturel et permet à tout le monde de comprendre instantanément les données, de définir des relations entre les éléments dans le modèle de données et d’enrichir les zones de données avec de nouvelles informations.
  2. Les espaces de travail virtuels permettent aux équipes de regrouper les connexions et modèles de données dans un lieu sécurisé et géré, afin de mieux collaborer au sein d’un espace commun, avec un ensemble de données commun.
  3. Le Cloud a encore amélioré la prise de décision en permettant aux employés de disposer d’un large éventail d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.

 

The Future of Analytics Has Arrived

Click the button below to load the content from YouTube.

The Future of Analytics Has Arrived

Kate Wright, responsable de la Business Intelligence augmentée chez SAP, évoque la valeur d’un data warehouse Cloud moderne.


Les 7 principaux avantages d’un data warehouse Cloud  

Les data warehouse Cloud gagnent en popularité, à juste titre. Ces entrepôts modernes offrent plusieurs avantages par rapport aux versions sur site traditionnelles. Voici les sept principaux avantages d’un data warehouse Cloud :

  1. Déploiement rapide : grâce à l’entreposage de données Cloud, vous pouvez acquérir une puissance de calcul et un stockage de données presque illimités en quelques clics seulement, et créer votre propre data warehouse, datamarts et systèmes de test en quelques minutes.
  2. Faible coût total de possession (TCO) : les modèles de tarification du data warehouse en tant que service (DWaaS) sont établis de sorte que vous payez uniquement les ressources dont vous avez besoin, lorsque vous en avez besoin. Vous n’avez pas besoin de prévoir vos besoins à long terme ou de payer pour d’autres traitements tout au long de l’année. Vous pouvez également éviter les coûts initiaux tels que le matériel coûteux, les salles de serveurs et le personnel de maintenance. Séparer les coûts du stockage des coûts informatiques vous permet également de réduire les dépenses.
  3. Élasticité : un data warehouse Cloud vous permet d’ajuster vos capacités à la hausse ou à la baisse selon vos besoins. Le Cloud offre un environnement virtualisé et hautement distribué capable de gérer d’immenses volumes de données qui peuvent diminuer ou augmenter.
  4. Sécurité et restauration après sinistre : dans de nombreux cas, les data warehouse Cloud apportent une sécurité des données et un chiffrage plus forts que les entrepôts sur site. Les données sont également automatiquement dupliquées et sauvegardées, ce qui vous permet de minimiser le risque de perte de données.
  5. Technologies en temps réel : les data warehouse Cloud basés sur la technologie de base de données in-memory présentent des vitesses de traitement des données extrêmement rapides, offrant ainsi des données en temps réel et une connaissance instantanée de la situation.
  6. Nouvelles technologies : les data warehouse Cloud vous permettent d’intégrer facilement de nouvelles technologies telles que l’apprentissage automatique, qui peuvent fournir une expérience guidée aux utilisateurs fonctionnels et une aide décisionnelle sous la forme de suggestions de questions à poser, par exemple.
  7. Plus grande autonomie des utilisateurs fonctionnels : les data warehouse Cloud offrent aux employés, de manière globale et uniforme, une vue unique sur les données issues de nombreuses sources et un vaste ensemble d’outils et de fonctionnalités pour effectuer facilement des tâches d’analyse des données. Ils peuvent connecter de nouvelles applications et de nouvelles sources de données sans avoir besoin de faire appel aux équipes informatiques.
Capture d'écran de la solution SAP Data Warehouse Cloud
L’entreposage de données prend en charge l’analyse complète des dépenses de l’entreprise par service, fournisseur, région et statut, pour n’en citer que quelques-unes.

Meilleures pratiques concernant l’entreposage des données

Pour atteindre vos objectifs et économiser du temps et de l’argent, il est recommandé de suivre certaines étapes éprouvées lors de la création d’un data warehouse ou l’ajout de nouvelles applications à un entrepôt existant. Certaines sont axées sur votre activité tandis que d’autres s’inscrivent dans le cadre de votre programme informatique global. Vous pouvez commencer avec la liste de meilleures pratiques ci-dessous, mais vous en découvrirez d’autres au fil de vos collaborations avec vos partenaires technologiques et de services.

Meilleures pratiques métier

Meilleures pratiques informatiques

Définir les informations dont vous avez besoin. Une fois que vous aurez cerné vos besoins initiaux, vous serez en mesure de trouver les sources de données qui vous aideront à les combler. La plupart du temps, les groupes commerciaux, les clients et les fournisseurs auront des recommandations à vous faire. 

Surveiller la performance et la sécurité. Les informations de votre data warehouse sont certes précieuses, mais elles doivent quand même être facilement accessibles pour apporter de la valeur à l’entreprise. Surveillez attentivement l’utilisation du système pour vous assurer que les niveaux de performance sont élevés. 

Documenter l’emplacement, la structure et la qualité de vos données actuelles. Vous pouvez ensuite identifier les lacunes en matière de données et les règles de gestion pour transformer les données afin de répondre aux exigences de votre entrepôt.

Gérer les normes de qualité des données, les métadonnées, la structure et la gouvernance. De nouvelles sources de données précieuses sont régulièrement disponibles, mais nécessitent une gestion cohérente au sein d’un data warehouse. Suivez les procédures de nettoyage des données, de définition des métadonnées et de respect des normes de gouvernance.

Former une équipe. Cette équipe doit comprendre les dirigeants, les responsables et le personnel qui utiliseront et fourniront les informations. Par exemple, identifiez le reporting standard et les KPI dont ils ont besoin pour effectuer leurs tâches.

Fournir une architecture agile. Plus vos unités d’affaires et d’entreprise utiliseront les données, plus vos besoins en matière de datamarts et d’entrepôts augmenteront. Une plate-forme flexible s’avérera bien plus utile qu’un produit limité et restrictif. 

Hiérarchiser vos applications de data warehouse. Sélectionnez un ou deux projets pilotes présentant des exigences raisonnables et une bonne valeur commerciale.

Automatiser les processus tels que la maintenance. Outre la valeur ajoutée apportée à la Business Intelligence, l’apprentissage automatique peut automatiser les fonctions de gestion technique du data warehouse pour maintenir la vitesse et réduire les coûts d’exploitation.

Choisir un partenaire technologique compétent pour l’entrepôt de données. Ce dernier doit offrir les services d’implémentation et l’expérience dont vous avez besoin pour la réalisation de vos projets. Assurez-vous qu’il puisse répondre à vos besoins en déploiement, y compris les services Cloud et les options sur site. 

Utiliser le Cloud de manière stratégique. Les unités d’affaires et les services ont des besoins en déploiement différents. Utilisez des systèmes sur site si nécessaire et misez sur des data warehouse Cloud pour bénéficier d’une évolutivité, d’une réduction des coûts et d’un accès sur téléphone et tablette.  

Développer un bon plan de projet. Travaillez avec votre équipe sur un plan et un calendrier réalistes qui rendent possible les communications et le reporting de statut.


En résumé 

Les data warehouse modernes, et, de plus en plus, les data warehouse Cloud, constitueront un élément clé de toute initiative de transformation numérique pour les entreprises mères et leurs unités d’affaires. Les data warehouse exploitent les systèmes de gestion actuels, en particulier lorsque vous combinez des données issues de plusieurs systèmes internes avec de nouvelles informations importantes provenant d’organisations externes.

Les tableaux de bord, les indicateurs de performance clés, les alertes et le reporting répondent aux exigences des cadres dirigeants, de la direction et du personnel, ainsi qu’aux besoins des clients et des fournisseurs importants. Les data warehouse fournissent également des outils d’exploration et d’analyse de données rapides et complexes, et n’ont pas d’impact sur les performances des autres systèmes de gestion.


Pictogramme qui représente un entrepôt de données

Découvrez la solution SAP Data Warehouse Cloud

Unifiez vos données et analyses pour prendre des décisions avisées et obtenir la flexibilité nécessaire pour un contrôle efficace des coûts, notamment grâce à un paiement selon l’utilisation.

En savoir plus


Publié en anglais sur insights.sap.com

The post Qu’est-ce qu’un Data Warehouse ? appeared first on SAP France News.

Source de l’article sur sap.com

Novo Mesto est une petite ville slovène située sur le coude pittoresque de la rivière Krka. Cette ville, dont l’origine remonte à la préhistoire, a toujours su gérer intelligemment ses ressources. L’idée d’assurer aux génération futures un environnement propre est profondément ancrée dans l’état d’esprit collectif. Les citoyens et les touristes peuvent se baigner dans la rivière en plein centre-ville.

« Nous ne sommes ni les premiers ni les derniers à vivre sur cette planète », déclare l’adjoint au maire de la ville, Bostjan Grobler. « Devenir une ville intelligente n’est pas un objectif en soi. L’objectif est de préserver la santé de nos citoyens et la salubrité de notre environnement afin d’offrir des emplois durables et des espaces de vie attrayants. La technologie nous aide à y parvenir. »

L’air pur comme point de départ

Comme beaucoup d’autres villes en Europe, Novo Mesto lutte depuis dix ans contre la pollution atmosphérique.

Celle-ci est particulièrement élevée en hiver, où les mesures font souvent état de particules de suie qui dépassent plusieurs fois par semaine les limites de matières particulaires (PM) fixées par l’Union européenne à 40 microgrammes par mètre cube. Il existe différents types de matières particulaires. Les matières les plus fréquemment mesurées sont des particules en suspension d’un diamètre de 10 microns ou moins, appelées PM10. Pour vous donner une idée, un micron est un millionième d’un mètre et un cheveu humain a une épaisseur d’environ 75 microns.

Selon l’Organisation mondiale de la santé (OMS), le niveau de PM10 doit être inférieur à 20 microgrammes par mètre cube. La ville allemande de Mannheim, par exemple, enregistre une moyenne annuelle de 22 microgrammes, contre 27 à Novo Mesto. Même si ces moyennes sont faibles en comparaison de Shanghai, qui avoisine les 84, elles peuvent entraîner des maladies cardiaques et pulmonaires ainsi qu’une irritation des voies respiratoires, en particulier lorsqu’elles dépassent 40 microgrammes.

Novo Mesto affichait des niveaux élevés de PM10 année après année, mais les dirigeants municipaux ne savaient pas comment y remédier.

« Il était évident que nous devions agir », explique Peter Gersic, responsable du développement de projets pour la municipalité de Novo Mesto, « car la pollution atmosphérique ne disparaît pas toute seule. Mais en toute honnêteté, nous ne savions que faire de ces données. »

Après quelques recherches, la municipalité s’est adressée à SAP et Telekom Slovénie. Juraj Kovac, un analyste de Telekom doué de l’expertise technique adéquate pour mettre en œuvre des solutions de ville intelligente, nous a expliqué le fonctionnement de la solution. Des capteurs ont été installés dans toute la ville pour recueillir des données non seulement sur la pollution atmosphérique, mais aussi sur d’autres indicateurs environnementaux importants, notamment l’utilisation de l’eau et la pollution lumineuse.

« Nous utilisons SAP Leonardo pour collecter les données et SAP Analytics pour les analyser », explique Juraj Kovac. « Toutes nos plateformes IdO s’exécutent sur SAP Cloud Platform. Les données sont utilisées par la municipalité pour prendre des décisions opérationnelles et par les citoyens qui utilisent des applications mobiles, par exemple pour trouver des places de stationnement. »

Améliorer la vie urbaine

L’adjoint au maire comprend désormais que la gestion des ressources de la ville n’est pas uniquement une affaire d’État. Il s’agit d’aider les citoyens à revoir leur mode de vie. « Si nous voulons que les gens prennent moins leur voiture, nous devons leur offrir des alternatives comme les transports publics et les pistes cyclables », déclare Bostjan Grobler. « Il ne suffit pas de motiver les gens à acheter des véhicules électriques. Nous devons veiller à ce qu’ils puissent facilement les garer et les recharger. ».

Ce que Novo Mesto souhaite réaliser à petite échelle grâce à la technologie intelligente existe déjà dans plusieurs villes du monde. Depuis les bâtiments écologiques et la collecte des déchets basée sur des capteurs, jusqu’au développement des transports publics et des services municipaux en ligne, les villes intelligentes révolutionnent la vie urbaine.

La ville de New York, par exemple, a été nommée ville la plus intelligente au monde pendant deux années consécutives notamment pour son recours à un système de relevé automatisé permettant de mieux comprendre comment ses 8,5 millions d’habitants utilisent 1 milliard de gallons d’eau chaque jour. La ville de Londres, qui arrive deuxième au classement, a été récompensée pour son système de transport collectif et ses politiques d’urbanisme.

La Commission de transport de Toronto utilise la technologie SAP pour optimiser la visibilité des processus et la communication pour le personnel œuvrant dans les transports en commun de la ville. La technologie IdO de SAP aide la ville d’Antibes à mieux gérer ses ressources en eau. La ville de Nanjing utilise les capteurs de circulation de SAP pour développer une culture plus écologique et plus humaniste.

Grâce à son utilisation visionnaire de la technologie pour assurer l’attractivité et la durabilité de la ville, Novo Mesto prouve que toute ville, quelle que soit sa taille, peut être une référence pour les générations à venir en matière de qualité de vie urbaine.

Publié en anglais sur Forbes.com

The post Devenir une ville intelligente n’est pas un objectif, c’est un mode de vie appeared first on SAP France News.

Source de l’article sur sap.com

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com

Les données jouent un rôle clé dans le fonctionnement des entreprises. Il est donc essentiel de leur donner du sens et de déterminer leur pertinence parmi la multitude d’informations générées par les systèmes et technologies qui soutiennent nos économies mondiales hautement connectées. Les données sont omniprésentes, mais inutiles en tant que telles. Pour exploiter toutes les formes de données et les utiliser de manière pratique et efficace dans les chaînes logistiques, les réseaux d’employés, les écosystèmes de clients et de partenaires, etc., les entreprises doivent mettre en œuvre une stratégie, une gouvernance et un modèle de data management performants.

Qu’est-ce que le data management (ou gestion des données) ? Le data management consiste à collecter, organiser et accéder aux données en vue d’améliorer la productivité, l’efficacité et la prise de décision. Compte tenu de l’importance accrue des données, il est essentiel que toute entreprise, indépendamment de sa taille et de son secteur d’activité, mette en place un système moderne et une stratégie efficace de data management.

Petite infographie qui illustre les principaux éléments du data management

Le processus de data management comprend un large éventail de tâches et de procédures. Par exemple :

  • Collecte, traitement, validation et stockage des données
  • Intégration de différents types de données émanant de sources disparates, notamment des données structurées et non structurées
  • Haute disponibilité des données et restauration après sinistre
  • Gestion de l’utilisation des données et de l’accès aux données par les collaborateurs et les applications
  • Protection et sécurisation des données en garantissant leur confidentialité

Pourquoi le data management est-il important ?

Les applications, solutions analytiques et algorithmes utilisés dans une entreprise (c’est-à-dire les règles et les processus associés au moyen desquels les ordinateurs résolvent les problèmes et exécutent les tâches) reposent sur un accès transparent aux données. Fondamentalement, un système de data management permet de garantir la sécurité, la disponibilité et l’exactitude des données. Mais ses avantages ne s’arrêtent pas là.

Transformer le Big Data en actif à forte valeur ajoutée

Les données trop volumineuses peuvent être inutiles, voire nuisibles, si elles ne sont pas gérées de manière appropriée. Toutefois, avec les outils adéquats, les entreprises peuvent exploiter le Big Data pour enrichir plus que jamais les renseignements dont elles disposent et améliorer leurs capacités prévisionnelles. Le Big Data peut les aider à mieux comprendre les attentes de leurs clients et à leur offrir une expérience exceptionnelle. L’analyse et l’interprétation du Big Data permet également de mettre en place de nouveaux modèles de gestion axés sur les données, tels que les offres de services basées sur l’Internet des Objets (IoT) en temps réel et les données de capteurs.

163 zettaoctets de données en 2025 (IDC)

80 % des données mondiales seront non structurées en 2025 (IDC)

Les Big Data sont des ensembles de données extrêmement volumineux, souvent caractérisés par les cinq V : le volume de données collectées, la variété des types de données, la vitesse à laquelle les données sont générées, la véracité des données et leur valeur.

Il est bien connu que les entreprises pilotées par les données disposent d’un avantage concurrentiel majeur. En utilisant des outils avancés, les entreprises peuvent gérer des volumes de données plus importants provenant de sources plus diversifiées que jamais. Elles peuvent aussi exploiter des données très variées, structurées et non structurées ou en temps réel, notamment les données des dispositifs IoT, les fichiers audio et vidéo, les données du parcours de navigation sur Internet et les commentaires sur les réseaux sociaux, ce qui leur offre davantage de possibilités de monétiser les données et de les utiliser comme véritable actif.

Créer une infrastructure de données qui favorise la transformation numérique

On dit souvent que les données sont le moteur de la transformation numérique. L’intelligence artificielle (IA), le machine learning, l’Industrie 4.0, les analyses avancées, l’Internet des Objets et l’automatisation intelligente requièrent d’énormes volumes de données ponctuelles, exactes et sécurisées.

L’importance des données et des technologies axées sur les données n’a fait que se renforcer depuis l’apparition de la COVID-19. De nombreuses entreprises ressentent le besoin urgent d’exploiter leurs données de manière plus efficace pour prévoir les événements à venir, réagir rapidement et intégrer la résilience dans leurs plans et modèles de gestion.

Le machine learning, par exemple, requiert des ensembles de données extrêmement volumineux et diversifiés pour « apprendre », identifier des modèles complexes, résoudre les problèmes et assurer la mise à jour et l’exécution efficace des modèles et algorithmes. Les analyses avancées (qui exploitent souvent l’apprentissage automatique) requièrent également de gros volumes de données de haute qualité pour pouvoir générer des informations pertinentes et exploitables qui puissent être utilisées en toute confiance. Quant à l’IoT et l’IoT industriel, ils s’exécutent sur un flux constant de données de machines et capteurs à 1,6 millions de kilomètres par minute.

Les données sont le dénominateur commun de tout projet de transformation numérique. Pour transformer leurs processus, tirer parti des nouvelles technologies et devenir intelligentes, les entreprises doivent disposer d’une infrastructure de données solide. En résumé, d’un système de data management moderne.

« La survie de toute entreprise dépendra d’une architecture agile centrée sur les données, capable de s’adapter au rythme constant du changement. »

Donald Feinberg, vice-président de Gartner

Garantir la conformité aux lois en matière de confidentialité des données

Une gestion appropriée des données est également essentielle pour garantir la conformité aux lois nationales et internationales en matière de confidentialité des données, telles que le Règlement général sur la protection des données (RGPD) et la loi californienne sur la protection de la vie privée des consommateurs (California Consumer Privacy Act ou « CCPA ») aux États-Unis, et répondre aux exigences de confidentialité et de sécurité spécifiques du secteur. En outre, il est essentiel de mettre en place des politiques et procédures solides en matière de data management pour satisfaire aux exigences d’audit.


Systèmes et composants du data management

Les systèmes de data management reposent sur des plates-formes et intègrent une combinaison de composants et processus qui vous aident à tirer profit de vos données. Il peut s’agir de systèmes de gestion de base de données, d’entrepôts de données, de lacs de données, d’outils d’intégration de données, d’outils analytiques, etc.

Systèmes de gestion de base de données (SGBD)

Il existe différents types de systèmes de gestion de base de données. Les systèmes les plus courants sont les systèmes de gestion de base de données relationnelle (SGBDR), les systèmes de gestion de base de données orientée objet (SGBDOO), les bases de données in-memory et les bases de données en colonnes.

Petite infographie des différents types de systèmes de gestion de base de données

  • Système de Gestion de Base de Données Relationnelle (SGBDR) :il s’agit d’un système qui contient des définitions de données permettant aux programmes et aux systèmes d’extraction de référencer les éléments de données par nom, plutôt que de décrire à chaque fois la structure et l’emplacement des données. En fonction du modèle relationnel, le système SGBDR gère également les relations entre les éléments de données qui améliorent l’accès et empêchent les doublons. Par exemple, la définition et les caractéristiques de base d’un élément sont stockées une seule fois et liées aux lignes de détail des commandes clients et aux tables de détermination du prix.
  • Système de Gestion de Base de Données Orientée Objet (SGBDOO) :il s’agit d’une approche différente de la définition et du stockage de données, développée et utilisée par les développeurs de systèmes de programmation orientée objet (SPOO). Les données sont stockées en tant qu’objets, entités autonomes et auto-décrites, plutôt que dans des tables à l’image du système SGBDR.
  • Base de données in-memory :une base de données in-memory (BDIM) stocke les données dans la mémoire principale (RAM) d’un ordinateur, plutôt que sur un lecteur de disque. L’extraction des données étant beaucoup plus rapide qu’à partir d’un système basé sur disque, les bases de données in-memory sont couramment utilisées par les applications qui exigent des temps de réponse rapides. Par exemple, les données qu’il fallait auparavant compiler dans un rapport sont désormais accessibles et peuvent être analysées en quelques minutes, voire quelques secondes.
  • Base de données en colonnes : une base de données en colonnes stocke des groupes de données liées (une « colonne » d’informations) pour y accéder plus rapidement. Cette base de données est utilisée dans les applications de gestion in-memory modernes et dans de nombreuses applications d’entrepôt de données autonomes dans lesquelles la vitesse d’extraction (d’un éventail de données limité) est importante.

Entrepôts et lacs de données

  • Entrepôt de données :un entrepôt de données est un référentiel central de données cumulées à partir de différentes sources à des fins de reporting et d’analyse.
  • Lac de données :un lac de données est un vaste pool de données stockées dans leur format brut ou naturel. Les lacs de données sont généralement utilisés pour stocker le Big Data, y compris les données structurées, non structurées et semi-structurées.

Gestion des données de base (MDM)

La gestion des données de base est une discipline qui consiste à créer une référence de base fiable (référence unique) de toutes les données de gestion importantes, telles que les données produit, les données client, les données d’actifs, les données financières, etc. Elle garantit que l’entreprise n’utilise pas plusieurs versions potentiellement incohérentes des données dans ses différentes activités, y compris dans les processus, les opérations, l’analyse et le reporting. La consolidation des données, la gouvernance des données et la gestion de la qualité des données constituent les trois piliers clés d’une gestion des données de base efficace.

« Une discipline basée sur la technologie dans laquelle l’entreprise et l’organisation informatique collaborent pour garantir l’uniformité, la précision, l’administration, la cohérence sémantique et la responsabilité des ressources de données de base partagées officielles de l’entreprise. »

Définition de la gestion des données de base par Gartner

Gestion du Big Data

De nouveaux types de bases de données et d’outils ont été développés pour gérer le Big Data : d’énormes volumes de données structurées, non structurées et semi-structurées inondent les entreprises aujourd’hui. Outre les infrastructures basées sur le Cloud et les techniques de traitement hautement efficaces mises en place pour gérer le volume et la vitesse, de nouvelles approches ont vu le jour pour interpréter et gérer la variété de données. Pour que les outils de data management puissent comprendre et utiliser différents types de données non structurées, par exemple, de nouveaux processus de prétraitement permettent d’identifier et de classer les éléments de données en vue de faciliter leur stockage et leur extraction.

Intégration des données

L’intégration des données consiste à intégrer, transformer, combiner et mettre à disposition les données à l’endroit et au moment où les utilisateurs en ont besoin. Cette intégration s’effectue dans l’entreprise et au-delà, chez les partenaires et dans les cas d’utilisation et les sources de données tierces, pour répondre aux besoins de consommation de données de toutes les applications et de tous les processus de gestion. Les techniques utilisées incluent le déplacement des données en masse/par lots, l’extraction, la transformation, le chargement (ETL), la capture des données de modification, la réplication des données, la virtualisation des données, l’intégration des données de streaming, l’orchestration des données, etc.

Gouvernance, sécurité et conformité des données

La gouvernance des données est un ensemble de règles et de responsabilités visant à garantir la disponibilité, la qualité, la conformité et la sécurité des données dans toute l’organisation. Elle définit l’infrastructure et désigne les collaborateurs (ou postes) au sein d’une organisation dotés du pouvoir et de la responsabilité nécessaires pour assurer le traitement et la sauvegarde de types de données spécifiques. La gouvernance des données est un aspect clé de la conformité. Alors que les mécanismes de stockage, de traitement et de sécurité sont gérés par les systèmes, la gouvernance des collaborateurs permet de s’assurer que les données sont exactes, correctement gérées et protégées avant d’être entrées dans les systèmes, lorsqu’elles sont utilisées, puis lorsqu’elles sont extraites des systèmes à d’autres fins d’utilisation et de stockage. La gouvernance détermine comment les responsables utilisent les processus et les technologies pour gérer et protéger les données.

La sécurité des données est bien évidemment une préoccupation majeure dans notre monde actuel constamment menacé par les pirates informatiques, les virus, les cyberattaques et les violations de données. Bien que la sécurité soit intégrée dans les systèmes et les applications, la gouvernance des données garantit que ces systèmes sont correctement configurés et administrés pour protéger les données, et que les procédures et les responsabilités sont appliquées pour assurer leur protection en dehors des systèmes et de la base de données.

Business Intelligence et analyses

La plupart des systèmes de data management, sinon tous, incluent des outils de reporting et d’extraction des données de base, et beaucoup d’entre eux intègrent ou sont fournis avec de puissantes applications d’extraction, d’analyses et de reporting. Les applications d’analyses et de reporting sont également disponibles auprès de développeurs tiers et sont presque toujours incluses dans le groupe d’applications en tant que fonctionnalité standard ou en tant que module complémentaire facultatif pour des fonctionnalités plus avancées.

La puissance des systèmes de data management actuels réside, dans une large mesure, dans les outils d’extraction ad hoc qui permettent aux utilisateurs disposant d’un minimum de formation de créer leurs propres extractions de données à l’écran et d’imprimer des rapports en bénéficiant d’une grande flexibilité dans la mise en forme, les calculs, les tris et les résumés. En outre, les professionnels peuvent utiliser ces outils ou des jeux d’outils d’analyses plus avancés pour aller encore plus loin en termes de calculs, comparaisons, mathématiques abstraites et mises en forme. Les nouvelles applications analytiques permettent de relier les bases de données traditionnelles, les entrepôts de données et les lacs de données pour intégrer le Big Data aux données des applications de gestion en vue d’améliorer les prévisions, les analyses et la planification.


Qu’est-ce qu’une stratégie de gestion des données d’entreprise et quelle est son utilité ?

De nombreuses entreprises se sont montrées passives dans leur approche de stratégie de data management en acceptant ce que leur fournisseur d’applications de gestion avait intégré dans leurs systèmes. Mais cela ne suffit plus. Avec l’explosion actuelle des données et leur importance accrue dans le fonctionnement de toute entreprise, il devient indispensable d’adopter une approche plus proactive et plus globale du data management. D’un point de vue pratique, cela implique de définir une stratégie des données visant à :

  • identifier les types de données spécifiques utiles à votre entreprise ;
  • attribuer des responsabilités pour chaque type de données ; et
  • définir des procédures régissant l’acquisition, la collecte et la gestion de ces données.

La mise en œuvre d’une infrastructure et d’une stratégie de gestion des données d’entreprise offre notamment l’avantage de fédérer l’entreprise, en coordonnant toutes les activités et décisions à l’appui de ses objectifs, à savoir offrir des produits et des services de qualité de manière efficace. Une stratégie globale de data management et une intégration transparente des données permettent de décloisonner les informations. Elles aident chaque service, responsable et employé à mieux comprendre sa contribution individuelle à la réussite de l’entreprise, et à adopter des décisions et des actions alignées sur ces objectifs.


Évolution du data management

La gestion efficace des données joue un rôle clé dans la réussite des entreprises depuis plus de 50 ans : elle permet d’améliorer la précision du reporting, de repérer les tendances et de prendre de meilleures décisions pour favoriser la transformation numérique et exploiter les nouvelles technologies et les nouveaux modèles de gestion. Les données représentent aujourd’hui une nouvelle forme de capital et les organisations visionnaires sont toujours à l’affût de nouveaux moyens de les exploiter à leur avantage. Ces dernières tendances en matière de data management méritent d’être surveillées et peuvent être pertinentes pour votre entreprise et votre secteur d’activité :

  • Structure de données : la plupart des entreprises disposent aujourd’hui de différents types de données déployées sur site et dans le Cloud, et utilisent plusieurs systèmes de gestion de bases de données, outils et technologies de traitement. Une structure de données, qui est une combinaison personnalisée d’architecture et de technologie, utilise une intégration et une orchestration dynamiques des données pour permettre un accès et un partage transparents des données dans un environnement distribué.
  • Data management dans le Cloud :de nombreuses entreprises se sont mises à migrer tout ou partie de leur plateforme de gestion des données dans le Cloud. Le data management dans le Cloud offre tous les avantages du Cloud, notamment l’évolutivité, la sécurité avancée des données, l’amélioration de l’accès aux données, les sauvegardes automatisées et la restauration après sinistre, les économies de coûts, etc. Les solutions de base de données Cloud et base de données en tant que service (DBaaS), les entrepôts de données Cloud et les lacs de données Cloud montent en puissance.
  • Data management augmenté :c’est l’une des dernières tendances. Identifiée par Gartner comme une technologie au potentiel perturbateur d’ici 2022, la gestion des données augmentée exploite l’IA et l’apprentissage automatique pour donner aux processus de gestion la capacité de s’autoconfigurer et s’autorégler. Le data management augmenté automatise tout, de la qualité des données et de la gestion des données de base jusqu’à l’intégration des données, ce qui permet au personnel technique qualifié de se concentrer sur des tâches à plus forte valeur ajoutée.

« D’ici 2022, les tâches manuelles de data management seront réduites de 45 % grâce à l’apprentissage automatique et à la gestion automatisée des niveaux de service. »

Gartner

  • Analyse augmentée : l’analyse augmentée, une autre tendance technologique de pointe identifiée par Gartner, est en train d’émerger. L’analyse augmentée exploite l’intelligence artificielle, l’apprentissage automatique et le traitement du langage naturel (TLN) pour rechercher automatiquement les informations les plus importantes, mais aussi pour démocratiser l’accès aux analyses avancées afin que tous les collaborateurs, et pas uniquement les experts en Big Data, puissent interroger leurs données et obtenir des réponses d’une manière naturelle et conversationnelle.

Découvrez d’autres termes et tendances en matière de data management.


Synthèse

L’information est dérivée des données et si elle synonyme de pouvoir, cela signifie que la gestion et l’exploitation efficaces de vos données pourraient représenter une formidable opportunité de croissance pour votre entreprise. Les responsabilités en matière de data management et le rôle des analystes de bases de données (DBA) évoluent vers un modèle d’agent du changement, qui favorise l’adoption du Cloud, exploite les nouvelles tendances et technologies et apporte une valeur stratégique à l’entreprise.


Pictogramme qui représente un entrepôt de données

Solutions de data management et de bases de données

Découvrez comment SAP peut vous aider à gérer, administrer et intégrer vos données d’entreprise pour disposer d’analyses fiables et prendre des décisions avisées.

En savoir plus


Publié en anglais sur insights.sap.com

The post Qu’est-ce que le data management ? appeared first on SAP France News.

Source de l’article sur sap.com

Un an après l’annonce de la pandémie par l’Organisation mondiale de la santé, la COVID-19 fait toujours la une de l’actualité dans le monde. Fermeture des écoles, des universités et des jardins d’enfants, report ou annulation d’événements, interdictions de voyage, confinement de villes et de régions entières, chute des marchés mondiaux… Le coronavirus bouleverse notre quotidien et nous rappelle à quel point notre monde est volatil.

Parallèlement, les effets positifs de la pandémie sur l’environnement nous ont montré qu’il était possible d’agir rapidement. Les avions cloués au sol, la baisse de fréquentation sur les routes et la fermeture des usines ont fait chuter les émissions mondiales de dioxyde de carbone à des niveaux jamais atteints depuis 2006 lors du confinement d’avril 2020. Sept grandes villes internationales, dont New Delhi, São Paulo et New York, ont connu une réduction de 25 à 60 % des particules fines pendant cette période de confinement, selon IQAir. En Chine, la COVID-19 a fait chuter les émissions de CO2 de 200 millions de tonnes depuis le début de l’épidémie, ce qui équivaut à plus de 10 % des émissions mondiales.

Cela n’atténue en rien le coût humain de l’épidémie. Les décès, les mesures de quarantaine, les difficultés financières des entreprises et des ménages n’en sont que quelques-unes des conséquences. Dans le même temps, cette crise a mis en évidence le fait que nous pouvions agir massivement et rapidement en faveur du climat.

Nous sommes à un tournant. Selon les prévisions de l’Organisation météorologique mondiale, il y a 20 % de probabilité que les températures mondiales soient de 1,5 °C supérieures à la moyenne enregistrée à l’époque préindustrielle entre 2020 et 2024 au minimum pendant un an. Ce seuil de 1,5°C est le niveau de réchauffement climatique que les pays se sont engagés à contenir lors de l’Accord de Paris de 2015. Même si un nouveau pic annuel peut être suivi de plusieurs années de températures en moyenne plus douces, le non-respect de ce seuil serait une preuve supplémentaire que les mesures internationales de lutte contre le changement climatique ne fonctionnent pas.

Nous ne pouvons ni ignorer la pandémie et son impact, ni continuer à ignorer le changement climatique et la contribution de nos entreprises. Quatre-vingt-cinq pour cent des entreprises qui émettent le plus de CO2 utilisent SAP pour gérer leurs processus, ce qui représente une formidable opportunité. Les technologies numériques peuvent contribuer à réduire massivement les émissions de CO2 dans des secteurs majeurs tels que les services publics, l’agriculture et les transports. Ces réductions d’émissions pourraient potentiellement équivaloir à planter 500 milliards d’arbres. Imaginez l’impact si tous les secteurs agissaient ensemble !

Le développement durable combine la vision de l’entreprise intelligente et l’objectif de SAP de créer un monde meilleur et d’améliorer la vie des individus de la manière la plus naturelle qui soit. Il nous offre également une occasion unique de créer un impact durable et positif pour les générations futures. En 2009, SAP s’était engagée à ramener ses émissions de gaz à effet de serre à leurs niveaux de 2000 à l’horizon 2020. Nous avons atteint cet objectif deux ans plus tôt, tout en multipliant par quatre nos effectifs. Nous prenons l’engagement d’atteindre la carboneutralité d’ici 2025 et, malgré une forte croissance, nous sommes parvenus à réduire notre empreinte carbone nette au cours des cinq dernières années. Nous avons récemment été classés leader du secteur des logiciels dans les indices de durabilité du Dow Jones pour la 14ème année consécutive.

Nous poursuivons non seulement nos propres objectifs climatiques, mais nous voulons aider nos clients à repenser leur stratégie pour atteindre leurs objectifs de durabilité. Dans le cadre de la transition vers de nouveaux modèles de gestion durables, SAP dispose d’une équipe d’experts en solutions et services d’innovation qui aide les clients à surmonter les perturbations et à transformer leurs activités par le biais de l’innovation, grâce à des technologies intelligentes telles que l’Internet des Objets (IoT), l’apprentissage automatique, l’intelligence artificielle (IA), la technologie blockchain et l’analyse étendue des données.  Nous aidons les entreprises à suivre leurs émissions de CO2, des chaînes logistiques en amont jusqu’à la logistique en aval, y compris l’approvisionnement, les opérations et la fabrication.

Aujourd’hui, nous allons encore plus loin en développant des solutions qui permettent à nos clients de mesurer et de réduire leurs émissions dans l’intégralité de leur chaîne de valeur. Nous voulons intégrer la durabilité comme nouvelle dimension de réussite dans les applications analytiques et transactionnelles. Ou, comme le dit si justement mon collègue Thomas Saueressig : nous ajoutons une « ligne verte » au chiffre d’affaires et au résultat net pour mesurer la performance d’une entreprise.

En ce début d’année, nous procédons à des essais auprès de clients issus de secteurs tels que l’automobile, l’industrie des produits chimiques, l’industrie alimentaire et l’ingénierie. SAP Product Carbon Footprint Analytics est la première solution disponible sur le marché et notre client Doehler est le premier à l’adopter. D’autres solutions seront bientôt disponibles. Restez à l’écoute pour en savoir plus !

Nous voulons aider nos clients à repenser leur stratégie en matière de développement durable. Nous créons de la valeur en les aidant à atteindre leurs objectifs en matière d’émissions, et nous les aidons à prendre des décisions commerciales responsables tout en tenant compte de la durabilité. Nos clients pourront simuler les effets d’options d’investissement durable, de décisions opérationnelles et de la gestion des ressources naturelles et sociales, comme n’importe quelle autre ressource d’entreprise.

Avec ces mesures, SAP franchit un nouveau cap dans la transformation de ses clients en entreprises intelligentes durables, en prouvant que l’entreprise intelligente peut rendre la durabilité rentable et la rentabilité durable.

Christian Klein est le PDG de SAP.
Cet article est initialement paru sur LinkedIn.

The post Changement climatique : il est temps d’agir ! appeared first on SAP France News.

Source de l’article sur sap.com

Les risques croissants liés aux cybermenaces, à la protection des données et aux nouvelles lois sur la confidentialité poussent les entreprises leaders à identifier et mettre en place des mesures efficaces de limitation des risques.

Alors que votre entreprise s’engage dans la transformation numérique et transfère toujours plus d’applications vers le cloud, vous avez besoin d’une sécurité plus intelligente, automatisée et intégrée. SAP vous aide à atteindre ces objectifs avec les solutions SAP pour la cybersécurité et la protection des données. Ces solutions uniques considèrent en parallèle les transactions métier et les risques liés à la sécurité, et contribuent à la sécurité des données, propice à une confiance numérique durable.

Nos solutions vous aideront à :

  • Détecter et traiter les activités suspectes dans les environnements logiciels SAP®.
  • Analyser le langage de programmation ABAP® et le code source non-ABAP pour identifier les risques.
  • Effectuer une surveillance des systèmes et applications à gros volumes, avec alertes et outils analytiques, mais aussi intégration à d’autres outils de gestion des événements et des informations de sécurité (SIEM).
  • Assurer le contrôle de vos données et une transparence optimale dans les environnements de type Hyperscale (clouds publics).
  • Gérer et faciliter la sécurisation des données personnelles, en toute conformité, avec notamment des capacités liées au masquage et à la journalisation.

Invitation spéciale :

Rejoignez-moi, ainsi que mes collègues Evelyne Salie, Anne Marie Colombo et Wasif Gilani, pour obtenir des informations de SAP, mais aussi de notre invité spécial, Kevin Heckel de Deloitte, le 23 mars 2021, pour notre présentation intitulée « Cybermenaces, confidentialité et sécurité », proposée dans le cadre du sommet virtuel SAP Finance and Risk.

Nous évoquerons ces sujets et la façon dont les technologies SAP peuvent aider les professionnels de la sécurité, de la protection des données et de la confidentialité à transformer votre approche en matière d’automatisation et de conformité.

Wasif Gilani nous parlera d’une nouvelle solution incontournable : SAP Data Custodian.

Nous évoquerons également deux autres solutions : SAP Enterprise Threat Detection et notre tableau de bord de cybersécurité SAP Analytics Cloud (Arndt Lingscheid et Gabriele Fiata).

En somme, nous vous proposons 45 minutes particulièrement riches et intenses, axées sur la cybersécurité et la protection des données, et la présentation de multiples fonctionnalités absolument incontournables.

Nous sommes impatients de vous retrouver à l’occasion de cet événement virtuel unique !  Rendez-vous à 11 h (UTC-4) ou bien à la demande, une fois l’événement terminé.

Et en attendant, voici quelques suggestions :

Consultez ce document de deux pages consacré à la manière dont Deloitte a utilisé SAP Enterprise Threat Detection pour optimiser la surveillance des menaces de sécurité pour nombre de ses applications.

Accédez à notre dizaine de sessions à la demande pour bénéficier de présentations de produits approfondies et pour découvrir les nombreux cas dans lesquels SAP utilise ses propres solutions pour gérer les risques, automatiser des centaines de contrôles et effectuer ses propres programmes d’audit interne à travers l’entreprise. Inscrivez-vous pour regarder la session de votre choix et approfondir les domaines de la GRC (gouvernance, gestion des risques et conformité), de la gouvernance des accès, de la confidentialité et de la cybersécurité.

The post Adoptez une stratégie gagnante face aux cybermenaces et aux risques liés à la confidentialité et à la sécurité appeared first on SAP France News.

Source de l’article sur sap.com

Looking for something new to get you excited about design work? This list is packed with all kinds of goodies to help you feel inspired and ready to work.

Here’s what new for designers this month.

Top Picks for March

Same Energy

Same Energy, in beta, is a visual search engine. You can search with a minimum number of words or an image. The website is designed to help you find art, photography, decoration ideas, and practically anything. It uses deep learning and algorithms to create images on the home page, and you can create feeds in the same manner. The coolest part of this tool is that it tries to match the visual and artistic style you ask for with image mood and objects.

SVG Repo

SVG Repo is a collection of more than 300,000 SVG vectors and icons that you can download and use in projects for free (even commercial use). The site has a powerful search tool to help you find the right image, and the platform is designed so that you can contribute.

Penpot

Penpot is an open-source design and prototyping platform for cross-domain teams. It is a web-based tool that isn’t dependent on any operating system and works with open web standards. It’s designed to be zippy and interactive so your team can work fast.

Directual

Directual is a no-code platform for building scalable apps using a visual interface. (Perfect for designers with less development experience.) It includes integrations with other popular tools and is free to use while figuring out how the app works and how you can make it fit your business goals.

HTML Boilerplates

HTML Boilerplates helps you start web projects by generating a custom HTML boilerplate that you can download. Just choose the elements you want to include and then copy and paste the code into your editor.

6 Productivity Boosters

Rows

Rows is a spreadsheet tool with built-in web integrations that’s made for team collaboration. It works with other tools you already use, such as Google Analytics, Twitter, LinkedIn, Mailchimp, and so many others. Without scripts, you can use it to automate workflows, analyze data, share dashboards, and build forms and tools that make work simpler.

Form.Taxi

Form.taxi is a premium web-based form tool. You can create web forms without code or programming and connect them to your website. The tool then stores information, filters for spam, and notifies you of form submissions.

Verbz

Verbz is a voice productivity app that allows you to create notes, assign tasks, make announcements, run standups, or chat. Talk or type, listen or read. It works as your own voice assistant for teams. It’s available in Beta from the App Store, and there’s a waitlist for Android users.

Flameshot

Flameshot is a tool for grabbing screenshots. It has a customizable appearance, is easy to use, and lets you draw and edit screenshots as you work.

Kitemaker

Kitemaker is a collaboration tool for development processes. It can help you keep track of everything from tools such as Slack, Discord, Figma, and Github in one place. It helps you structure projects and keep discussions about work moving forward in one place.

This Code Works

This Code Works is a place to save code snippets that work for when you need them again. You can group and organize snippets and share with others. You might think of it as the “Pinterest of code.”

3 Icons and User Interface Elements

Sensa Emoji

Sensa Emoji is a collection of common emoji icons that you can use in your materials. Every element is fully vector and free to use.

Google Fonts Icons

Google Fonts now supports icons, starting with Material Icons. Choose between outlined, filled, rounded, sharp, or two-tone options in the open-source library.

Toolbox Neumorphism Generator

Toolbox Neumorphism Generator is a design tool that helps developers to generate CSS in the soft UI /neomorphism style for the elements with real-time output.

3 Tutorials and Demos

An Interactive Guide to CSS Transitions

An Interactive Guide to CSS Transitions explains everything you need to know about this great animation tool for website designers. This tutorial digs in with code and examples to help you create more polished animations and is designed for anyone from beginners to experienced designers with some pro tips throughout.

About Us Pop-Out Effect

The About Us Pop-Out Effect adds a special element to any team or contact page with a nifty pop animation. Each person seems to lift out of the circle frame in this pen by Mikael Ainalem.

Interactive Particles Text Create with Three.js

Interactive Particles Text Create with Three.js is a web element you could play with all day. Text shifts into particles and follows mouse movement in a fluid motion in the pen by Ricardo Sanprieto.

10 Fresh Fonts and Text Tools

Bitmap Fonts

Bitmap Fonts is a collection of various bitmap typefaces all pulled and stored in a single location. This is the perfect solution if you are looking for a bitmap option.

Uniwidth Typefaces

Uniwidth Typefaces for Interface Design is another collection of fonts for a specific purpose – here universal widths for interface design. Uniwidth fonts are proportionally-spaced typefaces where every character occupies the same space across different cuts or weights. This is both a tutorial on the type style as well as font collection.

Bubble Lemon

Bubble Lemon is a typeface for projects with a childlike feel. With an outline and regular style, the thick bubble letters look like some of the sketches you may have done in grade school.

Core Font

Core Font is an open-source project with a funky and modern style. It has a full upper- and lower-case character set, numerals, and a few punctuation marks.

GHEA Aram

GHEA Aram is a superfamily with a Central European flair, according to the type designer. The premium typeface includes everything from light to black italic and even some Armenian ligatures.

Make Wonderful Moments Duo

Make Wonderful Moments Duo is a script and sans serif font pair with a lighthearted feel and highly readable character set. The regular (sans serif) only has uppercase characters.

Ribheud

Ribheud is a slab-style display font with a heavy look and strong presence. What makes it interesting is the left-outline/shadow on each character.

Rose Knight

Rose Knight has an old-style feel that can take on multiple moods, depending on supporting design elements. All of the characters are uppercase with alternates. It could make a fun branding option.

The Glester

The Glester is a beautiful premium typeface in a calligraphic style. The most interesting element of this typeface is all of the extra decorations that allow you to change individual characters (380 glyph alternates).

Velatus

Velatus is a vintage-style typeface with plenty of swashes and flourishes that make it unique. It comes with 157 characters and 96 glyphs.

Source

The post 27 Exciting New Tools For Designers, March 2021 first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Advertising knows you better than your friends, better than your family, perhaps even better than your partner.

Look up pizza recipes, and advertising will show you promotions for pizza ovens. Download a marathon training plan, and advertising will show you the latest running shoes. Buy a car, and advertising will show you adverts for other cars because no system’s perfect.

Advertising does this with a simple trick: it watches you constantly. It’s watching you right now. The web is one giant machine for making money, and you’re the fuel.

On the one hand, advertising’s insidious invasion of our privacy is enough to make you paranoid; on the other hand, I really love my pizza oven.

The largest facilitator of advertising on the web is Google Ads — reportedly worth $134.8 billion per annum; it’s Alphabet Inc’s primary source of revenue.

Last year, Google Ads announced that it would be ending its reliance on third-party cookies for delivering targeted advertising as part of a wider industry trend towards greater privacy protection for individuals. This week, we received more details confirming that Google Ads will not replace third-party cookies with comparable tracking technology.

Google Ads intends to maintain relevant advertising, without user tracking, by anonymizing your identity within a crowd. The technical term is a Federated Learning of Cohorts (FLoC), essentially Asimov’s Psychohistory, in capitalist form, some 45,000 years before Hari Seldon is due to be born.

In simplistic terms, someone who buys a pair of running shoes can reasonably be expected to be interested in GPS watches. The complexity arises when grouping becomes more complex: people who watch Netflix on a Tuesday evening purchase a particular soup brand and read the Washington Post, for example. The system requires billions of groupings that are too complex to express in English. And yet Google claims to already be making some progress.

As with any fledgling technology, the implications of its widespread adoption are unclear. FLoC is Chrome-based, so there’s the looming specter of a monopoly. Then there’s the issue of how groups are built; does Google need individual tracking to generate crowds of individuals? It’s unclear, but what is clear is that if Google succeeds — and it’s likely that it will — other networks will have no choice but to follow suit. It seems inevitable that there will be a wide-ranging impact across not just advertising but analytics and marketing as a whole.

The back door that’s being held open is one-to-one relationships. If you visit a site, that site can attempt to entice you back with targeted advertising. This means the next few years will see a growth in the number of companies developing ongoing relationships in the form of newsletters and memberships.

How ever it plays out, a fundamental change to the system that funds most of the web is certain to have a long-term impact on day-to-day user experience.

 

Featured image via Pexels.

Source

The post Google’s FLoC Promises a Radically Different Web first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot