Articles

The fourth edition of MUXL (Mobile UX London) conference kicks off on the 21st of March, and you could win one of four free passes to the five-day digital event.

Running from the 21st of March to 25th, MUXL is a digital festival of UX and design, entirely online, meaning you can attend remotely from anywhere in the world.

The digital festival is themed around design systems, human-centered design, service designing the future, and UX psychology. MUXL features talks and live panels Q&A Monday – Wednesday, interactive workshops taking place on Thursday and Friday, with global networking opportunities throughout.

Speakers include senior UX researchers, managers, design strategists, and designers at companies including Google, IBM, Microsoft, Disney, and more…

MUXL is an excellent opportunity for UX designers of all levels to improve their skillset, make connections, and find inspiration.

Tickets are available now, but we have four Festival Passes to give away, and all you have to do to be in with a chance of winning is make sure you’re signed up for our weekly newsletter before the 14th of March. And don’t worry if you’re already a subscriber, you’ll be automatically entered into the draw.

We’ll select four winners at random on the 14th of March. Good luck!

 

Featured image via Pexels.

Source

The post Competition: Win One of Four Free Online Passes to MUXL first appeared on Webdesigner Depot.

Source de l’article sur Webdesignerdepot

IBM et SAP renforcent leur partenariat afin d’aider leurs clients à migrer les applications des solutions SAP® vers le Cloud

IBM est le premier partenaire à proposer une infrastructure Cloud et des services techniques managés de manière intégrée dans le cadre de l’offre RISE with SAP

 

ARMONK, N.Y. et Walldorf, Allemagne, le 10 février 2022 : IBM (NYSE: IBM) a annoncé aujourd’hui qu’elle s’associait avec SAP (NYSE : SAP) pour fournir une expertise en matière de technologie et de conseil afin de permettre aux clients d’adopter plus facilement une approche Cloud hybride et de migrer les applications critiques des solutions SAP® vers le Cloud pour les secteurs réglementés et non réglementés.

Alors que les clients cherchent à adopter des stratégies de Cloud hybride, la migration des applications qui constituent l’épine dorsale du fonctionnement de leur entreprise nécessite un environnement Cloud hautement sécurisé et fiable. Avec le lancement aujourd’hui de l’option IBM – Premium Supplier pour RISE with SAP, les clients disposeront des outils nécessaires pour accélérer la migration de leurs applications SAP en local vers IBM Cloud, avec des capacités de sécurité de pointe[1].

IBM dévoile également un nouveau programme, BREAKTHROUGH with IBM pour RISE with SAP, un portefeuille de solutions et de services de conseil qui permettent d’accélérer et d’amplifier le passage à SAP S/4HANA® Cloud. Construits sur une plateforme flexible et évolutive, les solutions et services utilisent des processus intelligents pour rationaliser les opérations. Ils offrent un modèle d’engagement qui permet de planifier, d’exécuter et de soutenir la transformation globale de l’entreprise. Les clients ont également la flexibilité et le choix de migrer les applications des solutions SAP vers le Cloud en bénéficiant d’une expertise sectorielle approfondie.

L’annonce faite aujourd’hui qu’IBM devient un premium supplier fait de la compagnie le premier fournisseur Cloud à proposer des services d’infrastructure, de transformation métier et de gestion technique des applications de manière intégrée dans le cadre de RISE with SAP. La désignation d’IBM en tant que premium supplier s’inscrit dans la continuité des efforts de longue date déployés par SAP pour offrir un choix et des options aux clients, en soutenant davantage les clients d’IBM qui préfèrent que leur package RISE with SAP s’exécute sur IBM Cloud.

De plus, la migration vers SAP S/4HANA® sur IBM Cloud à partir de datacenters en local peut potentiellement apporter les avantages suivants, selon une étude d’IDC, sponsorisée par IBM[2] :

  • Retour sur investissement : selon les utilisateurs interrogés, la migration vers SAP S/4HANA® sur IBM Cloud a entraîné une augmentation du chiffre d’affaires pour jusqu’à 90 % des entreprises qui ont effectué la transition.
  • Réduction des coûts : Plus de 80 % des organisations ayant participé à l’étude ont déclaré avoir constaté une réduction des coûts opérationnels.
  • Une productivité accrue : 9 entreprises sur 10 interrogées dans l’étude ont déclaré avoir amélioré leur productivité après avoir migré vers SAP S/4HANA® sur IBM Cloud.

« Nous sommes ravis de faire progresser notre partenariat de longue date avec SAP à travers RISE », a déclaré John Granger, Senior Vice President, IBM Consulting. « Notre engagement commun est de répondre à nos clients, notamment ceux des secteurs hautement réglementés, là où ils en sont dans leur parcours numérique, tout en leur offrant des choix pour migrer ou moderniser leurs applications critiques avec une approche de Cloud hybride. »

« BREAKTHROUGH with IBM est un complément exceptionnel à RISE with SAP, car il jette les bases permettant à nos clients de se lancer dans la transformation de leur entreprise ou de la faire progresser. En outre, il réaffirme la valeur que les clients reconnaissent à RISE with SAP ainsi que l’impact et l’opportunité d’innovation que RISE with SAP offre aux organisations qui migrent vers le Cloud. Je suis convaincu que l’expertise et l’expérience combinées de SAP et d’IBM permettront d’accélérer l’adoption du Cloud et la croissance des activités pour les clients du monde entier », a déclaré Brian Duffy, President of Cloud, SAP.

IBM et SAP ont travaillé avec des centaines de clients dans le monde entier sur des milliers de projets individuels visant à moderniser leurs systèmes et leurs processus métier sur la base d’une approche Cloud hybride ouverte. Parmi les exemples récents, citons Coca-Cola European Partners, Parle Products, Harmont & Blaine, Puravankara Ltd et Virgin Megastore KSA.

Soulignant son engagement envers SAP S/4HANA®, à la fois en tant que client SAP et partenaire commercial depuis 50 ans, IBM a également réalisé un investissement important dans RISE with SAP en engageant la transformation de ses propres applications SAP. IBM est un nouveau Premium Supplier pour l’offre RISE with SAP et utilise le Cloud hybride d’IBM, y compris l’Infrastructure as a Service IBM Power, afin d’améliorer les performances, la disponibilité et la sécurité des déploiements d’éditions privées de SAP S/4HANA® Cloud.

Pour en savoir plus sur le programme BREAKTHROUGH with IBM pour l’offre RISE with SAP : https://www.ibm.com/services/sap/rise-with-sap.

 

À propos d’IBM

IBM est un leader mondial du Cloud hybride et de l’IA, ainsi que des services aux entreprises, qui aide ses clients dans plus de 175 pays à capitaliser sur les connaissances issues de leurs données, à rationaliser leurs processus métier, à réduire leurs coûts et à acquérir un avantage concurrentiel dans leurs secteurs d’activité. Près de 3 000 entités gouvernementales et entreprises dans des domaines d’infrastructures critiques tels que les services financiers, les télécommunications et les soins de santé font confiance à la plateforme Cloud hybride d’IBM et à Red Hat OpenShift pour impacter leurs transformations numériques rapidement, efficacement et en toute sécurité. Les innovations révolutionnaires d’IBM en matière d’IA, d’informatique quantique, de solutions Cloud spécifiques à certains secteurs et de services aux entreprises offrent des options ouvertes et flexibles à nos clients. Tout cela est soutenu par l’engagement légendaire d’IBM en matière de confiance, de transparence, de responsabilité, d’inclusivité et de service.

Pour en savoir plus : www.ibm.com

Les déclarations d’IBM concernant ses orientations et intentions futures sont sujettes à modification ou retrait sans préavis et ne représentent que des buts et des objectifs.

 

À propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en « entreprise intelligente ». En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : Les clients de SAP génèrent 87 % du commerce mondial total. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com.

[1] Based on IBM Hyper Protect Crypto Service, the only service in the industry built on FIPS 140-2 Level 4-certified hardware. FIPS 140-2 Security Level 4 provides the highest level of security defined in this standard. At this security level, the physical security mechanisms provide a comprehensive envelope of protection around the cryptographic module with the intent of detecting and responding to all unauthorized attempts at physical access.

[2]  IDC White Paper, sponsored by IBM, Business Benefits Possible by Choosing the Right Cloud Provider to Run SAP Workloads. Doc #US47166220, December 2020.

 

The post IBM et SAP renforcent leur partenariat afin d’aider leurs clients à migrer les applications des solutions SAP® vers le Cloud appeared first on SAP France News.

Source de l’article sur sap.com


SQL is the only 22nd century tool available in 21st century

Here are the previous articles comparing architecture, database objects, data types, and data modeling of Oracle with Couchbase. This will focus on SQL support.  

Oracle was the first and staunch supporter of SQL. Oracle’s SQL implementation beat IBM to market by two years.  That changed the fortune of one or two people. :-) All of the modern relational databases implement SQL. So much so, the relational databases are sometimes called SQL databases, much to the chagrin of C. J. Date.  Nations are known by their languages… English, French, and American(!). It’s not a stretch for a class of database systems to be known by their languages as well.  SQL has been so effective, many big data and non-relational systems have picked up SQL as the lingua franca. SQL is here to stay, even for NoSQL systems. 

Source de l’article sur DZONE

Après avoir adopté l’ERP SAP S/4HANA, METEX NØØVISTAGO a souhaité améliorer son processus d’élaboration budgétaire. Une tâche confiée à SAP Analytics Cloud Planning, déployé par le Groupe KPC.

METEX NØØVISTAGO est un acteur industriel à la pointe de la bio-industrie.L’entreprise produit des ingrédients fonctionnels (principalement des acides aminées à ce jour) par fermentation pour le marché de la nutrition animale et bientôt de la cosmétique : 1 usine, 100KT d’acide aminées par an, 200M€ de CA annuel, et 350 salariés.

En juin 2020, METEX NØØVISTAGO a déployé un nouveau système d’information en mode greenfield, comprenant l’ERP intelligent SAP S/4HANA, un data warehouse SAP BW/4HANA et l’outil d’analyse de données SAP Analytics Cloud. « Un changement de taille pour METEX NØØVISTAGO,qui avait travaillé pendant 35 ans sur IBM AS/400 », explique Paul Stoffaes, DSI de l’entreprise.

Reste un processus qui n’avait pas été refondu : la planification budgétaire. « Le processus de forecast était réalisé sur Excel, ce qui était long, laborieux et source de nombreuses erreurs. Le contrôle de gestion passait plus de temps à consolider les données qu’à les analyser. Quant au processus d’élaboration budgétaire, il était encore plus fastidieux ».

METEX NØØVISTAGO a donc décidé de mettre en place une solution capable de livrer des prévisions au mois, à l’année et sur plusieurs années, avec une agilité permettant l’intégration aisée de nouveaux produits ou de nouveaux processus. L’objectif est de libérer du temps au contrôle de gestion, afin qu’il puisse se focaliser sur son cœur de métier, l’analyse et le pilotage.

SAP Analytics Cloud Planning déployé sur l’élaboration budgétaire

La société a confié la modélisation de son processus à l’un des modules de SAP Analytics Cloud, le module de Planning. « L’utilisation de SAP Analytics Cloud Planning permet de faciliter l’intégration avec l’ERP SAP S/4HANA, constate Paul Stoffaes. Il y a également une certaine logique à l’utiliser, car nos collaborateurs connaissent déjà SAP Analytics Cloud dans le cadre de la Business Intelligence. »

Le déploiement de la brique Planning de SAP Analytics Cloud a été confié à KPC : « Ils ont bien compris nos enjeux et ont su proposer un déroulé de projet et une méthodologie adaptés, ainsi qu’un chiffrage lisible. Leur capacité à s’engager au forfait sur un planning serré a également été une des raisons du choix de KPC. » METEX NØØVISTAGO avait en effet fixé comme contrainte une réalisation du projet dans un délai restreint de 5 mois.

Le cœur fonctionnel de la solution mise en place est un P&L présenté par produit, accompagné de plusieurs modèles de simulation. Chaque équipe dispose de son propre accès à la solution, afin d’y faire remonter ses données et prévisions : commerciaux, production, achats, logistique… Les informations sont synchronisées chaque jour – dans les deux sens – entre les référentiels SAP S/4HANA, SAP BW/4HANA et SAP Analytics Cloud, au travers de SAP Data Hub.

Voici le détail du processus mis en place :

  • L’équipe de vente fait remonter ses informations : volumes, prix, commissions…
  • L’équipe en charge des achats définit les prix moyens pondérés.
  • L’équipe de production travaille en parallèle sur la définition des nomenclatures.
  • Le contrôle de gestion pilote l’ensemble du processus, en intervenant lorsque nécessaire.

Un projet réussi, qui renforce l’adoption de SAP Analytics Cloud

« De notre point de vue, le projet est une réussite, résume Paul Stoffaes. Il a été mené à bien dans les délais, avec un budget maîtrisé. KPC a su faire preuve d’une solide expertise fonctionnelle et technique. Nous avions séparé le projet sous forme de lots, permettant de dispatcher les livrables tout au long du développement, ce qui s’est avéré très confortable. »

Quels bénéfices a identifié METEX NØØVISTAGO?

  • Des gains de productivité, avec une réduction de la durée du processus et une plus grande autonomie des parties prenantes.
  • Des gains en fiabilité, les données étant extraites puis remontées directement depuis et vers l’ERP SAP S/4HANA.
  • Des gains de flexibilité : « Auparavant, évaluer chacune des hypothèses pouvait tourner rapidement au cauchemar. Aujourd’hui, nous sommes beaucoup plus sereins. »

Le tout avec comme résultat global une amélioration des prévisions. Mais aussi un bénéfice inattendu : un intérêt renouvelé des collaborateurs pour SAP Analytics Cloud. « L’utilisation de SAP Analytics Cloud Planning a poussé certains utilisateurs à se pencher sur SAP Analytics Cloud BI », confirme Paul Stoffaes. La DSI s’attendait à une adoption rapide de SAP Analytics Cloud Planning par les utilisateurs de SAP Analytics Cloud BI. La fertilisation a finalement aussi été constatée dans l’autre sens !

The post L’industriel METEX NØØVISTAGO s’appuie sur SAP Analytics Cloud Planning pour son élaboration budgétaire appeared first on SAP France News.

Source de l’article sur sap.com


Learn how to set up a GPU-enabled virtual server instance (VSI) on a Virtual Private Cloud (VPC) and deploy RAPIDS using IBM Schematics.

The GPU-enabled family of profiles provides on-demand, cost-effective access to NVIDIA GPUs. GPUs help to accelerate the processing time required for compute-intensive workloads, such as artificial intelligence (AI), machine learning, inferencing, and more. To use the GPUs, you need the appropriate toolchain – such as CUDA (an acronym for Compute Unified Device Architecture) – ready.

Let’s start with a simple question.

Source de l’article sur DZONE

You can expose your app to the public by setting up a Kubernetes LoadBalancer service in your IBM Cloud Kubernetes Service cluster. When you expose your app, a Load Balancer for VPC that routes requests to your app is automatically created for you in your VPC outside of your cluster.

In this post, you will provision an IBM Cloud Kubernetes Service cluster spanning two private subnets (each subnet in a different zone), deploy an application using a container image stored in an IBM Cloud Container Registry and expose the app via a VPC load balancer deployed to a public subnet in a different zone. Sound complex? Don’t worry, you will provision and deploy the app using Terraform scripts.

Source de l’article sur DZONE

 

“Cette initiative est née de notre profonde conviction que les entreprises, quelle que soit l’industrie, peuvent tirer parti du partage d’experiences.”

 

Il est ingénieur de formation, issu de Polytech’Nice-Sophia. Elle est diplômée en mathématiques appliquées et a validé une thèse en théorie de l’optimisation. Ils mènent leur carrière dans de grandes entreprises technologiques internationales. Et dirigent le Industrial Council of Artificial Intelligence Research (ICAIR). Olena Kushakovska (SAP) et Jean-Michel Sauvage (Amadeus) pilotent ensemble ICAIR depuis 2020. Ils ont une ambition claire pour l’organisation : accélérer le travail sur l’IA en mettant l’accent sur le développement durable. A l’occasion du 1er SAP Sustainability Summit, la directrice générale de SAP Labs France et le directeur R&D pour les solutions Revenue Management d’Amadeus se sont prêtés au jeu de l’interview croisée pour nous donner leur vision de l’IA durable.

  1. Quels sont les principaux avantages de l’IA dans votre secteur ?

Olena Kushakovska : Chez SAP, nous permettons à nos clients de devenir des entreprises intelligentes, d’utiliser les données pour bâtir des entreprises plus performantes, plus résilientes, plus rentables, plus agiles et plus durables. Nous mettons tout en œuvre pour que la réalité de l’entreprise intelligente soit pleinement intégrée avec les fonctionnalités d’Intelligence Artificielle.

Jean-Michel Sauvage : L’IA est une technologie majeure qui offre la meilleure utilisation possible des données et fournit un service plus performant, plus efficace, prévisible, personnalisé et à plus forte valeur ajoutée sur l’ensemble de la chaîne.

  1. Quand, pourquoi et comment vous êtes-vous engagé avec ICAIR ?

Olena : Amadeus et SAP sont membres fondateurs de ICAIR. La décision d’aller de l’avant a été prise entre Gilles Floyrac et moi il y a environ 2 ans. Gilles était le président d’Amadeus Nice à l’époque et la région Côte d’Azur venait de décrocher le label 3IA. Son idée était que les entreprises conduisent l’agenda industriel parallèlement au monde universitaire. Plus de 60 entreprises de la zone ont soutenu le projet 3IA. Nous avons contacté les entreprises que nous pensions intéressées (ex. IBM, ARM, NXP, Thales Alenia Space, Orange) et le “Club” est né. La réunion de mise en place entre les responsables de site pour sceller le club s’est tenue chez Amadeus puis la 1ère session de travail a eu lieu chez SAP en juin 2019.

Jean-Michel : Les techniques d’IA n’étant pas spécifiques à la résolution d’un problème, cette initiative est motivée par la forte conviction que les entreprises, même lorsqu’elles travaillent dans différents secteurs, peuvent bénéficier de l’apprentissage et du partage d’expériences sur les défis auxquels elles sont confrontées sur des problèmes techniques similaires.

« Nous nous efforçons d’utiliser l’IA de manière durable et d’atteindre les objectifs de durabilité de l’ONU au sein du secteur. » Olena KUSHAKOVSKA

  1. Qu’est-ce qui est spécial avec ICAIR ?

Jean-Michel : ICAIR se concentre sur la recherche appliquée, et à ce titre, est un moyen de lier la recherche fondamentale et les résultats académiques à leur application dans un environnement industriel.

Olena : ICAIR est à taille humaine, agile, diversifié, industriel, pratico-pratique, avec des cas d’utilisation réels. Des entreprises leaders dans le monde composent le conseil. Pour autant, il y a un faible niveau d’administration, une faible bureaucratie, mais beaucoup de bonne volonté et un grand écosystème. La bienveillance et le soutien sont sans faille, et l’implication continue !

  1. Pourquoi avoir choisi l’IA durable comme thème du programme ICAIR ? 

Jean-Michel : L’IA s’accompagne de défis, tant en termes de technologie, de puissance de calcul, que de biais d’apprentissage, ou de décisions humainement explicables. Nous pensons que l’IA peut être conçue et utilisée de manière durable et apporter de la valeur d’une manière qui respecte la planète et les communautés.

Olena : On questionne souvent l’IA en termes écologique ou éthique. Nous voulons envisager la durabilité dans un contexte beaucoup plus large, celui des objectifs de durabilité des Nations Unies. La durabilité s’entend comme la capacité de notre génération à atteindre ses objectifs, sans compromettre la capacité de la génération future à atteindre les leurs. Et ce, par rapport à toutes les ressources : naturelles, humaines, économiques. Nos efforts se concentrent sur l’IA durable pour atteindre les objectifs des Nations Unies au sein de l’industrie.

  1. Quel est le champ d’application d’ICAIR ?

Jean-Michel : ICAIR a été pensé de telle sorte que des chercheurs d’entreprises de Sophia Antipolis hébergeant des laboratoires de recherche travaillant dans différents contextes industriels, et sur différents sujets, puissent discuter et échanger leurs points de vue sur des questions communes liées à l’utilisation de l’IA dans leurs industries respectives.

Olena : Notre objectif est de travailler sur des projets communs et d’échanger sur les meilleures pratiques en matière d’apprentissage automatique et d’intelligence artificielle. Cela permettra de faire progresser les recherches en matière d’IA. Enfin, nous comptons utiliser notre puissance commune pour promouvoir la Côte d’Azur en tant que berceau de l’IA durable.

  1. Qu’est-ce qui vous motive personnellement ?

Olena : Ma volonté est de promouvoir notre grande collaboration, dans l’écosystème incroyablement riche sur le plan technologique et intellectuel de la Côte d’Azur, en montrant à nos maisons-mères que cet endroit est vraiment exceptionnel, et y développer une véritable communauté autour de l’IA. Je veux aussi que la France et l’Europe obtiennent la place qu’elles méritent dans le monde en ce qui concerne l’IA, en veillant à ce que l’IA soit utilisée à bon escient, que la Côte d’Azur soit identifiée comme l’endroit idéal pour l’IA durable, et enfin que les gens ne craignent plus l’IA.

Jean-Michel : Je suis un passionné d’aviation et d’informatique. Heureusement pour moi, les voyages et l’aviation en particulier sont des domaines pleins de défis combinatoires, très complexes à résoudre et à optimiser. Chez Amadeus, nous sommes déjà pleinement engagés dans le déploiement de l’IA. Nous sommes également engagés depuis de nombreuses années dans le développement de systèmes ouverts et interopérables, car nous pensons que c’est en combinant les meilleurs services « atomiques » que nous apporterons une plus grande valeur ajoutée à nos clients, à l’industrie du voyage et aux voyageurs. Mais nous savons aussi que, comme toute évolution de ce genre, elle a besoin de temps, d’expérience, de tests et d’apprentissage. L’IA s’accompagne de nombreuses questions et défis sans réponse. Avec ICAIR, nous faisons partie de l’apprentissage, de l’enseignement, et nous voulons y répondre de la bonne manière.

 

 

 

Les membres sont des entreprises internationales avec des sites sur la Côte d’Azur et menant des recherches en IA :

  • Accenture,
  • ACRI-ST,
  • AIRFRANCE KLM,
  • Amadeus,
  • ARM,
  • Hewlett Packard Enterprise,
  • IBM,
  • NXP Semiconductors,
  • Orange,
  • Renault Software Labs,
  • SAP Labs France,
  • STMicroelectronics,
  • Thales Alenia Space.

Le programme touche l’ensemble de l’écosystème du label 3IA de la Côte d’Azur :

  • Académiques : Institut 3IA, UCA (Université Côte d’Azur), Ecoles, Centres de Recherche
  • Secteurs d’activité : ICAIR, ClusterIA
  • Institutions : MIA, OTESIA, EuropIA
  • Associations : Telecom Valley, Pôle SCS

Des initiatives liées à l’IA lancées par ces acteurs soutiennent la dynamique territoriale de la Côte d’Azur. Elles se rapportent aux objectifs de développement durable des Nations unies et constituent le champ d’application du programme « IA durable ».

En savoir plus : ICAIR – Industrial Council of Artificial Intelligence Research

The post SAP et Amadeus pilotent le conseil industriel pour la recherche en intelligence artificielle appeared first on SAP France News.

Source de l’article sur sap.com

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com

Hybrid cloud architectures are the new black for most companies. A cloud-first is obvious for many, but legacy infrastructure must be maintained, integrated, and (maybe) replaced over time. Event Streaming with the Apache Kafka ecosystem is a perfect technology for building hybrid replication in real-time at scale.

App Modernization and Streaming Replication With Apache Kafka at Bayer

Most enterprises require a reliable and scalable integration between legacy systems such as IBM Mainframe, Oracle, SAP ERP, and modern cloud-native applications like Snowflake, MongoDB Atlas, or AWS Lambda.

Source de l’article sur DZONE

I’ve got 20+ years of professional experience, and every single place I have worked, I have seen the same anti pattern recurring over and over again. And the « pattern » is as follows; Every single problem has dozens of solutions to choose from. Of course, nobody has the muscles to maintain these solutions, so all solutions ends up becoming sub-optimal, and arguably creates more problems than they fix. It doesn’t matter who you work for, the pattern can be found everywhere; Microsoft, IBM, Google and « John Doe Software Consulting ». This is such a big problem it’s got its own « slogan », which is as follows.

Not invented here syndrom

Source de l’article sur DZONE