Articles

Dans un marché très concurrencé et post Covid, la gestion et la distribution de matériel médical est en pleine transformation. Les ambitions de Quipment, premier fournisseur d’équipements médicaux pour les laboratoires du monde entier, s’incarnent sur plusieurs aspects dont celui de faire évoluer ses processus métiers ainsi que ses outils.

Paris, le 15 décembre 2022. SAP, leader du marché des logiciels d’application d’entreprise, accompagne Quipment, acteur mondial de la fourniture de matériel médical pour les essais cliniques, dans le choix de leur nouvel ERP.

Avec des processus et des normes internationales de plus en plus complexes et exigeantes, mais aussi face à des volumes industriels, Quipment pourra désormais s’appuyer sur RISE S/4HANA Public Cloud pour automatiser tous ses processus métiers, de la Finance à la comptabilité, en passant par la gestion des stocks, la maintenance et la configuration de ces matériels, et ce dans plusieurs pays.

L’adoption de la solution permettra une digitalisation du Système d’Information pour anticiper les changements de business model – Quipment souhaitant aller toujours plus loin dans l’économie circulaire. Elle permettra également d’assurer un accompagnement adapté à la croissance de Quipment. La startup pourra enfin bénéficier de la simplicité d’usage grâce aux processus standardisés du dispositif SAP.

Ce partenariat a été rendu possible par la capacité des équipes Grow by SAP – un programme d’accélération pour les entreprises à forte croissance – à répondre à l’ensemble des besoins de Quipment, de leur proposer un accompagnement sur-mesure pour assurer aux équipes une adoption optimale et leur permettre de répondre à la demande croissante du marché. La proposition de valeur de Grow by SAP permet d’accélérer l’activité de Quipment de la manière la plus durable et efficace qui soit grâce à une solution SaaS et à un ensemble de mesures couvrant notamment le Marketing, la Finance, le Growth hacking, etc.

Aussi, l’association de SAP et WYNSYS, l’un des partenaires les plus performants de SAP, permet à la startup de restructurer ses processus et de profiter pleinement des avantages de la solution dans le Cloud.

Pierre Malingrey, Président et cofondateur de Quipment précise :  « La robustesse de la solution Rise S/4HANA nous a convaincu pour venir répondre à nos objectifs d’automatisation. Cela va permettre à Quipment de réaliser les gains d’efficacité significatifs et nous permettre de maintenir notre avance sur ce marché en phase d’industrialisation. Au-delà de cette efficience, la solution RISE S/4HANA va doter Quipment de gains capacitaires très importants pour absorber les volumes croissants de notre marché.

Lahcen Binoumar, Head of Middle Market chez SAP France déclare : « Collaborer avec une startup comme Quipment est une opportunité exceptionnelle pour SAP de démontrer les capacités et la flexibilité de ses solutions. Le secteur de l’approvisionnement des produits médicaux et de laboratoire répond à une exigence intrinsèque à Quipment que SAP et WYNSYS ont à cœur de soutenir. Notre solution permettra ainsi à Quipment de conforter sa position de leader sur son marché et de continuer à se développer à l’international, tout en modernisant ses processus. »

 

A propos de Quipment

Quipment est une entreprise française qui fournit et déploie du matériel médical dans le monde entier pour permettre à l’industrie pharmaceutique de valider des nouvelles thérapies en développement. Le matériel, déployé dans plus de 40 000 hôpitaux et plus de 110 pays, permet de suivre l’évolution de la santé de cohortes de patients sous traitement, et ainsi de valider et quantifier les bénéfices thérapeutiques des nouveaux traitements en cours de développement. Quipment permet de déployer des études cliniques de manière plus rapide, plus fiable, plus flexible et moins coûteuse, permettant ainsi à la recherche d’apporter plus rapidement et à moindre coût des nouveaux traitements aux patients. Avec 150 salariés et des centres logistiques aux Etats Unis, en Europe et au Japon, Quipment est le leader mondial de ce marché. Quipment est particulièrement sensible aux enjeux de responsabilité d’entreprise et agit avec une conscience très forte de ses impacts dans ses choix et sa gouvernance.

Pour plus d’informations, visitez : https://www.quipment.fr/

The post SAP accompagne Quipment grâce à RISE S/4HANA Public Cloud appeared first on SAP France News.

Source de l’article sur sap.com

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com

Dans des moments comme celui-ci, la raison d’être n’est pas seulement un mot, c’est une responsabilité. Chez SAP, nous tirons parti de nos ressources et de notre réseau pour des solutions pragmatiques et innovantes, sur la base de valeurs et d’un objectif communs, mais nous vivons également notre raison d’être à travers nos propres actions pour aider le monde à mieux fonctionner et améliorer la vie des gens.

 

Les employés et les équipes de l’entreprise se sont engagés de manière utile pour répondre à la crise actuelle et montrer que l’objectif est de vivre au-delà des revenus et des bénéfices. En mettant l’accent sur la santé, le bien-être, la main-d’œuvre qualifiée et la promotion de l’entrepreneuriat social et inclusif, notre raison d’être ne répond pas seulement aux objectifs de développement durable des Nations Unies (ODD des Nations Unies), mais permet également de prendre soin des personnes dont nous nous soucions le plus.
Les employés de SAP dans les pays nordiques et au Royaume-Uni ont développé diverses idées sur la manière de se soutenir mutuellement pendant la pandémie – en tant que collègues, clients, partenaires ou bénévoles pour les personnes dans le besoin. Que ce soit pour un usage interne, local ou international, leur aide ainsi que leur créativité n’ont pas connu de frontières.
Poussé par l’envie de renforcer sa communauté locale Ottershaw, l’employé de SAP Mark French a puisé dans son expérience et son savoir-faire technique et a créé un site Web qui relie les personnes dans le besoin avec des voisins et des bénévoles. Grâce à www.ottershawsupport.com , chaque résident peut s’inscrire facilement pour obtenir de l’aide ou en donner, en recueillant des ordonnances, en faisant les achats essentiels ou en fournissant une assistance et des informations par téléphone.
Un autre exemple de dévouement sans limite a été la mise en place par un autre collègue de SAP qui a soutenu l’idée de son ami de longue date et artiste graffeur Keith Hopewell ( SP: zéro ). SP:zero voulait créer une pièce de collaboration sous forme d’illustrations avec des artistes du monde entier, démontrant la croissance du virus sous son titre « Spread art, not the ‘Rrona ». Ils se sont vite rendu compte que cette collaboration pouvait également apporter une aide financière.
«J’ai eu l’idée de vendre les tirages et de les donner aux hôpitaux britanniques qui nous soutiennent», explique Jago Livingstone. Sous le nom de «No Toys Allowed», il a conçu une boutique en ligne pour faciliter l’accès à leurs dons de charité. Les résultats ont été étonnants : de plus en plus d’artistes se sont impliqués, avec un pic à 163 artistes dans 21 pays sur tous les continents.
Les employés de SAP dans les pays nordiques et baltes ont utilisé leur créativité pour promouvoir la santé, le bien-être et l’inséparabilité, malgré la distance sociale. Vingt-deux collègues SAP d’une équipe de prévente ont livré une vidéo thématique en tant que contribution du Nordic Customer Solution Advisory à un événement à venir sur le thème «We Rise Up». La vidéo révèle une histoire personnelle sur la façon dont ils gèrent la situation actuelle et sur la façon dont chaque individu « se relève » ensemble pour ses collègues, clients et partenaires.
«Parce que c’est ce que nous faisons en ces temps difficiles, c’est dans notre ADN», dit Gitte Winther Bruhn, résumant l’essence de leur idée et montrant une fois de plus que chacun peut agir pour le bien commun, même avec les actions les plus simples.

Article posté pour la première fois en anglais sur news.sap.com

The post Les employés SAP face à la crise du Covid19 appeared first on SAP France News.

Source de l’article sur sap.com

WALLDORF, Allemagne – 18 juin 2020SAP SE (NYSE : SAP) a annoncé aujourd’hui de nouvelles capacités, des améliorations et une plus grande unification du portefeuille Business Technology Platform pour aider les entreprises à transformer les données en valeur commerciale.

La plateforme technologique de SAP permet aux développeurs et aux utilisateurs d’accéder à des services et des outils intégrés de bout en bout pour réaliser une valeur ajoutée dans trois domaines essentiels de l’informatique : l’excellence des données, l’intégration des processus et leur extension.

L’annonce a été faite lors de la conférence SAPPHIRE NOW® Converge, qui se tient en ligne du 15 au 19 juin 2020.

« De nombreux clients avec lesquels j’ai échangé ont exprimé le besoin d’agilité et de rapidité d’exécution, rendu encore plus urgent par la pandémie COVID-19 », a déclaré Juergen Mueller, CTO et membre du conseil d’administration de SAP. « Pour réaliser ces deux objectifs, la technologie devient encore plus importante, et SAP peut aider à relever ces défis. Nous avons apporté des améliorations significatives à chaque composante majeure de notre plate-forme technologique pour aider les clients de tous les secteurs à surmonter les obstacles liés à l’omniprésence des données, à la complexité des technologies de l’information et à la volatilité des affaires ».

Des organisations telles que Parkland Health and Hospital System à Dallas utilisent la SAP Business Technology Platform combinée à la Qualtrics® XM Platform pour la gestion de l’expérience ainsi que prédire l’activité et les ressources nécessaires pour l’accueil et le suivi des patients, un besoin critique pendant la crise COVID-19.

« À Parkland, nous nous consacrons à la santé et au bien-être des individus et des communautés que nous adressons en fixant la norme d’excellence pour les systèmes de santé publics et universitaires », a déclaré Scott Harrison, directeur des données du système de santé et des hôpitaux de Parkland. « Notre personnel clinique utilise des tableaux de bord numériqiues construits avec la Business Technology Platform de SAP pour l’analyse et la planification, et la plate-forme Qualtrics XM pour l’analyse des sentiments. Nous estimons qu’un socle technologique totalement intégré est essentiel pour les plus de 240 000 patients des urgences que nous soignons chaque année, et pour soutenir notre croissance et nos innovations futures ».

L’unité commerciale Henkel Adhesive Technologies, leader mondial des adhésifs, des mastics et des revêtements fonctionnels, met au point une application pour ses quelques 4 500 représentants commerciaux, basée sur la SAP Business Technology Platform. « Nous voulons créer un environnement de travail numérique moderne et efficace, en augmentant la vitesse et l’efficacité des activités de vente et en renforçant ainsi l’expérience des clients dans le monde entier », a déclaré Sascha Latzberg, Directeur Sales & Channel Excellence CRM chez Henkel Adhesive Technologies. « Notre plateforme numérique CRM nous permet d’être rapides et flexibles et accroît l’indépendance des représentants commerciaux qui se déplacent et travaillent depuis leur domicile. Avec l’aide de la SAP Business Technology Platform et de nos analyses avancées, nous pouvons exploiter les données CRM pour obtenir des informations qui nous aident à créer une valeur ajoutée pour nos clients ».

Que ce soit sur site, dans le cloud ou dans un modèle hybride, la SAP Business Technology Platform permet aux entreprises de :

Excellence des données

Cette année marque le dixième anniversaire de SAP HANA, qui compte désormais plus de 32 400 clients. La dernière version, SAP HANA 2.0 SPS 05, devrait être livrée à la fin du mois de juin. Elle prendra en charge des scénarios hybrides avec la plate-forme de données SAP HANA Cloud et offrira de nouvelles fonctionnalités, notamment l’extension de stockage natif SAP HANA améliorée pour simplifier la gestion des données et réduire le coût total de possession. Selon les prévisions d’IDC, les clients de SAP HANA obtiendront un retour sur investissement moyen de 679 % sur cinq ans. Le Cloud SAP HANA fournit une base puissante de gestion et d’analyse des données pour les solutions d’innovation telles que le Cloud SAP Data Warehouse.

Elle est maintenant disponible sur Amazon Web Services, en plus de Microsoft Azure, pour offrir une plus grande flexibilité et un plus grand choix aux clients qui passent au cloud. SAP prévoit un essai ouvert pour SAP HANA Cloud début juillet.

SAP Data Warehouse Cloud et SAP Analytics Cloud comprennent une gamme étendue de scenarios pré-construits de bout en bout qui répondent aux questions commerciales et techniques clés des entreprises qui cherchent à obtenir rapidement des informations à partir de données.

La dernière mise à jour de SAP Data Warehouse Cloud inclut du contenu métier pour le secteur du retail. Un écosystème en pleine croissance, avec des centaines de partenaires devrait fournir davantage de contenu et de connecteurs de données pré-construits pour le Data Warehouse Cloud de SAP sur le SAP App Center.

Afin d’aider les utilisateurs et les analystes à créer plus facilement des modèles de données compréhensibles en utilisant des termes commerciaux, la nouvelle fonction de couche commerciale de SAP Data Warehouse Cloud est prévue pour le début du troisième trimestre 2020. SAP Data Warehouse Cloud offrira également également une fonctionnalité intégrée de flux de données, permettant aux clients de choisir parmi une large gamme de connecteurs pour construire des processus d’intégration de données hautement évolutifs vers et depuis n’importe quelle source de données.

SAP Data Warehouse Cloud est plus étroitement intégré à SAP Analytics Cloud pour un environnement de données et d’analyse plus unifié. Cela permet d’obtenir une image claire et précise de toutes les données afin de transformer les analyses en véritables informations commerciales. La plateforme SAP BusinessObjects™ Business Intelligence 4.3 est sortie le 12 juin 2020 et est plus étroitement intégrée à SAP Analytics Cloud pour une transition plus facile vers le cloud. Les fonctionnalités de planification et de prévision sont intégrées dans la dernière mise à jour de SAP Analytics Cloud pour une planification plus rapide et plus puissante, et sont actuellement disponibles pour un essai gratuit.

Découvrez comment des entreprises telles que Porsche AG, Geberit AG, et Idorsia Pharmaceuticals Ltd, prévoient d’utiliser la puissance du Cloud SAP HANA, du Cloud SAP Data Warehouse, du Cloud SAP Analytics et de la plate-forme SAP Cloud.

Intégration

Grâce à la nouvelle tarification simplifiée de SAP Cloud Platform Integration Suite, les clients peuvent bénéficier d’un package basé sur la valeur et d’une tarification attractive ainsi que d’un achat et d’une consommation simplifiés des services d’intégration. Les clients peuvent désormais s’inscrire une seule fois pour utiliser toutes les fonctionnalités au lieu de devoir passer par plusieurs services sous licence. Cela leur offre la possibilité de consommer un service de la suite à la demande à tout moment grâce à un système de mesure simplifié basé sur des messages. En outre, SAP fournit des packs d’intégration pré-construits entre les applications SAP avec des messages standard sans frais supplémentaires.

Extension

Les améliorations apportées aux flux de travail grâce à la suite SAP Cloud Platform Extension Suite et les nouveaux ensembles de contenus de processus en direct aideront les clients à adapter et à étendre leurs processus commerciaux à la volée et en temps réel pour répondre à l’évolution des demandes et accroître l’efficacité.

Les experts en processus métier peuvent désormais gérer les flux de travail sur les processus en cours d’exécution, comme pour l’approbation des dépenses d’investissement, en utilisant un outil dédié pour découvrir, configurer et exécuter les extensions d’applications, le tout sans l’aide d’un service informatique. Il en résulte un temps de valorisation plus court et des coûts de mise en œuvre plus faibles.

Honeywell et SAP ont récemment annoncé qu’ils s’étaient associés pour créer une solution commune basée sur le cloud pour le secteur de l’immobilier. La solution, qui devrait être basée sur Honeywell Forge et SAP Cloud Platform, vise à rationaliser les données opérationnelles et commerciales pour gagner en efficacité, à améliorer les performances de l’entreprise en obtenant des informations commerciales précieuses et à améliorer la gestion de l’expérience des employés grâce à une analyse puissante des données sur les sentiments.

Pour plus de détails, cliquez ici.

Pour connaitre les nouveautés annoncées lors du SAPPHIRE, cliquer ici.

Trouvez, essayez et achetez des solutions SAP en ligne sur SAP Store et SAP.com.

Pour en savoir plus, regarder cette vidéo d’expert.

The post SAP Business Technology Platform: Un trio entre excellence, intégration et extension des données appeared first on SAP France News.

Source de l’article sur sap.com