Articles

L'Impact de l'IoT sur l'Intégration des Données: Un Voyage Transformateur

.

L’Internet des Objets (IoT) a révolutionné la manière dont les données sont intégrées et utilisées. Découvrez comment cette transformation a un impact sur le voyage!

La relation intrinsèque entre l’IoT et l’intégration des données

The challenge of data integration is compounded by the sheer volume of data generated by IoT devices. The sheer number of devices, combined with their ability to generate data at high speeds, has resulted in an exponential growth in the amount of data that needs to be managed. This data must be integrated, analyzed, and acted upon in real-time. To do this, organizations must develop a comprehensive architecture that can handle the scale and complexity of the data.

L’intrinsèque relation entre l’IoT et l’intégration des données

La prolifération des appareils IoT a ajouté une nouvelle dimension au paysage déjà complexe de la gestion des données. Ces appareils produisent une variété de types de données, telles que des données en série temporelle, des journaux structurés et semi-structurés et même du texte non structuré provenant d’interfaces utilisateur. Ainsi, l’intégration des données est maintenant chargée de quelque chose de bien plus complexe que simplement assimiler des bases de données et des stockages en nuage ; il s’agit de comprendre un monde connecté par des milliards d’appareils. Comme l’a judicieusement déclaré la scientifique des données Hilary Mason : « Les données sont le matériau brut de l’ère de l’information ». Et en effet, la qualité et la forme de ce « matériau brut » ont considérablement évolué avec l’avènement de l’IoT.

Le défi de l’intégration des données est amplifié par le volume phénoménal de données générées par les appareils IoT. Le nombre considérable d’appareils, combiné à leur capacité à générer des données à grande vitesse, a entraîné une croissance exponentielle de la quantité de données à gérer. Ces données doivent être intégrées, analysées et traitées en temps réel. Pour ce faire, les organisations doivent développer une architecture globale qui puisse gérer l’ampleur et la complexité des données.

L’architecture IoT pour l’intégration des données

Pour réussir à intégrer les données IoT, les organisations doivent mettre en place une architecture qui prend en compte la variété et la vitesse des données. Cette architecture doit être capable de collecter, stocker, traiter et analyser les données en temps réel. Elle doit également être capable d’intégrer les données provenant de sources diverses et hétérogènes. Les technologies modernes telles que le streaming en temps réel, le traitement distribué et le traitement par lots peuvent être utilisés pour mettre en œuvre cette architecture. Les technologies d’intégration des données telles que les outils d’ETL (Extraction, Transformation et Chargement) peuvent également être utilisés pour intégrer les données provenant de différents systèmes.

La mise en place d’une architecture IoT pour l’intégration des données est essentielle pour tirer parti des avantages offerts par l’IoT. Une architecture robuste permet aux organisations de collecter et d’analyser les données à grande échelle afin de prendre des décisions plus rapides et plus précises. Elle

Source de l’article sur DZONE

Analyser les données boursières avec LangChain et Whisper d'OpenAI

Découvrez comment LangChain et Whisper d’OpenAI peuvent vous aider à analyser les données boursières de manière plus efficace et plus précise.

Avertissement

Nous allons dans cet article montrer comment connecter un courtier Kafka, qui diffuse des données fictives de cours boursiers, à SingleStoreDB. Nous allons ensuite interroger ces données à l’aide de phrases en anglais grâce à LangChain, qui offre une capacité de question-réponse de base pour les données de cours. Nous allons construire une application Python, à travers plusieurs itérations de conception, pour utiliser Whisper d’OpenAI afin de poser des questions par la parole et utiliser la synthèse vocale pour répondre.

Connexion à la base de données

La première étape consiste à connecter le courtier Kafka à SingleStoreDB. Pour ce faire, nous devons configurer un canal Kafka pour le courtier Kafka et un canal SingleStoreDB pour SingleStoreDB. Une fois que ces canaux sont configurés, nous pouvons connecter le courtier Kafka à SingleStoreDB en utilisant le canal Kafka et le canal SingleStoreDB. Une fois que cette connexion est établie, nous pouvons commencer à envoyer des données du courtier Kafka à SingleStoreDB.

La première étape consiste à connecter le courtier Kafka à la base de données SingleStoreDB. Pour ce faire, nous devons configurer un canal Kafka pour le courtier Kafka et un canal SingleStoreDB pour SingleStoreDB. Une fois que ces canaux sont configurés, nous pouvons connecter le courtier Kafka à la base de données SingleStoreDB en utilisant le canal Kafka et le canal SingleStoreDB. Une fois que cette connexion est établie, nous pouvons commencer à envoyer des données du courtier Kafka à la base de données SingleStoreDB.

Interrogation des données

Une fois que les données sont stockées dans la base de données SingleStoreDB, nous pouvons les interroger à l’aide de LangChain. LangChain est une plateforme open source qui permet aux développeurs de créer des applications qui peuvent comprendre et répondre aux questions posées en anglais. Nous pouvons utiliser LangChain pour interroger la base de données SingleStoreDB et obtenir des informations sur les cours boursiers. Nous pouvons également utiliser LangChain pour exécuter des requêtes complexes sur la base de données SingleStoreDB.

Une fois que les données sont stockées dans la base de données SingleStoreDB, nous pouvons les interroger à l’aide de LangChain. LangChain est une plateforme open source qui permet aux développeurs de créer des applications qui peuvent comprendre et répondre aux questions posées en anglais. Nous pouvons utiliser LangChain pour interroger la base de données SingleStoreDB et obtenir des informations sur les cours boursiers. Nous pouvons également utiliser LangChain pour exécuter des requêtes complexes sur la base de données SingleStoreDB afin d’extraire des informations pertinentes à partir des données stockées dans la base de données.

Application Python

Enfin, nous allons créer une application Python qui utilise OpenAI’s Whisper pour poser des questions par la parole et utilise la synthèse vocale pour répondre aux questions. L’application Python va se connecter à LangChain et interroger la base de donné

Source de l’article sur DZONE

Tutoriels vidéo : messages Java consommateur/producteur entre serveur Kafka

Les tutoriels vidéo sur les messages Java consommateur/producteur entre serveur Kafka sont une excellente façon d’apprendre à maîtriser cette technologie. Découvrez comment configurer et utiliser cette technologie !

Comment envoyer et recevoir des messages entre un consommateur Java et un producteur et le serveur Apache Kafka dans cette série de tutoriels vidéo

Premier Paragraphe

L’architecture Apache Kafka est un système de messagerie distribué qui peut être utilisé pour construire des applications de streaming et de traitement des données. Il est largement utilisé dans les applications de streaming et de traitement des données pour la mise en œuvre de pipelines de traitement des données complexes. Dans cette série de tutoriels vidéo, nous allons explorer la procédure d’envoi et de réception de messages entre un consommateur et un producteur Java et le serveur Apache Kafka. Nous allons également examiner le code Java pour consommer des messages à partir du serveur Apache Kafka.

Deuxième Paragraphe

Le code Java pour consommer des messages à partir du serveur Apache Kafka est assez simple. Tout d’abord, vous devez créer un objet KafkaConsumer et spécifier le type de données que vous souhaitez consommer. Ensuite, vous devez définir le serveur Apache Kafka sur lequel vous souhaitez envoyer les messages. Enfin, vous pouvez appeler la méthode subscribe () pour s’abonner à un sujet et commencer à recevoir des messages. Vous pouvez également spécifier le type de données que vous souhaitez recevoir à l’aide de la méthode subscribe ().

Troisième Paragraphe

Une fois que vous avez abonné un sujet, vous pouvez appeler la méthode poll () pour récupérer les messages du serveur Apache Kafka. La méthode poll () prend en charge plusieurs paramètres, notamment le temps d’attente maximal, le nombre maximum de messages à récupérer et le type de données à récupérer. Une fois que vous avez récupéré les messages, vous pouvez les traiter en fonction des besoins de votre application. Une fois que vous avez traité les messages, vous pouvez les envoyer à un autre serveur Apache Kafka ou les stocker dans un magasin de données.

Source de l’article sur DZONE

Produire et consommer des messages Avro avec Redpanda Schema Registry

Produire et consommer des messages Avro avec Redpanda Schema Registry est une tâche essentielle pour les applications modernes. Découvrez comment le faire facilement!

Si vous êtes familier avec Apache Kafka®, vous avez peut-être rencontré un registre de schémas compatible avec Kafka – un composant distinct que vous déployez en dehors de votre cluster Kafka, car Kafka n’en a pas intégré. 

Essentiellement, un schéma est une description logique de la façon dont vos données sont organisées, et donc un registre de schémas fournit un référentiel central pour ces schémas, permettant aux producteurs et aux consommateurs d’envoyer et de recevoir des données entre eux de manière transparente. Pour les architectures orientées événements, cela peut devenir complexe et difficile à gérer à mesure que vous évoluez, car les schémas de données peuvent changer et évoluer au fil du temps (pouvant potentiellement tout casser plus tard). 

## Utilisation d’un registre de schémas compatible avec Apache Kafka®

L’architecture Apache Kafka® est bien connue et il est possible de rencontrer un registre de schémas compatible avec Kafka, qui est un composant distinct que l’on déploie en dehors du cluster Kafka, car celui-ci n’en comporte pas.

Essentiellement, un schéma est une description logique de la façon dont vos données sont organisées et un registre de schémas fournit donc un référentiel central pour ces schémas, permettant aux producteurs et aux consommateurs d’envoyer et de recevoir des données entre eux sans heurts. Pour les architectures orientées événements, cela peut devenir complexe et difficile à gérer à mesure que l’on se développe, car les schémas de données peuvent changer et évoluer dans le temps (pouvant potentiellement provoquer des dysfonctionnements plus tard).

Un registre de schémas est donc une solution très pratique pour gérer ce type d’architecture. Il permet aux producteurs et aux consommateurs d’accéder facilement aux schémas des données, ce qui leur permet de s’assurer que les données envoyées et reçues sont cohérentes et conformes. De plus, le registre de schémas permet de conserver l’historique des versions des schémas, ce qui peut être très utile pour le débogage et le développement.

Enfin, le registre de schémas peut également être utilisé pour aider à la validation des données. Les producteurs peuvent envoyer des données à un registre de schémas avant de les envoyer à Kafka, ce qui permet de s’assurer que les données sont conformes aux schémas attendus. De même, les consommateurs peuvent également valider les données reçues avant de les traiter, ce qui permet d’assurer la qualité des données et d’améliorer l’efficacité des processus.

En somme, le registre de schémas est un outil très pratique pour gérer les architectures orientées événements. Il permet aux producteurs et aux consommateurs d’accéder facilement aux schémas des données, ce qui leur permet de s’assurer que les données envoyées et reçues sont cohérentes et conformes. De plus, il permet également d’aider à la validation des données, ce qui permet d’améliorer la qualité et l’efficacité des processus.

Source de l’article sur DZONE

WALLDORF (Allemagne), le 8 mars 2023. SAP SE (NYSE: SAP) annonce des innovations majeures et des partenariats clés dans le domaine de la data, pour permettre aux clients d’accéder aux données critiques de leur entreprise, venant ainsi accélérer la compréhension des informations et améliorer leur prise de décision. SAP lance la solution SAP® Datasphere, la dernière génération de solutions de gestion de données, qui permet aux clients d’accéder facilement aux informations business directement exploitables dans l’ensemble du paysage de la data. SAP annonce également son partenariat avec des entreprises leaders dans les secteurs de la data et de l’IA – Collibra NV, Confluent Inc., DataBricks Inc. et DataRobot Inc. – afin d’enrichir SAP Datasphere et permettre aux entreprises de concevoir une architecture de données unifiée, combinant en toute sécurité les données SAP et non-SAP.

Jusqu’à aujourd’hui, l’accès et l’utilisation des données constituaient un réel défi au vu de la complexité de leur localisation et de leur système, qu’elles soient chez des fournisseurs de cloud computing, de data ou en site propre. Les clients devaient extraire les données depuis leurs sources d’origine et les exporter vers un point central, perdant au passage un aspect essentiel de leur contexte métier, et ne le récupérant qu’au prix d’efforts intenses sur le plan informatique. Avec ces annonces, SAP Datasphere met fin à cette « taxe cachée » sur la data, permettant aux clients de construire leur architecture de données qui fournit rapidement des informations significatives, tout en préservant le contexte et la logique de l’organisation.

« Les clients SAP générant 87% du commerce total mondial, les données SAP font partie des actifs business les plus précieux de l’entreprises et sont contenues dans les fonctions les plus déterminantes d’une organisation : de la fabrication aux chaînes d’approvisionnement, en passant par la finance, les ressources humaines et bien plus encore » a déclaré Juergen Mueller, Chief Technology Officer et Membre Exécutif du Board de SAP. « Nous voulons aider nos clients à passer à la vitesse supérieure pour intégrer facilement, et en toute confiance, les données SAP avec les données non-SAP provenant d’applications et de plateformes tierces, afin de débloquer des informations et des connaissances entièrement nouvelles pour que la transformation digitale atteigne un autre niveau. »

 

SAP Datasphere

Disponible dès aujourd’hui, SAP Datasphere est la nouvelle génération de SAP Data Warehouse Cloud. Elle permet aux professionnels de la data de fournir un accès évolutif aux données critiques de l’entreprise. Grâce à une expérience simplifiée pour l’intégration, le catalogage, la modélisation sémantique, le stockage et la virtualisation des données, SAP Datasphere permet aux professionnels de la data de faciliter la distribution des données critiques de l’entreprise en préservant le contexte et la logique de cette dernière, avec une vision 360° de l’ensemble des données de l’organisation. SAP Datasphere s’appuie sur SAP Business Technology Platform (BTP), intégrant de solides fonctionnalités en termes de sécurité pour l’entreprise : base de données, cryptage, gouvernance. Aucune étape ou migration supplémentaire n’est requise pour les clients actuels de SAP Data Warehouse Cloud, qui bénéficieront automatiquement des nouvelles fonctionnalités de SAP Datasphere dans leur environnement produit. Ces nouvelles fonctionnalités comprennent le catalogage des données qui permet de les découvrir et de les gérer automatiquement, de simplifier leur réplication avec une mise à jour en temps réel, et d’améliorer leur modélisation pour conserver la richesse du contexte métier dans les applications SAP. D’autres fonctionnalités d’intégration d’applications reliant les données et les métadonnées des applications SAP Cloud à SAP Datasphere sont prévues.

Messer Americas, leader mondial dans le domaine des gaz industriels et médicaux en Amérique du Nord et du Sud, avait besoin d’un accès simple et sécurisé aux données SAP et non SAP au sein de son organisation pour améliorer la prise de décision – pilotée par les données – et de libérer les ressources informatiques afin qu’elles se concentrent sur des tâches plus stratégiques. Grâce à SAP Datasphere, Messer Americas a construit une architecture moderne de données qui préserve le contexte de ses données d’entreprise.

« SAP Datasphere simplifie notre vue d’ensemble de la data et renforce notre confiance dans les données que nous utilisons tous les jours, ce qui nous permet de mieux répondre aux besoins de l’entreprises » explique David Johnston, Chief Information Officer de Messer Americas. « Nous sommes en mesure de réagir plus rapidement aux changements émergents de l’offre et de la demande, ce qui se traduit par une meilleure gestion des stocks, un meilleur service client et l’optimisation de notre chaîne logistique ».

 

Partenariats stratégiques

SAP et ses nouveaux partenaires open data aideront des centaines de millions d’utilisateurs à travers le monde à prendre des décisions stratégiques fondées sur des quantités massives de données. Les partenaires stratégiques de SAP apportent leur talent unique, issu de leur écosystème, et permettent aux clients de combiner toutes leurs données comme jamais auparavant.

« Tout le monde souhaite avoir accès aux données SAP, c’est pourquoi il est absolument nécessaire de prendre le meilleur des fournisseurs technologiques pour mettre en place une stratégie complète autour de la data », a déclaré Dan Vesset, Vice-Président du Groupe IDC, chargé des analyses et études de marché sur la data. « Les organisations vivent aujourd’hui dans un monde où la lecture de données multi-cloud, multifournisseurs, hors et sur site est la norme. SAP adopte une nouvelle approche en s’associant à un groupe restreint de partenaires de premier plan, traitant les données tierces comme des citoyens de tout premier ordre afin de mieux répondre aux besoins des clients. »

 

A propos des partenaires

  • Collibra prévoit une intégration sur mesure avec SAP, permettant aux clients de mettre en place une stratégie de gouvernance d’entreprise, en construisant un catalogue de données complet, avec un historique sur l’ensemble de leurs données, qu’il s’agisse à la fois de données SAP et non SAP. Collibra rend les données fiables et accessibles à l’ensemble de l’entreprise.
  • Confluent prévoit de connecter sa plateforme de streaming de données, permettant aux entreprises de débloquer des données business précieuses et de les connecter à des applications externes en temps réel. L’offre cloud native de Confluent est la plateforme de référence pour les données dynamiques, permettant un flux illimité en temps réel provenant de diverses sources au sein de l’organisation.
  • Les clients de DataBricks peuvent intégrer leur Data Lakehouse à SAP afin de partager les données tout en préservant leur sémantique et les aide ainsi à simplifier leur vue d’ensemble.
  • DataRobot permet aux clients d’exploiter les capacités d’apprentissage automatique multimodales sur SAP Datasphere et de les intégrer directement dans leur bases, quelle que soit la plateforme cloud où elles sont stockées.

 

A propos de SAP

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com. 

 

Contact presse

sylvie.lechevin@sap.com

Note aux journalistes
Pour prévisualiser et télécharger des séquences d’archives et des photos de presse pour diffusion, veuillez consulter le site www.sap.com/photos. Vous trouverez sur cette plateforme du contenu en HD pour vos médias.

Pour les clients souhaitant s’informer sur les produits SAP
Global Customer Center : +49 180 534-34-24

Ce document contient des déclarations qui sont des prédictions, des projections concernant des événements futurs. Ces déclarations sont basées sur des attentes, des prévisions et des hypothèses qui sont soumises à des risques et à des incertitudes pouvant entraîner des différences significatives entre les résultats réels. Des informations supplémentaires peuvent être trouvées dans les documents que nous déposons auprès de la Securities and Exchange Commission, y compris, mais sans s’y limiter, la section sur les facteurs de risque du rapport annuel 2022 de SAP sur le formulaire 20-F.

© 2023 SAP SE. Tous droits réservés. SAP et les autres produits et services mentionnés dans le présent document, ainsi que leurs logos respectifs, sont des marques (déposées ou non) de SAP SE en Allemagne et dans d’autres pays.

Veuillez consulter https://www.sap.com/copyright pour obtenir des informations supplémentaires sur les marques.

The post SAP annonce le lancement de SAP® Datasphere pour simplifier la lecture des données de ses clients et s’associe à Collibra, Confluent, Databricks et DataRobot. appeared first on SAP France News.

Source de l’article sur sap.com

En triant de vieux cartons dans mon garage, mon fils est tombé sur ma collection de films des années 1980 et 1990. Tandis que je le regardais exhumer les cassettes VHS, les DVD et quelques LaserDiscs de cette capsule temporelle de ma jeunesse, j’ai réalisé à quel point nous avons rapidement cessé de stocker nos films sur des étagères pour nous tourner vers le visionnage en streaming à la demande, sur un seul et même terminal qui tient dans une poche.

Plus frappantes encore sont les leçons tirées de chaque évolution de la livraison à domicile. Certaines entreprises ont conservé des modèles économiques classiques, convaincues que toute nouveauté n’est qu’une passade. D’autres se sont adaptées à chaque fois qu’elles se sont senties réellement menacées par la concurrence.

Mais les entreprises qui ont réellement tiré leur épingle du jeu sont celles qui ont mis en place et pérennisé de vraies innovations transformationnelles, avec la volonté assumée de toucher de nouveaux marchés, d’attirer de nouveaux clients et de répondre aux demandes et aux attentes.

Malheureusement, la plupart des entreprises de taille moyenne n’ont pas encore assimilé cette leçon en matière d’innovation. D’après un Info Snapshot IDC sponsorisé par SAP, seules 18 % des entreprises interrogées jugent que la transformation de leur modèle économique est une priorité – ce qui suggère que la plupart d’entre elles comptent seulement réagir aux bouleversements du secteur.

« Globalement, les entreprises de taille moyenne n’accordent pas la priorité à l’innovation, même si la rapidité d’adaptation et l’évolutivité stratégique sont inscrites dans leur ADN », explique Jeremy Rader, directeur général Stratégie et solutions d’entreprise (ESS) des groupes Data Platforms (DPG) et Cloud & Enterprise Solutions (CESG) d’Intel. « Soyons réalistes : le temps, l’argent et les ressources sont déjà comptés. Mais la technologie cloud peut permettre de rendre l’innovation plus abordable et plus facile à gérer pour celles qui explorent de nouvelles opportunités de transformation, moins coûteuses, moins risquées, et découvrent ainsi de meilleures manières de rester compétitives. »

 

Une étape essentielle pour assurer la prospérité d’une entreprise

Les défis de gestion et les demandes du marché sont chaque jour plus complexes, substantiels, et de plus grande envergure. Mais plutôt que de suivre chaque nouvelle tendance en matière de produits, chaque évolution des clients ou chaque innovation de la concurrence, les entreprises doivent concevoir les produits et services dont leur clientèle a réellement besoin. Cela implique d’établir une passerelle entre le cycle de vie des produits et des données de qualité, prises en charge par une plateforme interconnectée dotée des fonctions de gestion, d’analytique et d’intelligence artificielle nécessaires pour les collecter, les intégrer et les contextualiser en temps réel.

EN SAVOIR PLUS AVEC FORBES – SAP BrandVoice : Tendances 2022 en matière de biens de consommation : votre marque peut-elle offrir une satisfaction et un confort instantanés ? – Par Susan Galer

« Le plus grand obstacle à l’innovation est la crainte du changement et de l’échec », rappelle M. Rader. « Quand les gens sont capables de gérer, de protéger, de contextualiser et d’analyser des volumes considérables de données en toute confiance, ils ont toutes les clés pour obtenir des résultats plus significatifs, quoi qu’ils fassent. Tout cela commence par la mise en place d’une plateforme cloud interconnectée et fiable. »

Lorsque les données de différents services et fonctions (marketing, ventes, services, opérations et finances) sont intégrées, consolidées et recoupées avec la veille concurrentielle, les entreprises de taille moyenne sont mieux à même de justifier leurs investissements dans l’innovation produit. Elles peuvent alors établir le calendrier, les étapes, l’expertise et les technologies nécessaires pour concrétiser ces innovations d’une manière qui favorise la croissance.

Lorsqu’une entreprise obtient les bonnes données et sait comment en tirer les insights stratégiques dont elle a besoin, une culture de l’innovation commence à se mettre en place. Par exemple, les collaborateurs se mettent à surveiller étroitement les indicateurs de performance clés qui évaluent la demande de produits, la satisfaction client et les inquiétudes des services au regard des performances financières, de manière à pouvoir réagir plus rapidement et efficacement aux bouleversements.

 

Une innovation alimentée par les données pour garder une longueur d’avance

Les entreprises de taille moyenne ne peuvent pas se permettre de perdre du temps, ni de réaliser un projet d’innovation en se contentant d’espérer qu’il fonctionne. Mais ne pas innover est un risque encore plus grand dans un marché en constante évolution, rempli de clients qui en attendent chaque jour davantage.

EN SAVOIR PLUS AVEC FORBES – SAP BrandVoice : Comment les entreprises de taille moyenne peuvent relancer leur activité, se développer et s’étendre grâce aux technologies avancées – Par un invité SAP

Et lorsque les entreprises accordent davantage d’attention à la qualité et à l’impact de ces données, l’innovation n’est plus reléguée au second plan, comme une activité dont chacun sait qu’elle est nécessaire sans pouvoir s’y consacrer. Il devient possible d’allouer les ressources adéquates à explorer les opportunités, expérimenter de nouvelles idées et renforcer son avantage concurrentiel.

Si vous souhaitez approfondir la question, regardez la rediffusion du webinaire sponsorisé par Intel sur la manière dont les entreprises de taille moyenne peuvent favoriser une culture de l’innovation, dans le cadre de notre série #ConnectGrowWin.

 

Par Richard Howells, vice-président Gestion des solutions pour la Supply Chain numérique, SAP

The post L’innovation continue : le véritable levier de compétitivité des entreprises de taille moyenne appeared first on SAP France News.

Source de l’article sur sap.com

The sports world is changing. Digitalization is everywhere. Cameras and sensors analyze matches. Stadiums get connected and incorporate mobile apps and location-based services. Players use social networks to influence and market themselves and consumer products. Real-time data processing is crucial for most innovative sports use cases. This blog post explores how data streaming with Apache Kafka helps reimagine the sports industry, showing a concrete example from the worldwide table tennis organization. 

Innovation in Sports and Gaming With Real-time Analytics

Reimagining a data architecture to provide real-time data flow for sporting leagues and events is an enormous challenge. However, digitalization enables a ton of innovative use cases to improve user experiences and engage better with players, fans, and business partners.

Think about wonderful customer experiences with gamification when watching a match, live betting, location-based services in the stadium, automated payments, coupons, integration with connected fan shops and shopping malls, and so on.

Source de l’article sur DZONE

Over two years ago, the COVID-19 pandemic completely changed the business landscape for dozens of industries. For example, the eCommerce industry saw a meteoric rise, while cinemas and theatres have not yet fully recovered from the multiple nationwide lockdowns.

One of the industries whose rapid growth was also triggered by the coronavirus pandemic is the OTT or Over-the-Top industry. For millions of people stuck at home for months on end, with little to no social interaction, OTT services have become the go-to entertainment channel. Subsequently, the number of available streaming services also skyrocketed, and new players are regularly unveiled.

Source de l’article sur DZONE