Articles

Nuages de mots : représentation visuelle du langage

Les nuages de mots sont une représentation visuelle intéressante du langage, qui permet de visualiser les mots les plus utilisés dans un texte.

Dans le domaine de la visualisation des données, les nuages de mots sont devenus une manière populaire et captivante de représenter des informations textuelles. Également connus sous le nom de nuages de tags ou de wordle, les nuages de mots offrent une représentation visuellement attrayante de la fréquence des mots dans un texte ou un jeu de données donné. Leur conception simple mais puissante permet aux spectateurs de comprendre rapidement les mots ou les thèmes les plus prévalents d’une manière visuellement attrayante.

Dans le domaine de la visualisation des données, les nuages de mots sont devenus une manière populaire et captivante de représenter des informations textuelles. Également connus sous le nom de nuages de tags ou de Wordle, les nuages de mots offrent une représentation visuellement attrayante de la fréquence des mots dans un texte ou un jeu de données donné. Leur conception simple et puissante permet aux spectateurs de comprendre rapidement les mots ou les thèmes les plus fréquents d’une manière visuellement attrayante.

Dans cet article, nous explorerons le concept, le processus de création et les applications des nuages de mots, ainsi que leur importance pour comprendre la langue et l’analyse des données. Les nuages de mots sont une forme d’architecture visuelle qui permet aux utilisateurs de comprendre rapidement et facilement des informations complexes. Ils sont souvent utilisés pour représenter des données textuelles, telles que des mots clés, des thèmes ou des sentiments. Les nuages de mots peuvent être créés à partir de n’importe quel type de texte, qu’il s’agisse d’un document, d’un blog ou d’un corpus de données. Les mots sont représentés par des formes et des tailles différentes, ce qui permet aux utilisateurs de voir rapidement les mots les plus fréquents.

Les nuages de mots peuvent être utilisés pour diverses applications, notamment pour comprendre le contenu d’un texte, identifier des tendances ou des thèmes, et analyser les sentiments associés à un sujet. Ils peuvent également être utilisés pour comparer des corpus de données ou pour trouver des relations entre des mots. Les nuages de mots peuvent également être utilisés pour créer une architecture visuelle unique et attrayante pour présenter des informations complexes. Ils peuvent être utilisés pour créer des affiches, des présentations ou des sites Web attrayants qui mettent en valeur les informations textuelles.

En conclusion, les nuages de mots sont une forme puissante et attrayante d’architecture visuelle qui permet aux utilisateurs de comprendre rapidement et facilement des informations complexes. Ils peuvent être utilisés pour représenter des données textuelles, identifier des tendances ou analyser les sentiments associés à un sujet. Les nuages de mots peuvent également être utilisés pour créer une architecture visuelle unique et attrayante pour présenter des informations complexes. Enfin, ils peuvent être utilisés pour créer des affiches, des présentations ou des sites Web attrayants qui mettent en valeur les informations textuelles.

Source de l’article sur DZONE

Retour vers le futur: Pages Web côté serveur avec Kotlin (Pt. 1)

Dans cette série, nous allons apprendre à créer des pages web côté serveur avec Kotlin. Vous découvrirez comment créer des applications web modernes et performantes. Prêt à voyager dans le futur ? Allons-y !

Le développement Web a subi de nombreux changements depuis que l’Internet est devenu populaire dans les années 1990 :

L’architecture du développement web a connu une variété de changements depuis que l’internet est devenu populaire dans les années 1990 :

Tout d’abord, il y a eu les pages HTML les plus basiques, complètement statiques, sans aucune dynamique. Plus tard, des technologies telles que l’interface commune de passerelle (Common Gateway Interface) ont permis de générer le code HTML d’une page de manière programmatique. Puis sont arrivés des moteurs de modèles tels que JavaServer Pages (maintenant Jakarta Server Pages), ASP.NET et Thymeleaf, qui ont permis aux développeurs de travailler avec des fichiers de modèles principalement « ressemblant à HTML » avec du code de programmation intermélangé.

Ensuite, des frameworks de « script côté client » basés sur Javascript tels qu’Angular, React et Vue sont apparus, ce qui a transformé le développement web en deux disciplines distinctes : le développement « backend » qui contenait le code traditionnel du serveur web et de la logique métier, ainsi que le développement « front-end » (en utilisant les frameworks ci-dessus) qui se concentrait sur la visualisation d’un site web et recevait des données du backend.

Cependant, cela ne signifie pas que les tendances de développement ne progressent que dans une seule direction et jamais en arrière. Par exemple, les bases de données NoSQL telles que MongoDB ont rapidement gagné en popularité en grande partie en raison de leur capacité à contenir des données non structurées par rapport aux bases de données SQL traditionnelles telles que PostgreSQL et MySQL, mais ces dernières ont également évolué et peuvent maintenant contenir des données non structurées via les types de données JSONB et JSON, respectivement. De même, de nouveaux frameworks Javascript tels que Next.js commencent à offrir des options pour le rendu côté serveur en plus de leurs capacités de rendu côté client traditionnelles. De nouveau, les moteurs de modèles côté serveur comme Thymeleaf ont également continué à évoluer, Thymeleaf lançant une nouvelle version du framework le mois dernier.

Source de l’article sur DZONE

Guide O11y : Sans observabilité, ce n'est que du code

« Comprendre et améliorer la qualité et la performance de votre code est essentiel. Guide O11y vous aide à atteindre cet objectif en vous fournissant les outils nécessaires pour une observabilité optimale ! »

Bienvenue à un autre chapitre de la série en cours que j’ai commencée pour couvrir mon voyage dans le monde de l’observabilité cloud-native. Si vous avez manqué l’un des articles précédents, revenez à l’introduction pour une mise à jour rapide.

Après avoir établi les bases de cette série dans l’article initial, j’ai passé du temps à partager qui sont les acteurs de l’observabilité, j’ai examiné la discussion en cours autour des piliers de surveillance versus les phases, j’ai partagé mes pensées sur les choix de niveau architectural qui sont faits et j’ai partagé les normes ouvertes disponibles dans le paysage open source. J’ai continué avec quelques-uns des défis architecturaux que vous pourriez rencontrer lorsque des applications monolithiques plus anciennes et des outils de surveillance font toujours partie du paysage d’infrastructure d’une organisation. Enfin, je vous ai guidé à travers le projet de visualisation et de tableau de bord open source appelé Perses en introduisant mon atelier pratique.

Bienvenue à un autre chapitre de la série en cours que j’ai commencée pour couvrir mon voyage dans le monde de l’observabilité cloud-native. Si vous avez manqué l’un des articles précédents, revenez à l’introduction pour une mise à jour rapide.

Après avoir établi les bases de cette série dans l’article initial, j’ai passé du temps à partager qui sont les acteurs de l’observabilité, j’ai regardé la discussion en cours autour des piliers de surveillance versus les phases, j’ai partagé mes pensées sur les choix de niveau architectural qui sont faits et j’ai partagé les standards ouverts disponibles dans le paysage open source. J’ai continué avec quelques-uns des défis architecturaux auxquels vous pourriez être confrontés lorsque des applications monolithiques plus anciennes et des outils de surveillance font toujours partie du paysage d’infrastructure d’une organisation. Enfin, je vous ai guidé à travers le projet de visualisation et de tableau de bord open source appelé Perses en introduisant mon atelier pratique.

Aujourd’hui, je vais parler du logiciel d’observabilité cloud-native que j’utilise pour collecter, stocker et analyser les données. Je vais également partager mon expérience personnelle et mes pensées sur la façon dont je me suis retrouvé à utiliser ce logiciel et ce que je pense qu’il fait bien.

Le logiciel d’observabilité cloud-native que j’utilise est appelé Prometheus. C’est un système open source qui a été créé par SoundCloud pour surveiller leur infrastructure cloud. Il est maintenant maintenu par la communauté open source et est largement utilisé par les entreprises pour surveiller leurs applications et leurs services. Prometheus est conçu pour collecter des métriques à partir de sources de données telles que des applications, des services et des systèmes d’exploitation. Il stocke ces métriques dans un format compact et peut être interrogé pour obtenir des informations sur la performance et la disponibilité des applications et des services.

Prometheus est un outil très puissant qui peut être utilisé pour surveiller tous les aspects d’une infrastructure cloud-native. Il peut être utilisé pour surveiller les performances des applications, les performances des services, la disponibilité des services et bien plus encore. Il peut également être utilisé pour surveiller les performances des conteneurs et des microservices. Il offre une variété d’options de visualisation et de tableaux de bord pour afficher les données collectées par Prometheus. En outre, il offre une API REST qui peut être utilisée pour intégrer Prometheus à d’autres outils d’observabilité tels que Grafana ou Kibana.

J’utilise Prometheus depuis plusieurs années maintenant et je suis très satisfait de son fonctionnement. Il est très facile à configurer et à gérer, ce qui en fait un excellent choix pour les développeurs qui souhaitent surveiller leurs applications et leurs services. Il est également très flexible et peut être facilement intégré à d’autres outils d’observabilité. Enfin, il est open source, ce qui signifie qu’il est gratuit à utiliser et qu’il bénéficie du soutien de la communauté open source.

Source de l’article sur DZONE

Paris, le 09 juin 2023. SAP SE (NYSE : SAP) continue son plan d’accélération de start-ups autour de SAP.iO, son incubateur interne des jeunes entreprises. Depuis le mois de mai, 7 nouvelles start-ups ont ainsi intégré SAP Store, la marketplace officielle de SAP : Sorga, Smartpixels, Smartzer, YZR, Arianee, Livebuy et replika Software. Les clients pourront en un seul clic bénéficier de ces solutions pour leurs besoins quotidiens.

 

Véritable incubateur de start-ups, visant à accélérer la mise sur le marché de produits innovants pour augmenter la productivité de ses clients, SAP iO a intégré 7 nouvelles start-ups au sein du SAP Store. Désormais, les clients pourront accéder à ces 7 entreprises innovantes dans le domaine des nouvelles technologies, de l’IA, ou encore de l’économie responsable.

SAP.iO Foundry Paris a déjà aidé plus de 70 start-ups à développer leur business et leur solution, en lien avec les objectifs du gouvernement français pour soutenir l’économie des start-ups.

De leur intégration chez SAP.iO Foundry Paris, à leur présence sur le SAP Store, les start-ups ont été accompagnées par SAP pour préparer au mieux leur mise sur le marché et connaître les besoins de tous leurs potentiels clients.

« Grâce à l’engagement de SAP envers l’innovation et l’incubation de startups via SAP.iO, Replika accélère son développement. Ce partenariat permet de rendre notre solution de social selling accessible aux entreprises clientes de SAP qui veulent développer leur e-commerce.

Avec le soutien et le professionnalisme des équipes de SAP, cette collaboration est d’ores et déjà une belle réussite ! » pour Kareen Mallet, Founder Replika Software

« Le programme SAP.iO est très complet et permet la création d’une offre conjointe pertinente et utile pour les clients, avec des perspectives commerciales mondiales concrètes et opérationnelles. » déclare Jean-Philippe Poisson, Co-Founder YZR

« La collaboration avec SAP nous a permis de proposer une version plus simple de notre technologie de Digital Product Passport, pour répondre à l’urgence de preuves vérifiables des engagements RSE à partir de tous les produits déjà en retail. Une innovation supplémentaire bénéfique pour tous ! » indique Philippe Guguen, CEO Sorga

 

Les start-ups suivantes sont désormais disponibles sur SAP Store :

 

Sorga

L’innovation de Sorga permet aux marques d’offrir transparence et traçabilité à ses clients. Il s’agit de la seule solution blockchain neutre en carbone et de souveraineté numérique. Simple d’utilisation, il rend la consommation responsable accessible à tous.

 

Smartpixels

Expert des solutions de visualisation de produits en 3D, SmartPixels capture vos collections en 3D, et créé des expériences produits interactives et sensorielles à 360°. SmartPixels fournit un outil de configuration et de visualisation de produits 3D pour aider les marques de mode de luxe à créer des expériences personnalisées.

 

Smartzer

Un outil qui permet aux marques d’annoter leurs vidéos et flux en direct avec des produits achetables pour créer des événements d’achat en direct intégré à leur e-commerce. La solution s’intègre à SAP Commerce Cloud.

 

YZR

YZR utilise l’IA pour nettoyer et enrichir les données sur vos produits. YZR normalise, enrichit et catégorise automatiquement les données des produits pour le e-commerce. La solution est intégrée à SAP Commerce Cloud via ImpEx.

 

Arianee

Arianee permet de générer facilement un Passeport Produit pour chaque commande. Propulsés par la technologie web3, les passeports sont livrés avec une interopérabilité native et des fonctionnalités CRM enrichies. Arianee facilite la mise à jour vers les réglementations européennes en matière d’éco-conception et propulse les entreprises dans l’économie responsable.

 

Livebuy

Livebuy est un SaaS qui change la donne pour les retailers et avant-gardistes : il permet de diffuser sans effort du contenu vidéo interactif dans une boutique en ligne, il dynamise les ventes, et offre aux clients une expérience d’achat immersive et amusante.


Replika Software

Replika Software est conçu pour aider les marques à dynamiser leur stratégie e-commerce en tirant parti de la puissance de leur réseau de vendeurs/influenceurs pour augmenter les ventes en ligne, tout en offrant une expérience d’achat unique aux clients.

 

 

A propos de SAP en France

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

 

Pour plus d’informations, visitez le site www.sap.com.

Contact presse : sylvie.lechevin@sap.com / sap@the-arcane.com

 

The post SAP.iO Foundry Paris intègre 7 nouvelles start-ups à SAP Store pour proposer aux clients des solutions adaptées au contexte économique, social et numérique. appeared first on SAP France News.

Source de l’article sur sap.com

Structures et Algos Clés pour Ingénieurs Données

Les structures de données et les algorithmes sont des outils essentiels pour les ingénieurs en données. Découvrez comment les maîtriser pour optimiser vos performances !

Données d’ingénierie : gérer efficacement de grandes quantités de données

En tant qu’informaticien enthousiaste, je vais explorer dans cet article les structures de données et les algorithmes les plus importants que les ingénieurs en données devraient connaître, ainsi que leurs utilisations et leurs avantages. La gestion des grandes quantités de données est une pratique essentielle pour un ingénieur en données, allant de l’entreposage et du traitement à l’analyse et à la visualisation. Par conséquent, les ingénieurs en données doivent être bien informés des structures de données et des algorithmes qui peuvent les aider à gérer et à manipuler les données efficacement.

Les bases de données sont l’un des outils les plus importants pour les ingénieurs en données. Les bases de données sont des systèmes de gestion de données qui permettent de stocker, de manipuler et d’analyser des données. Elles sont conçues pour être faciles à utiliser et à mettre à jour, et offrent une grande flexibilité et une grande scalabilité. Les bases de données peuvent être utilisées pour stocker des données à court terme ou à long terme, et peuvent être utilisées pour stocker des données structurées ou non structurées. Les bases de données sont également très utiles pour effectuer des analyses complexes sur des jeux de données volumineux.

Les algorithmes sont également très importants pour les ingénieurs en données. Les algorithmes sont des instructions qui décrivent comment une tâche doit être effectuée. Les algorithmes peuvent être utilisés pour effectuer des opérations sur des jeux de données, tels que le tri, le filtrage et la recherche. Les algorithmes peuvent également être utilisés pour effectuer des analyses complexes sur des jeux de données volumineux. Les algorithmes peuvent être implémentés dans des bases de données ou dans des applications logicielles pour améliorer leur performance et leur efficacité.

En conclusion, les bases de données et les algorithmes sont essentiels pour les ingénieurs en données. Les bases de données sont utiles pour stocker et manipuler des données, tandis que les algorithmes sont utiles pour effectuer des opérations sur ces données et pour effectuer des analyses complexes. Les ingénieurs en données doivent être bien informés des structures de données et des algorithmes qui peuvent les aider à gérer et à manipuler les données efficacement.

Source de l’article sur DZONE

Comment garder ses talents ? Voilà l’une des grandes questions des départements RH aujourd’hui. À l’heure de la « Grande Démission », nombreux sont les ouvrages et les articles qui traitent les sujets de fidélisation et de rétention des collaborateurs. Ce défi majeur oblige les entreprises à être proactives, à déceler les risques et raisons de potentiels départs et à anticiper les actions pour garder leurs collaborateurs dans leurs équipes.

Depuis plusieurs années, le SIRH s’impose dans les entreprises, mais lorsque plusieurs outils s’accumulent, il est parfois difficile de les faire communiquer de manière performante, fluide, et cela peut freiner la rapidité de la prise de décision et d’actions pour garder les collaborateurs.

Dans cet article, nous verrons pourquoi le SIRH centralisé, en l’occurrence SAP SuccessFactors, est un outil puissant dans plusieurs domaines pour appuyer la stratégie de rétention des talents dans l’entreprise.

Plusieurs facteurs sont clés afin d’établir une stratégie de rétention des collaborateurs : le sentiment d’appartenance à l’entreprise, le besoin de défis, l’atteinte des objectifs fixés (qu’ils soient personnels ou collectifs), le développement des compétences, l’évolution au sein de l’entreprise, la qualité de vie au travail, etc. Pour chacun de ces axes, SAP SuccessFactors propose une réponse technologique adaptée à vos contextes et à vos process.

 En effet, les solutions SAP SuccessFactors comportent plusieurs modules dits « Talent », dédiés à la gestion de la vie et l’évolution des employés, de leur embauche jusqu’à leur départ. Nous y retrouvons, entre autres, la gestion de la performance, la prévision des actions de développement et de la succession et la prise en charge de la formation. Bien qu’ils se basent sur la donnée du Core HR, les modules « Talent » sont interconnectés entre eux, ce qui enrichit l’utilisation de chacun grâce à un flux d’informations pertinentes et transversales.

Dès l’annonce de l’arrivée d’un collaborateur, il est primordial d’anticiper son onboarding pour garantir une expérience d’accueil optimal. Nous le savons, bien qu’un salarié n’ait pas encore commencé son premier jour, celui-ci fait partie des effectifs et doit être intégré dans le système (via le module Recruiting ou via une entrée manuelle). Son onboarding peut alors commencer.

Le module Onboarding 2.0 permet de générer, en fonction du lieu de travail, du poste et du département du nouveau collaborateur, une liste d’actions à mener par le HRBP, le manager ou même les futurs collègues pour préparer au mieux l’arrivée. Les actions à mener peuvent être : organiser les premières réunions en avance, préparer la définition des objectifs, commander le matériel informatique, les badges d’accès, les identifiants aux différentes plateformes etc. Si ces actions sont menées à bien et en temps voulu, l’arrivée du collaborateur se fera de manière fluide et celui-ci aura le sentiment qu’il/elle était attendu(e) et sera rapidement disposé(e) à commencer son travail. Cet enjeu est doublement bénéfique pour l’entreprise : un sentiment d’appartenance à l’entreprise est créé pour le salarié et des données (de qualité) sont déjà renseignées dans le SIRH.

Une fois le collaborateur prêt à travailler, il faut être en mesure de définir, en co-construction avec les parties prenantes, des objectifs de performance et des challenges sur une période définie. Le module Performance and Goals vous permet, très simplement, d’ajouter des objectifs et de gérer le plan d’objectifs. Mais nous le savons, la simple définition de mission est bien insuffisante pour avoir des collaborateurs performants, fournisseurs d’un travail de qualité. Tout au long de l’année, collaborateur comme manager ont besoin de faire le point afin de s’assurer que l’atteinte des objectifs est en bonne voie. Ces moments d’échanges, de feedbacks, de prise de recul et d’ajustements sont nécessaires pour garder le cap.

Avec le module Performance & Goals, collaborateurs, managers et toutes parties prenantes auront la possibilité d’utiliser la fonctionnalité Continuous Performance Management.  Ils pourront ainsi suivre l’évolution de l’accomplissement des objectifs en les affinant grâce à des activités, des succès et la possibilité d’enregistrer des réunions et leurs notes directement dans l’outil. Vous avez également l’opportunité, en tant que collaborateur, de demander du feedback pour vous-même à n’importe qui présent dans la base de données SAP SuccessFactors de votre entreprise. En tant que manager, vous pouvez demander du feedback personnalisé pour vos membres d’équipes. Toutes ces informations, récupérées au fil de l’année, seront répliquées dans le formulaire d’entretien de performance annuel afin de donner de la visibilité et des informations relatives à la performance du collaborateur les plus précises possibles pour toutes les parties prenantes.

La revue des talents est également l’opportunité de faire un point sur chaque collaborateur dans l’entreprise et d’être en mesure de proposer les meilleures solutions en termes de besoin de développement, de formation, de succession et d’anticiper de potentiels départ et d’en identifier les raisons.

Le module Succession and Development propose plusieurs outils. Le premier, appelé Talent Review ou Calibration permet la création de sessions englobant des matrices d’évolution, de performance et de potentiel. Cela donnera lieu à une visualisation rapide de votre population nécessitant des besoins de développement particuliers.

Le deuxième outil vient compléter le premier en vous donnant la capacité d’identifier les niveaux de risques et impacts de départs potentiels des salariés. Il sera ainsi plus simple d’identifier rapidement les postes critiques impactés, de définir des plans de rétentions adaptés mais aussi de préparer la succession si ces plans n’étaient pas concluants.

Enfin, le troisième outil vous donne la possibilité de créer des viviers de talents, de proposer des programmes de formations ou d’évolution spécifiques et d’identifier les profils nécessitant une attention particulière sur le plan du développement des compétences, des aspirations professionnelles ou des souhaits de mobilité géographique.

À la suite de l’entretien de fin d’année et de la revue des talents, managers et collaborateurs seront en mesure de définir des objectifs de développement soit pour renforcer des compétences afin de mieux performer dans le poste actuel, soit pour en développer de nouvelles afin de prétendre à un nouveau poste. Cela peut se traduire par des formations présentes dans le catalogue du LMS.  Un lien direct entre le module de gestion des objectifs et le LMS facilitera l’affectation des contenus de formations et fluidifiera l’expérience utilisateur du SIRH.

Enfin, il est possible de créer des rapports personnalisés à destination de la population RH et de l’exécutif intégrant des KPI permettant d’assurer :

  • le suivi des campagnes RH,
  • le niveau d’adoption des modules
  • la bonne qualité des données.

Ces indicateurs seront primordiaux dans le suivi des collaborateurs ainsi que dans la détection et la rétention de vos talents.

Une chose importante qu’il faut garder à l’esprit : toutes ces actions d’identification, d’anticipation, de prise de décision et d’actions ne sont possibles que si toutes les parties prenantes sont responsabilisées et impliquées dans les différents processus liés au SIRH.

La digitalisation de la fonction RH démontre qu’aujourd’hui, et encore plus qu’auparavant, l’aspect humain est la pierre angulaire de tous les efforts de la stratégie RH et SIRH. La problématique de rétention des talents est majeure, même critique pour la performance de l’entreprise. SAP SuccessFactors propose des outils interconnectés afin d’évaluer les performances, d’ajuster les plans de développement du collaborateur, d’anticiper de potentiels départs, leurs raisons et les successions. Toutes ces actions stratégiques pour le développement du collaborateur et la pérennité de l’entreprise ne sont possibles, via le SIRH, que si les données sont renseignées dans celui-ci, de qualité et à jour.

IRH by Act-On Group est spécialisé dans le déploiement et la personnalisation des solutions SAPSuccessFactors, toujours adaptés à votre stratégie RH. N’hésitez pas à nous contacter pour un premier échange à l’adresse contact.irh@actongroup.com.

The post Comment SAP SuccessFactors contribue à la stratégie de rétention des talents appeared first on SAP France News.

Source de l’article sur sap.com

Paris, le 19 septembre 2022 – SAP SE (NYSE : SAP) a lancé l’édition 2023 de son programme d’accélération de start-ups axé sur le futur du Retail and Consumer Products. Pour cette 8ème édition de SAP.iO Foundry Paris, 12 start-ups internationales ont été sélectionnées par un jury composé d’experts SAP, de partenaires, de clients et de fonds d’investissement. Ces start-ups ont été reconnues comme étant précurseur sur ce thème de “Future of Retail and Consumer Products ”, un thème plus que jamais d’actualité avec les bouleversements des usages et du parcours client observé durant la crise sanitaire, et qui résulte de l’accélération de la numérisation de toutes les entreprises.

SAP.iO Foundry Paris, véritable incubateur de SAP en France, a déjà aidé plus de 65 start-ups à développer leur business ou leur solution. En quatre ans, SAP a atteint l’objectif fixé avec le gouvernement français visant à soutenir l’économie des start-ups lors sur sommet #ChooseFrance.

Ce nouveau programme a pour objectif de proposer aux entreprises du Retail et Consumer Products un accompagnement de leur stratégie digitale, grâce aux solutions de ces 12 start-ups, au rythme de l’évolution technologique autour de deux enjeux clés :

  • Proposer à leurs clients une expérience d’achat améliorée et différenciante
  • Assurer la traçabilité et l’authenticité de leurs produits

Odilia von Zitzewitz, Interim Lead SAP.iO Foundry Paris déclare : “SAP.iO est un accélérateur de start-ups formidable et engagé. Pour cette édition, l’accent a été mis sur le Retail laissant place à des innovations de choix, et qui répondent aux enjeux prédominants des acteurs de ce secteur clé. Nous sommes très fiers d’accompagner cette nouvelle promotion de start-ups !”

Au cours des 5 prochains mois, les start-ups auront accès à un mentorat personnalisé de la part des dirigeants de SAP France, à une exposition à la technologie SAP® et aux interfaces de programmation d’applications (API), ainsi qu’à des opportunités de collaboration avec des clients SAP du monde entier.

Les start-ups suivantes participent au programme SAP.iO Foundry Paris :

Sorga Technology

La mission de Sorga Technologie est d’accompagner les marques retail dans leur innovation digitale en proposant une solution à faible consommation d’énergie assurant la transparence et la traçabilité de leurs produits

https://sorga.org/

Arianee

La mission d’Arianee est de fournir aux entreprises des solutions simples pour établir des relations directes avec les consommateurs, respectueuses des données des utilisateurs et indépendantes des grandes plateformes technologiques.

https://www.arianee.org

 

CollectID

CollectID permet de garantir l’authenticité d’un produit, l’amélioration de l’expérience phygitale, ou encore l’établissement d’un canal de communication direct entre les marques . Une solution qui garantit l’authenticité et l’unicité des produits tout en rapprochant les marques de leurs clients.

https://www.collectid.com/

DIAKSE

Diakse développe et commercialise une solution de création de showrooms virtuels dans le métavers avec un objectif : permettre aux marques de mieux communiquer sur leurs produits et ainsi les aider à augmenter leurs ventes.

www.diakse.com

 

Foodetective

Foodetective est une plateforme de gestion et une infrastructure (API) de l’industrie F&B. Les entreprises utilisent Foodetective pour automatiser leurs opérations, simplifier leur administration, augmenter leurs revenus en ligne et accélérer les nouvelles opportunités commerciales. business.foodetective.co

LIVEBUY GmbH

LIVEBUY est une solution d’achat en direct pour les détaillants leaders du marché,

qui fournit à la fois la technologie et les bons créateurs pour construire une plateforme de contenu réussie au sein des boutiques en ligne.

https://www.livebuy.io/

  

Priceloop

Priceloop a développé une IA permettant de faciliter et d’automatiser les processus de tarification, proposant les meilleurs prix en tenant compte de tous les paramètres essentiels.

https://priceloop.ai/

 

Replika Software

Le logiciel Replika est une solution de vente sociale clé en main. Replika permet aux marques d’activer un réseau de vendeurs sociaux avec une entreprise clé en main pour inspirer sur les médias sociaux, vendre en ligne et se connecter avec les clients.

www.replikasoftware.com

  

Shopreme GmbH

Shopreme GmbH Développe notamment une technologie appelée « Scan & Go » qui transpose les avantages des achats en ligne dans les vrais magasins (rapidité, facilité de paiement, recommandations personnalisées, listes de course partagées…).

https://www.shopreme.com/

 

SmartPixels

SmartPixels fournit un outil de configuation et de visualisation de produits en 3D, l’objectif est d’aider les marques de mode et de luxe à créer des expériences personnalisées et interactives en ligne et en magasin.

https://www.smartpixels.fr/

 

SMARTZER LTD

La plateforme de Smartzer est utilisée par les marques pour transformer leurs vidéos et leurs flux en direct en expériences interactives et exploitables, ce qui leur permet d’obtenir un retour sur investissement direct du contenu et de mesurer les données détaillées des interactions vidéo.

www.smartzer.com

 

YZR

YZR automatise et accélère tous les projets de données textuelles de ses clients grâce à une solution puissante basée sur le traitement automatique des langues.

https://www.yzr.ai/en/

The post SAP.iO Foundry Paris lance la nouvelle édition de son programme consacré aux start-ups sur le thème de « Futur of Retail » appeared first on SAP France News.

Source de l’article sur sap.com

La modélisation des données correspond au processus de création de diagrammes de flux de données. Lors de la création d’une structure de base de données, qu’elle soit nouvelle ou non, le concepteur commence par élaborer un diagramme illustrant la façon dont les données entreront et sortiront de la base de données. Ce diagramme est utilisé pour définir les caractéristiques des formats et structures de données, ainsi que des fonctions de gestion de base de données, afin de répondre efficacement aux exigences des flux de données. Une fois la base de données créée et déployée, le modèle de données servira de documentation expliquant les motifs de création de la base de données ainsi que la manière dont les flux de données ont été conçus.

Le modèle de données résultant de ce processus établit une structure de relations entre les éléments de données dans une base de données et sert de guide d’utilisation des données. Les modèles de données sont un élément fondamental du développement et de l’analyse de logiciels. Ils fournissent une méthode standardisée pour définir et mettre en forme les contenus de base de données de manière cohérente dans les systèmes, ce qui permet à diverses applications de partager les mêmes données.


Pourquoi la modélisation des données est-elle importante ?

Un modèle de données complet et optimisé permet de créer une base de données logique et simplifiée qui élimine la redondance, réduit les besoins en stockage et permet une récupération efficace. Elle dote également tous les systèmes de ce que l’on appelle une « source unique de la vérité », ce qui est essentiel pour assurer des opérations efficaces et garantir une conformité vérifiable aux réglementations et exigences réglementaires. La modélisation des données est une étape clé dans deux fonctions vitales d’une entreprise numérique.

Projets de développement logiciel (nouveaux ou personnalisations) mis en place par le service informatique

Avant de concevoir et de créer un projet logiciel, il doit exister une vision documentée de ce à quoi ressemblera le produit final et de son comportement. Une grande partie de cette vision concerne l’ensemble de règles de gestion qui régissent les fonctionnalités souhaitées. L’autre partie est la description des données : les flux de données (ou le modèle de données) et la conception de la base de données qui les prendra en charge.

La modélisation des données est une trace de cette vision et fournit une feuille de route pour les concepteurs de logiciels. Grâce à la définition et à la documentation complètes des flux de données et de la base de données, ainsi qu’au développement des systèmes conformément à ces spécifications, les systèmes devraient être en mesure de fournir les fonctionnalités attendues requises pour garantir l’exactitude des données (en supposant que les procédures ont été correctement suivies).

Analyses et visualisation (ou Business Intelligence) : un outil de prise de décision clé pour les utilisateurs

Avec l’augmentation des volumes de données et le nombre croissant d’utilisateurs, les entreprises ont besoin de transformer les données brutes en informations exploitables pour prendre des décisions. Sans surprise, la demande en analyse des données a augmenté de façon spectaculaire. La visualisation des données rend les données encore plus accessibles aux utilisateurs en les présentant sous forme graphique.

Les modèles de données actuels transforment les données brutes en informations utiles qui peuvent être transposées dans des visualisations dynamiques. La modélisation des données prépare les données pour l’analyse : nettoyage des données, définition des mesures et des dimensions, amélioration des données par l’établissement de hiérarchies, la définition d’unités et de devises et l’ajout de formules.


Quels sont les types de modélisation des données ?

Les trois types de modèles de données clés sont le modèle relationnel, le modèle dimensionnel et le modèle entité-association. Il en existe d’autres qui ne sont pas communément utilisés, notamment les types hiérarchique, réseau, orienté objet et à plusieurs valeurs. Le type de modèle définit la structure logique, à savoir comment les données sont stockées, organisées et extraites.

  1. Type relationnel : bien qu’« ancien » dans son approche, le modèle de base de données le plus couramment utilisé aujourd’hui est le relationnel, qui stocke les données dans des enregistrements au format fixe et organise les données dans des tables avec des lignes et des colonnes. Le type de modèle de données le plus basique comporte deux éléments : des mesures et des dimensions. Les mesures sont des valeurs numériques, telles que les quantités et le chiffre d’affaires, utilisées dans les calculs mathématiques comme la somme ou la moyenne. Les dimensions peuvent correspondre à des valeurs numériques ou textuelles. Elles ne sont pas utilisées dans les calculs et incluent des descriptions ou des emplacements. Les données brutes sont définies comme une mesure ou une dimension. Autres termes utilisés dans la conception de base de données relationnelle : « relations » (la table comportant des lignes et des colonnes), « attributs » (colonnes), « nuplets » (lignes) et « domaine » (ensemble de valeurs autorisées dans une colonne). Bien qu’il existe d’autres termes et exigences structurelles qui définissent une base de données relationnelle, le facteur essentiel concerne les relations définies dans cette structure. Les éléments de données communs (ou clés) relient les tables et les ensembles de données. Les tables peuvent également être explicitement liées, comme une relation parent/enfant, y compris les relations dites un-à-un (one-to-one), un-à-plusieurs (one-to-many) ou plusieurs-à-plusieurs (many-to-many).
  2. Type dimensionnel : moins rigide et structurée, l’approche dimensionnelle privilégie une structure de données contextuelle davantage liée à l’utilisation professionnelle ou au contexte. Cette structure de base de données est optimisée pour les requêtes en ligne et les outils d’entreposage de données. Les éléments de données critiques, comme une quantité de transaction par exemple, sont appelés « faits » et sont accompagnés d’informations de référence appelées « dimensions », telles que l’ID de produit, le prix unitaire ou la date de la transaction. Une table de faits est une table primaire dans un modèle dimensionnel. La récupération peut être rapide et efficace (avec des données pour un type d’activité spécifique stockées ensemble), mais l’absence de relations peut compliquer l’extraction analytique et l’utilisation des données. Étant donné que la structure des données est liée à la fonction qui produit et utilise les données, la combinaison de données produites par divers systèmes (dans un entrepôt de données, par exemple) peut poser des problèmes.
  3. Modèle entité-association (modèle E-R) : un modèle E-R représente une structure de données métier sous forme graphique contenant d’une part des boîtes de différentes formes pour représenter des activités, des fonctions ou des « entités », et d’autre part des lignes qui représentent des dépendances, des relations ou des « associations ». Le modèle E-R est ensuite utilisé pour créer une base de données relationnelle dans laquelle chaque ligne représente une entité et comporte des zones qui contiennent des attributs. Comme dans toutes les bases de données relationnelles, les éléments de données « clés » sont utilisés pour relier les tables entre elles.

Quels sont les trois niveaux d’abstraction des données ?

Il existe de nombreux types de modèles de données, avec différents types de mises en forme possibles. La communauté du traitement des données identifie trois types de modélisation permettant de représenter les niveaux de pensée au fur et à mesure que les modèles sont développés.

Modèle de données conceptuel

Ce modèle constitue une « vue d’ensemble » et représente la structure globale et le contenu, mais pas le détail du plan de données. Il s’agit du point de départ standard de la modélisation des données qui permet d’identifier les différents ensembles de données et flux de données dans l’organisation. Le modèle conceptuel dessine les grandes lignes pour le développement des modèles logiques et physiques, et constitue une part importante de la documentation relative à l’architecture des données.

Modèle de données logique

Le deuxième niveau de détail est le modèle de données logique. Il est étroitement lié à la définition générale du « modèle de données » en ce sens qu’il décrit le flux de données et le contenu de la base de données. Le modèle logique ajoute des détails à la structure globale du modèle conceptuel, mais n’inclut pas de spécifications pour la base de données en elle-même, car le modèle peut être appliqué à diverses technologies et divers produits de base de données. (Notez qu’il peut ne pas exister de modèle conceptuel si le projet est lié à une application unique ou à un autre système limité).

Modèle de données physique

Le modèle de base de données physique décrit comment le modèle logique sera réalisé. Il doit contenir suffisamment de détails pour permettre aux techniciens de créer la structure de base de données dans les matériels et les logiciels pour prendre en charge les applications qui l’utiliseront. Il va sans dire que le modèle physique est spécifique à un système logiciel de base de données en particulier. Il peut exister plusieurs modèles physiques dérivés d’un seul et même modèle logique si plusieurs systèmes de base de données seront utilisés.

Processus et techniques de modélisation des données

La modélisation des données est par essence un processus descendant qui débute par l’élaboration du modèle conceptuel pour établir la vision globale, puis se poursuit avec le modèle logique pour s’achever par la conception détaillée contenue dans le modèle physique.

L’élaboration du modèle conceptuel consiste principalement à mettre des idées sous la forme d’un graphique qui ressemble au diagramme des flux de données conçu par un développeur.

Les outils de modélisation des données modernes peuvent vous aider à définir et à créer vos modèles de données logiques et physiques et vos bases de données. Voici quelques techniques et étapes classiques de modélisation des données :

  • Déterminez les entités et créez un diagramme entité-association. Les entités sont considérées comme des « éléments de données qui intéressent votre entreprise ». Par exemple, « client » serait une entité. « Vente » en serait une autre. Dans un diagramme entité-association, vous documentez la manière dont ces différentes entités sont liées les unes aux autres dans votre entreprise, et les connexions qui existent entre elles.
  • Définissez vos faits, mesures et dimensions. Un fait est la partie de vos données qui indique une occurrence ou une transaction spécifique, comme la vente d’un produit. Vos mesures sont quantitatives, comme la quantité, le chiffre d’affaires, les coûts, etc. Vos dimensions sont des mesures qualitatives, telles que les descriptions, les lieux et les dates.
  • Créez un lien de vue de données à l’aide d’un outil graphique ou via des requêtes SQL. Si vous ne maîtrisez pas SQL, l’option la plus intuitive sera l’outil graphique : il vous permet de faire glisser des éléments dans votre modèle et de créer visuellement vos connexions. Lors de la création d’une vue, vous avez la possibilité de combiner des tables et d’autres vues dans une sortie unique. Lorsque vous sélectionnez une source dans la vue graphique et que vous la faites glisser dans une source déjà associée à la sortie, vous pouvez soit la joindre, soit créer une union de ces tables.

Les solutions analytiques modernes peuvent également vous aider à sélectionner, filtrer et connecter des sources de données à l’aide d’un affichage graphique de type glisser-déposer. Des outils avancés sont disponibles pour les experts en données qui travaillent généralement au sein des équipes informatiques. Toutefois, les utilisateurs peuvent également créer leurs propres présentations en créant visuellement un modèle de données et en organisant des tables, des graphiques, des cartes et d’autres objets pour élaborer une présentation basée sur des analyses de données.


Exemples de modélisation des données

Pour toute application, qu’elle soit professionnelle, de divertissement, personnelle ou autre, la modélisation des données est une étape préalable nécessaire à la conception du système et à la définition de l’infrastructure nécessaire à sa mise en œuvre. Cela concerne tout type de système transactionnel, de suite d’applications de traitement des données, ou tout autre système qui collecte, crée ou utilise des données.

La modélisation des données est essentielle pour l’entreposage de données car un entrepôt de données est un référentiel de données provenant de plusieurs sources, qui contiennent probablement des données similaires ou liées, mais disponibles sous des formats différents. Il est nécessaire de mapper en premier lieu les formats et la structure de l’entrepôt afin de déterminer comment manipuler chaque ensemble de données entrant pour répondre aux besoins de la conception de l’entrepôt, afin que les données soient utiles pour l’analyse et l’exploration de données. Le modèle de données est alors un catalyseur important pour les outils analytiques, les systèmes d’information pour dirigeants (tableaux de bord), l’exploration de données et l’intégration à tous les systèmes et applications de données.

Dans les premières étapes de conception de n’importe quel système, la modélisation des données est une condition préalable essentielle dont dépendent toutes les autres étapes pour établir la base sur laquelle reposent tous les programmes, fonctions et outils. Le modèle de données est comparable à un langage commun permettant aux systèmes de communiquer selon leur compréhension et leur acceptation des données, comme décrit dans le modèle. Dans le monde actuel de Big Datad’apprentissage automatiqued’intelligence artificiellede connectivité Cloudd’IdO et de systèmes distribués, dont l’informatique en périphérie, la modélisation des données s’avère plus importante que jamais.


Évolution de la modélisation des données

De façon très concrète, la modélisation des données est apparue en même temps que le traitement des données, le stockage de données et la programmation informatique, bien que le terme lui-même n’ait probablement été utilisé qu’au moment où les systèmes de gestion de base de données ont commencé à évoluer dans les années 1960. Il n’y a rien de nouveau ou d’innovant dans le concept de planification et d’architecture d’une nouvelle structure. La modélisation des données elle-même est devenue plus structurée et formalisée au fur et à mesure que davantage de données, de bases de données et de variétés de données sont apparues.

Aujourd’hui, la modélisation des données est plus essentielle que jamais, étant donné que les techniciens se retrouvent face à de nouvelles sources de données (capteurs IdO, appareils de localisation, flux de clics, réseaux sociaux) et à une montée des données non structurées (texte, audio, vidéo, sorties de capteurs brutes), à des volumes et à une vitesse qui dépassent les capacités des systèmes traditionnels. Il existe désormais une demande constante de nouveaux systèmes, de nouvelles structures et techniques innovantes de bases de données, et de nouveaux modèles de données pour rassembler ces nouveaux efforts de développement.


Quelle est la prochaine étape de la modélisation des données ?

La connectivité des informations et les grandes quantités de données provenant de nombreuses sources disparates (capteurs, voix, vidéo, emails, etc.) étendent le champ d’application des projets de modélisation pour les professionnels de l’informatique. Internet est, bien sûr, l’un des moteurs de cette évolution. Le Cloud est en grand partie la solution car il s’agit de la seule infrastructure informatique suffisamment grande, évolutive et agile pour répondre aux exigences actuelles et futures dans un monde hyperconnecté.

Les options de conception de base de données évoluent également. Il y a dix ans, la structure dominante de la base de données était relationnelle, orientée lignes et utilisait la technologie traditionnelle de l’espace disque. Les données du grand livre ou de la gestion des stocks d’un système ERP standard étaient stockées dans des dizaines de tables différentes qui doivent être mises à jour et modélisées. Aujourd’hui, les solutions ERP modernes stockent des données actives dans la mémoire à l’aide d’une conception en colonnes, ce qui réduit considérablement le nombre de tables et accroît la vitesse et l’efficacité.

Pour les professionnels du secteur, les nouveaux outils en libre-service disponibles aujourd’hui continueront à s’améliorer. De nouveaux outils seront également introduits pour rendre la modélisation et la visualisation des données encore plus simples et plus collaboratives.


Synthèse

Un modèle de données bien pensé et complet est la clé du développement d’une base de données véritablement fonctionnelle, utile, sécurisée et exacte. Commencez par le modèle conceptuel pour présenter tous les composants et fonctions du modèle de données. Affinez ensuite ces plans dans un modèle de données logique qui décrit les flux de données et définit clairement les données nécessaires et la manière dont elles seront acquises, traitées, stockées et distribuées. Le modèle de données logique donne lieu au modèle de données physique spécifique à un produit de base de données et constitue le document de conception détaillé qui guide la création de la base de données et du logiciel d’application.

Une bonne modélisation des données et une bonne conception de base de données sont essentielles au développement de bases de données et de systèmes d’application fonctionnels, fiables et sécurisés, qui fonctionnent bien avec les entrepôts de données et les outils analytiques, et facilitent l’échange de données entre les partenaires et entre les suites d’application. Des modèles de données bien pensés aident à garantir l’intégrité des données, ce qui rend les données de votre entreprise encore plus précieuses et fiables.


Découvrez les outils modernes de modélisation des données de SAP Data Warehouse Cloud

En savoir plus


 

The post Qu’est-ce que la modélisation des données ? appeared first on SAP France News.

Source de l’article sur sap.com

Le climat économique et social actuel a mis les entreprises de toutes tailles face à des défis inédits. Notre époque n’avait encore jamais connu de tels chamboulements, à la fois internes et externes. Les directeurs et services financiers, qui s’efforcent de bien gouverner leur entreprise, vivent sans doute les moments les plus difficiles de leur carrière.

À l’heure actuelle, le directeur financier et surtout l’équipe de planification et d’analyse financières doivent continuer d’avancer malgré de nombreuses incertitudes, notamment :

  • l’impact des perturbations des canaux de ventes sur le chiffre d’affaires
  • la gestion du flux de trésorerie et des liquidités
  • la gestion des dépenses et la maîtrise des coûts
  • les projections financières optimistes et les conseils basés sur des suppositions floues

Incertitudes et choix à faire

Pour le service de planification et d’analyse financières, ce ne sont pas des questions isolées, mais tout un ensemble de problèmes et de doutes qu’il faut gérer de manière globale. Faut-il puiser dans une ligne de crédit pour préserver la fluidité du fonds de roulement ? Le flux de trésorerie et les liquidités actuels permettront-ils de couvrir les dépenses à court terme ainsi que les initiatives de capital actuelles et à venir ? Peut-on bénéficier des programmes gouvernementaux d’aide salariale ? Que dire aux actionnaires sur les prévisions du solde de l’année ? Existe-t-il des moyens d’aider nos clients à réussir ?

Ces questions se posent aux services financiers, mais aussi à l’ensemble de l’entreprise, dont les différentes équipes se penchent sur les budgets et les tactiques envisageables.

  • Les programmes actuels tiennent-ils compte du marketing ?
  • La chaîne logistique est-elle confrontée à des disruptions ?
  • Quelles sont les conséquences pour la planification de la demande
  • Quelles sont les suggestions des RH concernant les niveaux d’effectifs actuels, et quels effets auront-elles sur les résultats ?

Il faut regrouper tous ces budgets et modèles individuels en une vue unique pour pouvoir comprendre les interdépendances.

Planification d’entreprise collaborative pour éliminer les silos

Un paradigme de planification moderne permettrait de résoudre facilement ces problèmes : la planification d’entreprise collaborative. Elle consiste entre autres à éliminer les silos, et ainsi à relier instantanément toutes sortes de plans. Les finances disposent donc d’un aperçu réel de la santé financière actuelle pour ne prodiguer que les conseils les plus avisés. Par exemple, elles peuvent évaluer l’impact d’un plan commercial sur les campagnes marketing, ou relier un processus S&OP (ventes et opérations) rapproché à un plan financier. Un analyste peut déterminer quel plan d’effectifs pourrait impacter la productivité des collaborateurs et la trésorerie.

Les finances doivent aussi pouvoir prendre des décisions rapides. Grâce à la planification d’entreprise collaborative, le service financier n’est pas tenu de suivre les plans établis. Aujourd’hui, on ne peut plus travailler dans un environnement où les plus mauvais services financiers repoussent les décisions parce qu’ils utilisent des feuilles de calcul et outils de planification obsolètes. Si au contraire ils disposent des technologies adéquates, ils pourront instantanément simuler l’impact de plusieurs scénarios. Les outils d’analyse modernes associés aux outils d’analyse prédictive et au Machine Learning leur permettront de suivre les recommandations pour obtenir les meilleurs résultats. Quant aux tableaux de bord et à la visualisation intégrée, ils offrent aux utilisateurs finaux un reporting en temps réel et une expérience esthétiquement agréable avec un risque d’erreur minimal, contrairement aux feuilles de calcul.

Une discussion instantanée pour une prise de décision rapide

Enfin, la plupart des organisations, y compris les services financiers, ont étendu leur capacité de travail à l’espace virtuel ; elles ne sont plus limitées par les murs de l’entreprise. La planification d’entreprise collaborative encourage la discussion instantanée pendant la planification et la prévision. Les problèmes géopolitiques ont eu des répercussions extraordinaires sur les prix des marchandises. Une situation qui, tout comme les problèmes liés à la pandémie, nécessite une collaboration et un consensus immédiats. Les décisions doivent être prises sans délai, sans le soutien des réunions, messages vocaux ou fils d’e-mails.

Avec la planification d’entreprise collaborative, les services financiers peuvent guider leur entreprise pour l’aider à obtenir les meilleurs résultats et à continuer d’avancer dans le bon sens malgré les difficultés du moment. La planification d’entreprise collaborative permet aux finances de comprendre tous les aspects de leur entreprise, de recommander et d’évaluer divers scénarios, de prendre les bonnes décisions, et de se positionner comme les véritables leaders de l’entreprise.

Pour en savoir plus, lisez ce rapport de Ventana Research intitulé « Planification d’entreprise collaborative : Améliorer la valeur opérationnelle de la planification et de la budgétisation à l’échelle de l’entreprise ».

À propos de Pras Chatterjee

Pras Chatterjee est directeur marketing produits principal pour la planification et l’analyse chez SAP, en particulier pour les solutions SAP Analytics Cloud et SAP Business Planning and Consolidation. Avant de rejoindre le service Marketing produits, Pras était directeur du cabinet SAP EPM et responsable des services SAP Business Analytics en Amérique du Nord. Il a également été architecte de solutions pour SAP, spécialisé dans la planification et les consolidations dans le monde entier. Comptable agréé, Pras a travaillé au service financier de diverses sociétés de logiciels, dont plusieurs entreprises du Fortune 500.

The post Accélérez les décisions pour tenir le coup en ces temps de disruption sans précédent appeared first on SAP France News.

Source de l’article sur sap.com

SAP propose depuis une quinzaine d’années une solution de gestion d’entrepôt appelée SAP Extended Warehouse Management, qui s’est enrichie pour répondre aux besoins des clients, quel que soit l’industrie ou le marché adressé : gestion avancée des vagues, mobilité, pilotage intégré de la mécanisation, Labor Management, pré colisage, intégration avec la production … Le tout dans une approche ‘Digital Supply Chain of One’, visant à fournir à nos clients une chaine logistique agile, unifiée et ‘end to end’.

Dans cette démarche d’amélioration et d’innovation continue, un nouveau module a vu le jour l’année dernière pour apporter un niveau supplémentaire d’optimisation aux clients qui le souhaitent.

SAP Warehouse Insights est un module basé sur la plateforme SCP (SAP Cloud Platform), et dédié à l’optimisation des entrepôts et de leurs ressources. Basé sur les dernières technologies : algorithmes, cloud computing et machine learning, cet outil complète les fonctions déjà avancées de la solution SAP Extended Warehouse Management. Les principaux domaines sont : la cartographie des entrepôts, des fonctions supplémentaires d’analyses et de monitoring de KPIs, la simulation de l’utilisation des ressources, et l’optimisation en temps réel.

SAP Warehouse Insights a été conçu pour tout type de clients et d’industries. Il apporte un niveau ultime dans l’optimisation des ressources et des missions en proposant les meilleurs scénarios possibles. Si le module s’enrichit en permanence de nouvelles fonctions, à ce jour il faut retenir 3 principaux sujets :

  • Visualisation dynamique de la cartographie entrepôt et des parcours des opérateurs,
  • Analyse des opérations, basées sur les données historiques comme la charge de travail et les distances de déplacement des ressources,
  • Optimisation / ré optimisation des missions (Warehouse Orders) affectées aux ressources pour réduire les déplacements à vide.

 

Cartographie entrepôt

Les utilisateurs peuvent interroger la cartographie d’un site de façon dynamique et interactive. Cela se traduit par une visualisation précise et aisée des différentes zones, avec la capacité d’aller jusqu’à la granularité la plus fine  (emplacement), et de s’assurer de l’adéquation de la configuration avec les besoins du terrain, ainsi qu’aux fonctions d’optimisation des déplacements.

Exemple d’écran de visualisation de différents types de zones de stockage :

‘Travel distance Network’ : Configuration simplifiée des chemins

La configuration des chemins est utilisée pour l’optimisation des déplacements. Les utilisateurs peuvent visualiser rapidement sur la carte, la complétude et la bonne configuration des chemins et segments paramétrés. En cas de rupture ou de mauvaise configuration, il est alors aisé de ‘réparer’ ou créer de nouvelles connexions à partir des nœuds existants. Exemple d’écran :

Configuration assistée

SAP Warehouse Insights facilite par ailleurs la création et la maintenance de la cartographie des sites. Il est possible d’importer des plans ‘CAD’ (Computer Aided Design) sous format PDF et de les utiliser directement dans le système. L’opérateur va ensuite pouvoir enrichir les informations avec les données ‘business’ comme les allées ou types de stockage. Le système va alors automatiquement propager ces paramètres de configuration sur les emplacements éligibles.

Exemple d’écran :

Fonctions de simulation

Cette première approche repose sur une optimisation ‘Off Line’. Il s’agit d’utiliser les données historiques pour comprendre et remédier à une situation insatisfaisante. SAP Warehouse Insights va ainsi utiliser les missions (Warehouse orders) et les ressources dans un processus avancé de simulation, pour proposer des scénarios réoptimisés, visant à limiter les déplacements, le nombre de ressource et par conséquent permettre une meilleure productivité tout en réduisant les couts d’exécution.

Le système offre une représentation simple et claire des gains potentiels d’optimisation, à travers une représentation des déplacements modélisés et comparables en un simple coup d’œil (avant optimisation / après optimisation).

Exemple d’écran de visualisation et comparaison des chemins :

Heatmap intégrée

SAP Warehouse Insights propose également une fonction de heatmap, très utile à l’analyse des flux dans l’entrepôt et à l’identification des goulets d’étranglement au sein d’une zone, d’une allée ou d’une gare de préparation. La ‘chaleur’ est déterminée en fonction du nombre de tâches réalisées sur chaque emplacement.

Exemple d’écran :

Optimisation temps réel et continue

Le processus de ré optimisation présenté plus haut est alors réalisé en temps réel, avec la possibilité de configurer des règles différentes en fonction par exemple des types de flux ou zones.

Exemple d’écran de configuration :

Principe de fonctionnement :

Les Missions ‘ouvertes’ sont récupérées et traitées en lien avec le système de destination, comme SAP EWM, à une fréquence configurable (ex : toutes les 10 minutes).

La ré optimisation des missions et des ressources associées est alors réalisée et une nouvelle séquence est déterminée suivant les critères souhaités d’optimisation des déplacements ou de dates/heures « au plus tard ».

Les missions ré optimisées sont ensuite remontées vers le système de destination pour exécution par les opérateurs en mode ‘dirigé’ par le système.

Un écran de monitoring permet également de suivre et visualiser les résultats de l’optimisation proposée par le système, avec notamment pour chaque ressource les missions associées, séquences, trajet à vide et en charge … Exemple d’écran :

Indicateurs de performance

En complément, SAP Warehouse Insights inclut des indicateurs offrant une vue analytique sur les opérations et la performance :

  • Utilisation par ressources
  • Charge par groupes de ressources
  • Charge des ressources par groupes de missions (‘queues’)
  • Temps de déplacements à vides par type de ressources
  • Temps total de déplacement par ressource

Exemple d’écran de consultation des opérations en entrepôt

The post Nouveaux enjeux d’agilité et d’excellence opérationnelle : vers l’entrepôt 4.0 appeared first on SAP France News.

Source de l’article sur sap.com