Articles

Traitement de flux supérieur : l'impact d'Apache Flink sur l'architecture Data Lakehouse.

Le traitement de flux supérieur est une technologie qui offre de nombreux avantages aux entreprises. Apache Flink est l’un des principaux outils pour exploiter pleinement les avantages de l’architecture Data Lakehouse.

« Explorer le Paradigme du Data Lakehouse: Une Solution Prometteuse pour les Décisions Basées sur les Données »

Dans l’ère de la prise de décision basée sur les données, le paradigme du Data Lakehouse est apparu comme une solution prometteuse, réunissant le meilleur des data lakes et des data warehouses. En combinant la scalabilité des data lakes avec les fonctionnalités de gestion des données des entrepôts, les Data Lakehouses offrent une infrastructure de données hautement scalable, agile et rentable. Ils fournissent un support robuste pour les charges de travail analytiques et opérationnelles, permettant aux organisations d’extraire plus de valeur de leurs données.

Dans nos articles précédents, nous avons exploré en profondeur le concept des Data Lakehouses. Data Lakehouses: The Future of Scalable, Agile, and Cost-Effective Data Infrastructure a posé les bases en mettant en évidence les principaux avantages commerciaux des lakehouses. A New Era of Data Analytics: Exploring the Innovative World of Data Lakehouse Architectures a examiné de plus près les aspects architecturaux des lakehouses, tandis que Delta, Hudi et Iceberg: The Data Lakehouse Trifecta se sont concentrés sur les trois principales solutions lakehouse: Delta Lake, Hudi et Iceberg.

Afin de mieux comprendre comment le Data Lakehouse peut être mis en œuvre dans un environnement d’entreprise, nous allons maintenant examiner le processus de testing. Le testing est un élément essentiel du développement logiciel et est également très important pour l’implémentation réussie des Data Lakehouses. Le processus de testing permet aux organisations de s’assurer que leurs systèmes sont conformes aux exigences et aux spécifications fonctionnelles et techniques. Il permet également de vérifier que le système est prêt à être mis en production et qu’il fonctionne correctement.

Le testing des Data Lakehouses peut être divisé en trois étapes principales : la vérification des fonctionnalités, la validation des performances et la validation des données. La vérification des fonctionnalités consiste à vérifier que toutes les fonctionnalités du système sont correctement implémentées et qu’elles répondent aux exigences et aux spécifications fonctionnelles. La validation des performances consiste à vérifier que le système est capable de gérer le volume et la variété des données et qu’il est capable de fournir les résultats attendus dans les délais impartis. Enfin, la validation des données consiste à vérifier que les données sont correctement stockées et accessibles dans le système.

Le processus de testing des Data Lakehouses est essentiel pour s’assurer que le système est conforme aux exigences et qu’il fonctionne correctement. Il permet aux organisations d’identifier et de résoudre rapidement tout problème avant la mise en production, ce qui permet d’améliorer la qualité du système et d’accroître sa fiabilité. En outre, le testing permet aux organisations de s’assurer que leurs systèmes sont prêts à être mis en production et qu’ils sont capables de fournir les résultats attendus.

Source de l’article sur DZONE

Tutoriel de test en boîte blanche: guide complet avec exemples et meilleures pratiques

Apprenez à tester votre code avec cet incroyable tutoriel de test en boîte blanche! Découvrez les meilleures pratiques et des exemples pratiques pour vous aider à démarrer.

## Test de boîte blanche : une méthode de test logiciel

La méthode de test logiciel du White box testing est une méthode de test logiciel dans laquelle la structure interne et l’implémentation du logiciel testé sont connues et utilisées comme base pour concevoir les cas de test. Il implique le test du logiciel au niveau du code et nécessite une bonne compréhension du code et de la conception du logiciel. Il est également connu sous le nom de glass box, transparent box, clear box ou structural testing.

La plupart des testeurs ont déjà eu une certaine expérience avec ce type de test à un moment donné de leur carrière. Des techniques comme celles-ci se battent pour exister dans un monde de plus en plus axé sur l’agilité. L’adoption d’approches agiles ne signifie pas reporter des tâches pour mener le projet à bien.

Les bases de données sont un outil très important dans le processus de test White Box. Les bases de données peuvent être utilisées pour stocker les informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur le code source et les fonctionnalités du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests.

Les bases de données peuvent également être utilisées pour stocker des informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur le code source et les fonctionnalités du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur les performances et la fiabilité du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests.

Les bases de données sont également utiles pour enregistrer et suivre les bugs et les problèmes rencontrés lors des tests. Les bases de données peuvent être utilisées pour stocker des informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur les performances et la fiabilité du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests.

Enfin, les bases de données peuvent être utilisées pour stocker des informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur le code source et les fonctionnalités du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. De plus, les bases de données peuvent être utilisées pour stocker des informations sur les performances et la fiabilité du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs

Source de l’article sur DZONE

Ne Pas Utiliser de Credentiels dans une CI/CD Pipeline

Les pipelines CI/CD sont des outils puissants, mais il est important de ne pas utiliser de credentiels sensibles pour éviter les risques de sécurité.

Comment Donner un Accès Sécurisé à des Services Tiers Sans Utiliser de Clés Secrètes

OpenID Connect (OIDC) is a protocol that allows users to authenticate themselves with an external identity provider, such as Auth0 or Okta. It works by exchanging an access token between the identity provider and the application. This token is cryptographically signed and contains a set of claims about the user, such as their name, email, and other attributes. The application can then use this token to authenticate the user and grant them access to resources.

En tant qu’utilisateur qui construit et maintient des infrastructures cloud, j’ai toujours été méfiant du point de vue de la sécurité lorsque je donne un accès à des services tiers, tels que les plateformes CI/CD. Tous les fournisseurs de services prétendent prendre des précautions strictes et mettre en œuvre des processus infaillibles, mais les vulnérabilités sont toujours exploitées et les erreurs arrivent. Par conséquent, ma préférence est d’utiliser des outils qui peuvent être hébergés en interne. Cependant, je ne peux pas toujours avoir le choix si l’organisation est déjà engagée auprès d’un partenaire externe, tel que Bitbucket Pipelines ou GitHub Actions. Dans ce cas, pour appliquer un IaC Terraform ou déployer un groupe d’échelle automatique, il n’y a pas d’autre choix que de fournir à l’outil externe une clé secrète API, n’est-ce pas ? Faux ! Avec la prolifération de OpenID Connect, il est possible de donner aux plates-formes tierces un accès basé sur des jetons qui n’exige pas de clés secrètes.

Le problème avec une clé secrète est qu’il y a toujours une chance qu’elle soit divulguée. Le risque augmente plus elle est partagée, ce qui se produit lorsque des employés quittent et que de nouveaux arrivent. L’un d’entre eux peut le divulguer intentionnellement ou ils peuvent être victimes d’une hameçonnage ou d’une violation. Lorsqu’une clé secrète est stockée dans un système externe, cela introduit un tout nouvel ensemble de vecteurs de fuite potentiels. Atténuer le risque implique de changer périodiquement les informations d’identification, ce qui est une tâche qui n’ajoute pas de valeur perceptible.

OpenID Connect (OIDC) est un protocole qui permet aux utilisateurs de s’authentifier auprès d’un fournisseur d’identité externe, tel qu’Auth0 ou Okta. Il fonctionne en échangeant un jeton d’accès entre le fournisseur d’identité et l’application. Ce jeton est signé de manière cryptographique et contient un ensemble de revendications sur l’utilisateur, telles que son nom, son adresse électronique et d’autres attributs. L’application peut ensuite utiliser ce jeton pour authentifier l’utilisateur et lui donner accès aux ressources.

Les jetons OIDC sont une alternative intéressante aux clés secrètes pour donner aux plates-formes tierces un accès limité aux ressources cloud. Les jetons sont générés par le fournisseur d’identité et peuvent être limités à une durée de vie spécifique et à un ensemble de revendications spécifiques. De plus, ils peuvent être révoqués à tout moment par le fournisseur d’identité si nécessaire. Les jetons OIDC sont donc une solution plus sûre et plus flexible pour donner aux plates-formes tierces un accè

Source de l’article sur DZONE

in Natural Language ProcessingChatGPT : Révolution dans le traitement du langage naturel

Le traitement du langage naturel est en train de connaître une révolution avec ChatGPT, une technologie innovante qui offre des possibilités inédites.

## ChatGPT-4, la nouvelle révolution pour l’industrie du corporate

ChatGPT-4 est la nouvelle révolution pour l’industrie des entreprises. Quatre est la dernière version développée par Open AI – ChatGPT, nommée Generative Pre-Trained Transformer. Cela changera la perception de l’industrie par rapport à la communication avec les machines.

L’apprentissage automatique joue un rôle important en tant que composant dans ChatGPT. ChatGPT comprend l’apprentissage profond et génère des réponses de haute qualité à l’utilisateur en fonction de ses entrées. Il s’agit d’un type de modèle de réseau que nous pouvons considérer comme un modèle de réseau neuronal dans l’apprentissage automatique. Les modèles ne sont rien; certains données formées sur de grands jeux de données textuelles pour comprendre et générer une relation entre les mots ainsi qu’avec des phrases.

ChatGPT-4 est très précis et peut fournir des réponses appropriées à la demande de l’utilisateur. Il peut également être utilisé pour le traitement du langage naturel (NLP), qui est un domaine qui se concentre sur le traitement des données textuelles et leur interprétation. La technologie NLP est utilisée pour analyser et comprendre le langage humain et pour interagir avec lui. ChatGPT-4 peut être utilisé pour analyser les données textuelles et générer des réponses précises et pertinentes à la demande de l’utilisateur.

ChatGPT-4 est une technologie très puissante qui peut être utilisée pour améliorer les processus commerciaux. Il peut être utilisé pour automatiser des tâches répétitives, telles que le traitement des données, la prise de décisions et la gestion des relations avec les clients. Il peut également être utilisé pour améliorer la qualité des services fournis aux clients et pour réduire les coûts liés à la gestion des données. La technologie ChatGPT-4 peut être utilisée pour améliorer la productivité et la rentabilité de l’entreprise en fournissant des informations précises et pertinentes basées sur les données.

Source de l’article sur DZONE

Déploiement logiciel : meilleures pratiques en 2023

2023 sera l’année où les meilleures pratiques de déploiement logiciel seront mises en avant. Découvrez comment vous pouvez améliorer votre processus de déploiement !

Le déploiement est le jour où le logiciel est enfin mis à disposition du monde. Pourtant, comme l’a dit le PDG de Stackify, Matt Watson, les organisations manquent de confiance dans le déploiement. L’une des plus grandes forces de l’agilité est la capacité à déployer rapidement. Cependant, en allant trop vite et sans suivre les bonnes procédures, on peut constater des problèmes tels que des interruptions de service, des erreurs et une mauvaise expérience utilisateur.

Le déploiement est le jour où le logiciel est enfin mis à disposition du monde. Pourtant, comme l’a dit le PDG de Stackify, Matt Watson, les organisations manquent de confiance en matière de déploiement. L’une des plus grandes forces de l’agilité est la capacité de déployer rapidement. Cependant, en allant trop vite et sans suivre les bonnes procédures, on peut constater des problèmes tels que des temps d’arrêt, des erreurs et une mauvaise expérience utilisateur.

Pour réussir le déploiement d’une application, il est important de disposer d’une base de données solide et fiable. Une base de données bien conçue peut aider à garantir la qualité et la fiabilité du logiciel déployé. Une base de données peut également fournir des informations précieuses sur les performances et la sécurité du logiciel. En outre, une base de données peut être utilisée pour stocker des informations sur les utilisateurs et leur comportement, ce qui peut être très utile pour améliorer l’expérience utilisateur.

Une bonne base de données peut également aider à réduire les risques liés au déploiement. Les bases de données peuvent être utilisées pour stocker des informations sur les tests et les versions précédentes du logiciel, ce qui permet aux développeurs de réaliser des tests plus approfondis avant le déploiement. Les bases de données peuvent également être utilisées pour stocker des informations sur les erreurs et les bogues, ce qui permet aux développeurs de trouver et de corriger rapidement les problèmes avant le déploiement. Enfin, une base de données peut être utilisée pour stocker des informations sur le comportement des utilisateurs et leurs interactions avec le logiciel, ce qui permet aux développeurs de mieux comprendre comment le logiciel est utilisé et comment il peut être amélioré.

En conclusion, une bonne base de données est essentielle pour réussir le déploiement d’une application. Une base de données bien conçue peut aider à garantir la qualité et la fiabilité du logiciel déployé, tout en fournissant des informations précieuses sur les performances et la sécurité du logiciel. Une base de données peut également être utilisée pour stocker des informations sur les tests et les versions précédentes du logiciel, ce qui permet aux développeurs de réaliser des tests plus approfondis avant le déploiement. Enfin, une base de données peut être utilisée pour stocker des informations sur le comportement des utilisateurs et leurs interactions avec le logiciel, ce qui permet aux développeurs de mieux comprendre comment le logiciel est utilisé et comment il peut être amélioré.

Source de l’article sur DZONE

Améliorer l'intégration Web3 grâce à l'abstraction des comptes et des flux

de données.

L’abstraction des comptes et des flux de données est une solution pour améliorer l’intégration Web3 et faciliter l’interaction entre les utilisateurs et les applications.

Si vous êtes un développeur travaillant sur une application web3, vous savez qu’il est difficile d’intégrer des utilisateurs grand public à web3.

Même avec la promesse de vraiment posséder vos données, de faire des paiements presque gratuits à l’échelle mondiale et d’utiliser un système sans censure, le processus actuel de création et d’utilisation d’un portefeuille numérique est tout simplement trop difficile.

Si vous êtes un développeur travaillant sur une application web3, vous savez qu’il est difficile d’intégrer des utilisateurs grand public à web3.

Même avec la promesse de véritablement posséder vos données, de faire des paiements presque gratuits à l’échelle mondiale et d’utiliser un système sans censure, le processus actuel de création et d’utilisation d’un portefeuille numérique est tout simplement trop difficile.

C’est pourquoi le codage est si important pour faciliter l’onboarding des utilisateurs sur web3. Les développeurs peuvent utiliser des outils tels que Web3.js et EthereumJS pour créer des applications web3 qui sont faciles à utiliser pour les utilisateurs finaux. Ces outils permettent aux développeurs de créer des applications web3 qui sont simples à utiliser et qui offrent une expérience utilisateur fluide et intuitive.

En outre, le codage peut également aider à améliorer la sécurité de l’application web3. Les développeurs peuvent créer des applications web3 qui sont plus sûres et qui protègent les données des utilisateurs. Les développeurs peuvent également utiliser des outils tels que Solidity et Truffle pour créer des contrats intelligents qui peuvent être exécutés sur la blockchain Ethereum. Ces contrats intelligents peuvent être utilisés pour garantir la sécurité des données des utilisateurs et pour assurer que les transactions sont effectuées en toute sécurité.

Enfin, le codage peut également aider à améliorer l’expérience utilisateur globale des applications web3. Les développeurs peuvent créer des applications web3 qui sont plus intuitives et qui offrent une meilleure expérience utilisateur. Les développeurs peuvent également utiliser des outils tels que React et Redux pour créer des applications web3 qui sont plus rapides et plus réactives. Ces outils permettent aux développeurs de créer des applications web3 qui sont plus intuitives et qui offrent une meilleure expérience utilisateur pour les utilisateurs finaux.

Source de l’article sur DZONE

De zéro à héros: Apprendre Web3 avec Infura et Python

Devenez un héros du Web3 en apprenant à utiliser Infura et Python ! Découvrez comment créer des applications décentralisées avec ces outils puissants.

Comment démarrer avec le Web3

Pour commencer

Même si je code depuis la fin des années 90, je suis vraiment un débutant complet dans le monde de Web3. Je ne suis pas un expert, donc je n’essaierai pas d’expliquer les fondamentaux. Il y a beaucoup de guides et de tutoriels de contenu excellents là-bas. Je suggère de commencer par la documentation Infura, qui est très complète et compréhensible.

Comprendre les prérequis

Avant de commencer à développer des applications Web3, il est important de comprendre les prérequis. Tout d’abord, vous devez comprendre les principes fondamentaux de la blockchain et des crypto-monnaies. Ensuite, vous devez comprendre le protocole Ethereum et la plate-forme Ethereum. Enfin, vous devez comprendre le langage de programmation Solidity et le framework Web3.js. Une fois que vous avez compris ces concepts, vous pouvez commencer à développer des applications Web3.

Test

Une fois que vous avez compris les prérequis, vous pouvez commencer à tester votre application Web3. Pour ce faire, vous pouvez utiliser un service d’API tel que Infura pour accéder à la blockchain Ethereum. Vous pouvez également utiliser Python pour interagir avec la blockchain via Infura. Une fois que vous avez mis en place votre environnement de développement, vous pouvez commencer à tester votre application Web3 en utilisant des outils tels que Truffle et Ganache. Vous pouvez également tester votre application sur un réseau réel en utilisant un service tel que MetaMask.

Source de l’article sur DZONE

Concevoir une architecture hybride durable: le rôle crucial de l'empreinte carbone

La conception d’une architecture hybride durable est un défi majeur. Une attention particulière doit être portée à l’empreinte carbone pour garantir une solution durable.

L’augmentation de la demande en services de cloud computing et son impact sur l’environnement, mettant en évidence la nécessité de prioriser la durabilité et de réduire les émissions de carbone dans les environnements cloud hybrides, sont abordés dans cet article. Il souligne l’importance des exigences non fonctionnelles, en particulier l’empreinte carbone, dans la conception de l’architecture cloud hybride et la nécessité d’un rapport standardisé des émissions de carbone pour la transparence et le respect des obligations. L’article explore également diverses opportunités pour minimiser l’empreinte carbone, notamment l’optimisation de l’utilisation de l’énergie et des exigences matérielles, ainsi que la gestion de l’empreinte carbone par le suivi et le reporting des émissions, l’optimisation de l’utilisation du matériel et l’adoption de sources d’énergie renouvelables. Le rôle des fournisseurs de cloud dans l’aide aux entreprises à réduire leur empreinte carbone est discuté, ainsi que l’importance de la collaboration entre les dirigeants d’entreprise, les équipes informatiques et les fournisseurs de cloud pour intégrer la durabilité dans le processus de conception de la solution. De plus, l’article met en évidence l’impact significatif des exigences non fonctionnelles telles que le placement des charges de travail et le routage du réseau sur l’empreinte carbone d’une entreprise, soulignant la nécessité de prendre en compte les facteurs de durabilité pendant la conception et la mise en œuvre des environnements cloud hybrides pour réduire les émissions de carbone et se conformer aux exigences réglementaires.

## L’impact de la demande croissante en services de cloud computing sur l’environnement et la nécessité de prioriser la durabilité

L’utilisation croissante des services de cloud computing et son impact sur l’environnement soulignent la nécessité de prioriser la durabilité et de réduire les émissions de carbone dans les environnements hybrides cloud. Il est important de mettre l’accent sur les exigences non fonctionnelles, en particulier l’empreinte carbone, dans la conception de l’architecture hybride cloud et la nécessité d’un rapport standardisé des émissions de carbone pour la transparence et le respect des obligations.

Il existe plusieurs possibilités pour minimiser l’empreinte carbone, notamment l’optimisation de l’utilisation de l’énergie et des exigences matérielles, ainsi que la gestion de l’empreinte carbone par le suivi et le rapport des émissions, l’optimisation de l’utilisation du matériel et l’adoption de sources d’énergie renouvelables. Le rôle des fournisseurs de cloud dans l’aide aux entreprises à réduire leur empreinte carbone est discuté, ainsi que l’importance de la collaboration entre les dirigeants d’entreprise, les équipes informatiques et les fournisseurs de cloud pour intégrer la durabilité dans le processus de conception des solutions. De plus, l’article met en évidence l’impact significatif des exigences non fonctionnelles telles que le placement des charges de travail et le routage du réseau sur l’empreinte carbone d’une entreprise, soulignant la nécessité de prendre en compte les facteurs de durabilité lors de la conception et de la mise en œuvre des environnements hybrides cloud pour réduire les émissions de carbone et se conformer aux exigences réglementaires.

Les solutions hybrides cloud sont un moyen efficace pour les entreprises de réduire leur empreinte carbone et de répondre aux exigences réglementaires. Les fournisseurs de cloud doivent travailler en étroite collaboration avec les entreprises pour intégrer la durabilité dans le processus de conception des solutions. Les entreprises doivent également prendre en compte les exigences non fonctionnelles telles que le placement des charges de travail et le routage du réseau pour réduire leur empreinte carbone. Enfin, il est important d’adopter des sources d’énergie renouvelables et d’optimiser l’utilisation des ressources matérielles et énergétiques pour minimiser l’empreinte carbone et respecter les exigences réglementaires. La conception d’une architecture hybride cloud durable est essentielle pour assurer une empreinte carbone minimale et une conformité aux exigences réglementaires.

Source de l’article sur DZONE

SAP France s’engage avec la start-up Evolukid, les territoires de Lens-Liévin et Aix-Marseille pour le lancement du programme KESK’IA, programme d’excellence dédié aux étudiants en filières informatiques et digitales.

Paris, le 3 avril 2023 – SAP, leader mondial des logiciels innovants de gestion d’entreprises, renforce sa présence dans les territoires au service de l’égalité des chances avec le lancement du programme KESK’IA, en partenariat avec Evolukid, plateforme éducative pour développer les compétences du futur. Sur tout le territoire hexagonal, SAP France s’associe aux côtés de ses partenaires tels que L’Oréal, Société Générale, TATA Consultancy Services et UPS.

 

Favoriser l’égalité des chances dans le numérique avec KESK’IA.

Entre février et juin 2023, près de 100 étudiants seront accompagnés pour réaliser des prototypes d’Intelligence Artificielle au service de leur territoire. Sélectionnés parmi plus de 450 candidatures, ils seront chargés de développer des projets concrets à impacts positifs dans sept territoires via le programme KESK’IA. Ce programme d’excellence destiné aux étudiants en filière Informatique ou digitale vise à perfectionner leurs compétences et à préparer les talents de demain dans le domaine de l’Intelligence Artificielle.

Pendant toute la durée du programme, des mentors de SAP France accompagneront ces futurs talents pour la mise en œuvre d’une vingtaine de prototypes autour de quatre thématiques :

  • Prévention des risques et sécurité : détection du harcèlement
  • Environnement et écologie: Reconnaissance des déchets dans des zones difficilement accessibles par drones, réduction du gaspillage alimentaires dans les cantines scolaires
  • E-Réputation: Mesure des commentaires négatifs sur la collectivité
  • Aménagement du territoire : Reconnaissance d’infrastructures endommagées par drones ou caméra de vidéo-surveillance.

« SAP France est très fier de participer au programme KESK’IA, en partenariat avec Evolukid. Depuis toujours, SAP est déterminé à aller chercher les talents sur tout le territoire : en milieu urbain, rural ou en QPV. Ce programme renforce nos engagements en faveur de l’accessibilité de notre filière. C’est également une formidable occasion de montrer aux collectivités les atouts de l’IA et de les équiper face aux défis technologiques actuels. » déclare Olivier Nollent, Président – Directeur Général de SAP France.

« Pouvoir faire émerger de l’innovation et de la valeur ajoutée des quartiers populaires est ce que l’on recherche. Il faut redonner de la confiance à ces jeunes qui n’ont pas les relations pour rentrer facilement sur le marché : c’est ce que permet KESK’IA. Pouvoir s’appuyer sur de grandes entreprises de la tech telles que SAP est important et stimulant. C’est une vraie chance pour les étudiants du programme, mais aussi pour ces entreprises qui peuvent s’investir dans un projet à impact et faire grandir de nouveaux talents. » a ajouté Morad Attik, CEO d’Evolukid et Directeur du programme KESK’IA.

 

SAP France, un leader mondial engagé pour l’insertion professionnelle dans les territoires.

En tant que partenaire du programme KESK’IA, SAP France apporte sa contribution aux côtés de la Communauté d’Agglomération de Lens-Liévin (CALL) et la Métropole d’Aix-Marseille et accompagne 20 étudiants répartis dans ces deux territoires. En renforçant sa présence dans les territoires en dehors de ses sites d’implantation français, SAP en France souhaite être le moteur de l’intégration, de l’égalité des chances et de l’insertion professionnelle dans le domaine de l’IA.

Dans le Nord-Pas-de-Calais et dans les Bouches-du-Rhône, SAP vise à résoudre le déficit de compétences, de vocations des jeunes dans le numérique et s’emploie à faire grandir les talents de ces deux territoires en apportant des connaissances et un nouveau réseau professionnel.

« Rêver, s’obstiner et réussir… il y a de la magie à voir grand ! Et cette citation d’Erick Orsenna et Marie Eloy qui caractérise la team et les jeunes de Lens. Car avoir ce type de programme chez nous et les grands groupes comme SAP et l’Oréal à nos côtés c’est inespéré ! Alors oui, ils rêvent mais ils sont obstinés à réussir ce projet. » ajoute Saliha SADOUKI, Responsable Pôle Communication & Numérique, Maison de l’Emploi du bassin Lens, Liévin, Hénin, Carvin.

Après quatre mois de développement, les étudiants présenteront devant un jury d’experts et d’élus leurs prototypes. Les sept prototypes finalistes qui représenteront les sept territoires du programme KESK’IA seront présentés par les étudiants en juin. Les trois meilleurs projets seront récompensés lors d’une cérémonie nationale à Paris rassemblant sponsors, entreprises partenaires, collectivités et experts de l’intelligence artificielle.

 

***

À propos de SAP en France 

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com.   

 

A propos d’Evolukid 

Evolukid, startup EdTech, accompagne depuis 2016 les collectivités territoriales et les entreprises dans la mise en œuvre de projets innovants liés aux nouvelles technologies. Notre expertise – incluant l’ingénierie pédagogique, le matériel, les intervenants formés, les déplacements et la logistique globale – nous permet d’intervenir partout en France et à l’étranger. Depuis 2019, nous avons lancé la plateforme éducative en ligne Evolukid : notre solution en ligne proposant des parcours éducatifs et des classes virtuelles pour répondre aux besoins des familles. Evolukid devient une véritable école numérique pour tous types de projets.

En partenariat avec la Banque des Territoires, Evolukid lance en février 2023 le programme KESK’IA pour former les étudiants et les talents des quartiers populaires à l’intelligence artificielle. Des villes associées telles que Lens, Meaux, Nantes, Marseille, et des acteurs majeurs de l’économie tels que Sales Force, Google, et d’autres leaders mondiaux qui rejoignent actuellement l’initiative seront parties prenantes du programme KESK’IA.

Ces jeunes étudiants, sélectionnés à l’issue du processus pédagogique, répondront à des problématiques locales d’écologie, de gestion des déchets et de citoyenneté par l’intelligence artificielle en livrant des prototypes fonctionnels (généralisables à d’autres territoires). Enfin, à l’issue de cette initiative, lors de la grande soirée de clôture avec l’ensemble des sponsors et partenaires, les candidats présenteront leurs prototypes et se verront décerner le prix de la meilleure innovation par un grand jury. Cela permettra aux entreprises non seulement de recruter les meilleurs, mais aussi de rappeler que les quartiers prioritaires sont le creuset de l’ambition de la France de se hisser parmi les premières nations en matière d’innovation et de nouvelles technologies.

 

Contact presse : 

SAP France 

Sylvie Léchevin

sylvie.lechevin@sap.com

sap@the-arcane.com

Evolukid

Amadou Dabitao ou Lralia Sall

contact@bnagency.co / lralia@bnagency.co

+33 6 95 10 50 99

 

The post Insertion professionnelle et égalité des chances : SAP France s’associe avec Evolukid et les territoires de Lens-Liévin et Aix-Marseille pour lancer un programme d’excellence autour de l’intelligence artificielle. appeared first on SAP France News.

Source de l’article sur sap.com

L’arrivée de SAP S/4HANA 1809 a donné à Groupe Atlantic l’opportunité de basculer vers une gestion du transport totalement intégrée. Une offre qui a été déployée avec succès sur les deux principaux sites de distribution français du groupe.

En conservant son esprit d’entreprise familiale, Groupe Atlantic connaît une croissance fulgurante qui lui vaut aujourd’hui d’être devenu un acteur international, leader européen des solutions de confort thermique.

Le catalogue de l’industriel comprend des solutions à destination des particuliers comme des professionnels, avec des produits dédiés au chauffage, à la production d’eau chaude sanitaire, au traitement de l’air ou encore à son rafraîchissement. Le tout étant distribué sous un grand nombre de marques reconnues, dont – en France – Atlantic, Sauter ou encore Thermor.

Groupe Atlantic est aujourd’hui présent sur 4 continents, avec 31 sites industriels et une très forte présence sur le sol français. Il fait travailler 11.600 collaborateurs, pour un chiffre d’affaires annuel de 2,7 milliards d’euros. Un CA qui a été doublé en seulement 6 ans !

Pour maintenir cette dynamique, l’industriel se doit de desservir ses clients avec toujours plus d’efficacité. Groupe Atlantic dispose de deux principaux centres logistiques en France : à l’ouest celui de La Roche-sur-Yon (le siège du groupe) et à l’est celui de Saint-Louis, Atlantic Logistique Est.

Aller vers toujours plus d’intégration

William Guillet est Business Process Owner Logistique chez Groupe Atlantic. Dès 2017, il a été chargé de travailler à l’intégration de SAP Transportation Management (SAP TM) dans le nouveau système d’information du groupe, centré sur l’ERP SAP S/4HANA. L’objectif était de disposer d’un outil solide permettant d’organiser la logistique aval du groupe : expéditions comme retours.

« SAP S/4HANA 1809 a introduit une version embarquée de SAP TM. Nous y avons vu l’opportunité de disposer d’une solution de gestion de la logistique mieux intégrée à l’ERP, mais aussi à notre outil de gestion des entrepôts SAP EWM. Il s’est avéré toutefois difficile de trouver des experts SAP TM capables de nous accompagner sur ce projet. Après une phase de prise de contact, il est apparu que NTT DATA Business Solutions saurait répondre à nos besoins. » William Guillet Business Process Owner Logistique

Groupe Atlantic décide tout d’abord de doter sa jeune filiale Atlantic Logistique Est (ALE) de cette version totalement intégrée. Un projet démarré en août 2020, avec comme objectif un déploiement en janvier 2022.

« Nous sommes repartis de zéro, mais tout en conservant les processus que nous avions éprouvés avec la version standalone de SAP TM, poursuit William Guillet : gestion du fret, calcul des coûts de transport, etc. Nous avons conservé les processus déjà en place, en améliorant certaines fonctionnalités et en en introduisant d’autres, comme Optimizer (planification et optimisation des transports). Nous avons également mis en place de nouvelles intégrations permettant à SAP TM et SAP EWM (gestion des entrepôts) de se parler directement, sans passer par l’ERP. »

Un second déploiement à La Roche-sur-Yon

Après ce premier succès, Groupe Atlantic programme le déploiement de SAP TM sur son site de distribution de La Roche-sur-Yon. Le plus important de France, avec plus de 1000 salariés. « Nous avons apprécié alors l’expertise de NTT DATA Business Solutions, qui a travaillé avec nous sur des améliorations conséquentes de la solution, permettant de mieux couvrir les besoins métiers exprimés par nos équipes. »

Le déploiement de la solution sur le site de La Roche-sur-Yon est effectif depuis avril 2022. Trop tôt donc pour en mesurer les bénéfices. « Le plus gros des difficultés rencontrées a été aujourd’hui solutionné et nos référents métiers sont unanimes sur un point : ils ne reviendraient pas en arrière, précise William Guillet. Comme notre activité logistique ne ralentit pas – elle va même connaître un pic avec l’arrivée de la période de chauffe – nous comptons sur SAP TM pour accompagner l’évolution de notre supply chain, ainsi que la croissance de Groupe Atlantic. »

Avec ce déploiement, la relation avec les équipes de NTT DATA Business Solutions arrive à son terme… pour le moment. SAP TM est en effet intégré dans le core model de l’environnement SAP S/4HANA développé pour Groupe Atlantic. « Notre prochain déploiement concernera la Turquie, qui n’a pas besoin de SAP TM. Les équipes de NTT DATA Business Solutions pourraient toutefois être mobilisées lors de déploiements futurs de SAP TM, par exemple sur des sites de distribution qui n’en seraient pas dotés, ou basculant depuis un autre TMS. »

The post Groupe Atlantic internalise la gestion de sa logistique dans SAP S/4HANA avec SAP TM appeared first on SAP France News.

Source de l’article sur sap.com