Articles

Le 12 juin 2023, Fortinet a publié un avis de sécurité concernant la vulnérabilité CVE-2023-27997. Celle-ci permet à un attaquant non authentifié d’exécuter du code arbitraire à distance sur des produits Fortinet qui proposent une fonctionnalité de VPN SSL.

Dans une …
Source de l’article sur CERT-FR

Tutoriel de test en boîte blanche: guide complet avec exemples et meilleures pratiques

Apprenez à tester votre code avec cet incroyable tutoriel de test en boîte blanche! Découvrez les meilleures pratiques et des exemples pratiques pour vous aider à démarrer.

## Test de boîte blanche : une méthode de test logiciel

La méthode de test logiciel du White box testing est une méthode de test logiciel dans laquelle la structure interne et l’implémentation du logiciel testé sont connues et utilisées comme base pour concevoir les cas de test. Il implique le test du logiciel au niveau du code et nécessite une bonne compréhension du code et de la conception du logiciel. Il est également connu sous le nom de glass box, transparent box, clear box ou structural testing.

La plupart des testeurs ont déjà eu une certaine expérience avec ce type de test à un moment donné de leur carrière. Des techniques comme celles-ci se battent pour exister dans un monde de plus en plus axé sur l’agilité. L’adoption d’approches agiles ne signifie pas reporter des tâches pour mener le projet à bien.

Les bases de données sont un outil très important dans le processus de test White Box. Les bases de données peuvent être utilisées pour stocker les informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur le code source et les fonctionnalités du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests.

Les bases de données peuvent également être utilisées pour stocker des informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur le code source et les fonctionnalités du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur les performances et la fiabilité du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests.

Les bases de données sont également utiles pour enregistrer et suivre les bugs et les problèmes rencontrés lors des tests. Les bases de données peuvent être utilisées pour stocker des informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur les performances et la fiabilité du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests.

Enfin, les bases de données peuvent être utilisées pour stocker des informations sur les tests et leurs résultats, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. Les bases de données peuvent également être utilisées pour stocker des informations sur le code source et les fonctionnalités du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs tests. De plus, les bases de données peuvent être utilisées pour stocker des informations sur les performances et la fiabilité du logiciel, ce qui permet aux testeurs d’accéder rapidement aux informations dont ils ont besoin pour effectuer leurs

Source de l’article sur DZONE

Ne Pas Utiliser de Credentiels dans une CI/CD Pipeline

Les pipelines CI/CD sont des outils puissants, mais il est important de ne pas utiliser de credentiels sensibles pour éviter les risques de sécurité.

Comment Donner un Accès Sécurisé à des Services Tiers Sans Utiliser de Clés Secrètes

OpenID Connect (OIDC) is a protocol that allows users to authenticate themselves with an external identity provider, such as Auth0 or Okta. It works by exchanging an access token between the identity provider and the application. This token is cryptographically signed and contains a set of claims about the user, such as their name, email, and other attributes. The application can then use this token to authenticate the user and grant them access to resources.

En tant qu’utilisateur qui construit et maintient des infrastructures cloud, j’ai toujours été méfiant du point de vue de la sécurité lorsque je donne un accès à des services tiers, tels que les plateformes CI/CD. Tous les fournisseurs de services prétendent prendre des précautions strictes et mettre en œuvre des processus infaillibles, mais les vulnérabilités sont toujours exploitées et les erreurs arrivent. Par conséquent, ma préférence est d’utiliser des outils qui peuvent être hébergés en interne. Cependant, je ne peux pas toujours avoir le choix si l’organisation est déjà engagée auprès d’un partenaire externe, tel que Bitbucket Pipelines ou GitHub Actions. Dans ce cas, pour appliquer un IaC Terraform ou déployer un groupe d’échelle automatique, il n’y a pas d’autre choix que de fournir à l’outil externe une clé secrète API, n’est-ce pas ? Faux ! Avec la prolifération de OpenID Connect, il est possible de donner aux plates-formes tierces un accès basé sur des jetons qui n’exige pas de clés secrètes.

Le problème avec une clé secrète est qu’il y a toujours une chance qu’elle soit divulguée. Le risque augmente plus elle est partagée, ce qui se produit lorsque des employés quittent et que de nouveaux arrivent. L’un d’entre eux peut le divulguer intentionnellement ou ils peuvent être victimes d’une hameçonnage ou d’une violation. Lorsqu’une clé secrète est stockée dans un système externe, cela introduit un tout nouvel ensemble de vecteurs de fuite potentiels. Atténuer le risque implique de changer périodiquement les informations d’identification, ce qui est une tâche qui n’ajoute pas de valeur perceptible.

OpenID Connect (OIDC) est un protocole qui permet aux utilisateurs de s’authentifier auprès d’un fournisseur d’identité externe, tel qu’Auth0 ou Okta. Il fonctionne en échangeant un jeton d’accès entre le fournisseur d’identité et l’application. Ce jeton est signé de manière cryptographique et contient un ensemble de revendications sur l’utilisateur, telles que son nom, son adresse électronique et d’autres attributs. L’application peut ensuite utiliser ce jeton pour authentifier l’utilisateur et lui donner accès aux ressources.

Les jetons OIDC sont une alternative intéressante aux clés secrètes pour donner aux plates-formes tierces un accès limité aux ressources cloud. Les jetons sont générés par le fournisseur d’identité et peuvent être limités à une durée de vie spécifique et à un ensemble de revendications spécifiques. De plus, ils peuvent être révoqués à tout moment par le fournisseur d’identité si nécessaire. Les jetons OIDC sont donc une solution plus sûre et plus flexible pour donner aux plates-formes tierces un accè

Source de l’article sur DZONE

Diageo, Maersk, Versuni et Fitcoin choisissent les innovations clés en main de SAP pour révolutionner leur business model et accélérer la transformation.

SAPPHIRE Barcelone — Mercredi 24 mai 2023 – Aujourd’hui, à l’occasion du salon SAP SAPPHIRE à Barcelone, en Espagne, SAP SE (NYSE : SAP) a dévoilé une série de partenariats stratégiques avec des entreprises internationales illustrant la manière dont SAP transforme leurs modèles d’entreprise, améliore la qualité de l’expérience client, crée les fondations pour l’innovation et la croissance, et promeut positivement le bien-être physique et mental grâce au lancement d’une plateforme de bien-être en entreprise.

Vous trouverez ci-dessous un résumé des annonces.

 

Diageo réalise son plus gros investissement technologique pour standardiser ses pratiques dans le monde entier 

Diageo, producteur de Guinness, Smirnoff et Johnnie Walker, s’est associé à SAP et IBM Consulting dans le cadre d’un programme de plusieurs millions de dollars. Cela constitue le plus gros investissement de Diageo dans sa technologie et ses services à ce jour.

Le programme pluriannuel aidera Diageo à :

  • Améliorer l’interaction entre les clients et les fournisseurs, grâce à la mise en œuvre de solutions d’automatisation et de flux de travail avancés.
  • Transférer l’organisation mondiale vers une plateforme opérationnelle unique, en améliorant l’efficacité de l’architecture informatique et de son modèle de soutien technologique.
  • Transformer les rapports de performance, afin d’obtenir une meilleure vision pour maximiser les opportunités commerciales.
  • Poursuivre la numérisation de son environnement de contrôle et de conformité, afin de rendre l’entreprise plus robuste et plus résistante.
  • Adopter des modes de fonctionnement standardisés permettant une plus grande agilité et une plus grande flexibilité dans la manière dont Diageo répond aux tendances émergentes du marché.

 

Diageo mettra en oeuvre le nouveau modèle basé sur le cloud, RISE with SAP S/4HANA Cloud, dans 180 pays, en veillant à ce que son infrastructure informatique soit simplifiée et prise en charge de manière unifiée.

Ce programme de transformation positionnera Diageo à la pointe des prestations de services clients et améliorera sa résilience dans un contexte où les attentes des consommateurs mutent et où le contexte économique est en évolution constante, créant les bases d’une entreprise prête à faire face aux défis d’avenir. Cet effort de normalisation et d’automatisation permettra à Diageo de suivre les commandes de ses clients en temps réel à l’échelle mondiale, et d’identifier de nouvelles opportunités commerciales dans les secteurs on trade et off trade.

IBM Consulting, partenaire de longue date de SAP et de Diageo, a été sélectionné pour diriger la mise en œuvre de RISE avec SAP S/4HANA Cloud.

 

Maersk utilise SAP Business Technology Platform pour accélérer sa transformation stratégique

La plus grande société de transport maritime par conteneurs au monde a réalisé des progrès significatifs dans sa transformation numérique en utilisant SAP Business Technology Platform pour accélérer son orientation stratégique ainsi que pour automatiser, accroître l’efficacité et la facilité d’utilisation des processus de gestion.

Avec un large éventail de domaines d’activité, notamment le transport maritime par conteneurs, les terminaux portuaires, la logistique et la chaîne d’approvisionnement, Maersk, dont le siège est au Danemark, exploite plus de 700 navires et couvre environ 343 ports dans plus de 100 pays à travers le monde. D’un point de vue stratégique, Maersk est en train de passer du statut de compagnie maritime à celui de fournisseur de chaîne d’approvisionnement de bout en bout.

Concrètement, Maersk a utilisé SAP BTP pour développer et mettre en œuvre des applications et des solutions dans des domaines tels que :

  • Gestion du crédit client : Auparavant, le processus comportait beaucoup d’activités manuelles, ce qui pouvait entraîner des erreurs et des retards. Désormais, Maersk utilise SAP BTP pour automatiser et personnaliser son processus de gestion du crédit client.
  • Rapprochement des comptes fournisseurs : Maersk a utilisé la plateforme d’automatisation de SAP BTP et l’automatisation intelligente des processus robotiques (SAP iRPA) pour effectuer des actions automatisées telles que l’analyse des courriels et l’extraction des pièces jointes, la conversion des données non structurées en données structurées et l’intégration d’une logique de validation dans les procédures au sein de la plateforme SAP BTP, réduisant ainsi les processus manuels dans les centres de services partagés de Maersk.
  • Garanties de trésorerie : Auparavant, ce processus nécessitait beaucoup de papier et pouvait entraîner des problèmes de qualité des données, ce qui entraînait des retards. Désormais, grâce à SAP BTP, Maersk a automatisé le processus et créé deux rôles spécifiques : le demandeur de garantie bancaire et l’approbateur. La solution comprend également l’intégration avec des banques externes.
  • Libération du fret par le client : Maersk a également des clients qui sont des clients de fret, c’est-à-dire qu’ils paient avant que le fret ne soit libéré. Cela nécessite un processus très délicat pour s’assurer que le paiement ait été reçu avant que la cargaison ne soit libérée. Le processus est déclenché par plusieurs systèmes back-end. Grâce à l’IA intégrée et à l’automatisation des processus dans SAP BTP, le paiement est associé à la facture, au document de transport et aux opérations de dédouanement du conteneur. Maersk a créé un quota de confiance IA qui autorise automatiquement si tout est correct à 100 %.
  • Planification et analyse : L’ensemble de la finance, de la planification et de l’analyse de Maersk est en train d’être transféré vers SAP Analytics Cloud. Cela permet à Maersk de fournir une planification et une analyse financières de bout en bout, y compris la budgétisation et les prévisions.

 

Versuni crée une base solide pour l’innovation et la croissance avec SAP et TCS

Versuni, qui regroupe les marques d’appareils électroménagers les plus renommées au monde, s’est engagé dans la refonte de son architecture technologique en 18 mois. Avec RISE with SAP et Tata Consultancy Services (TCS) comme partenaire stratégique, Versuni a migré vers un environnement SAP complet dans 55 pays et dans les temps impartis, et ce, avec SAP S/4HANA comme base pour l’innovation et la croissance.

Versuni a été confronté à un défi de taille. En l’espace de 18 mois seulement, il fallait créer une base solide – un “minimum viable product” – pour les opérations et la croissance de l’entreprise. Pour y parvenir, Versuni a lancé le programme Exuviate. Il s’agit d’une référence au processus par lequel les animaux tels que les insectes, les reptiles et certains mammifères se débarrassent de leur vieille peau ou coquille trop étroite pour les laisser se développer. Le programme était basé sur les principes “SAP, unless” et “cloud, unless”, et utilisait RISE with SAP pour faire la transition vers l’ERP dans le cloud. L’objectif est de créer une entreprise axée sur le numérique, qui stimule l’innovation et la croissance grâce à une prise de décision fondée sur les données.

Versuni, qui s’appuie sur SAP depuis plus de 30 ans en utilisant la suite d’applications de SAP, a bénéficié de processus intégrés de bout en bout, d’une gestion robuste des données et d’analyses avancées et d’intelligence artificielle. Ces composants sont essentiels pour stimuler l’innovation, l’efficacité opérationnelle et offrir de meilleures analyses.

Le plus grand défi consistait à établir les fondations nécessaires à la gestion et à l’expansion de l’entreprise dans un délai très serré de 18 mois. Versuni a remplacé ou supprimé tous les systèmes, de la messagerie électronique à la comptabilité, du marketing à la production et de la chaîne d’approvisionnement aux services de relation avec les clients. Il s’agissait du plus grand programme de ce type, où que ce soit et dans n’importe quel secteur d’activité.

Le programme comprenait la mise en œuvre de 40 nouveaux réseaux, le remplacement de 4 700 ordinateurs portables et de bureau, plus de 60 nouvelles applications dans le cloud, la migration de plus de 300 objets de données, la refonte de 400 rapports et de 3 500 processus. Versuni a réussi à passer à la SAP Best of Suite dans les délais impartis. Le 1er mai 2023, Versuni a mis en service ce nouvel environnement à l’échelle mondiale en une seule fois.

 

Fitcoin lance un projet pilote avec l’Université de Californie

Fitcoin a lancé une plateforme de bien-être développée sur la base de la technologie SAP qui permet de gagner une monnaie virtuelle en pratiquant une activité sportive. Cette monnaie est échangeable contre des récompenses destinées à améliorer la santé de ses usagers. La plateforme de bien-être  Fitcoin business, qui promeut positivement le bien-être physique et mental, démarre un projet pilote avec l’UC Davis, qui fait partie de l’université de Californie.

Le concept de Fitcoin est intelligent et innovant. Les utilisateurs épargnent une monnaie numérique (Fitcoins) via une application sur leur smartphone, accumulable en réalisant des exercices sportifs comme de la marche et du vélo. Les utilisateurs peuvent ensuite échanger les Fitcoins épargnés contre des récompenses saines qu’ils choisissent eux-mêmes dans le catalogue Fitcoin en ligne sur leur smartphone.

 

Christian Klein, PDG de SAP, conclut : “Partout dans le monde, la réussite de nos clients dépend de leur capacité à innover pour surmonter les bouleversements de marché, l’évolution des cadres réglementaires et les pénuries de compétences. Les partenariats que nous avons dévoilés à l’occasion de SAP SAPPHIRE illustrent le rôle que notre technologie révolutionnaire joue chaque jour pour aider nos clients à prospérer. Qu’il s’agisse d’automatisation axée sur la connaissance, de simplification de plateforme technologique, d’amélioration de l’expérience client ou de celle des employés, nous sommes là pour aider nos clients à relever les défis auxquels ils sont confrontés”.

 

Guide des actualités SAP SAPPHIRE 2023

Plus de détails sur les nouveautés, les lancements et les annonces dans le Sapphire News Guide.

Visitez le SAP News Center. Suivez SAP sur Twitter @SAPNews.

FIN

A propos de SAP en France

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

 

Pour plus d’informations, visitez le site www.sap.com.

Contact presse – Sylvie Léchevin – sylvie.lechevin@sap.com – sap@the-arcane.com

 

# # #

This document contains forward-looking statements, which are predictions, projections, or other statements about future events. These statements are based on current expectations, forecasts, and assumptions that are subject to risks and uncertainties that could cause actual results and outcomes to materially differ. Additional information regarding these risks and uncertainties may be found in our filings with the Securities and Exchange Commission, including but not limited to the risk factors section of SAP’s 2022 Annual Report on Form 20-F.

© 2023 SAP SE. All rights reserved.
SAP and other SAP products and services mentioned herein as well as their respective logos are trademarks or registered trademarks of SAP SE in Germany and other countries. Please see https://www.sap.com/copyright for additional trademark information and notices.

 

The post SAP présente une série de partenariats mondiaux avec des clients qui accélèrent la transformation appeared first on SAP France News.

Source de l’article sur sap.com

Produire et consommer des messages Avro avec Redpanda Schema Registry

Produire et consommer des messages Avro avec Redpanda Schema Registry est une tâche essentielle pour les applications modernes. Découvrez comment le faire facilement!

Si vous êtes familier avec Apache Kafka®, vous avez peut-être rencontré un registre de schémas compatible avec Kafka – un composant distinct que vous déployez en dehors de votre cluster Kafka, car Kafka n’en a pas intégré. 

Essentiellement, un schéma est une description logique de la façon dont vos données sont organisées, et donc un registre de schémas fournit un référentiel central pour ces schémas, permettant aux producteurs et aux consommateurs d’envoyer et de recevoir des données entre eux de manière transparente. Pour les architectures orientées événements, cela peut devenir complexe et difficile à gérer à mesure que vous évoluez, car les schémas de données peuvent changer et évoluer au fil du temps (pouvant potentiellement tout casser plus tard). 

## Utilisation d’un registre de schémas compatible avec Apache Kafka®

L’architecture Apache Kafka® est bien connue et il est possible de rencontrer un registre de schémas compatible avec Kafka, qui est un composant distinct que l’on déploie en dehors du cluster Kafka, car celui-ci n’en comporte pas.

Essentiellement, un schéma est une description logique de la façon dont vos données sont organisées et un registre de schémas fournit donc un référentiel central pour ces schémas, permettant aux producteurs et aux consommateurs d’envoyer et de recevoir des données entre eux sans heurts. Pour les architectures orientées événements, cela peut devenir complexe et difficile à gérer à mesure que l’on se développe, car les schémas de données peuvent changer et évoluer dans le temps (pouvant potentiellement provoquer des dysfonctionnements plus tard).

Un registre de schémas est donc une solution très pratique pour gérer ce type d’architecture. Il permet aux producteurs et aux consommateurs d’accéder facilement aux schémas des données, ce qui leur permet de s’assurer que les données envoyées et reçues sont cohérentes et conformes. De plus, le registre de schémas permet de conserver l’historique des versions des schémas, ce qui peut être très utile pour le débogage et le développement.

Enfin, le registre de schémas peut également être utilisé pour aider à la validation des données. Les producteurs peuvent envoyer des données à un registre de schémas avant de les envoyer à Kafka, ce qui permet de s’assurer que les données sont conformes aux schémas attendus. De même, les consommateurs peuvent également valider les données reçues avant de les traiter, ce qui permet d’assurer la qualité des données et d’améliorer l’efficacité des processus.

En somme, le registre de schémas est un outil très pratique pour gérer les architectures orientées événements. Il permet aux producteurs et aux consommateurs d’accéder facilement aux schémas des données, ce qui leur permet de s’assurer que les données envoyées et reçues sont cohérentes et conformes. De plus, il permet également d’aider à la validation des données, ce qui permet d’améliorer la qualité et l’efficacité des processus.

Source de l’article sur DZONE

Intégration Firebase Firestore et Redux Toolkit Query

L’intégration de Firebase Firestore et Redux Toolkit Query permet de créer des applications web plus robustes et plus performantes. Découvrez comment cela fonctionne!

## Avantages de l’utilisation de Firebase Firestore avec Redux Toolkit Query

1. Simplified Data Management: Firebase Firestore and Redux Toolkit Query work together to simplify data management. Firebase Firestore provides a powerful NoSQL document-oriented database that can store and manage data. Redux Toolkit Query helps to simplify the management of API data in a Redux store. This combination makes it easier to manage data in a web application.

2. Improved Performance: Firebase Firestore and Redux Toolkit Query can improve the performance of a web application. Firebase Firestore is optimized for performance, and Redux Toolkit Query helps to reduce the amount of code needed to manage API data. This combination can help to improve the overall performance of a web application.

3. Reduced Development Time: Firebase Firestore and Redux Toolkit Query can reduce the amount of time needed to develop a web application. By using this combination, developers can quickly and easily manage data in a web application. This reduces the amount of time needed to develop a web application and makes it easier to deploy it.

Intégrer Firebase Firestore à Redux Toolkit Query est un moyen efficace de gérer les données dans les applications web modernes. Redux Toolkit Query est une bibliothèque qui aide à simplifier la gestion des données API dans un magasin Redux. Firebase Firestore, d’autre part, est une base de données orientée document NoSQL qui peut stocker, récupérer et gérer les données. Cet article technique expliquera comment le code ci-dessus intègre Firebase Firestore à Redux Toolkit Query pour organiser le code et les avantages de cette approche.

Avantages de l’utilisation de Firebase Firestore avec Redux Toolkit Query

L’utilisation de Firebase Firestore avec Redux Toolkit Query offre plusieurs avantages. Voici trois d’entre eux :

1. Gestion des données simplifiée : Firebase Firestore et Redux Toolkit Query travaillent ensemble pour simplifier la gestion des données. Firebase Firestore fournit une puissante base de données orientée document NoSQL qui peut stocker et gérer les données. Redux Toolkit Query aide à simplifier la gestion des données API dans un magasin Redux. Cette combinaison facilite la gestion des données dans une application web.

2. Performance améliorée : Firebase Firestore et Redux Toolkit Query peuvent améliorer les performances d’une application web. Firebase Firestore est optimisé pour les performances et Redux Toolkit Query aide à réduire le nombre de lignes de code nécessaires pour gérer les données API. Cette combinaison peut contribuer à améliorer les performances globales d’une application web.

3. Temps de développement réduit : Firebase Firestore et Redux Toolkit Query peuvent réduire le temps nécessaire pour développer une application web. En utilisant cette combinaison, les développeurs peuvent gérer rapidement et facilement les données dans une application web. Cela réduit le temps nécessaire pour développer une application web et la rend plus facile à déployer.

Source de l’article sur DZONE

gRPC côté client

Le gRPC côté client offre une communication efficace et sécurisée entre un client et un serveur. Il permet une communication rapide et fiable entre les deux parties.

## Sans un standard de validation de schéma, nous devons tomber en arrière sur la validation manuelle dans le code

En tant que scientifique informatique enthousiaste, je suis très intéressé par les données et leur traitement. Les composants de communication inter-systèmes qui utilisent REST sérialisent leur charge utile en JSON. À l’heure actuelle, JSON manque d’un standard de validation de schéma largement utilisé : le schéma JSON n’est pas répandu. La validation de schéma standard permet de déléguer la validation à une bibliothèque tiers et d’en finir avec elle. Sans celle-ci, nous devons revenir à la validation manuelle dans le code. Pire encore, nous devons garder le code de validation synchronisé avec le schéma.

XML dispose d’une validation de schéma hors boîte : un document XML peut déclarer une grammaire à laquelle il doit se conformer. SOAP, étant basé sur XML, en bénéficie également. Les technologies XML et SOAP sont très populaires et largement utilisées dans les entreprises et les organisations pour leurs systèmes d’information. Cependant, JSON est devenu le format de données préféré pour les communications inter-systèmes, car il est plus léger et plus facile à manipuler que XML.

Heureusement, des outils tels que JSON Schema sont disponibles pour fournir une validation de schéma pour JSON. JSON Schema est un format de description de données qui permet aux développeurs de décrire le contenu des données JSON qu’ils attendent. Il fournit une syntaxe pour décrire les données et permet aux développeurs de valider des données JSON afin de s’assurer qu’elles sont conformes à la structure attendue. En outre, il existe des bibliothèques pour la plupart des langages de programmation qui peuvent être utilisées pour valider automatiquement les données JSON contre un schéma.

JSON Schema est donc un outil très utile pour les développeurs qui travaillent avec des données JSON. Il permet aux développeurs de décrire le contenu des données qu’ils attendent et de valider automatiquement les données pour s’assurer qu’elles sont conformes à la structure attendue. Cela peut grandement simplifier le processus de développement et réduire le temps nécessaire pour tester et déboguer les applications qui utilisent des données JSON.

Source de l’article sur DZONE

Aujourd’hui, le monde de l’entreprise reconnaît volontiers que ses ressources les plus précieuses sont sa propriété intellectuelle et les individus qui la composent.

Imaginez si vous pouviez collecter les connaissances des employés pour que ces derniers puissent les partager avec leurs collègues via l’apprentissage par les pairs ? C’est là tout l’attrait de la plateforme d’apprentissage collaboratif de 360Learning, désormais disponible sur SAP Store. La plateforme facilite une montée en compétences rapide, plus particulièrement dans les environnements professionnels qui évoluent vite et au sein desquels les besoins de formation sont constants. Tout le monde a la possibilité de créer, de proposer du contenu et de collaborer sur des cours. Ainsi, les formations sont mises à disposition plus rapidement, les employés, les clients et les partenaires se forment plus vite, et le gain de temps est considérable. Chez 360Learning, on dit qu’on “accélère le partage de compétences”. Compte tenu de la pénurie actuelle de talents, c’est une possibilité qui arrive à point nommé.

Optimisation de l’efficacité et du transfert des connaissances par le biais de la collaboration

L’idée d’une plateforme de formation menée par les pairs a germé il y a dix ans dans l’esprit de Nick Hernandez, le PDG de l’entreprise. Contrairement à ce que l’on pourrait penser, elle n’a pas été insufflée par la pénurie de talents. Comme il l’explique, ce sont deux principes qui ont marqué sa vie qui ont été sa plus grande source d’inspiration. Tout d’abord, son amour pour l’enseignement qui lui vient de ses parents, tous deux enseignants. Ils ont émigré d’Amérique du Sud pour bénéficier d’une bourse d’études en France.

Ensuite, le travail du philosophe Michel Foucault qu’il a découvert alors qu’il était étudiant en informatique et philosophie. Nick résume ainsi la pensée de Foucault au sujet du lien entre le savoir et le pouvoir : «La science repose sur l’intuition. Lorsqu’un individu a une idée, celle-ci est souvent controversée : il n’y a aucun moyen de prouver qu’elle va fonctionner. Les progrès scientifiques sont toujours validés par un processus de revue par les pairs. C’est comme cela que j’en ai déduit qu’il fallait développer un outil pour aider les collaborateurs à apprendre les uns des autres. En bref : il est temps d’exploiter le savoir collectif de l’entreprise et accélérer ce processus. Plutôt que de faire intervenir un consultant externe, il vaut mieux capitaliser sur les connaissances essentielles, qui sont détenues par les collaborateurs eux-mêmes. L’apprentissage par les pairs est bien plus efficace et rentable que solliciter des prestataires externes ».

Permettre l’utilisation de la plateforme à des milliers de créateurs de contenu et d’apprenants.

Nick et ses co-fondateurs, Guillaume Alary, CRO, et Sebastien Mignot, CTO, tous trois récemment diplômés, ont passé deux ans à développer la solution en se fondant sur leur propre intuition, tout en cherchant un revenu potentiel. Après avoir trouvé l’adéquation parfaite entre le produit et son marché, et après avoir mené des expérimentations et tenu compte du feedback reçu, l’équipe a intégré un moyen pour valider et contrôler le contenu car, selon leurs propres mots : « une entreprise n’est pas une démocratie ».

 

“L’éducation a bouleversé la vie de mes parents et, par conséquent, la mienne”, déclare Nick. “J’ai canalisé ma passion pour l’apprentissage en créant 360Learning. Alors que d’innombrables innovations viennent constamment alimenter le marché de la tech, ce que nous proposons chez 360Learning est bien plus personnel qu’un énième outil SaaS B2B. Je crois sincèrement que l’apprentissage change la vie et que tout un chacun doit en bénéficier.

 

Le lancement initial de 360Learning s’est opéré via une stratégie d’inbound marketing et il n’a pas fallu longtemps avant que l’entreprise décroche un important contrat. Les choses ont ensuite suivi leur cours naturellement. Le défi suivant a été la mise à l’échelle pour les grandes entreprises. Aujourd’hui, un client de 360Learning représente plus de 100 000 utilisateurs et 1 200 auteurs. Il est donc essentiel de disposer d’une infrastructure robuste capable de prendre en charge ce volume, ainsi que des fonctionnalités puissantes comme celles liées à l’Intelligence Artificielle pour automatiser les processus. Les formations sont améliorées en continu par les collaborateurs eux-mêmes, qui identifient les contenus obsolètes ou suggèrent des éléments à ajouter. Le feedback et les données obtenues au fil des interactions sont remontés aux coachs qui facilitent l’apprentissage en s’assurant que les cours sont accessibles, intuitifs, exploitables facilement, et surtout intéressants.

La plateforme est désormais disponible dans 14 langues et compte certaines des marques les plus réputées parmi ses utilisateurs. Plus de 400 employés travaillent pour 360Learning, dont les bureaux sont implantés à New York, Londres, Paris et Karlsruhe, en Allemagne.

L’intégration à SAP SuccessFactors Learning for Data Intelligence

Bruce Mazza et Hugues Lajouanie en charge des partenariats internationaux, font remarquer que l’inbound marketing est toujours une stratégie cruciale. « Depuis que nous avons mis l’accent sur les actions marketing avec nos partenaires et l’intégration aux systèmes RH des clients, nous sommes désormais en mesure d’étendre les fonctionnalités de montée en compétence collaborative de 360Learning à de nombreuses grandes entreprises », explique Bruce. « Il y a des entreprises pour lesquelles notre plateforme vient compléter l’offre de SAP, en mettant l’accent sur l’expérience des experts qui créent les cours et des apprenants qui en bénéficient. SAP dispose d’une suite de solutions particulièrement qualitative”. Il ajoute : « L’intégration à SAP SuccessFactors HXM et SAP SuccessFactors Learning nous permet d’étendre la montée en compétences grâce à l’expertise interne à des clients qui ont des besoins de formation à la conformité ou encore liés à la Data Intelligence. Par exemple, faire le lien entre les écarts de compétences et l’engagement expert et la création de cours ».

La plateforme d’apprentissage collaboratif de 360Learning est qualifiée de « solution durable » sur SAP Store car elle illustre un réel engagement social via le développement des compétences. Découvrez comment la plateforme accompagne les employés dans le développement de leurs compétences en visionnant la vidéo sur SAP Store.

The post Capitaliser sur le savoir collectif grâce à la plateforme d’apprentissage collaboratif disponible sur SAP Store appeared first on SAP France News.

Source de l’article sur sap.com

PlatformCréer un client de secours avec Hazelcast Viridian Platform sans serveur

Vous pouvez facilement créer un client de secours avec Hazelcast Viridian Platform sans serveur, ce qui vous permet d’accéder à des données et services à tout moment.

Mise en place d’un client de basculement pour une stratégie de reprise après sinistre

En tant que scientifique informatique enthousiaste, je sais que le failover est une fonctionnalité importante des systèmes qui dépendent d’une disponibilité quasi constante. Dans Hazelcast, un client de failover redirige automatiquement son trafic vers un cluster secondaire lorsque le client ne peut pas se connecter au cluster primaire. Il est conseillé d’utiliser un client de failover avec la réplication WAN comme partie intégrante de votre stratégie de reprise après sinistre. Dans ce tutoriel, vous mettrez à jour le code d’un client Java pour qu’il se connecte automatiquement à un cluster secondaire de failover s’il ne peut pas se connecter à son cluster primaire d’origine. Vous effectuerez également un test simple pour vous assurer que votre configuration est correcte et l’ajusterez ensuite pour inclure la gestion des exceptions. Vous apprendrez comment recueillir toutes les ressources dont vous avez besoin pour créer un client de failover pour un cluster primaire et secondaire, créer un client de failover basé sur le client Java d’exemple, tester le failover et ajouter la gestion des exceptions pour les opérations.

Étape 1: Configurer les clusters et les clients

Créez deux clusters Viridian Serverless que vous utiliserez comme clusters primaires et secondaires, puis téléchargez et connectez des clients Java d’exemple à ceux-ci.

Une fois que vous avez créé les clusters et les clients, vous devez créer une base de données qui contient les informations sur les clusters primaires et secondaires. Cette base de données doit être accessible à partir du client Java afin qu’il puisse accéder aux informations relatives aux clusters primaires et secondaires. Vous pouvez créer cette base de données en utilisant n’importe quel type de base de données relationnelle ou non relationnelle. Une fois que vous avez créé la base de données, vous devez y ajouter les informations sur les clusters primaires et secondaires. Vous pouvez également ajouter des informations supplémentaires telles que l’adresse IP du cluster primaire et secondaire, le port utilisé par le cluster, le nom du cluster, etc.

Une fois que vous avez créé la base de données et ajouté les informations sur les clusters primaires et secondaires, vous pouvez maintenant configurer le client Java pour qu’il puisse accéder à cette base de données et récupérer les informations nécessaires. Pour ce faire, vous devez ajouter le code nécessaire à votre client Java pour qu’il puisse se connecter à la base de données et récupérer les informations nécessaires. Une fois que vous avez terminé cette étape, votre client Java est prêt à être utilisé pour se connecter aux clusters primaires et secondaires.

Source de l’article sur DZONE

Guide de conception de tests pour votre pipeline CI/CD

Découvrez comment optimiser votre pipeline CI/CD grâce à notre guide de conception de tests complet et facile à suivre !

Lors de la livraison plus rapide du logiciel sur le marché, il est essentiel d’intégrer des tests automatisés dans votre pipeline de livraison continue pour vérifier que le logiciel respecte les normes attendues par vos clients. Votre pipeline de livraison continue peut également comporter de nombreuses étapes qui doivent déclencher ces tests automatisés pour vérifier les portes de qualité définies avant que le logiciel ne puisse passer à la prochaine étape et finalement être mis en production (voir la figure 1). Selon l’étape de votre pipeline, vos tests automatisés peuvent varier en complexité, allant des tests unitaires, d’intégration, fonctionnels et de performances. En tenant compte de la quantité et de la complexité des tests, ainsi que de la possibilité d’avoir plusieurs étapes dans votre pipeline, il peut y avoir de nombreux défis lors de l’intégration, de l’exécution et de l’évaluation de la qualité de votre logiciel avant sa sortie. 

Comment intégrer des tests automatisés pour accélérer la livraison du logiciel sur le marché tout en maintenant la qualité ?

En tant qu’informaticien enthousiaste, je sais que pour livrer plus rapidement des logiciels sur le marché, il est essentiel d’intégrer des tests automatisés dans votre pipeline de livraison continue afin de vérifier que le logiciel répond aux normes attendues par vos clients. Votre pipeline de livraison continue peut également comporter de nombreuses étapes qui doivent déclencher ces tests automatisés pour vérifier les portes de qualité définies avant que le logiciel ne puisse passer à l’étape suivante et finalement être mis en production (voir la figure 1). Selon l’étape de votre pipeline, vos tests automatisés peuvent aller de la simplicité des tests unitaires, d’intégration, d’extrémité à extrémité et de performances. En tenant compte de la quantité et de la complexité des tests, ainsi que de la possibilité d’avoir plusieurs étapes dans votre pipeline, il peut y avoir de nombreux défis à relever lors de l’intégration, de l’exécution et de l’évaluation de la qualité de votre logiciel avant sa mise en production.

Cet article décrira certains de ces défis. Je fournirai également des lignes directrices sur les meilleures pratiques à suivre pour que vos tests automatisés respectent un contrat afin d’accroître la livraison de votre logiciel sur le marché tout en maintenant la qualité. Suivre un contrat aide à intégrer vos tests de manière opportune et plus efficace. Cela aide également lorsque d’autres personnes de votre organisation doivent résoudre des problèmes dans le pipeline.

En tant qu’informaticien passionné, je sais que le codage est un élément essentiel pour intégrer des tests automatisés dans un pipeline de livraison continue. Les tests automatisés peuvent être codés pour vérifier que le logiciel répond aux normes attendues par les clients et que les portes de qualité sont respectées avant que le logiciel ne puisse passer à l’étape suivante et être mis en production. Cependant, lorsque vous codifiez des tests automatisés, il est important de tenir compte des problèmes liés à la qualité et à la fiabilité des tests. Par exemple, les tests peuvent être codés pour s’exécuter plus rapidement, mais cela peut entraîner une baisse de la qualité des résultats. Il est donc important de trouver un équilibre entre la vitesse et la qualité des tests pour garantir que le logiciel répond aux normes attendues par les clients. De plus, il est important de s’assurer que les tests automatisés sont suffisamment robustes pour pouvoir être exécutés sur différents systèmes et environnements. Cela garantit que les tests sont fiables et peuvent être utilisés pour vérifier la qualité du logiciel avant sa mise en production.

Source de l’article sur DZONE