Articles

Sécurité des API : pourquoi c'est un sujet d'actualité ?

La sécurité des API est un sujet d’actualité de plus en plus important. La protection des données et des systèmes est essentielle pour garantir la confidentialité et la sécurité des utilisateurs.

Préparation pour Black Hat 2023, il semble que la sécurité API sera un problème clé. Voici ce que vous devez savoir. Qu’est-ce qu’une API?

API security is a critical issue for any organization that uses APIs to connect applications and databases. APIs are the gateways through which applications and databases communicate, and if they are not properly secured, malicious actors can gain access to sensitive data.

API security is a complex issue, and there are many different approaches to securing APIs. Here are some of the most important steps you can take to ensure your API is secure:

1. Authenticate users: Authentication is the process of verifying the identity of a user before allowing them to access an application or database. This can be done using a variety of methods, such as username/password combinations, two-factor authentication, or biometric authentication.

2. Implement authorization: Authorization is the process of granting access to specific resources or functions within an application or database. This can be done by assigning roles and permissions to users, or by using access control lists (ACLs).

3. Encrypt data: Encryption is the process of transforming data into a form that is unreadable to anyone except those with the correct decryption key. This ensures that even if malicious actors gain access to the data, they will not be able to read it.

4. Monitor activity: Monitoring is the process of tracking user activity within an application or database. This can be done using log files, audit trails, or other tools. Monitoring allows you to detect suspicious activity and take action before any damage is done.

5. Test regularly: Testing is the process of verifying that an application or database is functioning correctly. This can be done using automated testing tools, manual testing, or both. Regular testing helps ensure that any vulnerabilities are identified and addressed before they can be exploited.

Préparation pour Black Hat 2023, il semble que la sécurité des API sera un point clé. Voici ce que vous devez savoir.

Qu’est-ce qu’une API ?

Une API, ou interface de programmation d’application, est un ensemble de définitions et de protocoles pour construire et intégrer des logiciels d’application. Une API définit comment deux morceaux de logiciel peuvent interagir l’un avec l’autre. Il spécifie les méthodes, fonctions et structures de données qui sont disponibles pour l’utilisation, ainsi que les règles pour la façon dont ces méthodes et fonctions peuvent être utilisées.

La sécurité des API est un problème critique pour toute organisation qui utilise des API pour connecter des applications et des bases de données. Les API sont les portes d’entrée par lesquelles les applications et les bases de données communiquent, et si elles ne sont pas correctement sécurisées, des acteurs malveillants peuvent accéder à des données sensibles.

La sécurité des API est un problème complexe, et il existe de nombreuses approches différentes pour sécuriser les API. Voici quelques-unes des étapes les plus importantes que vous pouvez prendre pour vous assurer que votre API est sécurisée :

1. Authentifier les utilisateurs : L’authentification est le processus de vérification de l’identité d’un utilisateur avant de lui permettre d’accéder à une application ou à une base de données. Cela peut être fait à l’aide d’une variété de méthodes, telles que des combinaisons nom d’utilisateur / mot de passe, une authentification à deux facteurs ou une authentification biométrique.

2. Mettre en œuvre l’autorisation : L’autorisation est le processus d’octroi d’accès à des ressources ou des fonctions spécifiques dans une application ou une base de données. Cela peut être fait en attribuant des rôles et des autorisations aux utilisateurs ou en utilisant des listes de contrôle d’accès (ACL).

3. Chiffrer les données : Le chiffrement

Source de l’article sur DZONE

Processus OS, Threads et Sémaphores

Les processus OS, les threads et les sémaphores sont des concepts importants pour comprendre le fonctionnement des systèmes d’exploitation. Découvrons-les ensemble !

Dans le monde de l’informatique, il y a de nombreux concepts et termes importants à comprendre. Parmi ceux-ci se trouvent le thread informatique, le sémaphore et le processus. Chacun de ces concepts joue un rôle critique dans le fonctionnement des ordinateurs et comprendre ces concepts est essentiel pour quiconque souhaite travailler dans le domaine.

Les concepts et termes liés à l’informatique sont nombreux et il est important de les comprendre. Parmi ceux-ci, on trouve le thread informatique, le sémaphore et le processus. Chacun de ces concepts joue un rôle essentiel dans le fonctionnement des ordinateurs et comprendre leur fonctionnement est indispensable pour travailler dans ce domaine.

La compréhension des concepts de threads, sémaphores et processus est essentielle pour développer des logiciels efficaces et performants. Ces trois concepts sont fondamentaux pour le fonctionnement des systèmes d’exploitation modernes et des applications, et sont indispensables pour créer des programmes qui peuvent effectuer des tâches complexes tout en maximisant les ressources système.

L’utilisation de ces concepts est un élément clé pour la création de logiciels robustes et fiables. Les threads permettent aux applications de traiter plusieurs tâches simultanément, les sémaphores aident à gérer les accès concurrents aux ressources partagées et les processus fournissent une structure pour organiser le traitement des données. En utilisant ces concepts, les développeurs peuvent créer des applications plus rapides et plus efficaces qui peuvent répondre aux besoins des utilisateurs.

En conclusion, comprendre les concepts de threads, sémaphores et processus est essentiel pour créer des logiciels performants et efficaces. Ces trois concepts jouent un rôle crucial dans le fonctionnement des systèmes d’exploitation modernes et des applications, et sont indispensables pour créer des programmes qui peuvent effectuer des tâches complexes tout en maximisant les ressources système. En utilisant ces concepts, les développeurs peuvent créer des applications robustes et fiables qui peuvent répondre aux besoins des utilisateurs.

Source de l’article sur DZONE

Optimiser l'utilisation des ressources API avec limitation de taux et contrôles de régulation.

Apprenez à optimiser l’utilisation des ressources API avec des techniques de limitation de taux et de contrôles de régulation pour améliorer la productivité et la sécurité.

Comment optimiser l’utilisation des ressources API ?

Les API sont un composant essentiel dans le paysage numérique moderne, permettant aux applications d’interagir entre elles et d’accéder à des données provenant de différentes sources. Cependant, à mesure que le nombre d’applications qui dépendent des API continue de croître, il est de plus en plus crucial de s’assurer que les API peuvent gérer la charge et fonctionner efficacement. C’est là que l’optimisation de l’utilisation des ressources API entre en jeu.

L’utilisation des ressources API fait référence à l’utilisation de ressources telles que le CPU, la mémoire et la bande passante réseau par les API pour traiter les demandes entrantes. Si l’utilisation de ces ressources n’est pas optimisée, cela peut entraîner une mauvaise performance, des problèmes de stabilité et une mauvaise expérience utilisateur.

Il existe plusieurs façons d’optimiser l’utilisation des ressources API. La première consiste à surveiller les performances des API afin de déterminer si elles sont surchargées ou sous-utilisées. Cela permet d’identifier les points faibles et de prendre les mesures nécessaires pour améliorer la performance des API. Une autre façon d’optimiser l’utilisation des ressources API est de mettre en œuvre des stratégies de mise en cache. Cela permet de réduire le nombre de requêtes envoyées aux API et d’améliorer le temps de réponse. Enfin, il est important d’utiliser des outils tels que les journaux et les tableaux de bord pour surveiller en temps réel l’utilisation des ressources API et identifier les problèmes potentiels.

En somme, l’optimisation de l’utilisation des ressources API est essentielle pour assurer le bon fonctionnement des API et offrir une bonne expérience utilisateur. Il existe plusieurs façons d’optimiser l’utilisation des ressources API, notamment la surveillance des performances, la mise en œuvre de stratégies de mise en cache et l’utilisation d’outils tels que les journaux et les tableaux de bord pour surveiller en temps réel l’utilisation des données. En prenant ces mesures, vous pouvez vous assurer que vos API sont optimisées et prêtes à gérer la charge et à fournir une expérience utilisateur optimale.

Source de l’article sur DZONE

Maîtriser la Défense Proactive : le Visage Changeant de la Chasse aux Menaces

.

La Défense Proactive est l’avenir de la sécurité informatique. Apprenez à maîtriser cette approche pour protéger votre entreprise contre les menaces en constante évolution.

L’évolution de la chasse aux menaces

This proactive approach allows organizations to identify and mitigate potential threats before they can cause damage.

L’évolution de la chasse aux menaces

La chasse aux menaces a évolué d’une approche réactive à une approche proactive. Traditionnellement, les organisations se fient à des outils de sécurité qui détectent les menaces connues ou les anomalies après une attaque. Cependant, une défense agressive est devenue essentielle avec la complexité croissante et la fréquence des attaques. La chasse aux menaces implique désormais de rechercher activement des signes de compromission au sein du réseau et des systèmes d’une organisation avant qu’une attaque ne se produise. Cette approche proactive permet aux organisations de détecter et de maîtriser les menaces potentielles avant qu’elles ne puissent causer des dommages.

Les tests pour la chasse aux menaces

Les tests permettent aux professionnels de la cybersécurité de mieux comprendre leurs systèmes et leurs réseaux afin de mieux les protéger contre les menaces. Les tests peuvent être utilisés pour identifier les vulnérabilités, les failles et les points faibles qui pourraient être exploités par des attaquants. Les tests peuvent également être utilisés pour vérifier l’efficacité des mesures de sécurité mises en place par une organisation et pour déterminer si elles sont suffisantes pour protéger contre les menaces actuelles et futures. Les tests sont un outil essentiel pour les professionnels de la cybersécurité qui souhaitent adopter une défense proactive et maîtriser la chasse aux menaces en 2023.

Source de l’article sur DZONE

Impact du RGPD sur le flux de travail de développement d'appli.

Le RGPD a un impact considérable sur le flux de travail de développement d’applications. Les développeurs doivent s’adapter aux nouvelles exigences et intégrer les principes de protection des données à leurs processus.

Les règles de protection des données générales de l’Union européenne (RGPD) marquent une nouvelle ère en matière de lois sur la cybersécurité. C’est l’une des plus complètes et des plus étendues réglementations sur la protection des données à ce jour, elle affecte donc considérablement le développement d’applications.

Les amendes en vertu du RGPD peuvent être lourdes, vous devez donc faire tout ce que vous pouvez pour vous y conformer. Voici comment cela impactera le flux de travail de développement d’applications.

L’entrée en vigueur du Règlement général sur la protection des données (RGPD) de l’Union européenne marque une nouvelle ère en matière de législation sur la cybersécurité. Il s’agit de l’une des plus complètes et des plus étendues réglementations sur la protection des données à ce jour, ce qui a un impact significatif sur le développement d’applications.

Les amendes en vertu du RGPD peuvent être considérables, il est donc important de faire tout ce qui est en son pouvoir pour s’y conformer. Voici comment cela affectera le flux de travail du développement d’applications.

Le processus de développement d’applications est complexe et comprend de nombreuses étapes. Chaque étape doit être conforme aux exigences du RGPD pour garantir que les données des utilisateurs soient correctement protégées. La première étape consiste à définir les objectifs et les fonctionnalités de l’application. Cela implique de prendre en compte les exigences du RGPD et de s’assurer que l’application ne collecte pas plus de données qu’elle n’en a besoin.

Une fois que les objectifs et les fonctionnalités ont été définis, le processus de développement peut commencer. Les développeurs doivent s’assurer que toutes les données collectées et traitées sont conformes aux exigences du RGPD. Cela signifie que les données doivent être stockées de manière sécurisée et que les utilisateurs doivent être informés des données qui sont collectées et de la manière dont elles seront utilisées. Les développeurs doivent également s’assurer que les données ne sont pas partagées avec des tiers sans le consentement explicite des utilisateurs.

Une fois le développement terminé, il est temps de procéder aux tests. Les tests sont essentiels pour s’assurer que l’application est conforme aux exigences du RGPD. Les tests doivent couvrir tous les aspects de la protection des données, y compris la sécurité, la confidentialité et l’accès aux données. Les tests doivent également vérifier que les données ne sont pas partagées avec des tiers sans le consentement explicite des utilisateurs. Une fois les tests terminés, l’application peut être mise en production et mise à disposition des utilisateurs.

En conclusion, le RGPD a un impact significatif sur le processus de développement d’applications. Il est important que les développeurs prennent en compte les exigences du RGPD lors de la planification et du développement d’une application et qu’ils procèdent à des tests approfondis pour s’assurer que l’application est conforme aux exigences du RGPD avant sa mise en production.

Source de l’article sur DZONE

Risques et solutions de sécurité de la virtualisation

La virtualisation offre de nombreux avantages, mais elle comporte aussi des risques et des défis en matière de sécurité. Découvrons ensemble les solutions pour les gérer.

## Risques de sécurité liés à la virtualisation

Attacks on Virtual Machines

VMs are the main target of attackers in a virtualized environment. Attackers can exploit vulnerabilities in the operating system or applications running on the VMs to gain access to the virtualization environment. Once they gain access, they can launch attacks on other VMs or steal sensitive data.

Hypervisor Attacks

The hypervisor is the core component of virtualization technology. It is responsible for managing the VMs and other virtualization components. Attackers can exploit vulnerabilities in the hypervisor to gain access to the virtualization environment and launch attacks on other VMs.

Solution pour les risques de sécurité liés à la virtualisation

Les organisations du monde entier adoptent de plus en plus la technologie de virtualisation pour ses nombreux avantages, tels que des économies de coûts, une efficacité améliorée, une flexibilité, une scalabilité et une récupération en cas de sinistre. Cependant, l’adoption accrue de la technologie de virtualisation a également entraîné une augmentation des risques de sécurité. Les risques de sécurité liés à la virtualisation sont causés par divers facteurs, tels que les vulnérabilités du logiciel de virtualisation, les attaques sur les machines virtuelles (VMs) et les attaques sur le hyperviseur. Cet article examine les risques de sécurité liés à la virtualisation et les solutions pour les atténuer.

Vulnérabilités du logiciel de virtualisation

Le logiciel de virtualisation est le cœur de la technologie de virtualisation. Il est responsable de la gestion des VMs, du hyperviseur et des autres composants de la virtualisation. Les vulnérabilités du logiciel de virtualisation peuvent être exploitées par des attaquants pour obtenir un accès non autorisé à l’environnement de virtualisation. Les attaquants peuvent exploiter ces vulnérabilités pour prendre le contrôle de l’environnement de virtualisation, voler des données sensibles et lancer des attaques sur d’autres VMs dans l’environnement virtuel.

Attaques sur les machines virtuelles

Les VMs sont la principale cible des attaquants dans un environnement virtualisé. Les attaquants peuvent exploiter des vulnérabilités du système d’exploitation ou des applications exécutées sur les VMs pour accéder à l’environnement de virtualisation. Une fois qu’ils ont accès, ils peuvent lancer des attaques sur d’autres VMs ou voler des données sensibles.

Attaques sur le hyperviseur

Le hyperviseur est le composant principal de la technologie de virtualisation. Il est responsable de la gestion des VMs et des autres composants de la virtualisation. Les attaquants peuvent exploiter des vulnérabilités du hyperviseur pour accéder à l’environnement de virtualisation et lancer des attaques sur d’autres VMs.

Mesures pour atténuer les risques de sécurité liés à la virtualisation

Il existe plusieurs mesures qui peuvent être prises pour atténuer les risques de sécurité liés à la virtualisation. L’une des principales mesures est l’utilisation d’une stratégie de sécurité robuste pour protéger le système contre les menaces externes et internes. La stratégie devrait inclure des mesures telles que l’utilisation d’un pare-feu pour bloquer les connexions non autorisées, la mise en œuvre d’une politique stricte d’accès aux données et l’utilisation d’outils de codage pour assurer la sécurité des données sensibles. De plus, il est important que les administrateurs système mettent à jour régulièrement le logiciel et le matériel afin d’atténuer les vul

Source de l’article sur DZONE

Mise en œuvre de la découverte de services avec Spring Cloud (2e partie)

Dans cette deuxième partie, nous allons voir comment mettre en œuvre la découverte de services avec Spring Cloud. Préparez-vous à apprendre comment configurer et déployer vos services !

Partie 2 de l’Article Spring Cloud: Comment Implémenter le Service Discovery (Partie 1)

Dans la première partie de cet article, Spring Cloud: Comment implémenter le service de découverte (Partie 1), nous avons vu les bases du Service Discovery dans le contexte de Spring Cloud. Nous avons vu que la composante Netflix OSS Eureka est toujours le choix principal. Dans ce post, nous allons discuter de certains sujets supplémentaires liés à Eureka, tels que :

API Java Client

API REST

Sécuriser le serveur de découverte et les services clients

Combiner le Service Discovery avec la Configuration Distribuée

Service Discovery : API Java Client

Dans les exemples de la première partie de cet article, l’enregistrement et le récupération des fonctionnalités étaient exécutés sous le capot et nous avons seulement vu les résultats des tests de l’architecture entière en appelant un point de terminaison REST client. Il existe également une manière d’interagir avec l’API Eureka de manière programmatique, en utilisant des appels de méthodes Java. Un choix possible serait d’utiliser la classe EurekaClient. Par exemple, si nous voulons obtenir toutes les instances d’un service identifié par un ID particulier, nous pourrions écrire le code suivant, supposant que nous avons un client implémenté comme une application Spring Boot exposant des services REST :

EurekaClient eurekaClient = new EurekaClient.Builder().build();

Applications applications = eurekaClient.getApplications(« SERVICE_ID »);

List instances = applications.getInstances();

Une fois que nous avons obtenu la liste des instances, nous pouvons parcourir cette liste et récupérer les informations dont nous avons besoin, telles que l’adresse IP et le port sur lesquels le service est en cours d’exécution. Nous pouvons également effectuer des opérations supplémentaires sur les instances, telles que la mise à jour des informations ou la suppression d’une instance.

Service Discovery : API REST

Eureka fournit également une API REST qui peut être utilisée pour interagir avec le serveur de découverte. Cette API est très similaire à l’API Java client, mais elle est plus adaptée aux scénarios où nous devons interagir avec le serveur de découverte depuis un environnement non-Java ou depuis un script. Par exemple, si nous voulons récupérer toutes les instances d’un service spécifique, nous pouvons appeler l’URL suivante :

http://:/eureka/apps/

Cette URL retournera une réponse JSON contenant toutes les informations relatives à ce service et à ses instances. Nous pouvons également effectuer des opérations supplémentaires sur les instances, telles que la mise à jour des informations ou la suppression d’une instance, en appelant des URL spécifiques.

Service Discovery : Sécurisation du serveur et des services clients

Enfin, il est important de noter que le serveur Eureka et les services clients doivent être sécurisés pour éviter toute attaque malveillante. Par exemple, nous pouvons configurer Eureka pour utiliser HTTPS pour sécuriser les communications entre le serveur et les clients. Nous pouvons également configurer Eureka pour authentifier les clients et leurs requêtes en utilisant un système d’authentification basé sur des jetons. De plus, il est possible de configurer Eureka pour

Source de l’article sur DZONE

Le leader mondial du commerce omnicanal va utiliser RISE with SAP® pour migrer ses systèmes logiciels SAP® vers Google Cloud, réduisant ainsi les coûts et augmentant la productivité.

 

Paris, le 15 juin 2023 – Google Cloud a annoncé hier un nouveau partenariat avec Hunkemöller, leader mondial de la lingerie féminine, pour l’aider à améliorer son expérience client et accélérer sa stratégie de croissance omnicanale. Cet acteur reconnu utilisera la solution RISE with SAP® pour migrer ses données SAP® et son infrastructure informatique vers Google Cloud afin de réaliser une approche plus flexible, évolutive et axée sur les données qui permettra une expérience client fluide via sa marque.

Hunkemöller est l’un des principaux spécialistes européens de la lingerie : 23 pays de distribution, 850 magasins et 15 boutiques en ligne, dont le siège social est aux Pays-Bas. Tous ces canaux travaillent ensemble et de manière transparente pour offrir aux clients la meilleure expérience d’achat. Pour soutenir sa croissance et répondre aux attentes de ses clients en constante évolution, l’entreprise a décidé de migrer d’une infrastructure informatique sur site vers Google Cloud, dans le but d’aider à créer une stratégie axée sur les données et de trouver de nouvelles économies d’échelle au sein des opérations de Hunkemöller dans le monde entier.

En tirant parti des capacités de données et d’analyse de Google Cloud (Looker, BigQuery et Vertex AI), Hunkemöller sera en mesure de segmenter et d’attirer avec précision ses clients conformément aux politiques de données locales. Par exemple, en utilisant les données sur ses membres enregistrés, à la fois à l’intérieur et à l’extérieur de l’environnement logiciel SAP® de Hunkemöller, Hunkemöller peut suggérer la bonne taille aux clients en fonction de leur historique d’achat et de leurs préférences. Cela offrira non seulement une expérience d’achat plus personnalisée, mais permettra également à l’entreprise de réduire le nombre de retours, rationaliser les processus et ainsi offrir une expérience omnicanale améliorée.

Avec RISE with SAP® sur Google Cloud, Hunkemöller prévoit de migrer son environnement logiciel SAP® et d’autres applications vers le cloud, ce qui aidera l’entreprise à réduire ses coûts, à faire évoluer ses activités plus facilement et à mieux innover à l’avenir. Plusieurs espaces de stockage stratégiques sont stockées à différents endroits, mais elles seront consolidées dans le cloud, ce qui facilitera l’accès et l’analyse des données provenant de diverses sources.

“En déplaçant nos données sur site vers le cloud et en tirant parti des technologies Google Cloud, nous pouvons offrir à nos clients la meilleure expérience possible, pilotée par le numérique et facilitée par les données“, a déclaré Gordon Smit, Directeur Informatique monde chez Hunkemöller.  “Les développements se produisent à la vitesse de l’éclair dans le commerce, et nous voulons être un leader du marché en matière d’applications numériques et d’utilisation des données pour une meilleure expérience client et un meilleur fonctionnement de l’entreprise. Nous avons travaillé intensivement avec des experts de Google Cloud et ses partenaires pour réaliser le plan de migration vers le cloud.

« Hunkemöller, comme de nombreuses autres marques, a accès à de grandes quantités de données, qui sont fréquemment stockées dans les systèmes logiciels SAP®. Ces données peuvent être utilisées pour mieux comprendre le comportement des clients et les tendances du marché. Nous sommes ravis de collaborer avec Hunkemöller pour migrer ses systèmes et données vers le cloud, afin d’aider la marque à établir une base axée sur les données pour sa croissance future », a précisé Joris Schoonis, Directeur Général de Google Cloud Benelux.

Nous sommes fiers de nous associer à Hunkemoller et Google pour accélérer la transformation vers le cloud et jeter ensemble les bases de nouvelles innovations numériques”, a déclaré Bart Doomen, Head of Industries, SAP Netherlands.

 

À propos de Google Cloud
Google Cloud accélère la capacité de chaque organisation à transformer numériquement son activité. Nous fournissons des solutions d’entreprise qui exploitent la technologie de pointe de Google, le tout sur le cloud le plus sécurisé du secteur. Des clients dans plus de 200 pays et territoires se tournent vers Google Cloud en tant que partenaire de confiance pour favoriser la croissance et résoudre leurs problèmes commerciaux les plus critiques.

À propos de Hunkemöller
Hunkemöller est l’une des marques de lingerie leaders et à la croissance la plus rapide d’Europe, avec plus de 850 magasins dans 22 pays. Fondée à Amsterdam en 1886, la société est depuis devenue une marque de lingerie omnicanale européenne. Hunkemöller propose des vêtements de corps parfaitement ajustés, à la mode et de haute qualité (soutiens-gorge, sous-vêtements, vêtements de nuit, maillots de bain et autres catégories, y compris les équipements de fitness). Hunkemöller est un véritable détaillant omnicanal et a intégré la technologie dans tous les aspects de l’entreprise ; d’un profilage client étendu basé sur une large base de membres actifs du programme de fidélité, à un processus de recrutement et de formation digitalisé pour les employés du commerce de détail. Le parcours client est au cœur de la stratégie de Hunkemöller et a abouti à une interaction transparente entre l’environnement physique et numérique grâce à ses initiatives click2brick. Un voyage durable Together Tomorrow a été lancé en 2020, un nom créé pour unir toutes les activités qui prennent soin de la planète et de ses habitants.www.Hunkemöller.com

A propos de SAP en France

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 25 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

Pour plus d’informations, visitez le site www.sap.com.

Contact presse SAP : sylvie.lechevin@sap.com / sap@the-arcane.com

Contact presse Google Cloud : Frédéric Boullard – fboullard@google.com

The post Hunkemöller collabore avec Google Cloud et RISE with SAP® pour offrir une expérience de vente axée sur les données appeared first on SAP France News.

Source de l’article sur sap.com

Modélisation des menaces informatiques

La modélisation des menaces informatiques est une pratique essentielle pour protéger les systèmes informatiques contre les attaques. Elle permet d’identifier et de gérer les risques.

Designer des logiciels sécurisés offre une large gamme de bénéfices

Le codage sécurisé offre de nombreux avantages, allant de la réduction du nombre d’heures humaines passées à corriger les vulnérabilités de sécurité en production à la limitation des pertes financières et des pénalités réglementaires, ce qui permet d’obtenir un avantage concurrentiel et d’accroître la fidélité des clients.

Le modélisation des menaces est un élément essentiel des principes directeurs « Sécurité par conception ». Cette fiche de référence fournira les principes fondamentaux de la modélisation des menaces, les pratiques de base pour une mise en œuvre sécurisée et les éléments clés pour mener à bien des examens de modèles de menace réussis. En explorant l’importance des outils modernes pour automatiser et rationaliser les processus de modélisation des menaces, nous examinerons comment améliorer la précision des résultats et faciliter l’intégration et la collaboration entre les équipes de logiciels et de sécurité tout au long du cycle de développement logiciel.

Enfin, nous verrons comment le codage peut être utilisé pour améliorer la sécurité des logiciels. Les outils de codage peuvent être utilisés pour détecter et corriger les failles de sécurité dans le code source, ainsi que pour vérifier que le code est conforme aux normes de sécurité. Les outils peuvent également être utilisés pour surveiller les modifications apportées au code et identifier les vulnérabilités potentielles. De plus, ils peuvent être utilisés pour analyser le comportement du code et détecter les anomalies, ce qui permet aux développeurs de prendre des mesures pour corriger les problèmes avant qu’ils ne deviennent critiques.

Source de l’article sur DZONE

Lors de son Move to Cloud, CITEO a décidé de moderniser son ERP SAP ECC, en optant pour l’offre RISE with SAP dans le Cloud. Un projet confié à STMS, lequel a su le mener à bien en moins de huit mois.

CITEO est une entreprise à mission agréée par l’Etat. Elle a été créée par les acteurs du secteur de la grande consommation et de la distribution pour réduire l’impact environnemental de leurs emballages ménagers et papiers graphiques via des solutions de réduction, de réemploi, de tri et de recyclage. CITEO détient une filiale, Adelphe, dédiée à la fin de vie des emballages issus des secteurs des vins & spiritueux et des médicaments.

Grace aux efforts de l’ensemble des acteurs, et des citoyens, 72% des emballages ménagers et 62% des papiers sont aujourd’hui recyclés en France.

CITEO et Adelphe regroupent 346 collaborateurs et le chiffre d’affaires du groupe, redistribué à 95% aux collectivités, s’est élevé en 2021 à 831,8 M€.

Pour accomplir sa mission, CITEO développe de nombreux outils afin d’une part de permettre les déclarations mais aussi d’apporter du conseil aux 35 000 clients et 34 500 collectivités avec les- quels elle travaille au quotidien.

Un virage vers le cloud… et SAP S/4HANA Cloud

CITEO est une entreprise qui doit gérer d’importants flux financiers, entrants et sortants. À ce titre, son ERP SAP ECC est une des briques centrales de son système d’information.

« En 2020, nous avons décidé de basculer vers le cloud Microsoft Azure, explique Nicolas Malaquin, Directeur des solutions digitales et systèmes d’information, CITEO. Nous avons dans un premier temps choisi de migrer notre ERP SAP ECC vers les infrastructures Microsoft Azure, avant de basculer sur une solution plus adaptée au monde du cloud, au travers d’une migration vers un ERP SAP S/4HANA en mode as a service. »

C’est donc dans ce contexte que CITEO a décidé d’opter pour l’offre RISE with SAP et d’adopter la solution SAP S/4HANA Cloud, avec à la clé quatre principaux bénéfices attendus :

  • une modernisation massive de l’ERP ;
  • une réduction des coûts globaux de fonctionnement, de l’ordre de 20% ;
  • une simplification administrative, l’ensemble étant géré via un unique contrat ;
  • l’accès à des fonctionnalités de disaster recovery, proposées en standard.

CITEO décide d’engager rapidement son projet de migration. « La fin de support de SAP ECC étant proche, nous voulions éviter de tomber dans le goulot d’étranglement formé par les migrations à venir au sein des grands groupes, commente la DSI CITEO. Il y a une vraie tension sur les ressources disponibles.

STMS est l’un des partenaires historiques de CITEO. C’est donc à lui qu’a été confiée le projet.

« Il est logique de confier ce projet à STMS, qui connaît bien notre métier et notre contexte. »

Une migration réussie en huit mois

L’ERP SAP ECC de CITEO se concentre sur les flux financiers (modules SD, MM er FICO). Un périmètre qui a été conservé lors du passage vers SAP S/4HANA. Tout comme la SAP GUI, ce qui a permis de limiter les changements du point de vue des utilisateurs. « Notre priorité était de mettre en place rapidement un socle technique solide, explique Julien Martin, Directeur de la Technologie et de la sécurité, CITEO. La ‘fiorisation’ de l’interface sera abordée dans un second temps. »

Les travaux de conception et de développement sont menés entre février et mai 2022, avec une première phase de recette s’étalant de mai à juillet, suivie de la recette métier en septembre, avant une mise en production en fin de mois. Le tout effectué sous le regard attentif des équipes de STMS, de l’intégrateur, mais également d’une équipe SAP dédiée. Après près de trois mois de fonctionnement, le bilan est positif : si quelques soucis restent à régler, le nouvel ERP n’a pas connu de défaillance majeure.

Afin d’accélérer les travaux, une phase de réduction des spécifiques a été initiée dès les prémices du projet. « Nous aimerions pouvoir aller au bout de ce travail, avec une revue plus approfondie de nos processus, poursuit Julien Martin. Ceci nous permettra de revenir au plus près des standards tout en tirant le meilleur parti des fonctionnalités de l’ERP SAP S/4HANA. » Certains processus non standards pourraient donc sortir de l’ERP, alors que d’autres – comme les relances client – y seraient réintégrés. « Notre objectif est de redonner à chacun de nos outils sa vraie place dans notre SI. »

CITEO et STMS ont organisé des ateliers avec les Responsables métiers de l’entreprise et utilisateurs de l’ERP, afin qu’ils puissent faire remonter leurs souhaits et remarques. Ces points seront priorisés, afin de créer une roadmap pour 2023, comprenant des éléments comme : des travaux visant à réduire les temps de rapprochement bancaire, la mise à disposition du reporting Fiori pour le contrôle de gestion, la mise en place de tuiles pour les KPI standards dédiés à la comptabilité, ou encore la mise en place d’un cockpit de clôture.

The post STMS et CITEO réussissent l’adoption de Rise with SAP S/4HANA Cloud en 8 mois appeared first on SAP France News.

Source de l’article sur sap.com