Articles

Utiliser FaceIO pour développer le module d'authentification d'utilisateur d'une application web basée sur l'IA.

Utiliser FaceIO pour développer le module d’authentification d’utilisateur d’une application web basée sur l’IA est une solution innovante et sécurisée. Découvrez comment cela fonctionne!

Comment développer le module de connexion d’utilisateur du projet d’application Web à l’aide de l’interface de service AI tiers

Dans le passé, le développement des systèmes d’informations web application a nécessité une fonction module d’authentification d’utilisateur indispensable. La fonction d’authentification d’utilisateur comprend l’enregistrement et l’authentification de connexion des utilisateurs. Dans les méthodes de développement passées, la manière courante de réaliser le module de fonction d’authentification d’utilisateur est d’utiliser l’e-mail et le SMS pour vérifier. Maintenant, de nombreux ordinateurs des utilisateurs sont équipés de caméras, qui peuvent pleinement utiliser la technologie d’intelligence artificielle de reconnaissance faciale pour réaliser l’authentification d’utilisateur. J’ai utilisé la bibliothèque JavaScript de FaceIO pour mettre en œuvre l’authentification d’utilisateur dans le projet web app.

Cet article présente principalement comment développer le module de connexion utilisateur du projet web application à travers l’interface de service AI tiers. Le code source du projet web application a été téléchargé sur GitHub et est basé sur le protocole MIT. Il n’y a pas de restrictions.

En tant qu’informaticien enthousiaste, j’ai trouvé que l’utilisation de la reconnaissance faciale pour l’authentification d’utilisateur était très pratique. En outre, j’ai également constaté que la base de données des services AI tiers était très riche et complète. Cela me permet de trouver facilement les informations dont j’ai besoin pour le développement du projet web application. De plus, ces services AI tiers fournissent également des API très pratiques pour intégrer leurs fonctions à mon projet. Grâce à ces API, je peux facilement intégrer la reconnaissance faciale à mon projet web application et réaliser l’authentification d’utilisateur.

Source de l’article sur DZONE

Stratégies de déploiement Kubernetes

Les stratégies de déploiement Kubernetes peuvent aider les entreprises à améliorer leurs processus de développement et de déploiement. Elles offrent une solution pratique et évolutive pour gérer les applications.

Déployer des applications avec Kubernetes est devenu de plus en plus populaire en raison de ses nombreux avantages. Kubernetes permet une gestion facile des applications conteneurisées, fournissant une plateforme pour le déploiement, le dimensionnement et la gestion des applications. Avec Kubernetes, les applications peuvent être déployées rapidement et de manière cohérente sur différents environnements, y compris les plates-formes sur site et cloud.

Lors du déploiement d’applications avec Kubernetes, beaucoup d’entre nous auront des questions sur quel type de déploiement utiliser – roulement, bleu-vert, canari, etc. Dans cet article, nous discuterons de ces types de déploiement (canari, roulement et bleu-vert), de leur fonctionnement et de celui que vous devriez choisir.

En tant qu’informaticien enthousiaste, le déploiement d’applications avec Kubernetes est devenu de plus en plus populaire en raison de ses nombreux avantages. Kubernetes permet une gestion facile des applications conteneurisées, fournissant une plateforme pour le déploiement, le redimensionnement et la gestion des applications. Avec Kubernetes, les applications peuvent être déployées rapidement et de manière cohérente dans différents environnements, y compris sur les plates-formes en local et dans le cloud.

Lors du déploiement d’applications avec Kubernetes, beaucoup d’entre nous auront des questions sur quel type de déploiement utiliser – roulement, bleu-vert, canari, etc. Dans cet article, nous discuterons de ces types de déploiement (canari, roulement et bleu-vert), de la façon dont ils fonctionnent et de celui que vous devriez choisir.

Le type de déploiement le plus couramment utilisé est le déploiement à roulement. Cette méthode consiste à effectuer des mises à jour progressives sur un ensemble d’instances. Les instances sont mises à jour une par une, ce qui permet de s’assurer que chaque instance est correctement mise à jour avant de passer à la suivante. Cette méthode est très utile lorsque vous souhaitez mettre à jour un grand nombre d’instances sans interrompre le service.

Le déploiement bleu-vert est une autre méthode couramment utilisée pour le déploiement des applications. Cette méthode consiste à déployer une nouvelle version de l’application sur un nouvel environnement, puis à basculer l’utilisation sur ce nouvel environnement. Cette méthode est très utile lorsque vous souhaitez tester une nouvelle version de l’application avant de la mettre en production.

Le déploiement canari est une autre méthode couramment utilisée pour le déploiement des applications. Cette méthode consiste à déployer une nouvelle version de l’application sur un petit groupe d’utilisateurs. Une fois que la nouvelle version a été testée par ce groupe d’utilisateurs, elle peut être déployée sur l’ensemble des utilisateurs. Cette méthode est très utile lorsque vous souhaitez tester une nouvelle version de l’application avant de la mettre en production.

En conclusion, le choix du type de déploiement à utiliser dépendra des besoins spécifiques de votre application et de votre environnement. Chaque type de déploiement a ses avantages et ses inconvénients et peut être plus ou moins adapté à votre situation. Il est donc important de prendre le temps d’analyser les différents types de déploiement et de choisir celui qui convient le mieux à votre application et à votre environnement. En utilisant Kubernetes pour gérer vos applications, vous pouvez facilement choisir le type de déploiement qui convient le mieux à votre application et à votre environnement.

En tant qu’informaticien enthousiaste, le déploiement d’applications avec Kubernetes est devenu très populaire ces dernières années grâce aux nombreux avantages qu’il offre. Kubernetes simplifie la gestion des applications conteneurisées et fournit une plateforme pour le déploiement, le redimensionnement et

Source de l’article sur DZONE

Optimisation de clusters GKE: 14 tactiques pour un déploiement K8s plus fluide

Découvrez comment optimiser vos clusters GKE et améliorer la fluidité de votre déploiement K8s grâce à ces 14 tactiques simples !

Comment s’assurer que votre cluster Google Kubernetes Engine est prêt pour les tempêtes à venir ?

Premièrement, l’optimisation de la sécurité. En tant qu’ingénieur informatique enthousiaste, je sais que la sécurité est une priorité absolue. Vous devez donc veiller à ce que votre cluster GKE soit protégé contre les menaces extérieures. Pour ce faire, vous devez configurer la sécurité des nœuds, définir des règles de pare-feu et utiliser des certificats TLS pour vous assurer que votre cluster est sûr et sécurisé. Vous devez également mettre en œuvre des contrôles d’accès et des stratégies de sécurité pour vous assurer que vos données et vos applications sont protégées.

Deuxièmement, l’optimisation de la disponibilité. Pour assurer une disponibilité maximale de votre cluster GKE, vous devez configurer le nombre de nœuds et leurs tailles pour répondre aux exigences de votre application. Vous devez également configurer des réplicas pour vos services et définir des règles de mise à l’échelle pour vous assurer que votre application est toujours disponible. Enfin, vous devez mettre en place des outils de surveillance pour vous assurer que votre cluster est toujours opérationnel.

Enfin, l’optimisation des coûts. Pour optimiser les coûts liés à votre cluster GKE, vous devez configurer le nombre de nœuds et leurs tailles pour répondre aux exigences de votre application. Vous pouvez également utiliser des outils tels que le codage pour réduire les coûts en réutilisant le code existant et en automatisant certaines tâches. Vous pouvez également utiliser des outils tels que Kubernetes pour optimiser les performances et réduire les coûts en répartissant les charges de travail sur plusieurs nœuds.

Source de l’article sur DZONE

Pour la cinquième année consécutive, nous publions les résultats de SAP Labs France portant sur l’Index égalité femmes-hommes. SAP Labs France obtient la note de 89/100 au titre de l’année 2022.

Cet Index a été calculé sur la base de 5 indicateurs :

  • Les écarts de rémunération : 39/40 points
  • La répartition des augmentations : 20/20 points
  • La répartition des promotions : 15/15 points
  • Le pourcentage de salariées augmentées à leur retour de congé de maternité : 15/15 points
  • Mixité des dix plus hauts salaires : 0/10 points

L’index SAP Labs France, publié en 2023, met en lumière l’augmentation du score final par rapport à l’an passé (89/100 versus 79/100 l’an passé) grâce aux indicateurs 2 (augmentations) et 3 (promotions) qui progressent et obtiennent la note maximale.​ SAP Labs France maintient la note maximale sur l’aspect augmentations salariales pour les femmes au retour de congé maternité.

La parité et la mixité étaient une priorité pour SAP Labs France bien avant la mise en place de l’Index égalité professionnelle.

SAP Labs France est en effet engagée dans une politique à long terme dans ces domaines avec notamment la mise en place de plans d’action égalité femme/homme et des analyses de rémunération régulières. Notre Accord n’aborde pas uniquement la question des salaires mais également des formations, du recrutement, du développement, etc. Autant d’éléments impactant l’égalité professionnelle. Eléments que l’index, tel qu’il est construit aujourd’hui ne permet pas de mesurer.

SAP Labs France entend poursuivre ses efforts et ses engagements dans le domaine de l’égalité professionnelle. 

Pour rappel, la publication de cet index est obligatoire.

The post Présentation de l’index égalité femmes-hommes de SAP Labs France. appeared first on SAP France News.

Source de l’article sur sap.com

Réduire les incidents de sécurité: implémenter un scanner d'images Docker

Implémenter un scanner d’images Docker peut aider à réduire les incidents de sécurité et à assurer une meilleure protection des données.

Est-ce que vous utilisez Docker pour déployer vos applications ? Si c’est le cas, vous n’êtes pas seul. L’utilisation de Docker a connu une croissance fulgurante ces dernières années. Bien qu’il offre de nombreux avantages, il introduit également de nouveaux risques de sécurité qui doivent être pris en compte.

Mais, pourquoi est-il si important de réduire les incidents de sécurité ? C’est simple : le coût d’une violation de sécurité peut être dévastateur. De la perte de confiance des clients aux pertes financières, les conséquences d’un incident de sécurité peuvent être graves. C’est pourquoi il est essentiel de prendre des mesures pour les empêcher de se produire en premier lieu.

Pourquoi est-il si important de réduire les incidents de sécurité ?

Avec l’essor de la technologie, le monde des applications informatiques a connu une croissance considérable. L’utilisation de Docker est devenue très populaire ces dernières années, et de nombreuses entreprises l’utilisent pour déployer leurs applications. Bien que cette technologie offre de nombreux avantages, elle introduit également de nouveaux risques de sécurité qui doivent être pris en compte.

La réduction des incidents de sécurité est très importante car les conséquences d’une violation peuvent être catastrophiques. En effet, une violation de sécurité peut entraîner une perte de confiance des clients, des pertes financières et d’autres conséquences négatives. C’est pourquoi il est essentiel de prendre des mesures pour prévenir ces incidents.

En tant que scientifique informatique enthousiaste, je recommande vivement l’utilisation de tests pour garantir la sécurité des applications Docker. Les tests peuvent être effectués à différents stades du développement logiciel, notamment lors de la conception, du codage et du déploiement. Les tests peuvent aider à détecter et à corriger les vulnérabilités potentielles avant qu’elles ne soient exploitées par des cybercriminels. Les tests peuvent également aider à vérifier que le code est conforme aux normes de sécurité et à identifier les failles de sécurité qui peuvent être corrigées avant le déploiement.

En outre, l’utilisation d’outils d’analyse de sécurité peut aider à détecter les vulnérabilités et à fournir des recommandations sur la façon de les corriger. Ces outils peuvent également aider à surveiller les activités des utilisateurs et à détecter les comportements suspects. Enfin, il est important de mettre en œuvre des stratégies de sécurité appropriées pour protéger les applications contre les attaques.

Pour résumer, il est essentiel de prendre des mesures pour réduire les incidents de sécurité liés à l’utilisation de Docker. L’utilisation de tests et d’outils d’analyse de sécurité peut aider à détecter et à corriger les vulnérabilités et à mettre en œuvre des stratégies de sécurité appropriées pour protéger les applications contre les attaques. En tant que scientifique informatique enthousiaste, je recommande vivement l’utilisation de tests pour garantir la sécurité des applications Docker.

Source de l’article sur DZONE

Spring Cloud: Comment Gérer Config. Microservices (2e Partie)

Dans cet article, nous allons poursuivre notre exploration de Spring Cloud et voir comment gérer la configuration des microservices. Préparez-vous à découvrir les dernières fonctionnalités de Spring Cloud !

Dans la première partie de cet article, nous avons vu comment configurer un scénario simple avec un serveur Spring Cloud Config et son client correspondant. Le serveur était configuré avec un profil natif et la configuration était stockée dans le classpath, dans un sous-dossier nommé config. La démo était composée d’une seule instance de serveur et de client.

Dans la deuxième partie, nous allons montrer comment configurer Spring Cloud Config pour se connecter et utiliser un dépôt Git externe. Puis, dans les prochaines sections, nous parlerons du rafraîchissement des données de configuration sans redémarrage des services.

## Configurer Spring Cloud Config pour se connecter à un dépôt Git externe

En tant qu’informaticien enthousiaste, je suis très intéressé par les nouvelles technologies et leurs applications. Dans cet article, je vais vous parler de l’utilisation d’un logiciel de configuration de Spring Cloud Config pour gérer les paramètres de votre application.

Tout d’abord, nous allons voir comment configurer un scénario simple avec un serveur Spring Cloud Config et son client correspondant. Le serveur est configuré avec un profil natif et la configuration est stockée dans le classpath, dans un sous-dossier nommé config. La démo est constituée d’une seule instance de serveur et de client.

Ensuite, nous verrons comment configurer Spring Cloud Config pour se connecter et utiliser un dépôt Git externe. Dans les sections suivantes, nous parlerons du rafraîchissement des données de configuration sans redémarrer les services. Pour ce faire, nous utiliserons le logiciel Spring Cloud Bus qui permet de publier des messages sur un bus de messages et de les diffuser à tous les clients connectés. Nous verrons également comment configurer le client pour qu’il puisse recevoir et traiter ces messages.

Enfin, nous verrons comment le logiciel Spring Cloud Config peut être utilisé pour gérer les paramètres de votre application. Nous verrons comment le serveur peut être configuré pour lire la configuration à partir d’une source externe, comme un dépôt Git, et comment le client peut être configuré pour récupérer la configuration à partir du serveur. Nous verrons également comment le logiciel peut être utilisé pour mettre à jour la configuration sans redémarrer les services.

Source de l’article sur DZONE

Protéger les données utilisateur dans Microsoft 365 : Guide pas-à-pas.

Protéger les données des utilisateurs est essentiel pour Microsoft 365. Découvrez comment le faire étape par étape grâce à ce guide pas-à-pas !

## Comprendre le paysage des menaces

Malware: Malware is malicious software designed to damage or gain unauthorized access to a system. It can be spread through email, websites, and other sources.

Phishing: Phishing is a type of social engineering attack in which attackers attempt to gain access to sensitive information by sending emails or other messages that appear to be from a legitimate source.

Data Leakage: Data leakage occurs when confidential information is unintentionally shared with unauthorized parties. This can happen through email, file sharing, or other means.

Data Theft: Data theft is the intentional theft of data by an individual or group. This can be done through malicious software, physical theft of devices, or other means.

Introduction

En tant que scientifique informatique enthousiaste, je sais que la sécurité des données est une préoccupation majeure pour les organisations qui utilisent Microsoft 365. Avec la sophistication croissante des menaces cybernétiques, il est essentiel d’être conscient des risques potentiels pour vos comptes utilisateurs et vos données. Dans cet article, nous fournirons un guide étape par étape pour vous aider à protéger votre environnement Microsoft 365 contre la perte de données. Nous couvrirons le paysage des menaces, les fonctionnalités de sécurité Microsoft 365, les meilleures pratiques pour sécuriser les comptes utilisateurs et les solutions de sauvegarde de données pour Microsoft 365. Avec les informations et les recommandations fournies dans ce guide, vous serez bien équipé pour protéger les précieuses données de votre organisation et assurer la continuité des activités.

Comprendre le paysage des menaces

Les menaces cybernétiques sont en constante augmentation et il est important de comprendre le paysage des menaces afin de mieux protéger votre environnement Microsoft 365. Les types de perte de données les plus courants auxquels les organisations sont confrontées dans un environnement Microsoft 365 sont les suivants :

Malware : le malware est un logiciel malveillant conçu pour endommager ou obtenir un accès non autorisé à un système. Il peut être diffusé par e-mail, sites web et autres sources.

Phishing : le phishing est une forme d’attaque d’ingénierie sociale dans laquelle des attaquants tentent d’accéder à des informations sensibles en envoyant des e-mails ou d’autres messages qui semblent provenir d’une source légitime.

Fuite de données : la fuite de données se produit lorsque des informations confidentielles sont partagées involontairement avec des parties non autorisées. Cela peut se produire par e-mail, partage de fichiers ou d’autres moyens.

Vol de données : le vol de données est le vol intentionnel de données par un individu ou un groupe. Cela peut être fait par un logiciel malveillant, un vol physique de dispositifs ou d’autres moyens.

Fonctionnalités de sécurité Microsoft 365 et meilleures pratiques

Microsoft 365 propose une gamme de fonctionnalités de sécurité pour protéger vos comptes utilisateurs et vos données. Ces fonctionnalités comprennent l’authentification multifacteur, la protection contre le hameçonnage, la surveillance des activités suspectes, la protection contre les logiciels malveillants et le chiffrement des données. En outre, il existe certaines meilleures pratiques que vous pouvez adopter pour renforcer la sécurité de votre environnement Microsoft 365. Ces pratiques comprennent l’utilisation d’un mot de passe fort et unique pour chaque compte

Source de l’article sur DZONE

Les flux d'événements ne sont rien sans action.

Les flux d’événements sont une chose, mais sans action, ils ne servent à rien. Il est donc important de passer à l’action pour tirer le meilleur parti des opportunités qui se présentent.

Événements de flux et traitement des flux d’événements

En tant qu’informaticien enthousiaste, je voudrais discuter des flux d’événements et du traitement des flux d’événements en profondeur. Chaque point de données dans un système qui produit des données de manière continue correspond à un événement. Les flux d’événements sont décrits comme un flux continu d’événements ou de points de données. Les flux d’événements sont parfois appelés flux de données dans la communauté des développeurs, car ils se composent de points de données continus. Le traitement des flux d’événements fait référence à l’action prise sur les événements générés.

Le traitement des flux d’événements est très différent du traitement par lots, car le traitement des flux d’événements est conçu pour traiter les données en temps réel. Cela signifie que les données sont traitées immédiatement après leur arrivée et que les résultats sont immédiatement disponibles. Cela permet aux systèmes de prendre des décisions en temps réel et de réagir rapidement aux changements. Les avantages du traitement des flux d’événements comprennent une meilleure prise de décision, une plus grande réactivité et une plus grande efficacité.

Le traitement des flux d’événements est utilisé pour une variété de tâches, notamment la surveillance en temps réel, le routage et le filtrage des données, l’analyse prédictive et la détection des anomalies. Par exemple, un système peut surveiller en temps réel les données provenant d’une base de données et prendre des mesures en fonction des résultats obtenus. Il peut également être utilisé pour analyser les données en temps réel et prendre des décisions basées sur ces analyses. Enfin, le traitement des flux d’événements peut être utilisé pour détecter les anomalies dans les données et prendre des mesures pour y remédier.

Pour illustrer le traitement des flux d’événements, considérons un système qui surveille en temps réel les données provenant d’une base de données. Le système surveille les données à l’aide d’une application qui analyse les données et prend des mesures en fonction des résultats obtenus. Lorsque le système détecte une anomalie, il peut prendre des mesures pour corriger le problème ou avertir l’utilisateur. De plus, le système peut être configuré pour analyser les données en temps réel et prendre des décisions basées sur ces analyses. Ainsi, le traitement des flux d’événements permet aux systèmes de surveiller, analyser et prendre des décisions basées sur les données provenant d’une base de données en temps réel.

Source de l’article sur DZONE

Faciliter la construction des budgets et améliorer l’alignement entre les métiers, voilà les deux principaux objectifs que Solinest visait avec sa nouvelle solution de planification. SAP Analytics Cloud a été retenu pour répondre à ces besoins.

Solinest est un spécialiste du négoce de produits de grande consommation : confiseries, snacks, boissons et produits frais. Des articles qui peuvent être trouvés en devant de caisse et dans les rayons de 50.000 points de vente français : hypermarchés, supermarchés et commerces de proximité. La société alsacienne est également présente en Belgique et au Luxembourg.

Solinest distribue les produits de ses 40 marques partenaires, mais participe aussi au développement de marques de distributeurs et propose ses propres offres, comme la marque [N.A!]. Entreprise familiale et indépendante, Solinest compte 500 collaborateurs, pour 300 millions d’euros de chiffre d’affaires annuel.

Comme toutes les sociétés œuvrant dans le secteur de la distribution, Solinest réalise de gros volumes de transactions avec de faibles marges, nécessitant un apport constant de nouveaux marchés. La réactivité est un des autres enjeux auquel est confrontée la société. Réactivité se traduisant par un besoin d’alignement permanent entre marketing, commerce, logistique, finance et direction.

« Le système d’information de Solinest est compact, avec un ensemble de solutions SAP et des interfaces simples : un ERP SAP ECC, un data warehouse SAP BW, SAP BPO et SAP Analysis », explique Franck Prevost, DSI du groupe. Ce SI met l’accent sur des technologies matures, avec un reporting effectué sur Excel et manquant donc de flexibilité. « Nous avions besoin d’un outil transversal facilitant les échanges entre directions et permettant d’adresser le budget et les prévisions. »

SAP Analytics Cloud et Censio Karamba

« Nous souhaitions trouver une solution adaptée dans le catalogue SAP, poursuit Franck Prevost. Nous hésitions entre SAP Business Planning and Consolidation (SAP BPC) et SAP Analytics Cloud (SAC). Nous avons alors cherché une société capable de mettre en place des POC afin de vérifier laquelle de ces deux solutions répondrait le mieux à nos besoins. Censio Karamba a été choisi pour créer ces démonstrateurs. Après analyse, nous avons opté pour SAC, car c’est une solution cloud accessible et agile, capable de faire tout ce que l’on attendait (construction de budget, simulations, indicateurs et tableaux de bord), tout en étant au cœur de la roadmap de SAP. »

Ce projet structurant est stratégique pour Solinest. Une attention particulière a donc été portée sur la définition du modèle et des nouveaux processus, et une réflexion a été menée sur les besoins en matière de simulation. Trois lots ont été définis :

  • Budget : un lot devant être mis en place en septembre 2020, pour permettre la saisie des budgets 2021 dans SAC. Une phase critique du projet.
  • Répartition du réel : ce lot nécessitant de disposer d’une année de référence, il a été décidé de le mettre en place après le budget.
  • Contribution consolidée : l’objectif est ici de définir ce que les marques Solinest (comme [N.A!]) apportent en tant que marque et au distributeur. Rolling forecast et processus IBP font également partie de ce lot.

De mars à septembre 2020, les équipes de Solinest et de Censio Karamba ont mis en place la connexion entre SAP BW et SAC, modélisé l’intégralité du P&L, pris en compte les inducteurs de prix et coûts (environ 200) et créé les états de restitution par couples pays-canaux. En parallèle, il a fallu accompagner et former les utilisateurs en vue de la campagne de saisie de données relative au budget 2021. « Cette étape était très importante, car nous voulions être en mesure de faire interagir quatre métiers : marketing, commerciaux, supply chain et contrôleurs de gestion », explique Franck Prevost. Soit 400 personnes à former. Cette tâche fut d’autant plus complexe que le télétravail était la règle pendant une grande partie de cette période.

Premier succès, avec le rendu du lot 1 dans les temps, permettant une saisie du budget 2021 dans SAC. Crise sanitaire oblige, le lot 2 a été reculé de novembre 2020 à janvier 2021. Enfin, le lot 3 a été livré en juin 2021. Au total, le projet aura duré près de 18 mois.

Des métiers qui gagnent en autonomie

Le premier bénéfice, c’est l’autonomie apportée aux métiers. Ils deviennent indépendants du contrôleur de gestion sur la saisie et la restitution des données, et de l’IT sur les aspects techniques. Dans le même temps, le rôle du contrôle de gestion évolue : « d’opérateur de saisie, il devient celui qui orchestre les processus budgétaires », note Franck Prevost.

Autre avantage apporté par SAP Analytics Cloud : il permet à tous les collaborateurs d’accéder au même niveau d’information, de partout. « Il n’est plus nécessaire d’attendre que le contrôleur de gestion ait produit ses restitutions pour accéder aux informations. Dorénavant, tout le monde a accès à la donnée, au même moment. »

Prochainement, Solinest envisage de basculer de SAP BW vers SAP BW/4HANA. Mais aussi de mettre en place de nouveaux outils de simulation dédiés aux commerciaux et des tableaux de bord destinés au comité de direction de l’entreprise. L’aventure SAP Analytics Cloud ne fait donc que commencer pour Solinest.

The post Solinest pilote ses budgets et prévisions avec SAP Analytics Cloud appeared first on SAP France News.

Source de l’article sur sap.com