Articles

Faut-il tester plus le code généré par l'IA ?

L’utilisation des technologies d’intelligence artificielle (IA) pour générer du code est en plein essor. Mais faut-il tester plus le code généré par l’IA ?

Les outils alimentés par l’IA pour écrire du code, tels que GitHub Copilot, sont de plus en plus populaires dans le développement logiciel. Ces outils promettent d’accroître la productivité, mais certains affirment également qu’ils démocratisent la programmation en permettant aux non-programmeurs d’écrire des applications. Mais comment savons-nous vraiment si le code écrit par un outil IA est adapté à son objectif ?

Data is key to understanding the effectiveness of AI-powered code writing tools. By collecting data on the code written by these tools, we can measure the quality of the code and determine whether it is suitable for use in production. This data can also be used to identify areas where the tools need improvement, and to provide feedback to developers on how to improve their code. 

Les outils alimentés par l’intelligence artificielle pour écrire du code, tels que GitHub Copilot, sont de plus en plus populaires dans le développement logiciel. Ces outils promettent d’accroître la productivité, mais certains prétendent également qu’ils démocratisent la programmation en permettant aux non-programmeurs d’écrire des applications. 

Mais comment savons-nous vraiment si le code écrit par un outil IA est adapté à son objectif ?

Les données sont essentielles pour comprendre l’efficacité des outils d’écriture de code alimentés par l’IA. En collectant des données sur le code écrit par ces outils, nous pouvons mesurer la qualité du code et déterminer s’il est approprié pour une utilisation en production. Ces données peuvent également être utilisées pour identifier les domaines où les outils doivent être améliorés et fournir des commentaires aux développeurs sur la façon d’améliorer leur code. 

Les outils alimentés par l’IA peuvent être un moyen très utile pour accélérer le développement logiciel et réduire les coûts. Cependant, pour tirer le meilleur parti de ces outils, il est important de disposer de données fiables sur leur efficacité et leur qualité. Les données peuvent également être utilisées pour améliorer les outils et fournir des informations aux développeurs sur la façon d’améliorer leur code. 

Les données sont donc essentielles pour comprendre comment les outils alimentés par l’IA peuvent être utilisés efficacement et de manière responsable. Les entreprises qui veulent tirer le meilleur parti de ces outils doivent recueillir des données sur leurs performances et leurs résultats afin de pouvoir prendre des décisions éclairées sur leur utilisation. Les données peuvent également être utilisées pour améliorer les outils et fournir des informations aux développeurs sur la façon d’améliorer leur code. 

En conclusion, les outils alimentés par l’IA peuvent être un moyen très utile pour accélérer le développement logiciel et réduire les coûts. Cependant, pour tirer le meilleur parti de ces outils, il est important de disposer de données fiables sur leur efficacité et leur qualité. Les données sont donc essentielles pour comprendre comment les outils alimentés par l’IA peuvent être utilisés efficacement et de manière responsable. Les entreprises qui veulent tirer le meilleur parti de ces outils doivent recueillir des données sur leurs performances et leurs résultats afin de pouvoir prendre des décisions éclairées sur leur utilisation. 

Source de l’article sur DZONE

Les piliers de la sécurité des API

La sécurité des API est un sujet important. Pour assurer une sécurité optimale, il est important de comprendre les piliers qui la sous-tendent.

Les API sont rapidement devenues un élément fondamental de la programmation moderne. Elles alimentent une vaste gamme d’avancées et d’innovations technologiques dans tous les secteurs. Les API sont essentielles au développement d’applications, à l’Internet des objets (IoT), au commerce électronique, aux services financiers numériques, au développement de logiciels et bien plus encore. Sans API, l’Internet tel que nous le connaissons n’existerait pas.

The architecture of an API is based on the concept of client-server. The client is the application that makes the request, and the server is the application that responds to the request. The client sends a request to the server, which then processes the request and returns a response. The response is usually in the form of data, such as a web page or an image. APIs are typically designed to be lightweight and efficient, so they can be used in a wide variety of applications.

Les API sont devenues rapidement un élément fondamental de la modernisation du développement logiciel. Elles alimentent une vaste gamme d’avancées technologiques et d’innovations dans tous les secteurs. Les API sont essentielles au développement d’applications, à l’Internet des Objets (IoT), au commerce électronique, aux services financiers numériques, au développement de logiciels et à bien plus encore. Sans API, l’Internet tel que nous le connaissons n’existerait pas.

Les API, ou interfaces de programmation d’application, sont des règles et des protocoles qui permettent à différentes applications logicielles de communiquer et d’interagir entre elles. Ils définissent les méthodes et les structures de données que les développeurs peuvent utiliser pour accéder à des fonctionnalités ou à des données spécifiques à partir d’un service ou d’une plateforme. Les API permettent aux développeurs de créer des applications qui peuvent tirer parti des fonctionnalités d’autres systèmes logiciels sans avoir à comprendre le fonctionnement interne de ces systèmes.

L’architecture d’une API est basée sur le concept de client-serveur. Le client est l’application qui fait la demande et le serveur est l’application qui répond à la demande. Le client envoie une demande au serveur, qui traite alors la demande et renvoie une réponse. La réponse est généralement sous forme de données, telles qu’une page Web ou une image. Les API sont généralement conçues pour être légères et efficaces, de sorte qu’elles puissent être utilisées dans une large gamme d’applications.

Source de l’article sur DZONE

Exploration approfondie d'Amazon EC2 : optimiser les charges de travail avec les données matérielles

.

Explorer Amazon EC2 en profondeur pour optimiser les charges de travail avec les données matérielles. Découvrez comment tirer le meilleur parti de votre infrastructure cloud !

Comprendre le matériel sous-jacent aux instances EC2 d’Amazon

EC2 Instance Types and Hardware

Amazon EC2 offre une variété d’instances pour répondre aux besoins des utilisateurs. Chaque type d’instance est conçu pour offrir un ensemble spécifique de performances et de capacités. Les principaux types d’instances EC2 sont les suivants :

  • Instances à mémoire haute performance (HIMEM) : Ces instances sont conçues pour offrir une mémoire et une puissance de calcul élevées. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.
  • Instances à processeur haute performance (HIPROC) : Ces instances sont conçues pour offrir une puissance de calcul élevée et une grande quantité de mémoire. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.
  • Instances à processeur haute densité (HIDEN) : Ces instances sont conçues pour offrir une puissance de calcul élevée et une grande quantité de mémoire. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.
  • Instances à processeur haute densité (HIDEN) : Ces instances sont conçues pour offrir une puissance de calcul élevée et une grande quantité de mémoire. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.

Chaque type d’instance est alimenté par un matériel spécifique qui lui est propre. Par exemple, les instances à mémoire haute performance (HIMEM) sont alimentées par des processeurs Intel Xeon E5-2686 v4, des processeurs Intel Xeon E5-2676 v3 et des processeurs Intel Xeon E5-2676 v2. Les instances à processeur haute performance (HIPROC) sont alimentées par des processeurs Intel Xeon E5-2686 v4, des processeurs Intel Xeon E5-2676 v3 et des processeurs Intel Xeon E5-2676 v2. Les instances à processeur haute densité (HIDEN) sont alimentées par des processeurs Intel Xeon D-1541, des processeurs Intel Xeon D-1531 et des processeurs Intel Xeon D-1521. Enfin, les instances à processeur haute densité (HIDEN) sont alimentées par des processeurs Intel Xeon D-1541, des processeurs Intel Xeon D-1531 et des processeurs Intel Xeon D-1521.

Conclusion

Amazon EC2 offre une variété d’instances pour répondre aux besoins des utilisateurs. Chaque type d’instance est conçu pour offrir un ensemble spécifique de performances et de capacités, et est alimenté par un matériel spécifique. Comprendre le matériel qui se trouve sous le capot des instances EC2 est essentiel pour prendre les bonnes décisions lors du choix du type d’instance le plus adapté à votre cas d’utilisation. En ayant une compréhension fondamentale du matériel qui se trouve derrière les instances EC2, vous serez en mesure d’optimiser les performances et les coûts, ainsi que d’assurer le bon fonctionnement de vos applications.

Amazon Elastic Compute Cloud (EC2) est l’un des principaux services du cloud AWS, offrant une plateforme polyvalente pour le calcul sur demande. La vraie
Source de l’article sur DZONE

Vues PostgreSQL avec paramètres d'exécution

Les vues PostgreSQL sont une fonctionnalité puissante qui permettent aux utilisateurs de créer des vues avec des paramètres d’exécution spécifiques. Découvrez comment les utiliser!

Il y a de nombreuses situations où les applications sont demandées pour être assez agiles et polyvalentes afin qu’elles puissent exécuter des rapports dynamiques dont les entrées sont fournies à l’exécution.

Cet article vise à présenter une façon d’atteindre cet objectif en utilisant les paramètres de configuration temporaires pris en charge par les bases de données PostgreSQL.

The idea is to create a database table that will contain the parameters that will be used by the application. The application will be responsible for populating this table with the required parameters before running the report. The report query can then use the parameters from this table to filter the data.

Il y a de nombreuses situations où des applications doivent être suffisamment agiles et polyvalentes pour pouvoir exécuter des rapports dynamiques dont les entrées sont fournies à l’exécution.

Cet article vise à présenter une façon d’atteindre cet objectif en utilisant les paramètres de configuration temporaires pris en charge par les bases de données PostgreSQL.

L’idée est de créer une table de base de données qui contiendra les paramètres qui seront utilisés par l’application. L’application sera responsable du remplissage de cette table avec les paramètres nécessaires avant de lancer le rapport. La requête du rapport peut alors utiliser les paramètres de cette table pour filtrer les données.

Les bases de données PostgreSQL offrent un moyen pratique de gérer ces paramètres temporaires. La fonctionnalité de configuration temporaire permet aux développeurs d’utiliser des variables pour stocker des valeurs qui peuvent être modifiées à la volée. Ces variables peuvent être utilisées dans les requêtes SQL pour filtrer les données et fournir des résultats dynamiques.

Les variables de configuration temporaire peuvent être définies à l’aide de la commande SET ou de la fonction spéciale SET_CONFIG. Les variables peuvent être récupérées à l’aide de la fonction GET_CONFIG et peuvent être supprimées à l’aide de la commande RESET ou de la fonction spéciale RESET_CONFIG.

Les développeurs peuvent créer une table de base de données qui contiendra les paramètres nécessaires à l’exécution du rapport. L’application peut alors remplir cette table avec les paramètres nécessaires avant l’exécution du rapport. La requête du rapport peut alors utiliser ces paramètres pour filtrer les données et fournir des résultats dynamiques.

La fonctionnalité de configuration temporaire est très utile pour les applications qui doivent générer des rapports dynamiques dont les entrées sont fournies à l’exécution. Elle permet aux développeurs de créer des rapports flexibles et dynamiques sans avoir à modifier le code source. En outre, elle offre une solution simple et efficace pour gérer les paramètres d’une application.

Source de l’article sur DZONE

Démarrer avec Jenkins

Découvrez comment démarrer avec Jenkins et profitez de ses avantages pour automatiser vos processus de développement.

Jenkins, un pilier de l’automatisation logicielle depuis plus d’une décennie grâce à ses outils riches en fonctionnalités et son adaptabilité.

Jenkins est un outil d’automatisation de logiciels très populaire depuis plus d’une décennie, grâce à ses fonctionnalités riches et sa grande adaptabilité. Bien que de nombreuses alternatives impressionnantes soient apparues sur le marché, Jenkins reste l’un des vétérans. Malgré son succès, Jenkins peut être difficile à apprendre et sauter dans le vaste monde des plugins et des fonctionnalités Jenkins peut rapidement devenir déroutant.

Dans cet article, nous allons décomposer cette complexité en comprenant d’abord les fondements et les concepts qui sous-tendent Jenkins. Avec cette base, nous apprendrons comment créer un pipeline simple dans Jenkins pour construire et tester une application. Enfin, nous examinerons comment améliorer cet exemple simple pour en faire un projet plus complexe et explorerons quelques alternatives à Jenkins.

Afin de pouvoir bien comprendre Jenkins, il est important de connaître les bases de la base de données. Une base de données est une collection organisée de données qui peut être facilement consultée, modifiée et mise à jour. Jenkins utilise une base de données pour stocker des informations telles que les paramètres du projet, les informations sur les builds et les informations sur les tests. Les bases de données sont également utilisées pour stocker des informations sur les plugins et les outils qui sont utilisés par Jenkins.

Une fois que nous avons compris la base de données, nous pouvons passer à la création d’un pipeline Jenkins pour construire et tester une application. Un pipeline est un ensemble d’étapes qui sont exécutées dans un ordre spécifique afin de produire un résultat final. Les pipelines Jenkins peuvent être configurés pour exécuter des tâches telles que la compilation du code source, le déploiement de l’application et le test des fonctionnalités. Les pipelines peuvent également être configurés pour envoyer des notifications lorsque des erreurs sont détectées ou lorsque des tests échouent.

Une fois que nous avons compris comment créer un pipeline Jenkins simple, nous pouvons passer à des projets plus complexes. Les pipelines Jenkins peuvent être configurés pour exécuter des tâches plus complexes telles que le déploiement dans le cloud, l’intégration continue et le déploiement continu. Ces pipelines peuvent également être configurés pour exécuter des tests plus complexes tels que les tests d’intégration et les tests de performance. Enfin, nous pouvons également explorer des alternatives à Jenkins telles que Travis CI, CircleCI et GitLab CI.

Source de l’article sur DZONE

Amélioration des performances des applications modernes

Les applications modernes sont de plus en plus complexes et nécessitent une amélioration des performances pour répondre aux exigences des utilisateurs. Cet article explorera les moyens d’améliorer les performances des applications modernes.

Rapport de tendances 2023 sur l’observabilité et les performances des applications de DZone

La télémétrie est un processus qui consiste à recueillir des données sur l’état et les performances des applications et des systèmes. Ces données sont ensuite analysées pour comprendre le comportement des applications et identifier les problèmes. La télémétrie est essentielle pour surveiller et gérer les performances des applications. Elle fournit des informations précieuses sur les performances, les erreurs et les anomalies. Les données recueillies par la télémétrie peuvent être utilisées pour améliorer la qualité et l’efficacité des applications.

L’observabilité est une notion plus large qui s’intéresse à la façon dont les systèmes et les applications sont conçus et comment ils sont surveillés. L’observabilité est une partie importante de l’architecture logicielle. Elle permet aux développeurs et aux administrateurs de systèmes de mieux comprendre le fonctionnement des applications et de les surveiller efficacement. L’observabilité permet aux développeurs de mieux comprendre leur architecture logicielle, de déboguer plus rapidement et de résoudre plus facilement les problèmes. Elle permet également aux administrateurs de systèmes de surveiller et de gérer les performances des applications.

En résumé, la télémétrie et l’observabilité sont des outils essentiels pour surveiller et gérer les performances des applications. La télémétrie fournit des informations précieuses sur les performances, les erreurs et les anomalies. L’observabilité permet aux développeurs et aux administrateurs de systèmes de mieux comprendre le fonctionnement des applications et de les surveiller efficacement. La bonne combinaison de ces outils peut aider les entreprises à améliorer leur architecture logicielle, à déboguer plus rapidement et à résoudre plus facilement les problèmes.

Source de l’article sur DZONE

Dévoiler la feuille de route de modernisation d'application : Un voyage rapide et sécurisé vers le cloud.

Découvrez comment moderniser vos applications et les déplacer vers le cloud en toute sécurité et rapidité grâce à notre feuille de route de modernisation !

Exploration de la feuille de route de modernisation des applications

Les essentiels de la modernisation des applications

A mesure que les entreprises évoluent, leurs besoins technologiques évoluent également. Les systèmes hérités qui étaient autrefois le pilier des opérations peuvent devenir des obstacles à la progression. La modernisation des applications est le processus stratégique de revitalisation des applications existantes, les rendant plus efficaces, plus évolutives et alignées sur les exigences commerciales contemporaines.

Les étapes de la modernisation des applications

La modernisation des applications commence par une évaluation approfondie de l’infrastructure et des processus actuels. Une fois que l’état actuel est clairement défini, l’équipe peut commencer à planifier le processus de modernisation. La modernisation des applications comprend généralement les étapes suivantes :

  • Identification des applications à moderniser.
  • Évaluation des fonctionnalités et des performances.
  • Migration vers le cloud.
  • Mise à niveau des technologies.
  • Tests et déploiement.

L’identification des applications à moderniser est un processus critique. Il est important de déterminer quelles applications sont les plus importantes pour l’entreprise et lesquelles peuvent être modernisées avec le plus grand avantage. Une fois que les applications à moderniser ont été identifiées, l’équipe peut procéder à l’évaluation des fonctionnalités et des performances. Cette étape est cruciale pour déterminer quelles technologies et quels processus doivent être mis à niveau pour répondre aux exigences actuelles.

Test et déploiement

Une fois que les technologies et les processus ont été mis à niveau, il est temps de procéder aux tests et au déploiement. Les tests sont essentiels pour s’assurer que les applications modernisées fonctionnent correctement et répondent aux exigences de l’entreprise. Les tests doivent couvrir tous les aspects des applications, y compris la sécurité, la performance et la fiabilité. Une fois que les tests sont terminés avec succès, l’application peut être déployée dans le cloud.

La modernisation des applications est un processus complexe qui nécessite une planification minutieuse et une attention aux détails. Cependant, une fois le processus achevé, les entreprises peuvent profiter d’une infrastructure plus agile et plus sûre qui peut répondre aux exigences actuelles et futures.

Source de l’article sur DZONE

Maîtrise de l'ingénierie des modèles de langage AI.

La maîtrise de l’ingénierie des modèles de langage AI est une compétence essentielle pour les développeurs qui souhaitent créer des applications modernes.

Ingénierie de prompt, un aspect vital pour tirer le plein potentiel des modèles de langage IA

2. Testing

Testing is an important part of prompt engineering. It helps to identify any errors or inconsistencies in the instructions given to the model. This can be done by running the model on a set of test data and comparing the results with the desired output. This helps to identify any potential issues and allows for adjustments to be made accordingly.

3. Iterative Process

Prompt engineering is an iterative process. After testing, adjustments can be made to the instructions given to the model. This can include changing the wording, adding additional information, or providing more specific instructions. The process is repeated until the desired output is achieved.

Limitations of Prompt Engineering

Prompt engineering is not without its limitations. It can be difficult to write clear and specific instructions that are tailored to the task at hand. Additionally, the process can be time-consuming and requires a certain level of expertise in order to achieve the desired results. Finally, prompt engineering is not a one-size-fits-all solution and may not be suitable for all tasks.

Potential Applications of Prompt Engineering

Prompt engineering has a wide range of potential applications. It can be used to improve the accuracy of AI language models, such as natural language processing (NLP) and machine translation. It can also be used to create more engaging and interactive user experiences, such as chatbots and virtual assistants. Finally, prompt engineering can be used to develop more accurate and contextually relevant responses from AI systems.

Principes de l’ingénierie de prompt

1. Écrire des instructions claires et spécifiques

Le succès de l’ingénierie de prompt commence par fournir des instructions claires et non ambiguës. Clair ne signifie pas nécessairement une courte description. Être spécifique sur la sortie souhaitée aide le modèle à comprendre plus précisément la tâche. Par exemple, demandez à LLA d’être un expert dans le domaine que vous demandez.

2. Test

Le test est une partie importante de l’ingénierie de prompt. Il permet d’identifier toutes les erreurs ou incohérences dans les instructions données au modèle. Cela peut être fait en faisant fonctionner le modèle sur un jeu de données de test et en comparant les résultats avec la sortie souhaitée. Cela permet d’identifier tout problème potentiel et permet d’effectuer des ajustements en conséquence.

3. Processus itératif

L’ingénierie de prompt est un processus itératif. Après le test, des ajustements peuvent être apportés aux instructions données au modèle. Cela peut inclure le changement du mot, l’ajout d’informations supplémentaires ou la fourniture d’instructions plus spécifiques. Le processus est répété jusqu’à ce que la sortie souhaitée soit obtenue.

Limites de l’ingénierie de prompt

L’ingénierie de prompt n’est pas sans ses limites. Il peut être difficile d’écrire des instructions claires et spécifiques qui sont adaptées à la tâche à accomplir. De plus, le processus peut être long et nécessite un certain niveau d’expertise pour obtenir les résultats souhaités. Enfin, l’ingénierie de prompt n’est pas une solution unique et peut ne pas être adaptée à toutes les tâches.

Applications
Source de l’article sur DZONE

Un plan pour une observabilité complète.

Pour obtenir une observabilité complète, il est important de mettre en place un plan d’action bien défini. Découvrez comment le réaliser !

Rapport de tendances 2023 sur l’observabilité et les performances des applications de DZone

En 2023, le rapport sur les tendances en matière d’observabilité et de performance des applications de DZone révèle que le codage est un élément clé de l’observabilité. Les développeurs peuvent utiliser des outils tels que le codage pour créer des applications plus robustes et plus fiables. Le codage permet aux développeurs de créer des applications qui sont plus faciles à surveiller et à maintenir. Il permet également aux développeurs de mieux comprendre le comportement des applications et de les améliorer en conséquence. En outre, le codage permet aux développeurs d’accéder à des données plus précises et plus complètes, ce qui leur permet de prendre des décisions plus éclairées.

Le codage est également un outil essentiel pour améliorer la performance des applications. Les développeurs peuvent utiliser le codage pour optimiser le code et améliorer la vitesse et la stabilité des applications. En outre, le codage permet aux développeurs de créer des applications qui sont plus faciles à surveiller et à maintenir. Les développeurs peuvent également utiliser le codage pour créer des applications qui sont plus sûres et plus fiables. Enfin, le codage permet aux développeurs de mieux comprendre le comportement des applications et d’identifier rapidement les problèmes.

En conclusion, le codage est un outil essentiel pour améliorer l’observabilité et la performance des applications. Les développeurs peuvent utiliser le codage pour créer des applications plus robustes et plus fiables, ainsi que pour améliorer la vitesse et la stabilité des applications. Le codage permet également aux développeurs d’accéder à des données plus précises et plus complètes, ce qui leur permet de prendre des décisions plus éclairées. Pour en savoir plus sur les tendances en matière d’observabilité et de performance des applications, consultez le rapport sur les tendances 2023 d’Observability and Application Performance de DZone.

Source de l’article sur DZONE

Paris, le 16 novembre 2023 – SAP, leader mondial des logiciels d’entreprises, renouvelle sa charte et son partenariat avec l’Association #JamaisSansElles, et réaffirme son engagement concret et déterminé en faveur de la mixité ; engagement dans lequel les membres de la Direction de l’entreprise sont impliqués depuis 2019 et qui est renouvelé cette année en présence de ses partenaires Business tel que PWC.

Cette démarche témoigne des valeurs de l’entreprise et de sa volonté à promouvoir la mixité, la diversité et l’inclusion, jusque dans la création des produits technologiques.

Une ambition individuelle et collective partagée par la Direction de SAP France

 

Les membres du Comité Exécutif de SAP France s’engagent, à titre individuel et collectif, à respecter les engagements de la charte #JamaisSansElles qui concernent avant tout le respect de la parité dans tous les domaines.

Cet engagement se manifeste par le refus de participer à des événements publics et/ou médiatiques excluant les femmes, et à privilégier les interventions mixtes où seraient traités des sujets d’intérêt commun, qu’ils soient sociétaux, politiques, économiques, scientifiques ou stratégiques.

SAP France encourage par ailleurs la présence des femmes entrepreneuses et se fixe pour objectif d’atteindre, d’ici 2028, 45% des entreprises de son portefeuille qui soient fondées ou dirigées par des entrepreneurs sous-représentés. Depuis 2017, son accélérateur SAP.iO Foundry Paris a d’ailleurs mis en place des initiatives spécifiques pour intégrer les entrepreneuses au sein de ses groupes de startups.

Un engagement novateur des équipes R&D pour agir contre les biais dans l’IA

 

Grâce à l’expertise de ses équipes R&D, SAP France travaille sur la création de produits et services novateurs qui encouragent la diversité, l’inclusion, l’éthique, mais aussi à lutter contre les biais, en particulier dans l’IA. Aux côtés du réseau féminin interne « BWN@SAP » l’entreprise participe à l’élaboration du pacte « Femmes & IA » au sein du Cercle InterElles dont l’objectif est d’échanger autour des aspects concrets de la mise en place d’une démarche vertueuse de l’utilisation de l’IA.

 

Au quotidien, une politique interne en faveur de la Diversité et de l’Inclusion (D&I)

 

SAP France a enrichi ses engagements relatifs à l’égalité professionnelle en signant un nouvel accord d’entreprise 2023/2025, qui prévoit la parité d’ici à 2030, et l’atteinte de 36 % de femmes dans ses effectifs d’ici à 2025.

Favoriser l’accès à des postes à responsabilité managériale est par ailleurs l’un des marqueurs forts de SAP France dans sa politique interne D&I qui vise d’ici à 2025 à ce que 30% de femmes soient dans des postes de managers.

SAP France maintient sa politique de tolérance zéro contre le harcèlement, les comportements sexistes, les violences et les stéréotypes en s’appuyant notamment sur l’initiative  StOpE contre le sexisme ordinaire. En outre, SAP sensibilise l’ensemble de ses collaborateurs via sa propre plateforme « Inclusive Mindset Challenge » et soutient les victimes de violences conjugales.

Enfin, SAP France soutient la parentalité et propose une politique inclusive, y compris pour les parents de même genre, avec la mise en place de mesures telles qu’une absence rémunérée en cas de grande prématurité et un congé spécial rémunéré pour des situations de santé spécifiques à l’attention des femmes et hommes de l’entreprise.

 

« SAP France souhaite faire de la mixité l’une de ses grandes Priorités et a pour ambition d’atteindre une parfaite équitée Femme/Homme. Le Comité exécutif de SAP France œuvre pour continuer à faire progresser la représentativité des femmes, aussi bien en interne que dans tout son écosystème. C’est en ce sens que nous avons signé notre nouvel accord d’égalité professionnelle en août dernier, présentant de nombreuses mesures avant-gardistes. Notre partenariat avec l’Association #JamaisSansElles, lancé depuis 5 ans, offre une réelle dynamique au sein de notre entreprise et nous fait progresser continuellement en nous encourageant fortement à revisiter chacune de nos politiques, produits technologiques, processus et initiatives à l’aune de cette mixité souhaitée. Le renouvellement de notre Engagement avec #JamaisSansElles fait parfaitement sens en ce que s’il se traduit en actions fermes et concrètes en faveur la mixite. » déclare Caroline Garnier, Directrice des Ressources Humaines chez SAP France.

 

« Nous sommes heureux de poursuivre notre collaboration avec la direction renouvelée de SAP France, après une première signature il y a quatre ans de sa charte #JamaisSansElles. Ensemble, nous réaffirmons notre volonté d’agir en faveur de la mixité et d’une gouvernance partagée. Si nous voulons faire tomber le plafond de verre, c’est pour que femmes et hommes prennent place ensemble dans tous les domaines de la société, et participent conjointement à la gestion des affaires humaines. Cette charte propose des engagements avec des objectifs clairs pour renforcer la participation des femmes dans toutes les sphères décisionnelles et en faveur de leur visibilité. C’est avec des partenaires fidèles tels que SAP France que nous menons des actions concrètes et que nous progressons. Il est temps d’actualiser le monde, car la vision qui sous-tend ces engagements est universelle et fondamentale. Plus que jamais pour #JamaisSansElles, le féminisme est un humanisme ! », déclare Natacha Quester-Séméon, Directrice Générale de l’Association #JamaisSansElles.

 

À propos de SAP :

La stratégie de SAP est d’aider chaque organisation à fonctionner en « entreprise intelligente » et durable. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 87 % du commerce mondial total est généré par nos clients. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analyse avancée aident nos clients à transformer leurs activités en « entreprises intelligentes ». SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration pour qu’ils puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent, sans interruption. Notre suite d’applications et de services end-to-end permet aux clients privés et publics de 26 secteurs d’activité dans le monde entier, de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Grâce à un réseau mondial de clients, de partenaires, d’employés et de leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun.

 

À propos de #JamaisSansElles :

#JamaisSansElles est un mouvement féministe et humaniste. Il agit en faveur de la mixité dans tous les domaines de la société et pour une gouvernance partagée. Ce do-tank propose des actions concrètes et immédiates pour promouvoir l’égale participation et visibilité des femmes dans les instances de décision et aux postes de responsabilité et de représentation pour briser le plafond de verre. Il développe des chartes d’engagements avec des entreprises, des administrations, ainsi que des institutions. #JamaisSansElles est le plus important mouvement français qui agit pour la mixité et l’égalité femmes-hommes dans le monde professionnel. Près de 2 000 hommes et femmes sont engagés à titre individuel avec #JamaisSansElles à ne plus jamais participer à des événements sans femmes : dirigeants, managers, collaborateurs, politiques, députés, sénateurs, ambassadeurs et ambassadrices de France. Les signataires sont présents dans de nombreux pays. Le mouvement s’investit également dans le champ de l’éducation avec la “Journée nationale #JamaisSansElles pour la mixité des métiers” dans les collèges et lycées afin de lutter contre les stéréotypes et biais de genre, avec le soutien du ministère de l’Économie, du ministère de l’Éducation nationale. Pour ce mouvement, le féminisme est un humanisme. Pour en savoir plus : https://www.jamaissanselles.fr/

 

Contact presse :

Sylvie Léchevin : sylvie.lechevin@sap.com / sap@the-arcane.com

 

The post SAP France renouvelle son partenariat avec l’Association #JamaisSansElles pour faire progresser la mixité et s’engage à créer des solutions d’Intelligence Artificielle inclusives appeared first on SAP France News.

Source de l’article sur sap.com