Articles

Exploration approfondie d'Amazon EC2 : optimiser les charges de travail avec les données matérielles

.

Explorer Amazon EC2 en profondeur pour optimiser les charges de travail avec les données matérielles. Découvrez comment tirer le meilleur parti de votre infrastructure cloud !

Comprendre le matériel sous-jacent aux instances EC2 d’Amazon

EC2 Instance Types and Hardware

Amazon EC2 offre une variété d’instances pour répondre aux besoins des utilisateurs. Chaque type d’instance est conçu pour offrir un ensemble spécifique de performances et de capacités. Les principaux types d’instances EC2 sont les suivants :

  • Instances à mémoire haute performance (HIMEM) : Ces instances sont conçues pour offrir une mémoire et une puissance de calcul élevées. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.
  • Instances à processeur haute performance (HIPROC) : Ces instances sont conçues pour offrir une puissance de calcul élevée et une grande quantité de mémoire. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.
  • Instances à processeur haute densité (HIDEN) : Ces instances sont conçues pour offrir une puissance de calcul élevée et une grande quantité de mémoire. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.
  • Instances à processeur haute densité (HIDEN) : Ces instances sont conçues pour offrir une puissance de calcul élevée et une grande quantité de mémoire. Elles sont idéales pour les applications qui nécessitent des performances de calcul élevées et une grande quantité de mémoire.

Chaque type d’instance est alimenté par un matériel spécifique qui lui est propre. Par exemple, les instances à mémoire haute performance (HIMEM) sont alimentées par des processeurs Intel Xeon E5-2686 v4, des processeurs Intel Xeon E5-2676 v3 et des processeurs Intel Xeon E5-2676 v2. Les instances à processeur haute performance (HIPROC) sont alimentées par des processeurs Intel Xeon E5-2686 v4, des processeurs Intel Xeon E5-2676 v3 et des processeurs Intel Xeon E5-2676 v2. Les instances à processeur haute densité (HIDEN) sont alimentées par des processeurs Intel Xeon D-1541, des processeurs Intel Xeon D-1531 et des processeurs Intel Xeon D-1521. Enfin, les instances à processeur haute densité (HIDEN) sont alimentées par des processeurs Intel Xeon D-1541, des processeurs Intel Xeon D-1531 et des processeurs Intel Xeon D-1521.

Conclusion

Amazon EC2 offre une variété d’instances pour répondre aux besoins des utilisateurs. Chaque type d’instance est conçu pour offrir un ensemble spécifique de performances et de capacités, et est alimenté par un matériel spécifique. Comprendre le matériel qui se trouve sous le capot des instances EC2 est essentiel pour prendre les bonnes décisions lors du choix du type d’instance le plus adapté à votre cas d’utilisation. En ayant une compréhension fondamentale du matériel qui se trouve derrière les instances EC2, vous serez en mesure d’optimiser les performances et les coûts, ainsi que d’assurer le bon fonctionnement de vos applications.

Amazon Elastic Compute Cloud (EC2) est l’un des principaux services du cloud AWS, offrant une plateforme polyvalente pour le calcul sur demande. La vraie
Source de l’article sur DZONE

Dévoiler la feuille de route de modernisation d'application : Un voyage rapide et sécurisé vers le cloud.

Découvrez comment moderniser vos applications et les déplacer vers le cloud en toute sécurité et rapidité grâce à notre feuille de route de modernisation !

Exploration de la feuille de route de modernisation des applications

Les essentiels de la modernisation des applications

A mesure que les entreprises évoluent, leurs besoins technologiques évoluent également. Les systèmes hérités qui étaient autrefois le pilier des opérations peuvent devenir des obstacles à la progression. La modernisation des applications est le processus stratégique de revitalisation des applications existantes, les rendant plus efficaces, plus évolutives et alignées sur les exigences commerciales contemporaines.

Les étapes de la modernisation des applications

La modernisation des applications commence par une évaluation approfondie de l’infrastructure et des processus actuels. Une fois que l’état actuel est clairement défini, l’équipe peut commencer à planifier le processus de modernisation. La modernisation des applications comprend généralement les étapes suivantes :

  • Identification des applications à moderniser.
  • Évaluation des fonctionnalités et des performances.
  • Migration vers le cloud.
  • Mise à niveau des technologies.
  • Tests et déploiement.

L’identification des applications à moderniser est un processus critique. Il est important de déterminer quelles applications sont les plus importantes pour l’entreprise et lesquelles peuvent être modernisées avec le plus grand avantage. Une fois que les applications à moderniser ont été identifiées, l’équipe peut procéder à l’évaluation des fonctionnalités et des performances. Cette étape est cruciale pour déterminer quelles technologies et quels processus doivent être mis à niveau pour répondre aux exigences actuelles.

Test et déploiement

Une fois que les technologies et les processus ont été mis à niveau, il est temps de procéder aux tests et au déploiement. Les tests sont essentiels pour s’assurer que les applications modernisées fonctionnent correctement et répondent aux exigences de l’entreprise. Les tests doivent couvrir tous les aspects des applications, y compris la sécurité, la performance et la fiabilité. Une fois que les tests sont terminés avec succès, l’application peut être déployée dans le cloud.

La modernisation des applications est un processus complexe qui nécessite une planification minutieuse et une attention aux détails. Cependant, une fois le processus achevé, les entreprises peuvent profiter d’une infrastructure plus agile et plus sûre qui peut répondre aux exigences actuelles et futures.

Source de l’article sur DZONE

Exploitez le potentiel de Quarkus et HarperDB pour une gestion des données efficace.

Exploitez le potentiel de Quarkus et HarperDB pour une gestion des données plus efficace et plus rapide ! Découvrez comment ces technologies peuvent vous aider à optimiser vos processus.

Dans le paysage en constante évolution de la technologie de base de données, rester à la pointe de la technologie n’est pas seulement une option, c’est une nécessité. Alors que les applications modernes continuent de grandir en complexité et en portée mondiale, le rôle de la base de données sous-jacente devient de plus en plus critique. C’est le socle qui soutient le fonctionnement sans faille des applications et le stockage et la récupération de vastes quantités de données. Dans cette ère d’applications à l’échelle mondiale, avoir une base de données à hautes performances, flexible et efficace est primordial.

The ultra-database is designed to handle the massive amounts of data that modern applications generate. It’s built to be highly scalable, allowing it to easily accommodate the ever-growing data volumes. It also offers superior performance, ensuring that applications can access and process data quickly and efficiently. Additionally, it provides flexibility, allowing it to easily adapt to the changing needs of applications. Finally, it’s designed to be secure, protecting data from unauthorized access and malicious attacks.

Dans le paysage en constante évolution de la technologie de base de données, rester à la pointe de la technologie n’est pas seulement une option, c’est une nécessité. Alors que les applications modernes continuent de croître en complexité et en portée mondiale, le rôle de la base de données sous-jacente devient de plus en plus critique. C’est le squelette qui soutient le fonctionnement sans faille des applications et le stockage et la récupération de vastes quantités de données. Dans cette ère d’applications à l’échelle mondiale, avoir une base de données à hautes performances, flexible et efficace est primordial.

Alors que les demandes des applications modernes augmentent, le besoin d’une base de données qui puisse suivre le rythme n’a jamais été aussi grand. La «base de données ultra» est devenue un acteur clé pour garantir que les applications fonctionnent sans faille et efficacement à l’échelle mondiale. Ces bases de données doivent offrir une combinaison unique de vitesse, d’adaptabilité et d’adaptabilité pour répondre aux exigences diverses des différentes applications, des plates-formes de commerce électronique aux systèmes IoT.

La base de données ultra est conçue pour gérer les quantités massives de données générées par les applications modernes. Il est conçu pour être hautement extensible, ce qui lui permet d’accueillir facilement les volumes de données toujours croissants. Il offre également une performance supérieure, ce qui permet aux applications d’accéder et de traiter rapidement et efficacement les données. En outre, il offre une grande flexibilité, ce qui lui permet de s’adapter facilement aux besoins changeants des applications. Enfin, il est conçu pour être sûr, protégeant les données contre tout accès non autorisé et attaques malveillantes.

Source de l’article sur DZONE

10 facteurs de qualité logiciel à toujours garder en mémoire

Les 10 facteurs de qualité logiciel sont essentiels pour garantir le bon fonctionnement et l’efficacité d’un logiciel. Apprenons à les garder en mémoire !

Flexibilité et extensibilité

Readability is the ability of software to be understood by humans. It can be supported by proper indentation, meaningful variable names, and comments. A good readability can help developers to understand the code and make modifications easily.

Flexibilité et extensibilité

La flexibilité est la capacité d’un logiciel à ajouter/modifier/supprimer des fonctionnalités sans endommager le système actuel. L’extensibilité est la capacité d’un logiciel à ajouter des fonctionnalités sans endommager le système, elle peut donc être considérée comme un sous-ensemble de la flexibilité. Ces changements de fonctionnalités peuvent survenir en fonction des exigences changeantes ou en cas d’obligation si le processus de développement est l’un des méthodes itératives. Le changement est inévitable dans le développement logiciel et c’est donc l’une des propriétés les plus importantes d’un logiciel de qualité.

Maintenabilité et lisibilité

La maintenabilité est un peu similaire à la flexibilité, mais elle se concentre sur les modifications concernant les corrections d’erreur et les modifications mineures des fonctions, pas les extensibilités fonctionnelles majeures. Elle peut être soutenue par des définitions d’interface utiles, une documentation et un code auto-documenté et/ou une documentation du code. Plus la documentation est correcte et utile, plus la maintenabilité peut être effectuée.

La lisibilité est la capacité d’un logiciel à être compris par les humains. Elle peut être soutenue par une indentation appropriée, des noms de variables significatifs et des commentaires. Une bonne lisibilité peut aider les développeurs à comprendre le code et à effectuer facilement des modifications.

Base de données

Les bases de données sont essentielles pour le stockage et l’accès aux informations. Elles sont utilisées pour stocker des informations structurées et fournir un moyen de rechercher, modifier et supprimer ces informations. Les bases de données sont également utilisées pour maintenir l’intégrité des données, ce qui signifie qu’elles sont conçues pour empêcher les erreurs et les incohérences dans les données. Les bases de données offrent également une flexibilité et une extensibilité qui permettent aux développeurs de créer des applications qui peuvent s’adapter aux changements de données.

Les bases de données offrent également une maintenabilité et une lisibilité qui permettent aux développeurs de comprendre facilement le code et de le modifier facilement. Les bases de données sont conçues pour être faciles à utiliser et à comprendre, ce qui permet aux développeurs de créer des applications plus rapidement. Les bases de données sont également conçues pour être sûres et fiables, ce qui permet aux développeurs de créer des applications robustes qui peuvent résister aux erreurs et aux attaques.

Les bases de données sont essentiell

Source de l’article sur DZONE

Okta révolutionne l'identité d'entreprise: dépassement MFA.

Okta révolutionne l’identité d’entreprise en offrant une authentification multi-facteurs plus sûre et plus facile à gérer. Découvrez comment Okta dépasse le MFA.

Au Oktane23, Okta a révélé de nouvelles solutions pour automatiser la gouvernance d’identité, mettre en œuvre la gestion des accès privilégiés et permettre une authentification et une protection contre les menaces continues.

Okta Automates Identity Governance

Okta’s new identity governance solution automates the process of granting and revoking access to applications and other resources. This helps organizations ensure that users have the right level of access to the right resources at all times, while also meeting compliance requirements. The solution also provides visibility into user access and activity, enabling organizations to quickly detect and respond to suspicious behavior.

Okta Enables Privileged Access Management

Okta’s new privileged access management solution helps organizations secure access to their most sensitive resources, such as corporate networks and databases. The solution provides granular control over who has access to these resources and when, while also providing visibility into user activity. This helps organizations detect and respond to suspicious activity quickly and effectively.

Okta Offers Continuous Authentication and Threat Protection

Okta’s new authentication and threat protection solutions help organizations protect their users from sophisticated cyber threats. The solutions provide continuous authentication and threat protection, enabling organizations to detect and respond to threats in real time. The solutions also provide visibility into user activity, allowing organizations to quickly detect and respond to suspicious behavior.

Conclusion

Okta’s new solutions will revolutionize the way organizations manage identity and access, enabling them to secure their digital resources while removing productivity roadblocks for users. The solutions provide automated identity governance, privileged access management, continuous authentication, and threat protection, helping organizations protect their users from sophisticated cyber threats while ensuring compliance with industry regulations.

Introduction

L’identité a historiquement été considérée comme le moyen d’accorder ou de refuser l’accès aux ressources et applications numériques d’une entreprise. Mais dans le paysage technologique de plus en plus complexe et riche en menaces cyber sophistiquées d’aujourd’hui, l’identité doit se transformer en bien plus. Lors de la conférence annuelle Oktane de l’Okta, leader de la gestion d’identité, des nouvelles solutions innovantes ont été annoncées qui redéfiniront le rôle de l’identité dans la sécurisation de l’entreprise moderne tout en supprimant les obstacles à la productivité des utilisateurs.

Okta Automatise la Gouvernance d’Identité

La nouvelle solution de gouvernance d’identité d’Okta automatise le processus d’octroi et de révocation de l’accès aux applications et autres ressources. Cela permet aux organisations de s’assurer que les utilisateurs disposent du bon niveau d’accès aux bonnes ressources en tout temps, tout en respectant les exigences en matière de conformité. La solution offre également une visibilité sur l’accès et l’activité des utilisateurs, ce qui permet aux organisations de détecter et de réagir rapidement à des comportements suspects.

Okta Permet la Gestion des Accès Privilégiés

La nouvelle solution de gestion des accès privilégiés d’Okta aide les organisations à sécuriser l’accès à leurs ressources les plus sensibles, telles que les réseaux et bases de données d’entreprise. La solution offre un contrôle granulaire sur qui a accès à ces ressources et quand, tout en fournissant une visibilité sur l’activité des utilisateurs. Cela permet aux organisations de détecter et de réagir rapidement et efficacement à des comportements suspects.

Okta Offre une Authentification Continue et une Protection

Source de l’article sur DZONE

7 Habitudes des Testeurs Efficaces

Les testeurs efficaces ont des habitudes qui leur permettent d’atteindre leurs objectifs. Découvrez les 7 habitudes qui font la différence!

Les sept habitudes sont discutées dans cet article, qui les encadre pour des testeurs très réussis. Voici les sept habitudes :

  • Develop a plan of action for the project.
  • Create a database of the project’s requirements.
  • Make sure everyone on the team is aware of the project’s objectives.
  • Begin With the End in Mind

    Before beginning a project, it is important to have a clear understanding of what the end result should be. This will help you to focus on the tasks that need to be completed in order to achieve the desired outcome. It is also important to consider the stakeholders involved in the project, as their expectations should be taken into account when creating the plan. Additionally, it is beneficial to create a timeline for the project and set deadlines for each task. This will help to ensure that the project is completed on time and within budget. Here are three suggestions for approaching upcoming undertakings with a clear goal in mind:

    • Create a list of objectives for the project.
    • Develop a timeline for the project.
    • Create a database of the project’s stakeholders.
    • Put First Things First

      In order to ensure that a project is completed on time and within budget, it is important to prioritize tasks. This means that tasks that are most important should be completed first, while those that are less important should be completed last. It is also important to consider the resources available when prioritizing tasks. For example, if there are limited resources available, tasks that require those resources should be completed first. Here are three suggestions for approaching upcoming undertakings with prioritization in mind:

      • Create a list of tasks in order of importance.
      • Develop a timeline for the project.
      • Create a database of the project’s resources.
      • Les sept habitudes pour les testeurs très réussis

        Cet article discute les sept habitudes qui sont nécessaires pour les testeurs très réussis. Ces sept habitudes sont :

        1. Être Proactif
        2. Commencer par la fin en tête
        3. Mettre les choses importantes en premier
        4. Penser Gagner/Gagner
        5. Chercher à comprendre avant d’être compris
        6. Synergiser
        7. Aiguiser la scie
        8. Être Proactif

          Dans chaque projet de logiciel, l’objectif d’un testeur est de garantir qu’un produit de haute qualité est produit. Vous avez deux options lorsque vous déterminez ce qui s’est mal passé dans les projets de logiciels qui échouent en raison d’une qualité faible : vous pouvez être proactif ou réactif. Les personnes réactives ont tendance à attribuer des difficultés ou des obstacles aux autres personnes et aux facteurs externes. Être proactif vous permettra d’accepter la responsabilité des erreurs et de trouver des solutions pour les initiatives futures. Après la fin d’un projet, votre équipe devrait faire un « post-mortem » ou une « rétrospective » dans laquelle vous discutez franchement des succès et des échecs du projet. Voici trois suggestions pour aborder les prochaines entreprises avec initiative :

          • Élaborer un plan d’action pour le projet.
          • Créer une base de données des exigences du projet.
          • Assurez-vous que tous les membres de l’équipe sont conscients des objectifs du projet.
          • Commencer par la fin en tête

            Avant de commencer un projet, il est important

            Source de l’article sur DZONE

            Apache Druid: 1000+ QPS Facile pour l'Analyse

            des Données

            Apache Druid offre une puissance de 1000+ QPS pour l’analyse des données, ce qui rend plus facile et plus rapide que jamais la prise de décision basée sur des données.

            Les cas d’utilisation des analytics évoluent avec une augmentation du volume et des requêtes à faible latence. Mais l’échelle des analytics pour les requêtes à haut QPS nécessite une certaine considération. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors virtuellement n’importe quelle base de données peut répondre à vos exigences QPS.

            Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez en construire une) qui exécute beaucoup d’agrégations et de filtres sur des données à haute dimension et à haute cardinalité à grande échelle. Le genre d’application où beaucoup d’utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

            Testing is a key factor in scaling analytics for high QPS. It’s important to understand the performance of your analytics application under different scenarios. This will help you identify bottlenecks and optimize your queries for better performance.

            Les cas d’utilisation d’analytique évoluent avec des requêtes à haut volume et à faible latence. Mais le passage à l’échelle des analyses pour des requêtes élevées par seconde (QPS) nécessite une certaine prise en compte. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors pratiquement n’importe quelle base de données peut répondre à vos exigences QPS.

            Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez d’en construire une) qui exécute de nombreuses agrégations et filtres sur des données à haute dimension et à haute cardinalité à l’échelle. Le genre d’application où de nombreux utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

            Le test est un facteur clé pour passer à l’échelle des analyses pour des QPS élevés. Il est important de comprendre les performances de votre application d’analytique dans différents scénarios. Cela vous aidera à identifier les goulots d’étranglement et à optimiser vos requêtes pour une meilleure performance.

            Source de l’article sur DZONE

            :Architecture Cloud-Nomade : bien comprendre

            ses avantages

            Découvrez les avantages de l’architecture cloud-nomade et comment elle peut améliorer votre productivité !

            ## Une révolution silencieuse s’est produite dans l’industrie du logiciel, avec de nombreuses organisations qui se détournent du cloud computing et des microservices. Ces décisions sont principalement influencées par le contrôle des coûts et les performances.

            • The benefits of testing
            • How testing can help reduce costs
            • The importance of testing for performance
            • Testing is an essential part of any software development process. It helps to ensure that the software is of high quality and meets the requirements of the customer. Testing can also help to identify potential problems before they become major issues. This can save time and money in the long run.

              Une révolution silencieuse a eu lieu dans l’industrie du logiciel, avec de nombreuses organisations qui se détournent du cloud computing et des microservices. Ces décisions sont principalement influencées par le contrôle des coûts et les performances.

              Le test est une partie essentielle de tout processus de développement de logiciel. Il aide à garantir que le logiciel est de haute qualité et répond aux exigences du client. Le test peut également aider à identifier les problèmes potentiels avant qu’ils ne deviennent des problèmes majeurs. Cela peut économiser du temps et de l’argent à long terme.

              Dans cet article, nous examinons : les avantages du test, comment le test peut aider à réduire les coûts et l’importance du test pour les performances. Les tests peuvent aider à réduire les coûts en identifiant et en résolvant les problèmes avant qu’ils ne deviennent trop coûteux. Les tests peuvent également aider à améliorer les performances en identifiant et en corrigeant les problèmes avant qu’ils ne deviennent trop complexes. Les tests peuvent également être utilisés pour vérifier la qualité et la cohérence du code, ce qui peut aider à améliorer la qualité globale du logiciel.

              Source de l’article sur DZONE

              Explorer la domination de Terraform dans l'Infrastructure as Code

              Explorer la domination de Terraform dans l’Infrastructure as Code : découvrez comment Terraform peut simplifier et automatiser la gestion et le déploiement de votre infrastructure !

              Infrastructure en tant que code (IaC) : une introduction pour les débutants

              Infrastructure as Code : Une introduction

              L’Infrastructure as Code (IaC) est devenue une pratique essentielle dans le développement logiciel moderne, permettant aux équipes de gérer efficacement et de manière cohérente les ressources d’infrastructure à travers un code. Cette analyse fournit un aperçu de l’Infrastructure as Code et de sa signification dans le cloud computing et DevOps.

              Au cours des dernières années, Terraform a dominé le domaine de l’Infrastructure as Code, soutenu par sa prise en charge multi-cloud, sa syntaxe déclarative, ses fournisseurs de ressources robustes et ses capacités de gestion d’état et de communauté actives. Les organisations sont encouragées à tirer parti des forces de Terraform tout en restant conscientes des solutions IaC émergentes adaptées à leurs exigences et préférences spécifiques en matière de cloud.

              Les avantages de l’Infrastructure as Code

              L’utilisation de l’Infrastructure as Code offre plusieurs avantages aux organisations. Tout d’abord, le code peut être stocké dans un système de contrôle de version, ce qui permet aux équipes de gérer facilement les modifications apportées à l’infrastructure et de les réutiliser à l’avenir. De plus, le code peut être automatisé et intégré à des outils DevOps tels que Jenkins ou Ansible, ce qui permet aux équipes de déployer des mises à jour plus rapidement et plus efficacement. Enfin, le code peut être partagé entre les différentes équipes, ce qui permet aux organisations d’améliorer la collaboration et la cohésion entre les différents services.

              Les données au cœur du processus

              Les données sont au cœur du processus d’Infrastructure as Code. Les données peuvent être utilisées pour définir les ressources à déployer, leurs caractéristiques et leurs propriétés. Les données peuvent également être utilisées pour définir des variables qui peuvent être utilisées pour configurer les ressources et leurs propriétés. Enfin, les données peuvent être utilisées pour définir des conditions qui peuvent être utilisées pour contrôler le déploiement des ressources et leurs propriétés.

              En conclusion, l’Infrastructure as Code est une pratique essentielle pour les organisations modernes. Il permet aux équipes de gérer efficacement et de manière cohérente les ressources d’infrastructure à travers un code. Les données sont au cœur du processus et peuvent être utilisées pour définir les ressources à déployer, leurs caractéristiques et leurs propriétés. Les organisations sont encouragées à tirer parti des forces de Terraform tout en restant conscientes des solutions IaC émergentes adaptées à leurs exigences et préférences spécifiques en matière de cloud.

              Source de l’article sur DZONE

              Stratégie de données en évolution à grande banque canadienne

              La grande banque canadienne s’est engagée à mettre en œuvre une stratégie de données en évolution pour offrir une expérience client plus personnalisée et plus intuitive.

              ## Avec la quantité et la variété croissantes de données, les exigences réglementaires et législatives en constante évolution, de nouvelles capacités et techniques pour traiter les données, pour devenir une organisation axée sur les données, la CIBC traverse d’énormes changements dans tous les aspects de l’utilisation, de la gestion et de la gouvernance des données.

              Avec la quantité et la variété croissantes de données, les exigences réglementaires et législatives en constante augmentation, de nouvelles capacités et techniques pour traiter les données, pour devenir une organisation axée sur les données, la CIBC traverse d’énormes changements dans tous les aspects de l’utilisation, de la gestion et de la gouvernance des données.

              Pour répondre aux exigences de cette nouvelle réalité, la CIBC a embrassé le paradigme du maillage de données et a développé un motif de données générique à deux parties. Du côté des affaires, le motif a introduit une stratégie de produits de données pour définir les domaines de données et les produits de données de bout en bout détenus par les équipes de produits de données inter fonctionnelles. Du côté de la technologie, la CIBC a mis en œuvre une architecture de maillage de données pour soutenir la stratégie de produits de données. La partie centrale de cette architecture est représentée par une plateforme de gestion des données fournissant une plateforme partagée et des services de gestion et de gouvernance des données. Cet article présente et discute les principes directeurs qui sous-tendent la stratégie des données.

              La plateforme de gestion des données est le cœur du maillage des données et fournit une base commune pour la gestion et la gouvernance des données. La plateforme est basée sur une base de données centralisée qui stocke toutes les données pertinentes pour le maillage des données. La plateforme offre également des services d’intégration, d’analyse, d’intelligence artificielle et d’apprentissage automatique qui peuvent être utilisés par les produits de données pour fournir des informations exploitables. La plateforme fournit également des services pour garantir que toutes les données sont sûres, conformes et accessibles aux personnes autorisées.

              La plateforme de gestion des données est conçue pour s’adapter aux exigences changeantes en matière de gestion des données. La plateforme peut être étendue pour prendre en charge des technologies supplémentaires telles que le traitement en temps réel, l’analyse avancée et l’apprentissage automatique. La plateforme peut également être intégrée à des systèmes tiers pour fournir une vue intégrée des données. Enfin, la plateforme peut être étendue pour prendre en charge des fonctionnalités supplémentaires telles que la gouvernance des données, la protection des données et l’audit.

              Source de l’article sur DZONE