Articles

La sécurité biométrique en hausse: protéger les données dans l'avenir de la cybercriminalité

.

Avec la cybercriminalité en hausse, la sécurité biométrique est devenue l’un des moyens les plus efficaces de protéger les données à l’avenir.

Sécurité biométrique : un aperçu

At the heart of biometric security lies a software-based authentication process. This involves the capture and digitization of biometric data, followed by comparison with a reference template stored in a secure database. The accuracy of the authentication process is determined by the quality of the biometric data captured, the robustness of the matching algorithm, and the security of the database.

Les avantages de la sécurité biométrique

La sécurité biométrique offre une sécurité supérieure à celle des mots de passe traditionnels. Les données biométriques sont intrinsèquement liées à l’utilisateur et ne peuvent pas être facilement usurpées ou volées. De plus, les données biométriques sont généralement plus difficiles à falsifier et à contrefaire que les mots de passe. Les systèmes biométriques peuvent également être configurés pour n’autoriser qu’un nombre limité d’essais avant de bloquer l’accès, ce qui réduit le risque de piratage.

Les systèmes biométriques peuvent également être configurés pour n’autoriser qu’un nombre limité d’essais avant de bloquer l’accès, ce qui réduit le risque de piratage. De plus, les systèmes biométriques sont généralement plus conviviaux que les mots de passe traditionnels car ils nécessitent moins d’interaction de l’utilisateur. Enfin, les systèmes biométriques peuvent être intégrés à des logiciels et des systèmes existants, ce qui permet aux entreprises de mettre en place des solutions de sécurité à moindre coût.

Logiciel de sécurité biométrique

Les systèmes de sécurité biométrique reposent sur un logiciel qui capture et numérise les données biométriques, puis les compare à un modèle de référence stocké dans une base de données sécurisée. La qualité des données biométriques capturées, la robustesse de l’algorithme de correspondance et la sécurité de la base de données déterminent la précision du processus d’authentification. Les logiciels de sécurité biométrique peuvent être intégrés à des systèmes existants pour offrir une protection supplémentaire contre les menaces informatiques.

Le logiciel de sécurité biométrique peut également être utilisé pour surveiller les activités des utilisateurs et détecter toute activité suspecte. Les logiciels peuvent également être configurés pour envoyer des alertes en cas de tentative d’accès non autorisée ou de modification non autorisée des données. Les logiciels de sécurité biométrique peuvent également être utilisés pour générer des rapports sur les activités des utilisateurs et pour surveiller leurs activités.

Enfin, les logiciels de sécurité biométrique peuvent être utilisés pour vérifier l’identité des utilisateurs à l’aide d’une variété de méthodes, telles que la reconnaissance faciale et vocale, l’empreinte digitale et la vérification des antécédents. Les logiciels peuvent également être configurés pour exiger une authentification multi-facteurs pour accorder l’accès aux applications et aux données sensibles.

En résumé, la sécurité biométrique est une solution prometteuse pour renforcer la sécurité des syst

Source de l’article sur DZONE

Exemples de mauvais logiciels : à quel point le mauvais code peut-il vous nuire ?

Le mauvais code peut avoir des conséquences graves, en particulier lorsqu’il s’agit de logiciels. Découvrez les exemples de mauvais logiciels et à quel point ils peuvent vous nuire.

Un logiciel défectueux a conduit à la condamnation de 736 employés innocents par la Poste britannique

Francais

Tout le monde sait qu’il existe des mauvais logiciels. Dans un monde imparfait, un ensemble de quelques coïncidences, par exemple des erreurs humaines, du code défectueux ou des circonstances imprévues, peuvent entraîner une énorme panne même dans de très bons systèmes. Aujourd’hui, examinons des exemples concrets où des pannes ou des erreurs logicielles catastrophiques ont entraîné d’énormes pertes et même coûté la vie à une personne.

Un bug logiciel de la Poste britannique a conduit à la condamnation de 736 employés innocents

La Poste britannique utilise depuis 20 ans un logiciel appelé Horizon. Il avait des bugs qui faisaient en sorte qu’il signalait que des comptes sous le contrôle des employés étaient manquants. Cela ressemblait à ce qu’un employé ait volé des milliers de livres. En conséquence, 736 opérateurs de poste ont été condamnés. Des gens ont perdu leur emploi, leur famille et une femme a été envoyée en prison alors qu’elle était enceinte. Un homme s’est suicidé après que le système ait montré que son compte manquait 100 000 £.

Une base de données défectueuse a entraîné la mort d’un patient

En 2008, un homme de 59 ans est mort à l’hôpital de l’Université du Michigan après avoir reçu une dose massive d’un médicament contre le cancer à cause d’une base de données défectueuse. Le médecin a utilisé une base de données qui ne prenait pas en compte le poids du patient et a donc administré une dose beaucoup trop élevée. L’homme est décédé dans les heures qui ont suivi. Le système informatique était censé protéger les patients contre ce genre d’erreur, mais il n’a pas fonctionné.

Ces exemples montrent à quel point les erreurs logicielles peuvent être coûteuses et catastrophiques. Les développeurs doivent donc prendre des mesures pour s’assurer que leurs logiciels sont robustes et fiables et qu’ils ne causeront pas des dommages inutiles. Les bases de données doivent également être soigneusement vérifiées et testées pour s’assurer qu’elles sont à jour et exactes.

Source de l’article sur DZONE

Libre de coder sur des plateformes low-code.

Libre de coder sans limites sur des plateformes low-code, découvrez les avantages de cette nouvelle façon de développer des applications !

## Les plateformes low-code offrent une visibilité, une extensibilité et une propriété partielle ou complète du code. Ces caractéristiques varient considérablement d’un fournisseur à l’autre. Les développeurs professionnels peuvent réaliser leur plein potentiel sur les plateformes low-code uniquement avec une liberté complète pour accéder et modifier le code.

Low-code development platforms provide a database-driven approach to application development. This means that the data used in the application is stored in a database, and the application is built on top of this data. This approach allows for faster development, as the data can be accessed quickly and easily. Additionally, it allows for better scalability, as the application can be easily adapted to different databases or data sources.

Les plates-formes de développement low-code offrent une variété significative en termes d’accès, de visibilité, d’extensibilité et de propriété du code. Les développeurs professionnels peuvent réaliser leur plein potentiel sur ces plates-formes low-code uniquement s’ils ont la liberté complète d’accéder et de modifier le code.

Ces dernières années, les plates-formes de développement low-code ont gagné en popularité, permettant aux utilisateurs de créer des applications avec un minimum de connaissances ou d’expérience en programmation. Elles abstraient une grande partie de la complexité impliquée dans le codage traditionnel en fournissant des composants préconstruits et des interfaces visuelles.

Les plates-formes de développement low-code offrent une approche basée sur une base de données pour le développement d’applications. Cela signifie que les données utilisées dans l’application sont stockées dans une base de données et que l’application est construite à partir de ces données. Cette approche permet un développement plus rapide, car les données peuvent être facilement et rapidement accessibles. De plus, elle permet une meilleure évolutivité, car l’application peut être facilement adaptée à différentes bases de données ou sources de données.

En outre, les plates-formes de développement low-code offrent une flexibilité supplémentaire en ce qui concerne la gestion des bases de données. Les utilisateurs peuvent choisir entre différents types de bases de données, ce qui leur permet d’adapter leur application à leurs besoins spécifiques. Les plates-formes low-code offrent également des outils pour gérer et maintenir la base de données, ce qui permet aux utilisateurs de garantir que leurs données sont sûres et à jour.

Enfin, les plates-formes low-code offrent une variété d’outils pour faciliter le développement et la gestion des applications. Ces outils comprennent des outils pour la gestion des versions, la surveillance des performances et la gestion des erreurs. Ces outils permettent aux développeurs de créer des applications plus robustes et fiables, ce qui améliore l’expérience utilisateur finale.

En conclusion, les plates-formes de développement low-code offrent aux développeurs une variété d’avantages en matière de base de données et d’outils pour le développement et la gestion des applications. Ces avantages permettent aux développeurs de créer des applications plus rapides, plus flexibles et plus fiables qui répondent aux besoins spécifiques des utilisateurs.

Source de l’article sur DZONE

Analyser les données boursières avec LangChain et Whisper d'OpenAI

Découvrez comment LangChain et Whisper d’OpenAI peuvent vous aider à analyser les données boursières de manière plus efficace et plus précise.

Avertissement

Nous allons dans cet article montrer comment connecter un courtier Kafka, qui diffuse des données fictives de cours boursiers, à SingleStoreDB. Nous allons ensuite interroger ces données à l’aide de phrases en anglais grâce à LangChain, qui offre une capacité de question-réponse de base pour les données de cours. Nous allons construire une application Python, à travers plusieurs itérations de conception, pour utiliser Whisper d’OpenAI afin de poser des questions par la parole et utiliser la synthèse vocale pour répondre.

Connexion à la base de données

La première étape consiste à connecter le courtier Kafka à SingleStoreDB. Pour ce faire, nous devons configurer un canal Kafka pour le courtier Kafka et un canal SingleStoreDB pour SingleStoreDB. Une fois que ces canaux sont configurés, nous pouvons connecter le courtier Kafka à SingleStoreDB en utilisant le canal Kafka et le canal SingleStoreDB. Une fois que cette connexion est établie, nous pouvons commencer à envoyer des données du courtier Kafka à SingleStoreDB.

La première étape consiste à connecter le courtier Kafka à la base de données SingleStoreDB. Pour ce faire, nous devons configurer un canal Kafka pour le courtier Kafka et un canal SingleStoreDB pour SingleStoreDB. Une fois que ces canaux sont configurés, nous pouvons connecter le courtier Kafka à la base de données SingleStoreDB en utilisant le canal Kafka et le canal SingleStoreDB. Une fois que cette connexion est établie, nous pouvons commencer à envoyer des données du courtier Kafka à la base de données SingleStoreDB.

Interrogation des données

Une fois que les données sont stockées dans la base de données SingleStoreDB, nous pouvons les interroger à l’aide de LangChain. LangChain est une plateforme open source qui permet aux développeurs de créer des applications qui peuvent comprendre et répondre aux questions posées en anglais. Nous pouvons utiliser LangChain pour interroger la base de données SingleStoreDB et obtenir des informations sur les cours boursiers. Nous pouvons également utiliser LangChain pour exécuter des requêtes complexes sur la base de données SingleStoreDB.

Une fois que les données sont stockées dans la base de données SingleStoreDB, nous pouvons les interroger à l’aide de LangChain. LangChain est une plateforme open source qui permet aux développeurs de créer des applications qui peuvent comprendre et répondre aux questions posées en anglais. Nous pouvons utiliser LangChain pour interroger la base de données SingleStoreDB et obtenir des informations sur les cours boursiers. Nous pouvons également utiliser LangChain pour exécuter des requêtes complexes sur la base de données SingleStoreDB afin d’extraire des informations pertinentes à partir des données stockées dans la base de données.

Application Python

Enfin, nous allons créer une application Python qui utilise OpenAI’s Whisper pour poser des questions par la parole et utilise la synthèse vocale pour répondre aux questions. L’application Python va se connecter à LangChain et interroger la base de donné

Source de l’article sur DZONE

Apache Druid: 1000+ QPS Facile pour l'Analyse

des Données

Apache Druid offre une puissance de 1000+ QPS pour l’analyse des données, ce qui rend plus facile et plus rapide que jamais la prise de décision basée sur des données.

Les cas d’utilisation des analytics évoluent avec une augmentation du volume et des requêtes à faible latence. Mais l’échelle des analytics pour les requêtes à haut QPS nécessite une certaine considération. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors virtuellement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez en construire une) qui exécute beaucoup d’agrégations et de filtres sur des données à haute dimension et à haute cardinalité à grande échelle. Le genre d’application où beaucoup d’utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Testing is a key factor in scaling analytics for high QPS. It’s important to understand the performance of your analytics application under different scenarios. This will help you identify bottlenecks and optimize your queries for better performance.

Les cas d’utilisation d’analytique évoluent avec des requêtes à haut volume et à faible latence. Mais le passage à l’échelle des analyses pour des requêtes élevées par seconde (QPS) nécessite une certaine prise en compte. Si vos requêtes récupèrent des lignes simples dans des tables avec peu de colonnes ou de lignes ou agrègent une petite quantité de données, alors pratiquement n’importe quelle base de données peut répondre à vos exigences QPS.

Mais les choses deviennent difficiles si vous avez une application d’analytique (ou prévoyez d’en construire une) qui exécute de nombreuses agrégations et filtres sur des données à haute dimension et à haute cardinalité à l’échelle. Le genre d’application où de nombreux utilisateurs devraient pouvoir poser n’importe quelle question et obtenir leurs réponses instantanément sans contraintes sur le type de requêtes ou la forme des données.

Le test est un facteur clé pour passer à l’échelle des analyses pour des QPS élevés. Il est important de comprendre les performances de votre application d’analytique dans différents scénarios. Cela vous aidera à identifier les goulots d’étranglement et à optimiser vos requêtes pour une meilleure performance.

Source de l’article sur DZONE

Évolution des principaux outils de changement de schéma de base de données

Depuis l’avènement des bases de données, les outils permettant leur changement de schéma ont connu une évolution considérable. Découvrons-en plus sur ce sujet !

Migration de schéma de base de données peut être la zone la plus risquée dans le développement d’application – c’est difficile, risqué et douloureux. Les outils de migration de schéma de base de données existent pour soulager la douleur et ont fait des progrès considérables : des outils CLI de base aux outils GUI, des clients SQL simples à la plateforme de collaboration tout-en-un.

These tools are great for testing and debugging, but they can be difficult to use for schema migration. You need to understand the syntax of the SQL language and the structure of the database. If you don’t have the necessary skills, you may end up writing inefficient queries or making mistakes in your schema changes.

GUI Clients – MySQL Workbench / pgAdmin

MySQL Workbench and pgAdmin are graphical user interface (GUI) clients for MySQL and PostgreSQL respectively. They provide a graphical representation of your database schema, allowing you to easily view and modify the structure. You can also use them to write and execute queries.

These tools are great for schema migration, as they allow you to easily view and modify the structure of your database. However, they can be difficult to use for testing, as they don’t provide a way to easily execute multiple queries at once. Additionally, they can be slow when dealing with large databases.

Collaboration Database Platforms

Collaboration database platforms such as Liquibase, Flyway, and Redgate are designed to make database schema migration easier. These tools provide a graphical interface for viewing and modifying the structure of your database, as well as a way to execute multiple queries at once. They also provide version control, allowing you to easily track changes to your database schema.

These tools are great for both testing and schema migration. They provide an easy way to view and modify the structure of your database, as well as a way to easily execute multiple queries at once. Additionally, they provide version control, allowing you to easily track changes to your database schema.

Migration de schéma de base de données – un processus difficile et risqué

La migration de schéma de base de données est peut-être la zone la plus risquée dans le développement d’applications – c’est difficile, risqué et douloureux. Des outils de migration de schéma de base de données existent pour soulager la douleur et ont fait des progrès considérables : des outils en ligne de commande (CLI) aux outils graphiques (GUI), des clients SQL simples aux plateformes de collaboration tout-en-un.

Clients en ligne de commande (CLI) – MySQL / PSQL

MySQL et psql sont les CLI natifs pour MySQL et PostgreSQL respectivement. Vous pouvez envoyer des commandes ou des requêtes directement aux serveurs MySQL ou PostgreSQL à partir de la ligne de commande.

Ces outils sont excellents pour le test et le débogage, mais ils peuvent être difficiles à utiliser pour la migration de schéma. Vous devez comprendre la syntaxe du langage SQL et la structure de la base de données. Si vous n’avez pas les compétences nécessaires, vous risquez d’écrire des requêtes inefficaces ou de faire des erreurs dans vos modifications de schéma.

Clients graphiques (GUI) – MySQL Workbench / pgAdmin

MySQL Workbench et pgAdmin sont des clients d’interface utilisateur graphique (GUI) pour MySQL et PostgreSQL respectivement. Ils fournissent une représentation graphique de votre schéma de base de données, vous permettant de visualiser et de modifier facilement la structure. Vous pouvez également les utiliser pour écrire et exécuter des requêtes.

Ces outils sont excellents pour la migration de schéma, car ils vous permettent de visualiser et de modifier facilement la structure de votre base de données. Cependant, ils peuvent être difficiles à utiliser pour le test, car ils ne fournissent pas un moyen d’exécuter facilement plusieurs requêtes en même temps. De plus, ils peu

Source de l’article sur DZONE

Améliorer les performances d'une application : 8 astuces.

Vous souhaitez améliorer les performances de votre application ? Découvrez ici 8 astuces pour y parvenir !

Performance d’application est critique pour fournir une expérience utilisateur rapide et réactive. Les performances lentes ou la latence élevée peuvent conduire à des utilisateurs frustrés et à des pertes de revenus pour l’organisation.

Database performance is a key factor in application performance. Databases are responsible for storing and retrieving data, and if they are not optimized, they can become a bottleneck. Database performance can be improved by optimizing queries, indexing data, and using caching. Additionally, databases should be monitored to ensure that they are running efficiently and that any potential problems are identified and addressed quickly. By monitoring database performance, organizations can ensure that their applications are running smoothly and that their users are getting the best possible experience.

La performance des applications est essentielle pour offrir une expérience utilisateur rapide et réactive. Une performance lente ou une latence élevée peut entraîner des utilisateurs frustrés et des pertes de revenus pour l’organisation.

À un niveau élevé, la latence de l’application fait référence au délai entre la demande de l’utilisateur et la réponse de l’application. La latence peut non seulement affecter l’expérience utilisateur globale et diminuer l’engagement, mais elle peut également être un problème coûteux et compliqué. La performance de l’application a également un impact sur l’efficacité globale. Les applications lentes peuvent ralentir les processus commerciaux, entraînant une productivité réduite et des coûts accrus. Tous ces facteurs peuvent réduire la capacité d’une entreprise à se mesurer sur le marché. Dans le monde d’aujourd’hui, les clients s’attendent à des applications rapides et réactives. Les entreprises qui ne sont pas en mesure de satisfaire à cette exigence risquent de perdre des clients à des concurrents qui offrent une meilleure expérience utilisateur.

La performance de la base de données est un facteur clé de la performance de l’application. Les bases de données sont responsables du stockage et de la récupération des données, et si elles ne sont pas optimisées, elles peuvent devenir un goulot d’étranglement. La performance de la base de données peut être améliorée en optimisant les requêtes, en indexant les données et en utilisant le cache. De plus, les bases de données doivent être surveillées pour s’assurer qu’elles fonctionnent efficacement et que tout problème potentiel est identifié et traité rapidement. En surveillant la performance des bases de données, les organisations peuvent s’assurer que leurs applications fonctionnent correctement et que leurs utilisateurs bénéficient de la meilleure expérience possible.

Source de l’article sur DZONE

Exécuter mes applications Go de manière sans serveur - Partie 2

Dans cet article, je vais vous montrer comment exécuter vos applications Go sans serveur, en utilisant des services cloud et des outils de développement. Partie 2 de cette série de tutoriels !

## La première partie de cette série vous a présenté le AWS Lambda Go API Proxy et comment ses implémentations d’adaptateur spécifiques au cadre / package (pour gorilla / mux, echo et net / http) vous permettent d’exécuter des applications Go existantes en tant que fonctions AWS Lambda frontées par Amazon API Gateway.

Le premier volet de cette série vous a présenté le AWS Lambda Go API Proxy et comment ses implémentations adaptées au framework/package spécifique (pour gorilla/mux, echo et net/http) vous permettent d’exécuter des applications Go existantes en tant que fonctions AWS Lambda frontées par Amazon API Gateway. Si vous ne l’avez pas encore fait, je vous encourage à y jeter un coup d’œil pour avoir une compréhension de base du AWS Lambda Go API Proxy.

Le AWS Lambda Go API Proxy prend également en charge Gin, qui est l’un des frameworks web Go les plus populaires ! Ce billet de blog suivant démontrera comment prendre un service de raccourcissement d’URL existant écrit à l’aide du framework Gin et le faire fonctionner en tant que fonction AWS Lambda sans serveur. Au lieu d’utiliser AWS SAM, nous allons changer un peu les choses et utiliser le AWS CDK pour déployer la solution.

Pour cela, nous allons créer une base de données DynamoDB pour stocker les URL raccourcies et une fonction Lambda pour gérer les requêtes entrantes. La fonction Lambda sera appelée par Amazon API Gateway et répondra aux requêtes GET et POST. La fonction Lambda utilisera la base de données DynamoDB pour stocker et récupérer les URL raccourcies. Une fois la base de données configurée et la fonction Lambda créée, nous allons utiliser le AWS CDK pour déployer le tout sur AWS.

Source de l’article sur DZONE

Évolution de Kubernetes: transition vers SQL distribué depuis etcd

Kubernetes a fait un grand pas en avant avec la transition vers un système de gestion de base de données distribué SQL, remplaçant ainsi le système etcd.

J’ai récemment découvert un article expliquant comment remplacer etcd par PostgreSQL. Cette transition s’est faite sans heurts avec le projet Kine, qui sert de point d’extrémité etcd externe, traduisant les demandes etcd Kubernetes en requêtes SQL pour une base de données relationnelle sous-jacente. 

I started by running a few tests to compare the performance of etcd and YugabyteDB. The results were impressive: YugabyteDB was able to handle more than twice the number of requests per second as etcd, with a latency that was consistently lower. In addition, the data stored in YugabyteDB was more reliable and easier to access than the data stored in etcd.

Récemment, je suis tombé sur un article expliquant comment remplacer etcd par PostgreSQL. Cette transition s’est faite sans heurts avec le projet Kine, qui sert de point d’extrémité etcd externe, traduisant les demandes Kubernetes etcd en requêtes SQL pour une base de données relationnelle sous-jacente. 

Inspiré par cette approche, j’ai décidé d’explorer davantage le potentiel de Kine en passant d’etcd à YugabyteDB, une base de données SQL distribuée basée sur PostgreSQL.

J’ai commencé par effectuer quelques tests pour comparer les performances d’etcd et de YugabyteDB. Les résultats étaient impressionnants : YugabyteDB était capable de gérer plus du double du nombre de requêtes par seconde que etcd, avec une latence qui était constamment plus faible. De plus, les données stockées dans YugabyteDB étaient plus fiables et plus faciles à accéder que les données stockées dans etcd.

Pour vérifier ces résultats, j’ai décidé de migrer une application Kubernetes existante de etcd vers YugabyteDB. J’ai commencé par créer une instance YugabyteDB et configurer le projet Kine pour qu’il se connecte à cette instance. Ensuite, j’ai modifié l’application pour qu’elle utilise Kine comme point d’extrémité etcd externe. Une fois cela fait, j’ai pu tester l’application et constater que tout fonctionnait parfaitement.

Ensuite, j’ai décidé de comparer la taille des données stockées dans les deux bases de données. Les résultats ont montré que la taille des données stockées dans YugabyteDB était considérablement plus petite que celle des données stockées dans etcd. Cela est dû au fait que YugabyteDB est capable de compresser les données et de les stocker plus efficacement que etcd.

Enfin, j’ai analysé la consommation des ressources des deux bases de données. Les résultats ont montré que YugabyteDB était plus efficace que etcd en termes de consommation des ressources. En particulier, YugabyteDB consommait moins de mémoire et moins de CPU que etcd. Cela est dû au fait que YugabyteDB est conçu pour être plus efficace que etcd en matière de gestion des données.

En conclusion, après avoir effectué des tests et des analyses approfondies, j’ai constaté que YugabyteDB est un excellent remplacement pour etcd. Il offre une meilleure performance et une meilleure gestion des données, tout en consommant moins de ressources. En outre, il est plus fiable et plus facile à utiliser que etcd. Enfin,

Source de l’article sur DZONE

Stratégie de données en évolution à grande banque canadienne

La grande banque canadienne s’est engagée à mettre en œuvre une stratégie de données en évolution pour offrir une expérience client plus personnalisée et plus intuitive.

## Avec la quantité et la variété croissantes de données, les exigences réglementaires et législatives en constante évolution, de nouvelles capacités et techniques pour traiter les données, pour devenir une organisation axée sur les données, la CIBC traverse d’énormes changements dans tous les aspects de l’utilisation, de la gestion et de la gouvernance des données.

Avec la quantité et la variété croissantes de données, les exigences réglementaires et législatives en constante augmentation, de nouvelles capacités et techniques pour traiter les données, pour devenir une organisation axée sur les données, la CIBC traverse d’énormes changements dans tous les aspects de l’utilisation, de la gestion et de la gouvernance des données.

Pour répondre aux exigences de cette nouvelle réalité, la CIBC a embrassé le paradigme du maillage de données et a développé un motif de données générique à deux parties. Du côté des affaires, le motif a introduit une stratégie de produits de données pour définir les domaines de données et les produits de données de bout en bout détenus par les équipes de produits de données inter fonctionnelles. Du côté de la technologie, la CIBC a mis en œuvre une architecture de maillage de données pour soutenir la stratégie de produits de données. La partie centrale de cette architecture est représentée par une plateforme de gestion des données fournissant une plateforme partagée et des services de gestion et de gouvernance des données. Cet article présente et discute les principes directeurs qui sous-tendent la stratégie des données.

La plateforme de gestion des données est le cœur du maillage des données et fournit une base commune pour la gestion et la gouvernance des données. La plateforme est basée sur une base de données centralisée qui stocke toutes les données pertinentes pour le maillage des données. La plateforme offre également des services d’intégration, d’analyse, d’intelligence artificielle et d’apprentissage automatique qui peuvent être utilisés par les produits de données pour fournir des informations exploitables. La plateforme fournit également des services pour garantir que toutes les données sont sûres, conformes et accessibles aux personnes autorisées.

La plateforme de gestion des données est conçue pour s’adapter aux exigences changeantes en matière de gestion des données. La plateforme peut être étendue pour prendre en charge des technologies supplémentaires telles que le traitement en temps réel, l’analyse avancée et l’apprentissage automatique. La plateforme peut également être intégrée à des systèmes tiers pour fournir une vue intégrée des données. Enfin, la plateforme peut être étendue pour prendre en charge des fonctionnalités supplémentaires telles que la gouvernance des données, la protection des données et l’audit.

Source de l’article sur DZONE