Articles

Explorer Redis pour la gestion des sessions utilisateur sur AWS Elasticache

Explorer Redis pour la gestion des sessions utilisateur sur AWS Elasticache est une excellente option pour améliorer la sécurité et la performance de votre application.

Gestion des sessions d’utilisateur dans le marché numérique dynamique

Le marché numérique trépidant, les applications web sont comme des villes vibrantes, constamment animées par l’activité des utilisateurs qui viennent et s’en vont. Tout comme les villes utilisent divers systèmes pour garder une trace de leurs habitants et visiteurs, les applications web comptent sur la gestion des sessions utilisateur pour maintenir une expérience fluide pour chaque personne naviguant à travers elles. Mais qu’est-ce exactement que la gestion des sessions utilisateur, et pourquoi est-elle si cruciale pour maintenir la vitalité des applications web ?

La gestion des sessions utilisateur est le mécanisme par lequel une application web reconnaît, suit et interagit avec ses utilisateurs pendant leur visite. Dans la quête de fournir des expériences d’utilisateur exceptionnelles, le rôle d’une gestion des sessions utilisateur efficace ne peut pas être surestimé. Imaginez entrer dans un magasin où le personnel se souvient de votre nom, préférences et de l’article que vous avez regardé en dernier. Ce service personnalisé vous fait sentir apprécié et compris. De manière similaire, lorsqu’une application conserve l’état et les interactions d’un utilisateur, elle permet une expérience plus personnalisée et efficace. De l’instant où un utilisateur se connecte jusqu’au moment où il se déconnecte, sa session – une série d’interactions avec l’application – est maintenue à travers un identifiant unique, généralement stocké dans un cookie ou un jeton de session.

Une bonne gestion des sessions utilisateur peut améliorer considérablement l’expérience utilisateur. Les développeurs peuvent intégrer des fonctionnalités telles que le codage des données pour sécuriser les informations de session et les authentifications multiples pour vérifier l’identité des utilisateurs. Une fois que ces mesures sont en place, les applications peuvent offrir des services personnalisés tels que la pré-remplissage des formulaires et la mise en cache des données pour accélérer le chargement des pages. De plus, les applications peuvent également offrir des fonctionnalités telles que la synchronisation des données entre les appareils et le suivi des activités pour améliorer l’expérience globale.

En fin de compte, la gestion des sessions utilisateur est un élément essentiel pour créer une expérience utilisateur fluide et personnalisée. La mise en œuvre de mesures de sécurité telles que le codage des données et l’authentification multi-facteurs est essentielle pour assurer la sécurité des données et garantir une expérience optimale pour les utilisateurs. En intégrant ces fonctionnalités à votre application web, vous pouvez offrir une expérience plus riche et plus engageante à vos utilisateurs.

Source de l’article sur DZONE

Améliorer les réponses d'erreur API avec le modèle Result

Améliorer les réponses d’erreur API est essentiel pour une expérience utilisateur optimale. Découvrez comment le modèle Result peut vous aider à y parvenir.

Dans l’univers en expansion des APIs, les réponses d’erreur significatives peuvent être tout aussi importantes que les réponses de succès bien structurées.

Architecture des réponses d’erreur

Dans le monde en expansion des APIs, les réponses d’erreur significatives peuvent être aussi importantes que les réponses de succès bien structurées. Dans ce post, je vous guiderai à travers certaines des différentes options pour créer des réponses que j’ai rencontrées pendant mon temps de travail chez Raygun. Nous passerons en revue les avantages et les inconvénients de certaines options courantes et nous terminerons par ce que je considère comme l’un des meilleurs choix en matière de conception d’API, le modèle de résultat. Ce modèle peut conduire à une API qui gérera proprement les états d’erreur et permettra facilement un développement futur cohérent des points d’extrémité. Il s’est particulièrement avéré utile pour moi lors du développement du projet Raygun API récemment publié, où il a permis un développement plus rapide des points d’extrémité en simplifiant le code nécessaire pour gérer les états d’erreur.

Qu’est-ce qui définit une réponse d’erreur «utile»?

Une réponse d’erreur utile fournit toutes les informations dont un développeur a besoin pour corriger l’état d’erreur. Cela peut être réalisé grâce à un message d’erreur utile et à une utilisation cohérente des codes d’état HTTP.

Le modèle de résultat

Le modèle de résultat est un modèle qui permet aux développeurs de créer des API qui retournent des réponses cohérentes et structurées, qu’il s’agisse de réussite ou d’erreur. Ce modèle consiste à retourner une structure commune pour chaque réponse, indiquant si la demande a réussi ou échoué, et contenant des informations supplémentaires sur l’état de la demande. Cette structure commune est très utile car elle permet aux développeurs de créer des API qui retournent des réponses cohérentes et structurées, quelle que soit la situation. De plus, cette structure commune permet aux développeurs de créer des API qui sont faciles à maintenir et à mettre à jour.

Le modèle de résultat est particulièrement utile pour les API qui retournent des données complexes. Par exemple, si une API retourne une liste d’objets, le modèle de résultat peut être utilisé pour retourner une structure cohérente pour chaque objet, ainsi que des informations supplémentaires sur le statut de la demande. Cela permet aux développeurs de créer des API qui sont faciles à maintenir et à mettre à jour, car ils n’ont pas à se soucier de la structure de chaque objet retourné.

Le modèle de résultat est également très utile pour les API qui retournent des données complexes, car il permet aux développeurs de créer des API qui sont faciles à maintenir et à mettre à jour. En outre, ce modèle permet aux développeurs de créer des API qui

Source de l’article sur DZONE

18 tendances et prédictions en développement logiciel 2024

En 2024, le développement logiciel aura évolué et nous découvrirons de nouvelles tendances et prédictions. Découvrons-les ensemble !
## L’importance des évaluations des risques approfondies, des tests continus et des contrôles de conformité avant les déploiements à grande échelle est inévitable. L’avenir du développement logiciel exige des entreprises de se préparer à une danse délicate entre innovation et fiabilité. Cette année, nous avons vu l’enthousiasme pour l’IA / ML avec l’émergence de l’IA générative et d’autres technologies similaires. Cependant, à la fin de l’année, le principal objectif semble avoir changé pour trouver le bon équilibre entre efficacité et sécurité. Cet impératif double est une préoccupation fondamentale, soulignant que la prise de décisions responsables, la préservation de la vie privée et les normes éthiques sont primordiales. Prévisiblement, les technologies qui incarnent ces principes seront privilégiées dans le paysage mondial du développement logiciel.
## Prédictions pour le développement logiciel en 2024

La nécessité d’effectuer des évaluations des risques approfondies, des tests continus et des contrôles de conformité avant les déploiements à grande échelle est inévitable. L’avenir du développement de logiciels exige des entreprises qu’elles se préparent pour une danse délicate entre l’innovation et la fiabilité. Cette année, nous avons vu de l’enthousiasme pour l’IA / ML avec l’émergence de l’IA générative et d’autres technologies similaires. Cependant, à mesure que l’année se termine, le principal objectif semble avoir changé pour trouver le bon équilibre entre efficacité et sécurité. Cet impératif double est une préoccupation fondamentale, soulignant que la prise de décision responsable, la préservation de la confidentialité et les normes éthiques sont primordiales. Prévisiblement, les technologies qui incarnent ces principes seront favorisées dans le paysage mondial du développement de logiciels.

Par conséquent, nos experts en développement de logiciels ont étudié les tendances en cours et ont fait des prédictions concernant le paysage pour l’année à venir. Passons en revue ces prédictions concernant le développement de logiciels pour l’année 2024.

En 2024, le codage deviendra plus important que jamais. Les développeurs devront être conscients des dernières technologies et des mises à jour régulières pour rester à la pointe de l’industrie. Les technologies telles que le codage par blocs, le codage par glisser-déposer et le codage par balayage seront très populaires. Les développeurs devront également s’assurer que leurs applications sont conformes aux normes et aux réglementations en vigueur. La sécurité et la confidentialité des données seront une préoccupation majeure et les développeurs devront adopter des méthodes de codage sûres pour protéger les données des utilisateurs.

Les développeurs devront également s’assurer que leurs applications sont faciles à utiliser et à comprendre. Les technologies telles que l’intelligence artificielle et l’apprentissage automatique aideront les développeurs à créer des applications plus intuitives et plus conviviales. Les moteurs de recherche et les outils d’analyse seront également très importants pour aider les développeurs à comprendre comment leurs applications sont utilisées et comment elles peuvent être améliorées.

Enfin, il est important que les développeurs travaillent en étroite collaboration avec les autres membres de l’équipe pour s’assurer que tous les aspects du projet sont pris en compte. Les développeurs devront également être conscients des tendances technologiques actuelles et des nouvelles technologies qui peuvent améliorer leurs applications. Enfin, il est important que les développeurs travaillent en étroite collaboration avec les autres membres de l’équipe pour s’assurer que tous les aspects du projet sont pris en compte.

Source de l’article sur DZONE

Applications AI génératives avec Amazon Bedrock : démarrage pour les développeurs Go

Les développeurs Go peuvent désormais facilement démarrer avec les applications AI génératives d’Amazon Bedrock. Découvrez comment tirer parti de ces outils puissants !

## Guide introductif pour les développeurs Go qui veulent se lancer dans la création d’applications d’IA générative avec Amazon Bedrock

  • Creating an Amazon Bedrock account
  • Setting up the AWS Go SDK
  • Testing the API
  • Building a Generative AI application
  • Cet article est un guide introductif pour les développeurs Go qui souhaitent se lancer dans la création d’applications d’intelligence générative à l’aide d’Amazon Bedrock, un service entièrement géré qui rend les modèles de base d’Amazon et des fournisseurs de modèles tiers accessibles via une API.

    Nous utiliserons le SDK Go AWS pour Amazon Bedrock et nous aborderons les sujets suivants au fur et à mesure :

    • Créer un compte Amazon Bedrock
    • Configurer le SDK Go AWS
    • Tester l’API
    • Construire une application d’intelligence générative
    • Pour commencer, vous devez créer un compte Amazon Bedrock. Vous pouvez le faire en vous connectant à votre compte Amazon et en recherchant « Amazon Bedrock » dans la barre de recherche. Une fois que vous avez trouvé le service, vous pouvez cliquer sur « Créer un compte » et suivre les instructions pour créer votre compte.

      Une fois que vous avez créé votre compte, vous devez configurer le SDK Go AWS pour pouvoir accéder aux API Amazon Bedrock. Pour ce faire, vous devez télécharger le SDK Go AWS et l’installer sur votre ordinateur. Une fois que vous avez installé le SDK, vous devez configurer les variables d’environnement afin que le SDK puisse se connecter à votre compte Amazon Bedrock.

      Une fois que vous avez configuré le SDK Go AWS, vous pouvez commencer à tester l’API Amazon Bedrock. Vous pouvez le faire en écrivant des requêtes HTTP pour interroger l’API et en analysant les réponses que vous obtenez. Cela vous permettra de voir comment l’API réagit à différentes requêtes et de vérifier si elle fonctionne correctement.

      Source de l’article sur DZONE

      Exemples de mauvais logiciels : à quel point le mauvais code peut-il vous nuire ?

      Le mauvais code peut avoir des conséquences graves, en particulier lorsqu’il s’agit de logiciels. Découvrez les exemples de mauvais logiciels et à quel point ils peuvent vous nuire.

      Un logiciel défectueux a conduit à la condamnation de 736 employés innocents par la Poste britannique

      Francais

      Tout le monde sait qu’il existe des mauvais logiciels. Dans un monde imparfait, un ensemble de quelques coïncidences, par exemple des erreurs humaines, du code défectueux ou des circonstances imprévues, peuvent entraîner une énorme panne même dans de très bons systèmes. Aujourd’hui, examinons des exemples concrets où des pannes ou des erreurs logicielles catastrophiques ont entraîné d’énormes pertes et même coûté la vie à une personne.

      Un bug logiciel de la Poste britannique a conduit à la condamnation de 736 employés innocents

      La Poste britannique utilise depuis 20 ans un logiciel appelé Horizon. Il avait des bugs qui faisaient en sorte qu’il signalait que des comptes sous le contrôle des employés étaient manquants. Cela ressemblait à ce qu’un employé ait volé des milliers de livres. En conséquence, 736 opérateurs de poste ont été condamnés. Des gens ont perdu leur emploi, leur famille et une femme a été envoyée en prison alors qu’elle était enceinte. Un homme s’est suicidé après que le système ait montré que son compte manquait 100 000 £.

      Une base de données défectueuse a entraîné la mort d’un patient

      En 2008, un homme de 59 ans est mort à l’hôpital de l’Université du Michigan après avoir reçu une dose massive d’un médicament contre le cancer à cause d’une base de données défectueuse. Le médecin a utilisé une base de données qui ne prenait pas en compte le poids du patient et a donc administré une dose beaucoup trop élevée. L’homme est décédé dans les heures qui ont suivi. Le système informatique était censé protéger les patients contre ce genre d’erreur, mais il n’a pas fonctionné.

      Ces exemples montrent à quel point les erreurs logicielles peuvent être coûteuses et catastrophiques. Les développeurs doivent donc prendre des mesures pour s’assurer que leurs logiciels sont robustes et fiables et qu’ils ne causeront pas des dommages inutiles. Les bases de données doivent également être soigneusement vérifiées et testées pour s’assurer qu’elles sont à jour et exactes.

      Source de l’article sur DZONE

      Optimisation des lignes d'objet d'email et mobile avec AI et ML

      Les entreprises peuvent désormais optimiser leurs lignes d’objet d’email et mobile grâce à l’intelligence artificielle et au machine learning. Une nouvelle ère de marketing commence !

      Méthodologie

      Architecture

      La ligne d’objet et les titres des e-mails et des notifications push jouent un rôle important dans la détermination des taux d’engagement. La communication numérique nécessite la compétence de la conception de lignes d’objet convaincantes et de titres de notifications push concis qui captent l’attention de l’utilisateur. Les marketeurs conçoivent des lignes d’objet en fonction du ton du message à transmettre et du public cible visé. En «enseignant» efficacement cette compétence et en l’optimisant pour la communication numérique, les modèles d’IA générative offrent une avenue passionnante pour automatiser ce processus. L’article examine quelques approches pour créer des lignes d’objet et des titres de notifications push efficaces tout en les combinant avec des modèles classiques d’apprentissage automatique pour prédire les taux d’ouverture avec l’IA générative (Large Language Models).

      Il ne s’agit pas seulement de créer des lignes d’objet accrocheuses que les LLM peuvent facilement générer avec le bon déclencheur. L’objectif est de générer un candidat idéal pour le contexte et le contenu qui incitera le destinataire à cliquer et à afficher le message. Les modèles d’apprentissage machine (ML), en particulier les algorithmes de forêt aléatoire, peuvent prédire avec une grande confiance la probabilité qu’un destinataire clique sur un message s’ils sont correctement formés. En combinant les LLM avec des modèles ML prédictifs, il est possible de générer des lignes d’objet et des titres de notifications push de haute qualité. Voici quelques moyens possibles.

      La première approche consiste à entraîner un modèle ML prédictif sur un jeu de données historiques. Le modèle apprend à prédire le taux d’ouverture en fonction des caractéristiques telles que le sujet, le contenu et le public cible. Une fois le modèle formé, il peut être utilisé pour générer des lignes d’objet et des titres de notifications push optimaux pour chaque message. La seconde approche consiste à entraîner un modèle ML prédictif sur un jeu de données historiques tout en utilisant un modèle LLM pour générer des lignes d’objet et des titres de notifications push. Le modèle ML apprend à prédire le taux d’ouverture en fonction des caractéristiques telles que le sujet, le contenu et le public cible, tandis que le modèle LLM génère des lignes d’objet et des titres de notifications push optimaux pour chaque message. Enfin, la troisième approche consiste à entraîner un modèle ML prédictif sur un jeu de données historiques tout en utilisant un modèle LLM pour générer des lignes d’objet et des titres de notifications push optimaux pour chaque message. Le modèle ML apprend à prédire le taux d’ouverture en fonction des caractéristiques telles que le sujet, le contenu et le public cible, tandis que le modèle LLM génère des lignes d’objet et des titres de notifications

      Source de l’article sur DZONE

      Révolutionner l'IA: Dévoiler le pouvoir de WatsonX

      Avec WatsonX, nous pouvons révolutionner l’IA et découvrir de nouvelles possibilités pour le futur.

      L’origine de WatsonX

      At its core, WatsonX is designed to be a powerful tool for data scientists and developers. It’s capable of ingesting massive amounts of data, analyzing it in real-time, and producing actionable insights that can be used to make better decisions. In addition, WatsonX is designed to be highly scalable, allowing it to handle large volumes of data with ease.

      Les origines de WatsonX

      Dans le paysage en constante évolution de l’intelligence artificielle, un nouveau joueur est apparu pour redéfinir les limites de ce qui est possible. Entrez WatsonX, une technologie révolutionnaire qui promet de révolutionner le paysage de l’IA. Dans ce blog, nous plongerons profondément dans les intrications de WatsonX, explorerons des exemples captivants et dévoilerons les cas d’utilisation potentiels qui peuvent vraiment le rendre viral.

      Derivé de l’iconique Watson AI, qui a célèbrement battu des champions humains dans Jeopardy !, WatsonX représente le point culminant de plusieurs années de recherche, de développement et de progrès. Né de la fusion d’apprentissage machine avancé, de traitement du langage naturel et d’informatique quantique, WatsonX n’est pas seulement une évolution; c’est un bond quantique en avant dans la capacité de l’IA.

      Au cœur de WatsonX se trouve un outil puissant conçu pour les scientifiques des données et les développeurs. Il est capable d’ingérer des masses de données, de les analyser en temps réel et de produire des informations exploitables qui peuvent être utilisées pour prendre de meilleures décisions. De plus, WatsonX est conçu pour être hautement extensible, ce qui lui permet de gérer facilement de grandes volumes de données.

      Source de l’article sur DZONE

      Créer des définitions de ressources clients sur Kubernetes

      Créer des définitions de ressources clients sur Kubernetes est une tâche importante pour garantir le bon fonctionnement de votre application. Découvrez comment le faire facilement!

      ## Kubernetes Custom Resource Definitions (CRDs) : Un tutoriel

      First, you’ll need to define the custom resource. This is done using the Kubernetes API, which is a declarative way of defining objects. You’ll need to provide the name of the resource, its fields, and any validation rules you want to apply. Once you’ve defined the resource, you can create instances of it using the Kubernetes API.

      Next, you’ll need to create a controller for the CRD. This is a piece of code that will watch for changes to the custom resource and take action accordingly. For example, if you create a new instance of the resource, the controller could create a new pod or service based on the data in the resource. The controller can also be used to update existing resources when their data changes.

      Finally, you’ll need to deploy the controller. This is done using the Kubernetes API, and it will allow the controller to start watching for changes to the custom resource. Once deployed, the controller will be able to take action based on changes to the custom resource.

      Kubernetes est une plateforme open-source populaire utilisée pour automatiser le déploiement, le dimensionnement et la gestion des applications conteneurisées. Il fournit une puissante API pour gérer les ressources, mais parfois ses ressources intégrées ne sont pas suffisantes pour votre cas d’utilisation. C’est là que les définitions de ressources personnalisées (CRD) de Kubernetes entrent en jeu. Les CRD vous permettent de définir vos propres ressources personnalisées, qui peuvent être gérées de la même manière que les ressources intégrées telles que les pods et les services.

      Dans ce tutoriel, nous allons passer en revue les étapes pour mettre en œuvre une CRD Kubernetes.

      Tout d’abord, vous devrez définir la ressource personnalisée. Cela se fait à l’aide de l’API Kubernetes, qui est une manière déclarative de définir des objets. Vous devrez fournir le nom de la ressource, ses champs et toutes les règles de validation que vous souhaitez appliquer. Une fois la ressource définie, vous pouvez créer des instances de celle-ci à l’aide de l’API Kubernetes.

      Ensuite, vous devrez créer un contrôleur pour la CRD. Il s’agit d’un morceau de code qui surveillera les modifications apportées à la ressource personnalisée et agira en conséquence. Par exemple, si vous créez une nouvelle instance de la ressource, le contrôleur peut créer un nouveau pod ou un nouveau service en fonction des données de la ressource. Le contrôleur peut également être utilisé pour mettre à jour les ressources existantes lorsque leurs données changent.

      Enfin, vous devrez déployer le contrôleur. Cela se fait à l’aide de l’API Kubernetes et permettra au contrôleur de commencer à surveiller les modifications apportées à la ressource personnalisée. Une fois déployé, le contrôleur sera en mesure d’agir en fonction des modifications apportées à la ressource personnalisée.

      Les CRD Kubernetes offrent une grande flexibilité et permettent aux développeurs d’utiliser des données personnalisées pour gérer leurs applications sur Kubernetes. Les CRD peuvent être utilisés pour créer des objets personnalisés tels que des bases de données, des services réseau ou des services d’analyse. Les contrôleurs associés

      Source de l’article sur DZONE

      Exécuter mes applications Go de manière sans serveur - Partie 2

      Dans cet article, je vais vous montrer comment exécuter vos applications Go sans serveur, en utilisant des services cloud et des outils de développement. Partie 2 de cette série de tutoriels !

      ## La première partie de cette série vous a présenté le AWS Lambda Go API Proxy et comment ses implémentations d’adaptateur spécifiques au cadre / package (pour gorilla / mux, echo et net / http) vous permettent d’exécuter des applications Go existantes en tant que fonctions AWS Lambda frontées par Amazon API Gateway.

      Le premier volet de cette série vous a présenté le AWS Lambda Go API Proxy et comment ses implémentations adaptées au framework/package spécifique (pour gorilla/mux, echo et net/http) vous permettent d’exécuter des applications Go existantes en tant que fonctions AWS Lambda frontées par Amazon API Gateway. Si vous ne l’avez pas encore fait, je vous encourage à y jeter un coup d’œil pour avoir une compréhension de base du AWS Lambda Go API Proxy.

      Le AWS Lambda Go API Proxy prend également en charge Gin, qui est l’un des frameworks web Go les plus populaires ! Ce billet de blog suivant démontrera comment prendre un service de raccourcissement d’URL existant écrit à l’aide du framework Gin et le faire fonctionner en tant que fonction AWS Lambda sans serveur. Au lieu d’utiliser AWS SAM, nous allons changer un peu les choses et utiliser le AWS CDK pour déployer la solution.

      Pour cela, nous allons créer une base de données DynamoDB pour stocker les URL raccourcies et une fonction Lambda pour gérer les requêtes entrantes. La fonction Lambda sera appelée par Amazon API Gateway et répondra aux requêtes GET et POST. La fonction Lambda utilisera la base de données DynamoDB pour stocker et récupérer les URL raccourcies. Une fois la base de données configurée et la fonction Lambda créée, nous allons utiliser le AWS CDK pour déployer le tout sur AWS.

      Source de l’article sur DZONE

      Ne commettez pas ces erreurs dans le développement IA.

      Ne prenez pas le développement IA à la légère ! Évitez ces erreurs courantes pour réussir votre projet.

      La preuve est dans la préparation

      The key to success is data. AI models need data to learn and improve. The more data you have, the better your model will be. It’s important to have a clear understanding of the data you’re working with. You need to know what data is available, what data is missing, and what data is relevant. You also need to make sure that your data is clean and consistent. Once you have the right data, you can start building your model.

      La preuve est dans la préparation

      Entraîner un modèle d’IA peut sembler facile : donnez à un réseau neuronal des données et vous avez votre IA. Ce n’est pas du tout le cas et il y a de nombreux facteurs à prendre en compte pour développer le bon modèle pour le bon travail.

      Développer et mettre en œuvre des systèmes d’IA de qualité est un processus complexe qui comporte des pièges potentiels. Ces lacunes peuvent entraîner des résultats suboptimaux, une utilisation inefficace des ressources et même des défis importants.

      La clé du succès est les données. Les modèles d’IA ont besoin de données pour apprendre et s’améliorer. Plus vous avez de données, meilleur sera votre modèle. Il est important de bien comprendre les données avec lesquelles vous travaillez. Vous devez savoir quelles données sont disponibles, quelles données manquent et quelles données sont pertinentes. Vous devez également vous assurer que vos données sont propres et cohérentes. Une fois que vous avez les bonnes données, vous pouvez commencer à construire votre modèle.

      Une fois que vous avez les bonnes données, vous pouvez commencer à construire votre modèle. Vous devez déterminer quel type de modèle convient le mieux à votre problème et le configurer correctement. Une fois le modèle configuré, vous pouvez entraîner le modèle sur les données et le tester pour voir comment il se comporte. Vous pouvez ensuite affiner le modèle en ajustant les paramètres et en lui fournissant plus de données.

      Une fois le modèle entraîné, vous pouvez le déployer et le surveiller en continu pour voir comment il se comporte dans la pratique. Le déploiement et la surveillance sont essentiels pour garantir que votre modèle fonctionne correctement et produit des résultats précis et fiables.

      En résumé, le développement et la mise en œuvre réussis d’un système d’IA reposent sur une préparation minutieuse et une surveillance constante. Les données sont la clé du succès et il est important de comprendre ce qui est disponible, ce qui manque et ce qui est pertinent. Une fois que vous avez les bonnes données, vous pouvez commencer à construire votre modèle et le déployer avec succès.

      Source de l’article sur DZONE