Articles

Partie 2: Microservices avec Apache Camel et Quarkus

Dans cette partie, nous allons apprendre à créer des microservices avec Apache Camel et Quarkus. Nous verrons comment les deux outils peuvent être utilisés ensemble pour créer des applications modernes et performantes.

Exécution locale d’une application microservices basée sur Apache Camel et AWS SDK

Dans la première partie de cette série, nous avons vu une application de transfert d’argent simplifiée basée sur les microservices, mise en œuvre à l’aide des outils de développement Java Apache Camel et AWS SDK (Software Development Kit) et de Quarkus comme plate-forme d’exécution. Comme indiqué, il existe de nombreux scénarios de déploiement qui pourraient être envisagés pour exécuter la production d’une telle application; le premier et le plus simple consiste à l’exécuter localement de manière autonome. C’est le scénario que nous examinerons dans ce nouveau post.

Quarkus est capable d’exécuter vos applications de deux manières: en mode JVM (Java Virtual Machine) et en mode natif. Le mode JVM est la manière classique standard d’exécuter des applications Java. Ici, l’application en cours d’exécution n’est pas exécutée directement sur le système d’exploitation, mais dans un certain milieu d’exécution où des bibliothèques et des API Java sont intégrées et enveloppées. Ces bibliothèques et API peuvent être très volumineuses et elles occupent une partie spécifique de la mémoire appelée Resident Set Size (RSS). Pour en savoir plus sur le RSS et Quarkus (par opposition à la façon dont Spring Boot le gère), voir ici.

Lorsque vous exécutez votre application avec Quarkus en mode JVM, vous pouvez utiliser un outil appelé GraalVM pour compiler votre application en code natif. GraalVM est un outil open source qui permet de compiler des applications Java en code natif. Il prend en charge plusieurs langages, dont Java, JavaScript, Ruby, Python et R. GraalVM est capable de compiler votre application Java en code natif très rapidement, ce qui permet à votre application de s’exécuter plus rapidement et avec moins de consommation de mémoire. Il est également possible d’utiliser GraalVM pour compiler votre application en code natif et l’exécuter directement sur le système d’exploitation, sans passer par le mode JVM. Cela permet à votre application de fonctionner plus rapidement et avec une consommation de mémoire minimale.

Ainsi, grâce à l’utilisation du logiciel Quarkus et de GraalVM, vous pouvez facilement déployer votre application microservices-based money transfer sur votre système local. Vous pouvez également utiliser GraalVM pour compiler votre application en code natif et l’exécuter directement sur le système d’exploitation, ce qui permet à votre application de fonctionner plus rapidement et avec une consommation de mémoire minimale. Cela peut être très utile pour les applications qui nécessitent une exécution rapide et une consommation minimale de mémoire. De plus, vous pouvez également déployer votre application sur des plates-formes cloud telles que AWS ou Azure afin de bénéficier des avantages supplémentaires offerts par ces plates-formes.

Source de l’article sur DZONE

Guide détaillé avec exemples de code pour l'entraînement personnalisé de grands modèles linguistiques

Vous souhaitez entraîner des modèles linguistiques complexes ? Ce guide vous fournira des exemples de code et des instructions détaillées pour vous aider à atteindre vos objectifs.

H2: Dans les dernières années, les grands modèles linguistiques (LLMs) tels que GPT-4 ont suscité un grand intérêt en raison de leurs incroyables capacités en compréhension et en génération du langage naturel. Cependant, pour adapter un LLM à des tâches ou des domaines spécifiques, une formation personnalisée est nécessaire. Cet article propose un guide détaillé et étape par étape sur la formation personnalisée des LLMs, accompagné d’exemples et d’extraits de code. Prérequis

• A GPU-enabled machine with at least 8GB of RAM

• An understanding of basic ML concepts

• Familiarity with Python and TensorFlow

• Access to a large dataset

Ces dernières années, les grands modèles linguistiques (LLMs) tels que GPT-4 ont suscité un intérêt considérable en raison de leurs incroyables capacités en compréhension et en génération du langage naturel. Cependant, pour adapter un LLM à des tâches ou des domaines spécifiques, une formation personnalisée est nécessaire. Cet article propose un guide détaillé étape par étape sur la formation personnalisée des LLMs, accompagné d’exemples et d’extraits de code.

Prérequis

Avant de plonger, assurez-vous d’avoir :

• Une machine dotée d’une carte graphique et d’au moins 8 Go de RAM

• Une compréhension des concepts de base d’apprentissage machine

• De la familiarité avec Python et TensorFlow

• Un accès à une grande base de données

Mise en œuvre

Une fois les prérequis remplis, vous êtes prêt à commencer à former votre modèle. La première étape consiste à préparer votre base de données. Vous devrez peut-être nettoyer et normaliser vos données avant de les charger dans votre modèle. Une fois que vos données sont prêtes, vous pouvez les charger dans votre modèle. Vous pouvez le faire en utilisant TensorFlow ou un autre framework de deep learning. Une fois que vos données sont chargées, vous pouvez commencer à entraîner votre modèle. Vous pouvez le faire en utilisant des algorithmes d’apprentissage supervisé ou non supervisé. Lorsque vous entraînez votre modèle, vous devrez définir des paramètres tels que le nombre d’itérations, le taux d’apprentissage et le nombre de couches cachées. Vous devrez également définir des métriques pour mesurer la performance de votre modèle.

Une fois que votre modèle est entraîné, vous pouvez le tester sur des données réelles pour voir comment il se comporte. Vous pouvez également effectuer une validation croisée pour vérifier si votre modèle est capable de généraliser ses résultats sur des données différentes. Une fois que vous êtes satisfait des performances de votre modèle, vous pouvez le déployer pour l’utiliser dans un environnement réel. Vous pouvez le déployer sur un serveur ou un cloud public tel que Google Cloud Platform ou Amazon Web Services. Une fois déployé, votre modèle sera prêt à être utilisé par les utilisateurs finaux.

Enfin, vous devrez peut-être maintenir et mettre à jour votre modèle au fil du temps. Vous devrez peut-être ajouter de nouvelles données à votre base de données ou ajuster les paramètres de votre modèle pour améliorer ses performances. Vous devrez également surveiller les performances de votre modèle pour vous assurer qu’il fonctionne correctement et qu’il ne se dégrade pas avec le temps. Enfin, vous devrez peut-être effectuer une analyse des performances pour comprendre comment votre modèle est utilisé et pourquoi il fonctionne bien ou mal.

En résumé, la

Source de l’article sur DZONE

De zéro à héros: Apprendre Web3 avec Infura et Python

Devenez un héros du Web3 en apprenant à utiliser Infura et Python ! Découvrez comment créer des applications décentralisées avec ces outils puissants.

Comment démarrer avec le Web3

Pour commencer

Même si je code depuis la fin des années 90, je suis vraiment un débutant complet dans le monde de Web3. Je ne suis pas un expert, donc je n’essaierai pas d’expliquer les fondamentaux. Il y a beaucoup de guides et de tutoriels de contenu excellents là-bas. Je suggère de commencer par la documentation Infura, qui est très complète et compréhensible.

Comprendre les prérequis

Avant de commencer à développer des applications Web3, il est important de comprendre les prérequis. Tout d’abord, vous devez comprendre les principes fondamentaux de la blockchain et des crypto-monnaies. Ensuite, vous devez comprendre le protocole Ethereum et la plate-forme Ethereum. Enfin, vous devez comprendre le langage de programmation Solidity et le framework Web3.js. Une fois que vous avez compris ces concepts, vous pouvez commencer à développer des applications Web3.

Test

Une fois que vous avez compris les prérequis, vous pouvez commencer à tester votre application Web3. Pour ce faire, vous pouvez utiliser un service d’API tel que Infura pour accéder à la blockchain Ethereum. Vous pouvez également utiliser Python pour interagir avec la blockchain via Infura. Une fois que vous avez mis en place votre environnement de développement, vous pouvez commencer à tester votre application Web3 en utilisant des outils tels que Truffle et Ganache. Vous pouvez également tester votre application sur un réseau réel en utilisant un service tel que MetaMask.

Source de l’article sur DZONE

Créer une solution d'email de notification d'alarme de métrique de journal personnalisé CloudWatch avec Terraform

Créer une solution d’email de notification d’alarme de métrique de journal personnalisé CloudWatch avec Terraform est une tâche complexe, mais pas impossible. Découvrez comment le faire facilement !

Comment intégrer des messages de journal d’application dans les notifications CloudWatch Alarm

En tant que scientifique informatique enthousiaste, je vais vous montrer comment intégrer les messages de journal d’application dans le corps de l’e-mail de notification lorsque l’alarme CloudWatch est activée.

Amazon CloudWatch est un service qui permet aux clients de surveiller une valeur de métrique ou une expression mathématique pour la métrique et de déclencher des actions lorsque la valeur dépasse une certaine limite. Ces alarmes peuvent être utilisées pour déclencher des notifications envoyées via Amazon SNS, e-mail, SMS, etc. Il est donc nécessaire que les messages de journal d’application soient inclus dans le message de notification de l’alarme afin que le personnel opérationnel puisse facilement identifier la cause racine de la notification de l’alarme.

Afin de mettre en œuvre cette solution, nous devons disposer des prérequis suivants : un compte AWS, Terraform installé et prêt à l’emploi, Python version 3.9 ou ultérieure, Node.js version 14.x ou ultérieure. Nous allons maintenant examiner l’architecture cible qui sera utilisée pour mettre en œuvre cette solution. L’architecture cible est représentée par le diagramme suivant et montre les composants impliqués dans cette solution ainsi que leurs interactions.

Source de l’article sur DZONE

You are going to encounter a number of issues as a Python developer. Mastering the syntax of coding isn’t enough to write functioning, stable applications. You also have to familiarize yourself with different challenges the final application might deal with, including Python security risks.

Many of the discussions about developing secure applications focus on using machine learning to protect customers, such as helping them avoid holiday scams. However, it is equally important to ensure the applications themselves are not vulnerable to cybercriminals.

Source de l’article sur DZONE

Welcome to our annual guessing game of what the next twelve months will bring.

As ever, the design world isn’t isolated from the world in which it exists, so when events shape our lives, they impact our work, the work clients ask for, and the work that inspires us. According to Collins Dictionary, the word of the year for 2022 was permacrisis. And frankly, 2023 doesn’t look any less turbulent, with some good and some bad things already on the horizon.

Russia seems all but certain to retreat to Crimea and claim its objectives in Ukraine have been achieved; Ukraine may not accept that end, but it will probably be enough to end sanctions against Russia, which will significantly impact the economy worldwide. Brazil may have been forced to watch Argentina lift the FIFA World Cup, but it has a new (old) president and fresh hope for the survival of the Amazon rainforest. Crypto has weathered a series of storms (although there may be more to come), and historical precedence suggests the bear market has run its course; 2023 will see stagnation, with an upward trend taking hold toward the end of the year. The former Pope has died, potentially paving the way for the retirement of the current Pope and the election of a new Pope, bringing with it either renewed liberalism or renewed conservatism to the world’s largest religion. Oh, and the IMF thinks a third of the world will be in recession at some point in 2023; the UK and Russia already are, and policymakers in the US are looking nervous.

And that’s just the obvious. Of course, there will be surprises, too, because there always are.

Against this backdrop, designers must not only navigate a problematic jobs market but produce designs that respond to the needs and desires of their clients’ users.

How Did I Do in 2022?

Before diving into this year’s predictions, let’s take a look at how I thought 2022 would play out.

I predicted that 2022 would be the year of blockchain, with decentralized data storage taking over. Well, I got the decentralized part right, but not so much the blockchain aspect (feel free to tell me I’m wrong on Mastodon because I’m not checking Twitter anymore). I’ll call that half a point.

I said design would be positive, playful, and accessible. I think design did emerge from its obsession with corporate minimalism, but positive and playful? Unfortunately, I’m calling that a miss.

I said everything would be green. Again, that’s a miss. If there was a color for 2022, it was a pink-purple gradient.

I predicted hero text would replace hero images, and in the third quarter of 2022, that’s exactly the trend we saw; tick.

Finally, I suggested that illustration would adopt a grainy texture. Well, some designers did, but it was hardly a dominant trend, so I’m going to have to call that a miss.

So for my 2022 predictions, I scored 30%. Way worse than last year’s clean sweep. Let’s see if we can’t beat that in 2023…

1. We’ll Stop Freaking Out Over AI

By now, you’ve probably tried AI, freaked out, and Googled how to start a small holding in the mountains.

The truth is that AI is just a tool. And a good one at that. AI is really good at derivative work. But it’s entirely incapable of improvising, holding opinions, having an agenda, or thinking outside the box.

AI will not replace your job — unless your job is deleting the background from photos, in which case it already has. Since when did Stephen King get replaced by a spellchecker?

If you haven’t tried an AI tool yet, I’d encourage you to try it. It does the small repetitive tasks well.

2. We’ll Embrace the Real World

One of the reasons AI can’t be creative is that it doesn’t have the same number of input sensors we have. We can smell, hear, feel, and experience the world in a multitude of different ways.

Most of us spent a year in lockdown working remotely. Then rushed back to the office, only to discover that our teamwork didn’t actually improve. With the worsening economic outlook, big companies are looking to budget, and the simplest way to cut costs is to ask staff to work remotely.

When your commute is a five-second walk to the spare bedroom, you find yourself with more free time. Sure, you could probably learn Python, but wouldn’t you be happier learning to paddleboard?

As we open ourselves to new experiences, our design work will inevitably become more diverse and natural.

3. We’ll Reject Brutalism

It had a good run, but Brutalism isn’t a good fit for most UI projects. The trend of 2021–22 will vanish as quickly and as unexpectedly as it arrived.

4. We’ll Reject Darkmode

It has had a good run, and dark mode is a perfect fit for most UI projects. But we’re all kinda sick of it.

I hope I’m wrong about this one; not only is dark mode genuinely better for both your eyes and the environment, but the rich, warm blackness is the perfect antidote to sterile white corpo-minimalism.

Dark mode options are built into our OS, so it’s doubtful that it’s going to vanish anytime soon. However, dark mode as a design trend for its own sake is probably on the wane.

Typically trends come and go in symmetrical waves. Dark mode has been a dominant trend for years, so it should take as long to vanish completely.

5. We’ll Embrace Personal Retro

Every year we get the exciting job of guessing which decade the zeitgeist will rip off next. Will 2023 be the year of ’80s retro, ’90s retro, ’00s retro, or maybe (somebody shoot me) ’10s retro?

The retro trends we’ve seen over the last few years have been poor pastiches of their associated decades. If last year’s ’90s retro was inspired by the ’90s, it was a ’90s someone else was living.

In 2023 we’ll move beyond someone else’s ideas of what the past was like, to a personal vision of what came before. One in which the sunbleached colors of eternal Summers in the suburbs dominate.

6. We’ll Fall For Borecore

We’re all guilty of designing with our egos from time to time, and there is a tendency to hit users between the eyes with the biggest type, the loudest gradient, and the flashiest animation.

If you truly want to impress users in 2023, stop inserting pop-ups, adverts, cookie notices, and the other extraneous detritus that stops them from doing whatever it is they arrived on your site for. Impressing users in 2023 means clean typography, low-distraction art direction, and helpful content. Boring design just isn’t as boring as it used to be.

In 2023, the best thing designers can do for their users is get out of the way.

Happy New year! We hope it’s a good one.

 

Featured image by myriammira on Freepik

Source

The post 6 Predictions for Web Design in 2023 first appeared on Webdesigner Depot.

Source de l’article sur Webdesignerdepot


Motivation

In my previous article, I demonstrated how JWT tokens can replace passwords for a safer and more secure cloud-native future.

Check out my previous articles covering SSO for DB Console using Google OAuth, Microsoft Identity Platform, and Okta.

Source de l’article sur DZONE

Do you want to learn how to code but are a beginner?

Which programming language should you start learning first? The languages that developers employ the most are those that are quick, simple to learn, and in-demand.

Source de l’article sur DZONE

Tabular data is one of the best sources of data on the web. They can store a massive amount of useful information without losing its easy-to-read format, making it gold mines for data-related projects.

Whether it is to scrape football data or extract stock market data, we can use Python to quickly access, parse and extract data from HTML tables, thanks to Requests and Beautiful Soup.

Source de l’article sur DZONE

Python is a robust object-oriented programming (OOP) language that finds a lot of use in the field of artificial intelligence. It is so useful that mega tech companies like Google have made libraries such as Tensorflow to help people to leverage powerful machine learning algorithms and models for various purposes.

People have made ‘sign language’ interpreters, Motorcyclist helmet detectors, and item identifiers using Python and its free libraries.

Source de l’article sur DZONE