Articles

Exécuter mes applications Go de manière sans serveur - Partie 2

Dans cet article, je vais vous montrer comment exécuter vos applications Go sans serveur, en utilisant des services cloud et des outils de développement. Partie 2 de cette série de tutoriels !

## La première partie de cette série vous a présenté le AWS Lambda Go API Proxy et comment ses implémentations d’adaptateur spécifiques au cadre / package (pour gorilla / mux, echo et net / http) vous permettent d’exécuter des applications Go existantes en tant que fonctions AWS Lambda frontées par Amazon API Gateway.

Le premier volet de cette série vous a présenté le AWS Lambda Go API Proxy et comment ses implémentations adaptées au framework/package spécifique (pour gorilla/mux, echo et net/http) vous permettent d’exécuter des applications Go existantes en tant que fonctions AWS Lambda frontées par Amazon API Gateway. Si vous ne l’avez pas encore fait, je vous encourage à y jeter un coup d’œil pour avoir une compréhension de base du AWS Lambda Go API Proxy.

Le AWS Lambda Go API Proxy prend également en charge Gin, qui est l’un des frameworks web Go les plus populaires ! Ce billet de blog suivant démontrera comment prendre un service de raccourcissement d’URL existant écrit à l’aide du framework Gin et le faire fonctionner en tant que fonction AWS Lambda sans serveur. Au lieu d’utiliser AWS SAM, nous allons changer un peu les choses et utiliser le AWS CDK pour déployer la solution.

Pour cela, nous allons créer une base de données DynamoDB pour stocker les URL raccourcies et une fonction Lambda pour gérer les requêtes entrantes. La fonction Lambda sera appelée par Amazon API Gateway et répondra aux requêtes GET et POST. La fonction Lambda utilisera la base de données DynamoDB pour stocker et récupérer les URL raccourcies. Une fois la base de données configurée et la fonction Lambda créée, nous allons utiliser le AWS CDK pour déployer le tout sur AWS.

Source de l’article sur DZONE

Qu'est-ce que Envoy Gateway et pourquoi est-il nécessaire pour Kubernetes ?

Envoy Gateway est un service proxy open source qui fournit une connectivité sécurisée et un routage intelligent pour les applications Kubernetes. Il est nécessaire pour assurer la sécurité et la disponibilité des applications.

## Envoy Gateway : Faciliter la configuration d’Envoy proxy comme passerelle API et contrôleur d’entrée

Envoy Gateway est un projet qui a été créé pour faciliter le codage des applications multicloud. Il est basé sur le proxy Envoy, qui est le plan de données du service mesh Istio. Envoy est utilisé pour gérer le trafic est-ouest (communication de service à service à l’intérieur d’un centre de données). Cependant, pour que Istio gère un réseau d’applications multicloud, Envoy a été configuré comme un proxy côté pour gérer le trafic nord-sud (trafic entrant et sortant des centres de données).

Il a été constaté que les développeurs d’applications trouvaient difficile de configurer le proxy Envoy en tant que passerelle API et contrôleur d’entrée. Cela prenait beaucoup de temps, ce qui a conduit la communauté à utiliser l’API Gateway Kubernetes en tant que partie du projet Envoy et à finalement construire Envoy Gateway. Envoy Gateway est conçu pour être facilement configurable et peut être utilisé pour fournir des fonctionnalités telles que la sécurité, la mise en cache, la journalisation et la surveillance des API. Il peut également être utilisé pour fournir des fonctionnalités telles que la mise en œuvre de règles de routage, la gestion des certificats TLS et le contrôle d’accès.

Envoy Gateway est un outil très pratique pour les développeurs d’applications multicloud. Il permet aux développeurs de configurer et de gérer facilement leurs applications multicloud. Il permet également aux développeurs de mettre en œuvre des fonctionnalités avancées telles que la sécurité, la mise en cache, la journalisation et la surveillance des API. En outre, il permet aux développeurs de mettre en œuvre des règles de routage, de gérer les certificats TLS et de contrôler l’accès aux applications. Enfin, Envoy Gateway offre une grande flexibilité et une grande scalabilité pour les applications multicloud.

Source de l’article sur DZONE

In this video tutorial below, we take a closer look at Messaging Design Pattern(MDP) in Java. This tutorial includes an introduction and implementation of a proxy, adapter, and web service. Let’s get started!

Source de l’article sur DZONE

In this post, you will learn how to execute penetration tests with OWASP Zed Attack Proxy (ZAP). ZAP is a free web app scanner which can be used for security testing purposes.

1. Introduction

When you are developing an application, security must be addressed. It cannot be ignored anymore nowadays. Security must be taken into account starting from initial development and not thinking about it when you want to deploy to production for the first time. Often you will notice that adding security to your application at a later stage in development, will take a lot of time. It is better to take security into account from the beginning, this will save you from some painful headaches. You probably have some security experts inside of your company, so let them participate from the start when a new application needs to be developed. Nevertheless, you will also need to verify whether your developed application is secure. Penetration tests can help you with that. OWASP Zed Attack Proxy (ZAP) is a tool which can help you execute penetration tests for your application. In this post, you will learn how to setup ZAP and execute tests with the desktop client of ZAP. You will also need a preferably vulnerable application. For this purposes, Webgoat of OWASP will be used. In case you do not know what Webgoat is, you can read a previous post first. It might be a little bit outdated because Webgoat has been improved since then, but it will give you a good impression of what Webgoat is. It is advised to disconnect from the internet when using Webgoat because it may expose your machine to attacks.

Source de l’article sur DZONE

GitLab Pages is a way to create websites for projects and groups in order to publish documentation, wikis, or any static content. Sometimes, for resource limitation, decreasing the load on the main GitLab instance (if self-hosted), to increase security, or for separating docs and wikis from code, we need to host our GitLab Pages in a separate server. To achieve this, we should have two GitLab instance on two distinct machines: one of them is our main GitLab (a normal GitLab installation) and the other one is an instance only for publishing GitLab Pages.

This is a tutorial and provides some technical information and configurations, We assume you are familiar with GitLab installation and GitLab Pages, and already have one GitLab self-managed instance (on-premises or in the cloud) in use.

Source de l’article sur DZONE