Articles

In a fast-paced world, more teams have microservices architectures and are making the shift to Continuous Deployment and Trunk-Based Development. For one of our client’s teams, that meant no feature branches, pairs always committing to main, pushing frequently (multiple times per hour, as often as every 1–4 commits) and those changes landing in production 20–30 minutes later.

With pair programming, no feature branches, and such continuous change, code reviews would seem redundant or extremely difficult with little in the way of tooling support. How on earth would you use GitHub’s Pull Request review features in this setting when there’s no feature branch to diff?

Source de l’article sur DZONE

Given CockroachDB scales with vCPU, there’s a hard limit to how many active connections we can support per vCPU before a serious problem arises. PGBouncer stretches the limits a bit making it a cost-effective option. In serverless architectures, there is no client-side connection pooling, and using middleware like PGBouncer can alleviate the problem of connection storms. Please see my previous articles on the topic for more details.


Previous Articles

  1. Using PGBouncer with CockroachDB
  2. Using PGBouncer with Cockroach Cloud Free Tier
  3. Exploring PGBouncer auth_type(s) with CockroachDB

Motivation

We’ve covered how to deploy PGBouncer with a self-hosted CockroachDB cluster. Today, I’m going to demonstrate how to run PGBouncer along with the Cockroach Cloud free-forever tier database. The overall concepts are identical, but we will highlight some of the major differences in deploying PGBouncer with a cloud product.

Source de l’article sur DZONE

It’s that time of year again when we get the Red Hat Summit 2022 call for papers!

This year seemed to be a perfect time to go all in with sessions around our architectures based on a series of talks we’ve designed to showcase the various aspects we cover. Some are vertical aligned and others are just customer domains, but all of them include extensive research into how to implement successful architectures at scale.

Source de l’article sur DZONE

The Cloud is ubiquitous: any company looking to ramp up quickly will provision its compute, networking, and storage with its preferred cloud provider, and get started rolling out their products.  That makes total sense from a business perspective.  The Cloud has simplified development and automation exponentially over the years, and emerging tech such as AI and IoT will only accelerate this.  

However, the catch is that the very same foundational architectures which drive the Cloud’s efficiency, flexibility, and cost benefits ultimately also are its weakest links from a security perspective.   The result is the daily march of headlines we all read about: ever larger and deeper breaches of data and systems.

Source de l’article sur DZONE

Apache Kafka became the de facto standard for processing data in motion across enterprises and industries. Cybersecurity is a key success factor across all use cases. Kafka is not just used as a backbone and source of truth for data. It also monitors, correlates, and proactively acts on events from real-time and batch data sources to detect anomalies and respond to incidents. This blog series explores use cases and architectures for Kafka in the cybersecurity space, including situational awareness, threat intelligence, forensics, air-gapped and zero trust environments, and SIEM/SOAR modernization. This post is part six: SIEM/SOAR Modernization.

Blog Series: Apache Kafka for Cybersecurity

This blog series explores why security features such as RBAC, encryption, and audit logs are only the foundation of a secure event streaming infrastructure. Learn about use cases,  architectures, and reference deployments for Kafka in the cybersecurity space:

Source de l’article sur DZONE

This blog post explores how event streaming with Apache Kafka provides a scalable, reliable, and efficient infrastructure to make gamers happy and gaming companies successful. Various use cases and architectures in the gaming industry are discussed, including online and mobile games, betting, gambling, and video streaming.

Learn about:

Source de l’article sur DZONE

The rise of data in motion in the insurance industry is visible across all lines of business, including life, healthcare, travel, vehicle, and others. Apache Kafka changes how enterprises rethink data. This blog post explores use cases and architectures for event streaming. Real-world examples from Generali, Centene, Humana, and Tesla show innovative insurance-related data integration and stream processing in real-time.

Digital Transformation in the Insurance Industry

Most insurance companies have similar challenges:

Source de l’article sur DZONE

In this article, I am going to be talking about how we can define your event-driven architectures using the AsyncAPI definition.

Introduction

A while ago, I published an article about how you can document REST APIs using Open API 3 specification. This was for synchronous APIs.

Source de l’article sur DZONE

The network model for security fails in the cloud. While the old on-prem model made sense in the earlier days of computing, the rapidly expanding suite of cloud providers, along with their infinite combinations of settings and services, now places an extraordinary burden on security teams to become cloud-centric. An enterprise that doesn’t fully understand its role in securing its data in the public cloud is taking unnecessary risks with its outdated security strategies.

In the traditional data center, the network provided a secure boundary for the organization. The network was carved up into zones and trusts were established within and between zones. Security architectures were established and tools deployed based on this strategy, which largely involved monitoring the traffic flows and enforcing controls where the zones met. But in the cloud, this approach is no longer relevant. Time and again, in breach after breach, headline after headline, the modern attack cycle, particularly in the cloud, starts with identity. Attackers seek access to the identity, then pivot between resources, discovering credentials and other identities that give them more and more access to get what they want.

Source de l’article sur DZONE

SAP & Siemens jettent les bases d’un partenariat ambitieux : ouvrir la voie à de nouvelles opportunités, supprimer les silos et accélérer la transformation.

SAP & Siemens jettent les bases d’un partenariat ambitieux

Depuis l’annonce du partenariat signé entre SAP et Siemens le 14 juillet 2020, nous avons été ravis de voir à quel point les utilisateurs, partenaires et analystes adhéraient à cette initiative audacieuse et à notre ambition commune d’ouvrir la voie à de nouvelles opportunités, de supprimer les silos et d’accélérer la transformation. Tenir la promesse d’un retour sur investissement plus rapide, de processus de développement durables et de nouvelles opportunités métiers nécessite un nouveau niveau d’intégration. Et c’est ce dans quoi SAP et Siemens ont investi massivement – jusqu’à maintenant dans les coulisses.

La continuité numérique requiert un meilleur niveau d’intégration

Nous savons que nos clients sont aujourd’hui mis au défi d’améliorer leur vitesse de mise sur le marché tout en créant des produits toujours plus complexes et de meilleure qualité. Bien que nos solutions offrent des capacités de pointe dans leurs domaines fonctionnels respectifs, le véritable bénéfice ne peut venir que d’une communication en boucle fermée native et transparente entre le développement produits et la gestion d’entreprise. C’est le cap que nous suivons conjointement :

Combiner l’expertise en intégration de SAP et Siemens

L’intégration entre les systèmes d’ingénierie et d’entreprise n’est pas un phénomène nouveau. Mais il reste complexe. Pourquoi ? Parce que se mettre d’accord sur un langage commun, des processus communs et les solutions et architectures techniques associées à travers tous les secteurs d’activité, les organisations et les réseaux est une tâche difficile. Sans compter les exigences propres à l’ingénierie, aux métiers, à l’informatique et à l’industrie.

Un partenariat stratégique tel celui que nous avons mis en place avec Siemens est une excellente occasion de résoudre certains de ces problèmes fondamentaux. Nous nous appuyons sur l’idée que nos systèmes d’ingénierie et d’entreprise seront égaux et adopteront le niveau d’interopérabilité et de visibilité nécessaire pour concrétiser l’idée de continuité numérique.

 

Un modèle de données unique : garant du succès

Un modèle de données aligné entre SAP et Siemens est à la base de l’intégration en tant que couche intermédiaire. Cet alignement est rendu possible grâce à un niveau d’abstraction des données qui seront échangées entre Siemens Teamcenter et l’ERP SAP S/4HANA.  Ce modèle de données doit être compréhensible des deux côtés et dotée d’une sémantique claire, adaptée à toutes les implémentations.

Ce modèle de données aligné continuera à évoluer afin de permettre le  développement de nouveaux scénarios d’intégration.

Aperçu de la feuille de route 2021-2022 : une innovation continue s’appuyant sur des fondations solides

Depuis l’annonce du partenariat, les équipes de développement de Siemens et SAP se sont réunies pour mettre en œuvre les principes évoqués ci-dessus. Elles ont commencé parse concentrer sur le développement d’un ’échange transparent des données produits, afin de permettre une intégration bidirectionnelle des processus. Puis ont mis l’accent sur une couverture de bout en bout de processus métiers spécifiques : en commençant par la fabrication sur stock (MTS), la configuration à la commande (CTO) et l’ingénierie à la commande (ETO).

Le résultat est une feuille de route définie conjointement, qui commence avec une première version programmée au quatrième trimestre 2021.

Etape 1 : intégration du PLM vers SAP

La première release s’appuiera sur notre modèle commun et les processus de bout en bout sous-jacents afin d’établir les fondations de  permettant une traçabilité,  une fédération des données et des liensinter systèmes. Elle se concentrera sur les processus et le transfert de données depuis le  Teamcenter vers SAP, tels que :

  • Création des fiches article dans SAP basés sur les sémantiques métiers
  • Transfert des données de classification pour permettre un flux d’informations cohérent vers SAP
  • Création des fiches info document dans SAP
  • Transfert de la nomenclature vers SAP
  • Capacité pour Teamcenter de déclencher des modifications en provenance de l’ingénierie

Etape 2 : élargir le scope et fermer la boucle entre le développement produit et SAP

Début 2022, la prochaine vague d’innovations se focalisera sur la « fermeture de la boucle » entre SAP et le développement produit. Nous nous concentrerons sur les fondations des processus métier avancés, y compris les scénarios de configuration à la commande (CTO), d’ingénierie à la commande (ETO), etc. Voici quelques fonctionnalités clés de cette version :

  • Création de fiches articles et de nomenclatures spécifiques
  • Capacité pour SAP de déclencher des changements d’ingénierie et de fabrication
  • Transfert de la définition de la configuration des produits à variantes
  • Fourniture de données pertinentes pour la fabrication tout au long du processus métier
  • Transfert des gammes SAP
  • Mise à disposition d’une solution cross système pour la gestion du portefeuille produits et projets (PPM)

Etape 3 : interopérabilité bidirectionnelle des systèmes et scénarios d’intégration avancés

Nous avons également prévu une seconde version en 2022, qui ne se concentrera pas seulement sur l’amélioration continue des processus avancés de configuration (CTO) et d’ingénierie (ETO), mais également sur une intégration bidirectionnelle favorisant transparence et interopérabilité. Les fonctionnalités proposées comprendront :

  • Gestion des nomenclatures spécifiques à la commande dans SAP
  • Échange de modèles produit pour la configuration de variantes et règles de contraintes d’ingénierie
  • Mise à disposition de scénarios Engineering to Order (ETO) sans couture
  • Échange d’informations sur les fournisseurs basés sur les informations fournisseurs
  • Activation de la traçabilité inter systèmes pour les workflows
  • Activation de l’analyse d’impact inter systèmes

Si vous souhaitez en savoir davantage sur notre feuille de route, rendez-vous dans les prochaines semaines sur le SAP Roadmap Explorer.

The post Feuille de route pour une intégration avancée entre SAP et Teamcenter appeared first on SAP France News.

Source de l’article sur sap.com