Articles

« Pour gérer la complexité tout en restant résilient en 2020, il faudra créer une entreprise centrée sur le client. Les entreprises doivent être capables de fournir des produits de haute qualité en un temps record, et dans le même temps répondre aux objectifs de durabilité, développer des relations avec les fournisseurs et sous-traitants, prévoir la demande des produits et ressources, réduire les risques et adopter rapidement les nouvelles technologies sans interrompre l’activité. Les services de supply chain sont chargés de répondre à toutes ces exigences, même dans ce contexte de pandémie mondiale. »

Voilà le premier paragraphe d’une enquête menée par Oxford Economics auprès de 1 000 directeurs supply chain. Il dépeint le profil type d’un « leader supply chain » tous secteurs et pays confondus.

Récemment, j’ai discuté des résultats de cette enquête avec Ben Wright, rédacteur adjoint chez Oxford Economics, qui soulignait que « les entreprises ayant de solides stratégies de gestion centrée sur le client, de visibilité, de durabilité et d’application des technologies intelligentes constatent une amélioration de leur supply chain, de leur résilience et de leur performance financière globale ».

Au sujet de la pandémie qui nous touche aujourd’hui, Ben a ajouté : « La propagation du coronavirus a révélé les fragilités de la supply chain et leur impact sur l’économie mondiale. Il est donc devenu primordial de rendre les supply chains plus résilientes. Si dans une économie mondiale, toutes les supply chains présentent des fragilités, avoir des objectifs stratégiques clairs, en utilisant les bons outils et les tactiques adéquates pour limiter les risques et réduire la complexité permettra de mieux faire face à ce type de situation ».

Priorité à la résilience de la supply chain

Même si la résilience n’était pas le principal objectif de ce programme de recherche, il est apparu clairement que les leaders supply chain appliquaient des meilleures pratiques dans ce domaine.

Réalisée début 2020, alors que le COVID-19 commençait seulement à faire les gros titres, l’enquête montre que 39 % des personnes interrogées ont vu leur supply chain exposée à des risques au cours des trois dernières années. Et une proportion similaire (40 %) affirme que l’exposition aux risques liés à la supply chain a augmenté au cours de cette période. Ils étaient loin de se douter que seulement quelques semaines plus tard, ce chiffre serait de 100 % !

Mais quelques caractéristiques bien précises permettent aux leaders de se démarquer :

  • 76 % disent avoir des collaborateurs agiles, capables de réagir aux imprévus (contre 52 % pour les autres).
  • 75 % ont déjà un niveau élevé de collaboration avec leurs équipes de gestion des risques et de conformité (contre 63 % pour les autres).
  • 66 % ont une visibilité sur l’ensemble du processus de la conception à la livraison.

Bien sûr, aucune supply chain ne pourrait se préparer totalement à un choc d’une telle ampleur ni se protéger contre des conséquences aussi graves que celles causées par le coronavirus, mais avec une culture d’entreprise hautement collaborative et une bonne visibilité sur tous les aspects de la supply chain, y compris les fournisseurs et sous-traitants, il est possible de renforcer sa résilience et son agilité afin de limiter l’impact de tels événements.

Pour comprendre comment les leaders supply chain limitent les risques et maximisent les opportunités, écoutez la conversation que j’ai eue avec Ben Wright, rédacteur adjoint chez Oxford Economics, et téléchargez l’enquête menée auprès de 1 000 directeurs des opérations et supply chain : « Surviving and Thriving How Supply Chain Leaders minimize risk and maximize opportunities ».

Suivez-moi sur Twitter.

Richard Howells

Fort de plus de 25 ans d’expérience dans le domaine de la gestion de la supply chain et de la production, je suis chargé de l’orientation du marché et du positionnement des solutions SAP pour la gestion de la supply chain et l’IoT. Avant de rejoindre SAP en 2004, j’ai passé 15 ans chez Marcam Solutions comme vice-président marketing des solutions ERP pour les processus d’entreprise. J’ai aussi dirigé la mise en œuvre des systèmes ERP et SCM pour des groupes comme Nestle, Gillette, Colgate Palmolive, Rohm & Haas, Wyeth, Royal Worcester Spode et Dairy Crest. Je suis diplômé en informatique de l’université de Mid Glamorgan au Royaume-Uni. Suivez-moi sur @howellsrichard

Initialement publié dans le magazine Forbes.

The post Comment les leaders de la supply chain limitent les risques et maximisent les opportunités appeared first on SAP France News.

Source de l’article sur sap.com

SAP propose depuis une quinzaine d’années une solution de gestion d’entrepôt appelée SAP Extended Warehouse Management, qui s’est enrichie pour répondre aux besoins des clients, quel que soit l’industrie ou le marché adressé : gestion avancée des vagues, mobilité, pilotage intégré de la mécanisation, Labor Management, pré colisage, intégration avec la production … Le tout dans une approche ‘Digital Supply Chain of One’, visant à fournir à nos clients une chaine logistique agile, unifiée et ‘end to end’.

Dans cette démarche d’amélioration et d’innovation continue, un nouveau module a vu le jour l’année dernière pour apporter un niveau supplémentaire d’optimisation aux clients qui le souhaitent.

SAP Warehouse Insights est un module basé sur la plateforme SCP (SAP Cloud Platform), et dédié à l’optimisation des entrepôts et de leurs ressources. Basé sur les dernières technologies : algorithmes, cloud computing et machine learning, cet outil complète les fonctions déjà avancées de la solution SAP Extended Warehouse Management. Les principaux domaines sont : la cartographie des entrepôts, des fonctions supplémentaires d’analyses et de monitoring de KPIs, la simulation de l’utilisation des ressources, et l’optimisation en temps réel.

SAP Warehouse Insights a été conçu pour tout type de clients et d’industries. Il apporte un niveau ultime dans l’optimisation des ressources et des missions en proposant les meilleurs scénarios possibles. Si le module s’enrichit en permanence de nouvelles fonctions, à ce jour il faut retenir 3 principaux sujets :

  • Visualisation dynamique de la cartographie entrepôt et des parcours des opérateurs,
  • Analyse des opérations, basées sur les données historiques comme la charge de travail et les distances de déplacement des ressources,
  • Optimisation / ré optimisation des missions (Warehouse Orders) affectées aux ressources pour réduire les déplacements à vide.

 

Cartographie entrepôt

Les utilisateurs peuvent interroger la cartographie d’un site de façon dynamique et interactive. Cela se traduit par une visualisation précise et aisée des différentes zones, avec la capacité d’aller jusqu’à la granularité la plus fine  (emplacement), et de s’assurer de l’adéquation de la configuration avec les besoins du terrain, ainsi qu’aux fonctions d’optimisation des déplacements.

Exemple d’écran de visualisation de différents types de zones de stockage :

‘Travel distance Network’ : Configuration simplifiée des chemins

La configuration des chemins est utilisée pour l’optimisation des déplacements. Les utilisateurs peuvent visualiser rapidement sur la carte, la complétude et la bonne configuration des chemins et segments paramétrés. En cas de rupture ou de mauvaise configuration, il est alors aisé de ‘réparer’ ou créer de nouvelles connexions à partir des nœuds existants. Exemple d’écran :

Configuration assistée

SAP Warehouse Insights facilite par ailleurs la création et la maintenance de la cartographie des sites. Il est possible d’importer des plans ‘CAD’ (Computer Aided Design) sous format PDF et de les utiliser directement dans le système. L’opérateur va ensuite pouvoir enrichir les informations avec les données ‘business’ comme les allées ou types de stockage. Le système va alors automatiquement propager ces paramètres de configuration sur les emplacements éligibles.

Exemple d’écran :

Fonctions de simulation

Cette première approche repose sur une optimisation ‘Off Line’. Il s’agit d’utiliser les données historiques pour comprendre et remédier à une situation insatisfaisante. SAP Warehouse Insights va ainsi utiliser les missions (Warehouse orders) et les ressources dans un processus avancé de simulation, pour proposer des scénarios réoptimisés, visant à limiter les déplacements, le nombre de ressource et par conséquent permettre une meilleure productivité tout en réduisant les couts d’exécution.

Le système offre une représentation simple et claire des gains potentiels d’optimisation, à travers une représentation des déplacements modélisés et comparables en un simple coup d’œil (avant optimisation / après optimisation).

Exemple d’écran de visualisation et comparaison des chemins :

Heatmap intégrée

SAP Warehouse Insights propose également une fonction de heatmap, très utile à l’analyse des flux dans l’entrepôt et à l’identification des goulets d’étranglement au sein d’une zone, d’une allée ou d’une gare de préparation. La ‘chaleur’ est déterminée en fonction du nombre de tâches réalisées sur chaque emplacement.

Exemple d’écran :

Optimisation temps réel et continue

Le processus de ré optimisation présenté plus haut est alors réalisé en temps réel, avec la possibilité de configurer des règles différentes en fonction par exemple des types de flux ou zones.

Exemple d’écran de configuration :

Principe de fonctionnement :

Les Missions ‘ouvertes’ sont récupérées et traitées en lien avec le système de destination, comme SAP EWM, à une fréquence configurable (ex : toutes les 10 minutes).

La ré optimisation des missions et des ressources associées est alors réalisée et une nouvelle séquence est déterminée suivant les critères souhaités d’optimisation des déplacements ou de dates/heures « au plus tard ».

Les missions ré optimisées sont ensuite remontées vers le système de destination pour exécution par les opérateurs en mode ‘dirigé’ par le système.

Un écran de monitoring permet également de suivre et visualiser les résultats de l’optimisation proposée par le système, avec notamment pour chaque ressource les missions associées, séquences, trajet à vide et en charge … Exemple d’écran :

Indicateurs de performance

En complément, SAP Warehouse Insights inclut des indicateurs offrant une vue analytique sur les opérations et la performance :

  • Utilisation par ressources
  • Charge par groupes de ressources
  • Charge des ressources par groupes de missions (‘queues’)
  • Temps de déplacements à vides par type de ressources
  • Temps total de déplacement par ressource

Exemple d’écran de consultation des opérations en entrepôt

The post Nouveaux enjeux d’agilité et d’excellence opérationnelle : vers l’entrepôt 4.0 appeared first on SAP France News.

Source de l’article sur sap.com

Users typically prefer to visit websites that load fast and fortunately, there are a lot of online tools that you can use to evaluate your website’s speed-related performance. Do you know that WordPress web hosting has a major role to play in boosting your website’s load speed?

In this article, we have shared some really easy-to-implement website speed boosting tips that would allow you to ensure optimal website performance, steady web traffic, and high sales conversion rates.

Source de l’article sur DZONE

As a Java Developer, we need to cover a lot of scenarios to ensure the quality of our software and catch bugs as soon as possible when introducing a new code. For 99% of all my use cases AssertJ, Junit, Mockito, and Wiremock are sufficient enough do cover the test cases. But for the other use cases, like unit testing info, debug or warn log messages, these frameworks don’t help you out. There is also no other framework that can provide an easy to use method to capture log messages.

The answer which the community provided works well, but it is a lot of boilerplate code to just assert your log events. Even I faced the same trouble and so I wanted to make it easier for myself and share it with you! So the LogCaptor library came into life.

Source de l’article sur DZONE

Monitoring production is an important part of a software service provider. Many companies providing monitoring systems for maintaining the production environment. Spring Boot comes with different awesome modules that developers can easily configure and maintain development and production environments with. The actuator module provides production-ready features by which we can easily maintain the production environment. The actuator exposes JMX and HTTP endpoints.

Features

  • Endpoints: Spring Boot Actuator provides some default endpoints by which we can access application information. We can also monitor the production environment with those endpoints. Endpoints can also be accessed by third-party monitoring tools.
  • Metrics: We can access OS and JVM related information using spring boot actuator endpoints. This is very useful for runtime environment. Spring boot actuator provides this feature by integrating with micrometer application monitoring.
  • Audit: Spring Boot Actuator publishes events to  AuditEventRepository. Spring security by default publishes “authentication success,” “failure,” and “access denied” exceptions. This is a very useful feature for reporting and authentication failures. Auditing can be enabled by AuditEventRepository. By default, spring-boot provides InMemoryAuditEventRepository for auditing which has limited capabilities.
  • HTTP Tracing: Spring boot actuator also provides an HTTP tracing facility. If you want to use it you have to include web endpoint. Http tracing provides the information about request-response exchange.

Important Endpoints

Spring Boot Actuator provides the listed HTTP and JMX endpoint. We will discuss in detail later part of this article.

Source de l’article sur DZONE

C10K problem is a term that stands for ten thousand concurrently handling connections. To achieve this, we often need to make changes in the settings of created network sockets and default settings of Linux kernel, monitor the usage of the TCP Send/Receive Buffers and Queues, and, in particular, adjust our application to be a good candidate for solving this problem.

In today’s article, I’m going to discuss common principles that need to be followed if we want to build a scalable application that can handle thousands of connections. I will refer to Netty Framework, TCP, and Socket internals and some useful tools if you want to get some insights from your application and underlying system.

Source de l’article sur DZONE

Google needs to step up their speed.

Quantum Supremacy Is Arguable, but We Are Almost There

Last month, I reported on a leaked announcement that Google had proved “quantum supremacy”, which is a concrete illustration of a use case where a quantum computer succeeds in a computation that a classical supercomputer cannot achieve in any reasonable timescale.

Source de l’article sur DZONE

Today, I’m pleased to announce a new way to work with the OmniSci platform: OmniSci.jl, a Julia client for OmniSci! This Apache Thrift-based client is the result of a passion project I started when I arrived at OmniSci in March 2018 to complement our other open-source libraries for accessing data: pymapd, mapd-connector, and JDBC.

Julia and OmniSci: Similar in Spirit and Outcomes

If you’re not familiar with the Julia programming language, the language is a dynamically-typed, just-in-time compiled language built on LLVM that can achieve or beat the performance of high-performance, compiled languages such as C/C++ and FORTRAN. With the performance of C++ and the convenience of writing Python, Julia quickly became my favorite programming language when I started using it around 2013.

Source de l’article sur DZONE

This is part 4 in a series on monitoring Kubernetes and Docker. Catch up on parts 1, 2, and 3.

Photo by Nareeta Martin on Unsplash

Source de l’article sur DZONE

It’s easy for modern, distributed, high-scale applications to hide database performance and efficiency problems. Optimizing performance of such complex systems at scale requires some skill, but more importantly it requires a sound strategy and good observability, because you can’t optimize what you can’t measure. This session explains a performance measurement and optimization process anyone can use to deliver results predictably, optimizing customer experience while freeing up compute resources and saving money.

The session begins with what to measure and how; how to analyze it; how to categorize problems into one of three types; and three matching strategies to use in optimization as a result. It is a recursive method that can be used at any scale, from a data center with many types of databases cooperating as one, to a single server and drilling down to a single query. Along the way, we’ll discuss related concepts such as internally- and externally-focused golden signals of performance and resource sufficiency, workload quality of service, and more.

Source de l’article sur DZONE