Articles

Docker is powerful and simple to use. Docker allows developers to create portable, self-contained images for the software they create. These images can be reliably and repeatably deployed. You can get a lot of value out of Docker very easily, but to get the most out of Docker there are some concepts that are important to understand. How you build your Docker image has a measurable impact when you are doing continuous integration and continuous delivery. In this article, I will focus on how to take a more efficient approach to building Docker images for Spring Boot applications when doing iterative development and deployment. The standard approach has some drawbacks so here we look at what they are and how to do it better.

Key Docker Concepts

There are four key Docker concepts at play: images, layers, the Dockerfile and the Docker cache. Simply put, the Dockerfile describes how to build the Docker image. An image consists of a number of layers. The Dockerfile starts with a base image and adds on additional layers. A new layer is generated when new content is added to the image. Each layer that is built is cached so it can be re-used on subsequent builds. When a Docker build runs, it will re-use any existing layers that it can from the cache. This reduces the overall time and space needed for each build. Anything that has changed, or has not been built before, will be built as needed.

Source de l’article sur DZONE

As more organizations look to migrate their databases to the cloud, what does this mean for developers? We at DZone believe there is no one better to ask than you! Tell us about your experiences with cloud databases by taking this 5 minute survey!

Over the next two weeks, we plan to survey hundreds of software developers about their experiences with cloud databases. The key findings from the survey will be found in our Cloud Database Trend Report to be released February 19. It is our hope that we can identify some of the key trends happening in the space to help our community stay ahead of the curve.

Source de l’article sur DZONE

In industries like banking, there’s a real need for real-time data.

Introduction

We are living in the cloud age, which means developers do not need to set up their own local machine or dedicate on-premise environment to implement, test and run their application. They just create a VM machine in the cloud to perform those tasks.

In the financial world, what would you need to get the actual update of the stock price that you just bought? You can use your phone to watch it live with any apps, but was it live? And as a developer, how do we transfer such data to the hands of app users?

Source de l’article sur DZONE

Take a look at these decision-making methods for cloud migration

During discussions with many of my colleagues, I realized the need for (a) clear demarcation between Application Portfolio Rationalization (APR) and R-Lane, (b) the association of R-Lane with APR, (c) right positioning of APR and R-Lane and (d) role of modernization in APR and R-Lane.

While all these topics spinning around rationalization, they differ only in when and where rationalization is taking place. Let us consider the following three scenarios to better understand these trending terminologies. 

Source de l’article sur DZONE


Abstract

Cloud-native applications are a type of complex system that depends on the continuous effort of software professionals that combines the best of their expertise to keep them running. In other words, their reliability isn’t self-sustaining, but is a result of the interactions of all the different actors engaged in their design, build, and operation.

Over the years the collection of those interactions has been evolving together with the systems they were designed to maintain, which have been also becoming increasingly sophisticated and complex. The IT service management model, once designed to maintain control and stability, is now fading and giving place to a model designed to improve velocity while maintaining stability. Although the combination of those things might seem contradictory at first, this series of articles tries to reveal the reasons why the collection of practices that today we know as DevOps and SRE (Site Reliability Engineering) are becoming the norm for modern systems.

Source de l’article sur DZONE

Vous pourriez supposer que, lorsqu’il s’agit de faire son choix de garder leurs organisations en cours d’exécution en douceur et sur le budget, les financiers, les décideurs sont de faire ces choix sur la base de données claires et leur confiance dans les données. Comme il s’avère, ce n’est pas toujours exacte hypothèse.

Une récente enquête menée par SAP d’Accord et Kelton Mondiale a montré que 59 pour cent des financiers décideurs de travail dans l’etat, la ville et le gouvernement local et de l’enseignement supérieur croire les outils financiers et les systèmes utilisés dans leurs organisations sont sujettes à l’erreur, et 68% d’avoir à prendre des décisions sans une visibilité complète sur les informations nécessaires. Beaucoup de ces dirigeants admettre que la fraude, le gaspillage et les abus sont les défis à relever leurs organisations face et que leur vulnérabilité à ces types de risques est à la hausse:

  • Les deux tiers des répondants admettent que la fraude, le gaspillage et les abus sont les défis de leur organisation est actuellement confrontée.
  • Plus du quart des répondants déclarent que leur vulnérabilité aux risques de fraude et d’abus augmenté dans la dernière année.
  • Environ un tiers-dire le nombre d’inexactitude des rapports de dépenses et les factures soumises a augmenté au cours de la dernière année.

Inexacte de Prise de Décision Conduit à des Risques

La vérité est, il est arrivé aux meilleurs d’entre nous. Nous pouvons tous susceptibles souviens d’une fois où nous avons pris une décision sans avoir les informations de base nécessaires pour le faire, et que la décision peut ne pas avoir produit le plus de résultats favorables.

Pourquoi? Afin de prendre de bonnes décisions d’affaires et d’éviter de regrettables erreurs, nous avons besoin d’accéder à toutes les informations optimal de sorte que nous n’avons pas à l’aveuglette.

Les dommages à la réputation de mauvais de prise de décision peut être catastrophique pour un secteur public de l’organisation potentiellement conduisant à une diminution du financement et de la confiance.

Une récente étude de l’Association of Certified fraud Examiners (ACFE) a identifié le haut de la fraude dépenses que les entreprises et les organismes gouvernementaux à engager. Elles comprennent:

  • Cinq pour cent d’une organisation typique, les revenus annuels sont perdus à cause de la fraude
  • Quatre-vingt-neuf pour cent des cas de fraude impliquer le détournement de fonds, y compris rembourrage de voyage et des demandes de remboursement de frais
  • Annuel médian de la perte de US$114 000 de détournement de fonds

En dépit de ces menaces, de l’etat, la ville et le gouvernement local et de l’enseignement supérieur les décideurs sont confrontés à ces défis chaque jour. Environ un quart des répondants affirment que leur organisation a involontairement signalé incorrecte des données de budget, en raison d’inexactitudes dans les rapports de dépenses ou des factures. Et, 26% disent que leur organisation involontairement ressources allouées là où il ne devrait pas avoir à cause de l’prévoyant plus de budget qu’il a eu réellement.

Pour l’enseignement supérieur, des organisations, ces types d’erreurs peuvent avoir des effets négatifs directs sur les élèves. L’Université du Texas (UT) à Tyler récemment trouvé ses calculs pour l’ensemble de trajet de quatre ans de recherche. D’autres ont été accordées que ne l’étaient réellement prévu, et l’université a répondu par la révocation entre 50 et 60 ces bourses – longtemps après que les élèves avaient accepté à l’UT Tyler et les autres collèges, les délais ont expiré. De nombreuses admissions dirigeants estiment que ces actions contraires à l’éthique et des étudiants ont pris aux médias sociaux pour partager leurs malheureuses histoires.

Les risques liés à la réputation éprouvée par l’UT Tyler sont juste un exemple de pourquoi la précision, la visibilité et la conformité sont de la plus haute importance pour toute organisation.

La lutte contre la Fraude et l’Atteinte de la Conformité avec l’IA et l’Engagement des Employés

Pour ceux qui travaillent dans le secteur public, en ne respectant pas les règles et règlements gouvernementaux n’est pas une option. La bonne nouvelle est qu’il existe de nombreuses façons dont ces petites organisations peuvent commencer à s’éloigner de cette question – y compris par une meilleure formation des employés, une réglementation plus stricte des processus internes, et une étroite collaboration avec les chefs de l’information. En fait, le gouvernement et l’enseignement supérieur, les organisations mettent en œuvre diverses initiatives pour rester au courant.

Selon les Kelton Mondial de l’enquête, près des deux tiers (69%) ont demandé à leurs employés pour en savoir plus sur cette information ou procéder régulièrement à des vérifications (65 pour cent) pour recueillir le plus actuel de la réglementation de l’information. Plus de la moitié aussi regarder au-delà des murs de leur organisation – en particulier les pairs dans le secteur public – pour trouver les meilleures pratiques pour le respect de la conformité à la réglementation.

Dans le même temps, de mettre les technologies qui permettent simultanément d’automatiser les tâches fastidieuses et sujettes à erreur de processus comme l’audit des charges et de la facture de données, mais l’apprentissage et deviennent de plus en plus efficace au fil du temps — est la plus efficace à long-terme de la stratégie.

J’ai vanté les avantages de l’automatisation avant, mais ceux sur les lignes de front: La majorité (55%) des répondants au sondage qui ont entièrement automatisé, outils pour les notes de frais, factures, ou la gestion des déplacements à différents stades de mise en œuvre affirment que leur organisation est d’une meilleure gestion de la fraude, le gaspillage et les abus au sein de leurs organisations.

Plus loin encore, ceux qui ont complètement automatisé le processus de facturation sont environ deux fois plus susceptibles que ceux qui n’ont pas 39 pour cent contre 21 pour cent — à-dire qu’il y a eu moins d’erreurs dans ces rapports. Pima Community College à Tucson, en Arizona, est un excellent exemple d’un établissement d’enseignement supérieur qui a récolté les avantages de l’automatisation. Son processus de gestion de voyage, les dépenses et les factures utilisé pour être très manuel – avec du papier à base de demandes et remboursements étant la norme. On peut imaginer le potentiel de la marge d’erreur avec cette approche. En introduisant de nouvelles technologies et de l’automatisation de la vérification des règles, Pima pour réduire les erreurs et les violations de conformité, et à son tour augmenté l’adhésion à la politique.

Sur le Kelton Enquête Mondiale

Le Kelton Mondiale étude a recueilli les réponses de 313 financiers décideurs de travail dans l’etat, la ville et le gouvernement local et de l’enseignement supérieur pour en savoir plus sur la façon dont ces organisations sont la réduction des risques, le maintien de la conformité, et d’optimiser l’efficacité de ce qui fonctionne bien, ce que d’autres pourraient apprendre de ce que certaines organisations sont en train de faire, et où l’application de nouveaux systèmes et processus pourrait régler le temps et la précision des questions.


David Ballard est vice-président senior du Secteur Public chez SAP, d’Accord.
Cette histoire est initialement paru sur le SAP Accord des salles de rédaction.

Source de l’article sur SAP News Center

Use the Spring Cloud Load Balancer!

You may also like: Service Discovery and Client-Side Load Balancing With Eureka and Ribbon

Almost a year ago Spring Cloud has announced that most of Spring Cloud Netflix OSS projects will be moved to the maintenance mode starting from Spring Cloud Greenwich Release Train. The maintenance mode only does not include Eureka, which still will be supported. I referred to that information in one of my previous articles The Future of Spring Cloud Microservices After Netflix Era.

Source de l’article sur DZONE

Just like a real wormhole, this tool is all about speed.

This blog introduces Wormhole, an open-source Dockerized solution for deploying Presto and Alluxio clusters for blazing-fast analytics on file system (we use S3, GCS, OSS). When it comes to analytics, generally people are hands-on in writing SQL queries and love to analyze data that resides in a warehouse (e.g. MySQL database). But as data grows, these stores start failing and there arises a need for getting the faster results in the same or a shorter time frame. This can be solved by distributed computing and Presto is designed for that. When attached to Alluxio, it works even more, faster. That’s what Wormhole is all about.

You may also enjoy:  Alluxio Cluster Setup Using Docker

Here is the high-level architecture diagram of solution:

Source de l’article sur DZONE

The three distinct flavors of cloud computing.

Internet of Things (IoT) has transformed the way businesses work, and the industry has seen a massive shift from on-premise software to cloud computing. IoT has sprawled across several industries catering to consumers at a global level.

From smart voice assistants to smart homes, brands are expanding their range of services and experimenting with different ideas to enhance the customer experience. Data on customer behavior is now collected through diverse and innovative ways.

Source de l’article sur DZONE

Originally published August 17, 2016

Turn to page one.

What is DevOps?

Communication, collaboration and integration are the three main principles of the ever-growing, modern approach to software delivery known as “DevOps.” Coined in 2009 by Patrick Debois, the term (development and operations) is an extension of Agile development environments that aims to enhance the process of software delivery as a whole.

Source de l’article sur DZONE