Articles

Asset management and website performance optimization are two of those unavoidable headaches faced by every website owner.

A digital asset management (DAM) platform can provide centralized asset repositories with intuitive dashboards to help you manage assets. On the other hand, an image CDN can help you get rid of that messy responsive syntax and provide dynamic asset optimization with huge performance boosts.

The problem is that website performance has become such a competitive factor that DAMs with other priorities tend to fall short. On the other hand, specialized image CDNs don’t solve the problems associated with image management, particularly within organizations.

With that in mind, I propose solving these problems for good by putting together image management and optimization stack using ImageEngine and Cloudinary. Instead of being a comparison between these two tools, this article describes the benefits of using them to complement each other.

Features and Asset Management Capabilities

As a DAM, Cloudinary provides you with a visual interface to store, manage, and edit your image and video assets. In that way, it’s not much different from any other professional image managing software such as Adobe Bridge, except that it’s an online, browser-based service.

Using the Media Library, you can upload, delete, and organize images in folders, for example. The visual image editor allows you to make advanced transformations and image touch-ups and see the results instantaneously using tools like sliders, dropdowns, etc. You can even chain transformations together for multi-layered effects.

Cloudinary also allows you to manipulate images and videos this way using their URL-based API.

Cloudinary has additional auxiliary features that make asset management easier (especially in organizations), such as backups, role-based multi-user admin, and feature extensions via third-party integrations and add-ons.

This is something most image CDNs don’t provide. Instead, they allow you to access and transform images using URL manipulation. Transformations are usually made using string-based parameters or directives. A serverless, headless DAM, if you will.

However, the advantage of using a dedicated image CDN like ImageEngine, is that it can usually provide enhanced asset optimization. ImageEngine, for example, is an intelligent image CDN that uses WURFL device detection to finely read the context an image is accessed from (device model, PPI, OS, browser, resolution, etc.) and then chooses the optimal image for that configuration.

This frees up website owners from having to do any additional optimization. This business logic is also built-in to all of their global PoP servers, and ImageEngine specifically delivers cache-hit ratios close to 100%. The following performance section will illustrate the difference this can make in practice.

Check out the key differences between ImageEngine and Cloudinary. And, for a deeper insight, see the comparison with other similar CDNs, like imgix and Cloudflare

Performance

Just to cover our bases and prove that this is an effective asset management and optimization stack, I’m also going to affirm it using a Lighthouse performance audit. Here is a quick summary of the results:

For this test, I built a web page with a tonne of images with overly large file sizes. In this first Lighthouse audit, I didn’t apply any optimization to the images. Here’s the result:

As you can see, we had some major problems when it came to the loading time of our assets. Overall, the page took more than 10 seconds to load. One of Google’s crucial user-centric performance metrics, LCP, scored a miserable 7.5s. Lighthouse suggested that some of the main problems encountered were the asset file size, inefficient cache policies, using non-optimal image formats, and improperly sized images.

Both Cloudinary and ImageEngine are supposed to address all of these factors with their auto image optimization. In the next audit, I used the same page and content but served my images via Cloudinary:

As you can see, there is improvement in most factors. FCP is now in the green, and both the Speed index and LCP times have almost halved. Even TTI and CLS improved slightly. That being said, it’s still nowhere near optimal, and we’re still falling short of the all-important 3-second loading time ceiling.

So, finally, let’s do another Lighthouse audit – this time using ImageEngine on top of Cloudinary. Here are the results:

With ImageEngine, I finally scored in the green with 95. All the metrics that have to do with the sheer speed at which image content loads improved. The Speed Index and LCP, which is the most important, improved dramatically. CLS scored worse, but this typically varies from test to test.

You can find another and more extensive breakdown of the performance and pricing comparison here.

Transformations, Bandwidth Utilization, and Cost

Cloudinary’s pricing plans work on a credit-based system. Starting with the free account, you get 25 credits/month. Each credit can be used for 1,000 transformations, 1 GB of storage, or 1 GB of net viewing bandwidth. The other two packages cost $99 for 225 credits and $249 for 600 credits, respectively.

You should plan to generate a minimum of 5 transformations per image. In effect, that limits you to around 200 images with the free plan, excluding whatever manual transformations you make.

ImageEngine’s Basic plan costs $49 and provides you with 100 GB of Smart Bytes. Smart Bytes are based on optimized image content and translate to roughly 400-500 GB of raw images.

So, with Cloudinary, you have to compromise between bandwidth and storage usage as well as the number of transformations you can make. Transformations for Cloudinary are counted as they are dynamically generated on-demand.

However, if you use ImageEngine for optimization, you can switch off Cloudinary’s auto-optimization. When a new image variant is needed, it will be generated and delivered via ImageEngine. Considering variant count isn’t limited by ImageEngine, this will drastically cut down on the number of credits you’ll need to spend on transformations.

Effectively, that means you could use the bulk of your Cloudinary credits purely for storage and specific transformations. For example, advanced cropping, applying effects, or color adjustments. These are, after all, the main functions of a DAM.

With this setup, ImageEngine’s Basic plan and Cloudinary’s free plan should be adequate for most websites, saving around $50 a month.

How to Implement Cloudinary with ImageEngine

Signing up for Both Services

As it will house all of your image assets, the logical place to start would be to sign up with Cloudinary.

Create a (free) account, and make sure to take note of your “cloud name” during the setup wizard. This will be the name of your designated storage location on the Cloudinary platform and is usually a garbled string like di2zgnxh0 by default. However, you can change this to something more meaningful.

Once you’ve signed up, you can start uploading your image assets and creating different versions/transformations of them. Setting up Cloudinary integration on a CMS, like WordPress, is usually straightforward. Just indicate the CMS you’ll be using, copy the API key, install the plugin, and activate it.

Next, sign up for a free trial with ImageEngine. There will also be a short setup wizard during which you will:

  1. Provide ImageEngine with the website where your images will be delivered.
  2. Supply your image origin (in this case, your Cloudinary web folder). For now, you can only add the Cloudinary, e.g., res.cloudinary.com.
  3. Get your ImageEngine image-serving domain, e.g., {randomstring}.cdn.imgeng.in

When in your ImageEngine dashboard, you’ll see this domain listed under “Engines” as well as an entry for Cloudinary under “Origins.” Edit the latter and under “Advanced,” add your Cloudinary folder to the “PATH” field.

That’s it, you should now be able to store and manage images via Cloudinary and serve them via the ImageEngine CDN.

Dynamically Loading Specific Image Variants

Let’s take a look at a use case for loading different transformations of individual images on your site. This example will showcase how you can use Cloudinary’s advanced image editing tools to transform images while still reaping the optimization rewards of using ImageEngine as your image CDN.

A popular practice today is to use rounded images for team, client, or profile portraits. Using Cloudinary, you can load this transformation using the following URL:

https://res.cloudinary.com/myimages/image/upload/w_400,h_400,c_crop,g_face,r_max/w_200/profile.jpg

This will resize the image to 400 by 400px, focus on the face, and apply the maximum amount of radial cropping around it – to a width of 200px.

The same image can then be accessed via your ImageEngine delivery engine simply by swapping out the domain:

https://images.myimageengine.com.imgeng.in/image/upload/w_400,h_400,c_crop,g_face,r_max/w_200/profile.jpg

NOTE: I added my Cloudinary folder designation (“myimages”) as the path to my image origin. With that config, I don’t need to include it every time I use the image URL.

For example, you can set up the origin like this:

And, then under advanced:

If I specifically wanted to load the profile picture in WebP format (for transparency support, for example), I could add the ImageEngine directive f_webp:

https://images.myimageengine.com.imgeng.in/image/upload/w_400,h_400,c_crop,g_face,r_max/w_200/?imgeng=/f_webp/profile.jpg

ImageEngine and Cloudinary – The Wrap Up

Both ImageEngine and Cloudinary are superb platforms that can make managing image and video assets easier and improve your website maintenance. However, both services have their specialty in which they outperform each other.

For ImageEngine, it’s delivering blisteringly fast image loading times in next-gen formats and with a minimal loss of visual quality.

For Cloudinary, it’s providing a visual interface to organize, store, and edit your image and video assets.

As a further incentive, letting each of these services handle what they’re best at can lead to lowering your long-term operating costs.

 

[– This is a sponsored post on behalf of ImageEngine –]

Source

The post Start Using a Smart DAM and Image Optimization Stack first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Après avoir mis SAP HANA au cœur du SI financier de SCOR, SAP annonce que son client a finalisé avec succès sa roadmap finance. Annoncée en 2015, cette dernière permet aux différents métiers de la finance de SCOR de répondre sereinement aux objectifs des années à venir. La raison d’être du projet : être au service des métiers pour soutenir l’excellence opérationnelle du domaine finance.

Quatrième réassureur mondial, SCOR offre à ses clients une gamme innovante et diversifiée de solutions et de services pour le contrôle et la gestion des risques via une assise financière solide. Fidèle à sa devise « l’Art et la Science du Risque », le Groupe met son expertise reconnue au sein du secteur et ses solutions financières de pointe au service du bien-être et de la résilience des populations.

Répondre à de nombreux enjeux business et numérique pour évoluer technologiquement

SCOR concrétise sa roadmap 2015-2020 avec la conversion vers S/4HANA opérée en Juillet 2020, point d’orgue d’une ambition métier supportée par SAP HANA visant à mettre en place une plateforme financière unique et intégrée pour l’ensemble des besoins de la Finance.

Ce plan sur 5 ans a permis la mise en place des axes suivants :

  • Le passage des portfolio Analytics (SAP BW) et EPM (SAP BFC) sur une instance SAP HANA unique
  • La migration du General Ledger (ECC) sur S/4HANA;
  • La création et le développement de la Reporting Factory, s’appuyant sur un catalogue analytique en temps réel et réconcilié « by design » par une consolidation très précise grâce à 3 outils SAP intégrés :
    • Analysis For Office (AO) pour l’analyse et la manipulation des données
    • SAP Analysis Cloud (SAC) pour le dashborading
    • Disclosure Management (DM) pour le reporting statique
  • La digitalisation et la robotisation des processus Finance au sein du Groupe

Un déploiement prenant en considération tous les paramètres, coûts, délais et qualité grâce à l’expertise consolidée métier, projets et systèmes du SAP Competency Center de SCOR dirigé par François Bossard, qui s’est vu être complétée par le déploiement sur une instance unique de la gestion de la trésorerie (SAP TRM), de la communication bancaire (SAP BCM), de la gestion budgétaire (SAP eBPC) et de la sécurisation du cycle de développement (Solution Manager).

SCOR est désormais doté d’un avantage concurrentiel indéniable pour les 3 prochaines années dans le domaine de la Finance en termes d’innovations technologiques. Sa plateforme est complètement intégrée et dotée d’interfaces répondant en temps réel voire en streaming, un niveau d’intégration que de nombreux acteurs commencent tout juste à entrevoir. Ces avancées sont dues à un concept fonctionnel clé : la réconciliation « by design » de l’ensemble des domaines de la finance au sein d’une plateforme unifiée.

« SCOR posait il y a 10 ans les bases d’une vision rationnalisée de son système d’information financier en migrant l’ensemble de ses comptabilités dans SAP. Ces cinq dernières années, il nous paraissait naturel de faire fructifier cet acquis via une roadmap de développement ambitieuse, associant enrichissements fonctionnels et innovations technologiques pour en tirer tous les bénéfices, optimisant nos processus financiers et nos capacités analytiques. Grâce à ces acquis et à une migration fluide vers S/4HANA réalisée en quelques mois, nous pouvons compter sur une plateforme financière performante qui est en mesure d’encaisser les impacts des prochaines échéances d’évolution règlementaire IFRS9 et IFSR17 », précise Marc Philippe, Directeur des Systèmes d’Information du Groupe SCOR.

Une implémentation réussie pour aller plus loin dans l’excellence opérationnelle

Déployée en juillet 2020, SAP S/4HANA, montre déjà de nombreux bénéfices : des économies sur de nombreux projets, des gains de temps pour mieux redéployer les ressources, la mise en place de process plus intégrés, plus automatisés, plus simples et plus informés pour permettre aux équipes de se concentrer sur leur valeur ajoutée et ainsi libérer du temps aux collaborateurs pour se concentrer sur l’opérationnel. Cette nouvelle étape répond à une logique stratégique sur le moyen long-terme. En effet, elle permet de se rapprocher tactiquement de la roadmap SAP, d’avoir toujours un œil sur l’innovation, d’aller encore plus loin dans l’excellence opérationnelle ou encore de se rapprocher davantage de la réalité comptable tout en abordant de manière plus sereine les challenges normatifs de l’industrie pour les 3 prochaines années.

A l’initiative et à la direction de cette roadmap, y compris la conversion vers S/4HANA venant la conclure, Marc Henry, Head of Finance Projects, Systems, Processes and Controls du Groupe SCOR, précise que « S/4HANA nous permet de construire et développer IFRS9 et IFRS17 sur la nouvelle plateforme sans avoir à faire de migration par la suite. La solution nous permet aussi de développer de nouvelles fonctionnalités clés comme l’ajout de devises, de ledger, de GAAPs et d’aller encore plus loin dans l’intégration du domaine de la finance ».

La solution SAP Analytics Cloud permet de déployer un ensemble de best practices, de capitaliser sur l’ensemble des efforts consentis sur HANA et de s’inscrire comme early-adopter de la roadmap de SAP pour assurer une co-innovation et un partage constant avec toutes les parties prenantes. La solution fournit également au top management des données en temps réel leur permettant d’avoir un avis fiable et factuel sur plusieurs process comme la santé financière de leur division dans le cadre d’un projet ou encore sur le pilotage de KPIs plus globaux. Enfin, SAC permet de rendre les utilisateurs de la solution plus indépendants afin d’être davantage sur l’accompagnement et la certification de la donnée plutôt que sur sa production par les équipes métier.

SAP Business Planning and Consolidation (eBPC) a offert à SCOR la possibilité d’adapter ses plans de planification, de budgétisation, de prévision pour améliorer l’ensemble du processus budgétaire du Groupe. La solution a également permis d’entrevoir des gains additionnels au regard de la roadmap SAP et de son intégration avec d’autres outils déjà existants comme SAP Analytics Cloud Planning. L’objectif : accélérer les cycles budgétaires et de clôture financière, et renforcer l’expérience utilisateur.

« Après le succès de la première implémentation avec SAP, nous souhaitions poursuivre la collaboration. Nous avons pu mettre en place une plate-forme mondiale intégrée, dotée d’une base de données unique disponible en temps réel. SCOR a pu capitaliser sur tout le travail effectué précédemment, avoir un seul point d’accès pour la donnée Finance et rendre certains modules plus flexibles. Nous sommes très fiers d’être une vitrine pour SAP qui nous offre de réels bénéfices opérationnels à court terme », ajoute Marc Henry.

A propos de SAP

La stratégie de SAP vise à aider chaque organisation à fonctionner en “entreprise intelligente”. En tant que leader du marché des logiciels d’application d’entreprise, nous aidons les entreprises de toutes tailles et de tous secteurs à opérer au mieux : 77 % des transactions commerciales mondiales entrent en contact avec un système SAP®. Nos technologies de Machine Learning, d’Internet des objets (IoT) et d’analytique avancées aident nos clients à transformer leurs activités en “entreprises intelligentes”. SAP permet aux personnes et aux organisations d’avoir une vision approfondie de leur business et favorise la collaboration afin qu’elles puissent garder une longueur d’avance sur leurs concurrents. Nous simplifions la technologie afin que les entreprises puissent utiliser nos logiciels comme elles le souhaitent – sans interruption. Notre suite d’applications et de services de bout en bout permet aux clients privés et publics de 25 secteurs d’activité dans le monde de fonctionner de manière rentable, de s’adapter en permanence et de faire la différence. Avec son réseau mondial de clients, partenaires, employés et leaders d’opinion, SAP aide le monde à mieux fonctionner et à améliorer la vie de chacun. Pour plus d’informations, visitez le site www.sap.com.

 

Contacts presse :

Daniel MARGATO, Directeur Communication : 06 64 25 38 08 – daniel.margato@sap.com
Pauline BARRIERE : 06.13.73.93.11 – presse-sap@publicisconsultants.com
SAP Press Room; press@sap.com

The post SAP conclut avec succès la roadmap finance de SCOR appeared first on SAP France News.

Source de l’article sur sap.com

SAP Manufacturing Execution s’invite sur les lignes d’assemblage du géant Airbus. Une solution qui permet de faciliter le travail des opérateurs, tout en améliorant les performances des lignes de production.

Airbus est un acteur bien connu dans le monde de l’aviation civile, avec plus de 12.600 avions livrés à ses clients. C’est aussi un acteur majeur dans le monde des hélicoptères (plus de 12.000 appareils assemblés), de la défense et de l’espace.

Avant la crise sanitaire, les livraisons étaient en forte croissance (+37 % sur 5 ans) et le carnet de commandes promettait du travail aux usines d’Airbus pour les 8,5 années à venir. L’arrivée du Coronavirus et son impact massif sur les déplacements par avion ont provoqué une chute massive des activités de la société. Si l’entreprise travaille déjà sur les avions de demain, avec par exemple des modèles à l’impact carbone réduit de 25 %, elle doit aussi optimiser sa production.

« Dans ce contexte d’adaptation rapide au changement, l’introduction d’un système de pilotage de la production (MES, pour Manufacturing Execution System) va être un élément clé de notre transformation », explique Alexandre Sizaret, Head of Production System Efficiency & Manufacturing Digitalisation, Airbus. Le projet a été lancé fin 2016, mais l’arrivée de la crise lui a donné un nouvel élan.

SAP et Sopra Steria à la manœuvre

SAP Manufacturing Execution (SAP ME) est aligné avec les principes du système d’information d’Airbus, AOS (Airbus Operating System) : standardisation des processus, management visuel, suivi et amélioration continus. Il vient naturellement compléter l’ERP et le PLM au sein des usines. Enfin, son interface utilisateur simple est adaptée aux opérateurs travaillant sur des chaînes de production.

Airbus veut répondre à plusieurs challenges au travers de SAP ME : l’organisation de la production (organisation des effectifs, allocation des ressources…) ; le pilotage de l’activité (lignes de production, séquences à exécuter et avancement des séquences) ; l’interfaçage avec l’opérateur (au travers de tablettes, voire de smartphones) ; le support (détection des problèmes et alerte du manager, de la maintenance ou d’autres fonctions support).

Un core model pour toutes les usines Airbus

Pour son projet, Airbus a opté pour une approche core model associant une équipe pluridisciplinaire et multifonctionnelle. « Nous avons mis tout le monde autour de la table – opérateurs, management, intervenants métiers et techniques – afin de mettre au point une unique solution adaptée à toutes les usines, dans tous les pays », explique Alexandre Sizaret.

Après les phases de cadrage et de maquettage, la construction de la solution a été réalisée, avec une mise en place des différentes fonctionnalités de manière incrémentale. Une première version a été déployée sur des usines pilotes volontaires. L’organisation a souhaité ensuite prendre un peu de recul pour identifier les sources d’irritation. Dans le même temps, une analyse a été menée sur l’utilisation du MES et l’adhésion aux processus proposés. « Nous avons voulu vérifier que l’outil répondait bien aux besoins exprimés et qu’il était correctement utilisé. » Une importante phase de consolidation avant le déploiement à grande échelle de SAP ME.

La solution est aujourd’hui présente sur l’ensemble des sites européens du groupe : 10 usines et 2 lignes d’assemblage final. Soit un total de 279 stations de production. 7700 personnes ont été formées, dont 5500 sont des utilisateurs réguliers de SAP Manufacturing Execution. Plus de 2,4 millions d’opérations ont été effectuées sur SAP ME au cours de l’année 2020. Pour tenir cette charge, le système est réparti sur quatre sites, selon un même core model.

Au sein des sites de production, des écrans géants ont été déployés, secondés par des tablettes, smartphones et équipements IoT (scanners, lecteurs de badges…). SAP ME interagit directement avec l’ERP SAP, que ce soit pour la qualité, la conformité, la gestion des aléas, la maintenance ou encore la logistique. Il interagit aussi avec le PLM. Il est ainsi possible de visualiser pièces et maquettes en 3D et de disposer d’instructions de montage détaillées.

Plus d’efficacité au quotidien

SAP Manufacturing Execution est vu par Airbus comme un facilitateur du travail des opérateurs. Mais aussi comme un élément clé pour mesurer, soutenir et améliorer les performances des lignes de production. « Parmi les bénéfices les plus visibles, nous constatons une réduction des temps de production, des déplacements des opérateurs, de la documentation de production et plus généralement du recours aux documents papier, constate Alexandre Sizaret. Un autre bénéfice, moins facilement mesurable, est l’amélioration des performances des lignes de production, au travers d’un meilleur pilotage et d’une meilleure réactivité face aux aléas. »

Le MES est un élément clé pour épauler la production au quotidien, mais aussi un socle qui va aider  à la démocratisation de nouvelles technologies, comme les jumeaux numériques ou la maintenance prédictive. « Nous souhaitons aller vers l’opérateur 4.0 en le connectant à la bonne information, au bon moment, au travers de technologies comme la réalité virtuelle, la réalité augmentée ou l’interaction vocale avec les solutions numériques. Nous voulons également nous servir de la puissance de la data pour améliorer les processus, détecter les bonnes pratiques et prévenir les aléas. C’est un changement de paradigme qui nous permettra de basculer de la réaction à l’anticipation. »

 

 

The post Airbus place SAP Manufacturing Execution au cœur de sa production appeared first on SAP France News.

Source de l’article sur sap.com

With Flutter 2.0, you can build apps on mobile, web and desktop.  Graphics performance is fantastic and the development tools are great. The main barrier to learning Flutter is an understanding of state management.  This tutorial covers the Provider package, one of the most popular and easiest tools to manage state in Flutter.

A video version of this tutorial is available. Code and image files are on GitHub. 

Source de l’article sur DZONE

This week, in a move like something from a particularly eventful episode of The Office, popular project management app company Basecamp banned political and societal discussion in the company’s internal communications.

In a post that has been revised for “clarification,” the company’s co-founder Jason Fried listed six rules for employees: No societal or political discussions at work; No more ‘paternalistic’ benefits; No more committees; No more lingering on past decisions; No more 360 reviews; No forgetting what we do here.

A follow-up post from Heinemeier Hansson notes that Basecamp will still permit discussion of issues deemed central to its business like anti-trust and privacy; certain civil liberties are to be championed, while others, like racism and climate change, are not.

On the surface, it seems reasonable, Fried and co-founder David Heinemeier Hansson would like you to believe that it is. After all, people are paid to work, not soapbox, right?

So why, if they’re the ones being protected, are Basecamp’s employees angry about the move?

It turns out, multiple sources from inside Basecamp are reporting that the ‘political’ and ‘societal’ issues referred to in Fried’s public memo were, in fact, frank and open conversations about Basecamp itself.

As reported by The Verge, way back in 2009, a list of ‘funny’ customer names began circulating at the company — hardly respectful, potentially racist, and certainly inappropriate. The misalignment between co-founders and staff occurred when staff members attempted to hold discrete conversations about this and numerous other diversity and inclusivity failings at the company. Fried’s move appears to be a direct attempt to halt criticism of the status quo at Basecamp.

Basecamp itself is a highly political organization: The co-founders have written several books advocating certain societal change; they even provided a campaign headquarters and substantial donation for a candidate for Chicago mayor. Both co-founders are highly active on social media, using their business positions to elevate their personal views.

The truth is that the solo entrepreneur is an almost mythical beast. Successful startups require contributions from a range of skills and experience beyond any one individual. Jason Fried may be the frontman, strutting up and down the stage in spandex pants, with David Heinemeier Hansson playing lead guitar with his teeth, but behind them, there’s a drummer keeping time, and behind them all, there’s a crew of roadies without whom none of the equipment will arrive, let alone sound good.

Basecamp’s founders argue that the company has a mission, and that mission is to create apps that streamline the workplace. But how can you develop a product that is inclusive if staff cannot discuss what inclusive means? The answer is, you can’t.

Discussing racial bias in advertising or the impact of company wastage, climate change, or gender pay gaps in HR meetings are all political and societal and lead to a healthier, more united company.

As designers, we often say that you cannot not communicate; every decision is a design decision; there is no such thing as “adesign.” Likewise, choosing to be apolitical is itself a political choice. The only way it is feasible to run a company like this is to treat employees like robots (in the word’s original sense).

If employees feel the need to discuss exclusionary policies in the workplace, do the company founders, who benefit from those policies (or they would not be in place), have a moral or legal right to restrict those discussions?

Although it is the first point in Fried’s list that has drawn most ire, it is the fourth item on the list that is most telling: “No more lingering or dwelling on past decisions.” Like a parent answering, “Because I said so,” Fried’s attitude to his staff is laid bare in one statement.

It turns out two wealthy white men would rather their employees not try to change the world or even their workplace.

When Coinbase announced a similar move last year, it lost 5% of its staff. If Basecamp suffered the same loss, it would amount to three people. Hardly a disaster. The question for the founders — who, judging by the number of follow-ups and clarifications they’ve published, are aware the ice they’re on is perilously thin — is whether this kind of controversy creates irreparable reputational damage.

 

Featured image via Pexels.

Source

The post Poll: Is Basecamp Right To Shutdown Politics At Work? first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

 

“Cette initiative est née de notre profonde conviction que les entreprises, quelle que soit l’industrie, peuvent tirer parti du partage d’experiences.”

 

Il est ingénieur de formation, issu de Polytech’Nice-Sophia. Elle est diplômée en mathématiques appliquées et a validé une thèse en théorie de l’optimisation. Ils mènent leur carrière dans de grandes entreprises technologiques internationales. Et dirigent le Industrial Council of Artificial Intelligence Research (ICAIR). Olena Kushakovska (SAP) et Jean-Michel Sauvage (Amadeus) pilotent ensemble ICAIR depuis 2020. Ils ont une ambition claire pour l’organisation : accélérer le travail sur l’IA en mettant l’accent sur le développement durable. A l’occasion du 1er SAP Sustainability Summit, la directrice générale de SAP Labs France et le directeur R&D pour les solutions Revenue Management d’Amadeus se sont prêtés au jeu de l’interview croisée pour nous donner leur vision de l’IA durable.

  1. Quels sont les principaux avantages de l’IA dans votre secteur ?

Olena Kushakovska : Chez SAP, nous permettons à nos clients de devenir des entreprises intelligentes, d’utiliser les données pour bâtir des entreprises plus performantes, plus résilientes, plus rentables, plus agiles et plus durables. Nous mettons tout en œuvre pour que la réalité de l’entreprise intelligente soit pleinement intégrée avec les fonctionnalités d’Intelligence Artificielle.

Jean-Michel Sauvage : L’IA est une technologie majeure qui offre la meilleure utilisation possible des données et fournit un service plus performant, plus efficace, prévisible, personnalisé et à plus forte valeur ajoutée sur l’ensemble de la chaîne.

  1. Quand, pourquoi et comment vous êtes-vous engagé avec ICAIR ?

Olena : Amadeus et SAP sont membres fondateurs de ICAIR. La décision d’aller de l’avant a été prise entre Gilles Floyrac et moi il y a environ 2 ans. Gilles était le président d’Amadeus Nice à l’époque et la région Côte d’Azur venait de décrocher le label 3IA. Son idée était que les entreprises conduisent l’agenda industriel parallèlement au monde universitaire. Plus de 60 entreprises de la zone ont soutenu le projet 3IA. Nous avons contacté les entreprises que nous pensions intéressées (ex. IBM, ARM, NXP, Thales Alenia Space, Orange) et le “Club” est né. La réunion de mise en place entre les responsables de site pour sceller le club s’est tenue chez Amadeus puis la 1ère session de travail a eu lieu chez SAP en juin 2019.

Jean-Michel : Les techniques d’IA n’étant pas spécifiques à la résolution d’un problème, cette initiative est motivée par la forte conviction que les entreprises, même lorsqu’elles travaillent dans différents secteurs, peuvent bénéficier de l’apprentissage et du partage d’expériences sur les défis auxquels elles sont confrontées sur des problèmes techniques similaires.

« Nous nous efforçons d’utiliser l’IA de manière durable et d’atteindre les objectifs de durabilité de l’ONU au sein du secteur. » Olena KUSHAKOVSKA

  1. Qu’est-ce qui est spécial avec ICAIR ?

Jean-Michel : ICAIR se concentre sur la recherche appliquée, et à ce titre, est un moyen de lier la recherche fondamentale et les résultats académiques à leur application dans un environnement industriel.

Olena : ICAIR est à taille humaine, agile, diversifié, industriel, pratico-pratique, avec des cas d’utilisation réels. Des entreprises leaders dans le monde composent le conseil. Pour autant, il y a un faible niveau d’administration, une faible bureaucratie, mais beaucoup de bonne volonté et un grand écosystème. La bienveillance et le soutien sont sans faille, et l’implication continue !

  1. Pourquoi avoir choisi l’IA durable comme thème du programme ICAIR ? 

Jean-Michel : L’IA s’accompagne de défis, tant en termes de technologie, de puissance de calcul, que de biais d’apprentissage, ou de décisions humainement explicables. Nous pensons que l’IA peut être conçue et utilisée de manière durable et apporter de la valeur d’une manière qui respecte la planète et les communautés.

Olena : On questionne souvent l’IA en termes écologique ou éthique. Nous voulons envisager la durabilité dans un contexte beaucoup plus large, celui des objectifs de durabilité des Nations Unies. La durabilité s’entend comme la capacité de notre génération à atteindre ses objectifs, sans compromettre la capacité de la génération future à atteindre les leurs. Et ce, par rapport à toutes les ressources : naturelles, humaines, économiques. Nos efforts se concentrent sur l’IA durable pour atteindre les objectifs des Nations Unies au sein de l’industrie.

  1. Quel est le champ d’application d’ICAIR ?

Jean-Michel : ICAIR a été pensé de telle sorte que des chercheurs d’entreprises de Sophia Antipolis hébergeant des laboratoires de recherche travaillant dans différents contextes industriels, et sur différents sujets, puissent discuter et échanger leurs points de vue sur des questions communes liées à l’utilisation de l’IA dans leurs industries respectives.

Olena : Notre objectif est de travailler sur des projets communs et d’échanger sur les meilleures pratiques en matière d’apprentissage automatique et d’intelligence artificielle. Cela permettra de faire progresser les recherches en matière d’IA. Enfin, nous comptons utiliser notre puissance commune pour promouvoir la Côte d’Azur en tant que berceau de l’IA durable.

  1. Qu’est-ce qui vous motive personnellement ?

Olena : Ma volonté est de promouvoir notre grande collaboration, dans l’écosystème incroyablement riche sur le plan technologique et intellectuel de la Côte d’Azur, en montrant à nos maisons-mères que cet endroit est vraiment exceptionnel, et y développer une véritable communauté autour de l’IA. Je veux aussi que la France et l’Europe obtiennent la place qu’elles méritent dans le monde en ce qui concerne l’IA, en veillant à ce que l’IA soit utilisée à bon escient, que la Côte d’Azur soit identifiée comme l’endroit idéal pour l’IA durable, et enfin que les gens ne craignent plus l’IA.

Jean-Michel : Je suis un passionné d’aviation et d’informatique. Heureusement pour moi, les voyages et l’aviation en particulier sont des domaines pleins de défis combinatoires, très complexes à résoudre et à optimiser. Chez Amadeus, nous sommes déjà pleinement engagés dans le déploiement de l’IA. Nous sommes également engagés depuis de nombreuses années dans le développement de systèmes ouverts et interopérables, car nous pensons que c’est en combinant les meilleurs services « atomiques » que nous apporterons une plus grande valeur ajoutée à nos clients, à l’industrie du voyage et aux voyageurs. Mais nous savons aussi que, comme toute évolution de ce genre, elle a besoin de temps, d’expérience, de tests et d’apprentissage. L’IA s’accompagne de nombreuses questions et défis sans réponse. Avec ICAIR, nous faisons partie de l’apprentissage, de l’enseignement, et nous voulons y répondre de la bonne manière.

 

 

 

Les membres sont des entreprises internationales avec des sites sur la Côte d’Azur et menant des recherches en IA :

  • Accenture,
  • ACRI-ST,
  • AIRFRANCE KLM,
  • Amadeus,
  • ARM,
  • Hewlett Packard Enterprise,
  • IBM,
  • NXP Semiconductors,
  • Orange,
  • Renault Software Labs,
  • SAP Labs France,
  • STMicroelectronics,
  • Thales Alenia Space.

Le programme touche l’ensemble de l’écosystème du label 3IA de la Côte d’Azur :

  • Académiques : Institut 3IA, UCA (Université Côte d’Azur), Ecoles, Centres de Recherche
  • Secteurs d’activité : ICAIR, ClusterIA
  • Institutions : MIA, OTESIA, EuropIA
  • Associations : Telecom Valley, Pôle SCS

Des initiatives liées à l’IA lancées par ces acteurs soutiennent la dynamique territoriale de la Côte d’Azur. Elles se rapportent aux objectifs de développement durable des Nations unies et constituent le champ d’application du programme « IA durable ».

En savoir plus : ICAIR – Industrial Council of Artificial Intelligence Research

The post SAP et Amadeus pilotent le conseil industriel pour la recherche en intelligence artificielle appeared first on SAP France News.

Source de l’article sur sap.com

At the dawn of the web-era, there was much focus on how environmentally friendly websites were: we’d chop down fewer trees, ship fewer products, and travel less for business.

And because the web was small, any negative impact it had was relatively small. But the Internet’s no longer small, and neither is the impact it has on the environment. The average website uses 211,000g of CO2 per year, watching a video online outputs an estimated 0.2g of CO2 per second, and a single email can cost 50g of CO2.

In the next four years, the tech industry as a whole may use up to 20% of the world’s electricity and be responsible for 5.5% of global CO2 emissions.

The good news is that because websites are viewed many times, even small improvements can multiply into real change.

1. Reduce Energy Consumption

Through electricity use, the Internet generates around the same CO2 as most major countries. That carbon comes from two sources: the devices we use to access the Internet and the servers that host our data.

Computers heat up, and when they heat up, they slow down. Servers are especially vulnerable and use extraordinary amounts of energy to keep cool and functional, which is why Microsoft keeps throwing servers into the sea.

Make It Faster

The faster your site, the less data is used to serve it, and the less carbon it’s outputting; it’s that simple.

Reduce the Number of Resources Used

Everything you load on your site has an impact. You might think that a tiny PNG is too small to really impact your carbon footprint, but over thousands of page loads, its impact is multiplied. Anything you can do to reduce the number of actual files requested will reduce your carbon output. You can use sites like Ecograder to estimate your own site’s CO2 output.

Optimize Images

If there’s one thing you can do to reduce the size of your site, the amount of data that needs to be sent over the Internet to serve your site, and the resulting speed, it’s optimizing your images.

Nothing reduces a site’s footprint like optimizing images. It’s easy and free to reduce the size of JPGs and PNGs with a service like TinyPNG. Offer WebP to any browser that will accept them; it will boost your Lighthouse score and improve your CO2 usage.

Lazy Load Images

Lazy loading images means images are loaded as they are required; images at the top of a page always load, images further down only load when the user scrolls to them; if the user doesn’t scroll to the bottom of the page, they don’t load, saving you CO2.

Reduce The Amount Of JavaScript You Use

Yes, JavaScript is awesome. Yes, it can be hugely beneficial to UX. And yes, it munches on energy like it’s candy.

When a web page loads, it’s done, the total cost is in. If JavaScript keeps running in the background, redrawing the screen based on user interaction — as is the case with a parallax site — the web page keeps using up energy on the device.

Choose a Sustainable Hosting Company

You can reduce the power needs of a site, but you can’t eliminate them. One simple step is to opt for a hosting company that gets its electricity from sustainable sources such as wind power or solar.

Low←Tech Magazine is powered by a server that runs on solar energy and carries a warning that it may go offline. But it’s possible to host both reliably and sustainably. Many web hosts outsource their actual server management, so they have no control over how those servers are powered, but there are plenty of exceptions that guarantee green web hosting. Google Cloud aims to be the cleanest in the cloud industry. For green web hosting, I always recommend the all-round superb Kualo.

2. Be Inclusive

One of the biggest issues with the EV (Electric Vehicle) movement is that we’re replacing cars earlier than we normally would in a rush to move to “clean” driving.

A new EV certainly outputs less than a gas-powered vehicle when driven the same distance. Combine increased use — because owners think they are driving cleanly — with the fact that a new EV has to be manufactured, the minerals for batteries have to be mined (in horrific conditions), and it then needs to be shipped to you, and EVs are not as friendly as they appear — so go ahead, buy that vintage Porsche it’s probably better for the environment than a Tesla.

Support Legacy Devices

The same issue that applies to cars applies to devices. Every time we rush ahead to support the latest iPhone, we leave older generations behind. A device can and should last longer than two years.

This is not to say that you shouldn’t embrace modern web standards. Technologies like CSS Grid are excellent at reducing markup size and speeding up sites. CSS Grid has been well supported for over four years, and even “legacy” devices can handle it. If you can keep a phone for an extra six months, the environmental cost of that phone is reduced by 20%.

3. Help Users Make Good Choices

More and more people are trying to make good choices. We’re eating a healthier, balanced diet. We’re recycling clothes. We’re traveling by bike, and on foot, instead of by car. People want to do the right thing, and they seek out companies that aid them.

Improve Navigation

Anything that you can do to make your content more findable will mean fewer page loads and therefore consume fewer resources.

By improving your information architecture, improving your search accuracy, and improving on-page signposts like bread crumbs and link text, you help users find content faster.

Feelgood Feedback

When the environmental impact of a user’s actions are quantifiable, let them know. Users who care will appreciate it, and users who don’t will ignore it.

Raileurope.com adds a note to any quotation letting you know how much carbon you’ve saved by traveling by train instead of flying.

Don’t Remove the Shipping Rate

Many ecommerce sites offer free shipping, especially above a certain order value; it’s a good way to encourage higher sales. But absorbing the shipping cost implies that there is no shipping. By highlighting the shipping costs, even if they’re not passed on to the customer, you remind them that there is an environmental cost and a financial cost.

You can absorb the shipping rate without implying there is no cost by adding the shipping and then explicitly deducting it as a discount.

Sustainable Web Design Is Good For Business

The fundamentals of good web design are the fundamentals of sustainable web design.

Make it fast and usable, and you’ll also be making it energy efficient. Make it inclusive, and you’ll help the industry slow the ever-growing tendency to consume. Make it transparent, and you’ll help your users make good choices of their own. All of these things are not only good for the environment, but they also result in improved UX and SEO.

 

Featured image via Pexels.

Source

The post 3 Effective Ways To Improve Your Site’s Carbon Footprint first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

L’année dernière, alors que le monde traversait une période de disruption majeure, beaucoup d’entreprises ont dû revoir leurs priorités et s’adapter à cette nouvelle réalité. Dans un contexte aussi instable et incertain, il était essentiel pour elles de disposer de processus numériques solides, capables de faire face aux exigences du télétravail, des changements de comportement des consommateurs et d’un environnement macro-économique plus difficile.

On a fait appel aux organisations de gestion de la trésorerie et des risques pour identifier les nouvelles sources de liquidité, apporter des insights clés sur la trésorerie et atténuer les risques financiers. Ces organisations ont elles-mêmes pu obtenir une meilleure visibilité sur l’état de leurs liquidités, prendre de nouvelles mesures pour combler les manques de trésorerie et fixer intelligemment de nouvelles priorités.

Les équipes de gestion de la trésorerie ont vite abandonné leurs opérations de routine pour se consacrer à la gestion de la crise. Si quelques entreprises étaient bien préparées et capables de réagir vite, grâce à leurs investissements dans des systèmes intégrés de gestion de la trésorerie, pour d’autres, la crise a été un signal d’alarme qui les a forcées à accélérer leur transformation pour améliorer leur collaboration et l’automatisation de leurs processus.

Aujourd’hui, alors qu’on espère voir la vague de la crise reculer, les équipes de gestion de la trésorerie doivent prendre le temps de réfléchir aux initiatives prioritaires à lancer afin de continuer à accélérer leur transformation.

Quels outils doivent-elles adopter pour renforcer leur collaboration et mettre en place un processus complet de gestion de l’actif circulant, des créances en cours aux encaissements ? Comment peuvent-elles obtenir une visibilité en temps réel sur la trésorerie, sans continuellement rechercher manuellement les mêmes informations ? Comment peuvent-elles mettre en œuvre un traitement direct au moyen des systèmes et réseaux adéquats ? Comment peuvent-elles mieux automatiser leur processus de gestion des commandes, en exploitant les nouvelles technologies telles que le Machine Learning ? Doivent-elles modifier leur stratégie de risque lié aux opérations de change pour mieux se préparer à la prochaine crise ? Comment peuvent-elles repenser le financement de leur chaîne logistique ?

Gestion des risques et de la trésorerie

Pour vous apporter des insights sur certaines de ces questions, nous avons créé le « Treasury and Risk Show », dans le cadre du sommet virtuel SAP Finance and Risk. Nous présenterons les innovations de SAP pour venir en aide à ses clients en ces temps difficiles.

Des experts SAP en gestion de la trésorerie et des risques vous parleront de la stratégie SAP, du portefeuille de produits et des dernières innovations dans ces domaines.

Vous verrez aussi comment Zalando, leader de la vente en ligne, vient de terminer la mise en œuvre de SAP Treasury and Risk Management, en plus de SAP S/4HANA. Ils nous expliqueront comment, en transformant leur gestion de la trésorerie, ils ont pu se préparer à réagir vite à la crise et à accélérer leur croissance.

Nous avons hâte de vous présenter la proposition de valeur de SAP pour vous aider à réellement faire avancer votre gestion de la trésorerie et des risques.

The post Gestion des risques et de la trésorerie : des organisations qui vont de l’avant appeared first on SAP France News.

Source de l’article sur sap.com

Just like a tortoise hides inside its shell and a porcupine’s sharp quills leap to attention when they sense danger, we human beings also put on protective armor when we feel threatened. Risky situations, anxiety from the unknowns, and the danger of being exposed evoke the same emotional response as the fear of being chased by a predator. 

We feel vulnerable. But instead of embracing vulnerability, accepting our fears, and leading with curiosity, we put on a shield of protection. We project confidence even when we are scared, speak with surety even when we are unsure, hide our mistakes with the fear of disapproval and avoid confrontation to save ourselves from the risk of emotional exposure. 

Source de l’article sur DZONE

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com