Articles

Choosing to work for free, pro bono, gratis, without charge is something that most of us find ourselves doing at one time or another. Whether we’re filling a hole in our portfolio, there’s a friend or relative we feel beholden to, or because there’s an opportunity to aid a cause we value.

Recently, I agreed to take on some work, free of charge, for a charity whose goals I share. Because it’s a cause I believe in, I enjoyed the idea of being able to contribute in a more meaningful way than donating money. But my initial goodwill rapidly diminished as the project spiraled out of control, leaving me resenting the time I spent on it.

No one should feel obliged to give away their time for free, but if you do choose to, there are rules you can apply to ensure that everything runs smoothly and you’re left with a positive experience.

1. Be Specific in What You’re Donating

The most obvious problem with working pro bono is that there is no correlation between cost and value.

Budget reins in project ambitions in a regular designer-client relationship; the more you ask for, the more it costs. Everyone encounters clients who want an ecommerce store “just like Amazon,” only to then rapidly downscale their plans when the actual development cost of a site on that scale is made clear.

working pro bono…there is no correlation between cost and value

But when there is no development budget, ambitions quickly escalate. Clients do not necessarily understand the work involved, and if they’re not footing the bill, there’s no incentive to learn.

As the professional, you need to guide them. Set limits on what you’re expecting to donate, and use that to frame what is reasonably achievable.

“I’m donating 40 hours of my time, which normally costs $3000.” Or, “I’m donating my SEO package, which is enough to meet your initial goals as discussed.” They are both perfectly fine.

The purpose is not to highlight your generosity; it’s to establish clear boundaries to prevent scope creep.

2. They’re Not Doing You a Favour

Any client who suggests that their project will be good for your portfolio or gain you “exposure” knows they’re underpaying you. When you hear it from a pro bono client, walk away immediately.

The client needs to understand you are donating your expertise, not because you need to, not because you’re expecting something in return, but because you’re an awesome human being who wants to make the world a little better.

A client who thinks you’re getting something out of the arrangement does not understand your commercial value and will treat you as a novice. Your evidence will become guesses, your decisions will become suggestions, and the client will have little faith in the project outcome.

Clients, whether paying or not, need guidance. If they don’t respect you and believe in your guidance, they will start to cast around for other opinions to the detriment of the project outcome and your relationship.

This brings us neatly on to…

3. Everyone’s an Expert

Q. What’s the difference between an amateur and a professional? A. Professionals get paid.

You’re not getting paid, so in the client’s eyes, you’re now an amateur. Hey, guess what? Their 12-year-old daughter is an amateur too, and her views are now equally valid.

When you’re working pro bono, you can expect a lot of “help.” You’ll find that someone’s niece is planning to major in graphic design…when she graduates high school…in four years. You’ll find that someone’s partner has a hiking blog, read an SEO article, and is happy to “give it a try.” You may even find that the client themselves fancies a career switch to web design and doesn’t think it looks too hard.

Shut that **** down immediately. Smile, be gracious. Explain that, of course, you’re happy for contributions, and then avoid them like the coronavirus.

You’re donating a professional service that you’ve spent years developing, and you’re donating it to a cause that you value. You’re not there to increase someone’s chance of getting into college or to distract someone from their boring day job. If you do want to mentor people, there are places you can do that.

Everyone Actually Is An Expert

The nature of pro bono work is that more often than not, the people involved actually are experts. The simple truth is that people who aren’t experts in something tend to be in low-paying employment and are too busy trying not to be in low-paying employment to donate their time.

Like you, the people volunteering their time are doing so because they can afford to. For example, you may find that the organization’s head of accounts spends Monday–Friday as a tax advisor; the head of outreach is a project manager at a construction firm; the head of safeguarding is a school teacher.

People bring transferable skills to pro bono roles. Be sensitive to the fact that just as you are an expert in your professional context, so may they be. Simply not being an expert in design does not make them an idiot.

4. Do Not Foot the Bill

It’s tempting to simply donate everything to do with the project: the domain name’s going to cost $10? Well, it’s only $10; hosting’s $5/month? Well, it’s not too arduous to set up a small space on your own server.

imparting your experience sets the organization up for future success

However, when you give everything away, the client doesn’t understand the cost or value they’re receiving. As a professional, it’s part of your job to educate the client on the costs of a project like this; imparting your experience sets the organization up for future success.

Be clear at the start of the project that the client will be responsible for all expenses.

If you wish to — and you should not feel obliged — you are always free to make a financial donation equivalent to the expenses.

5. Stick to Office Hours

When you agree to do pro bono design work, the chances are that you know the person or organization you’re doing the work for. There’s almost always a personal connection of some kind, which means that the person or organization doesn’t see you in the professional context that normal clients see.

All good clients will respect the fact that you don’t answer emails on a Sunday morning. Not so the charity client. Not only will the charity client assume that you’re available outside of office hours, they may even think they are doing you a favor by not disturbing you during your regular office hours.

It’s important that you find some downtime outside of work to live your life. If you don’t want your evening out with friends to descend into an impromptu planning meeting (you don’t), set clear boundaries about when and how you’re prepared to work on the project.

Unless you’re self-employed, you can’t donate time when you should be working; what you can do is append pro bono work to your paid employment — do an hour after work, on weekday evenings, for example.

If you are literally doing this in your spare time, then allocate a specific time slot, such as a Saturday afternoon, and stick to it.

7. Stick to the Plan, and the Deadline

It is a universal truth that projects run better when there’s a structured approach. It doesn’t matter if it’s lean, agile, waterfall, or whatever you want to dub it. What matters is that you have a plan that works for you and is suitable for the project goals.

A structured approach, especially one that includes a timeline, will combat most disruptions. On the project I was working on recently, I was preparing for final sign-off when one volunteer announced it was time to “start thinking about what pages we need on the site.” 🤨

Discipline is crucial in pro bono work because different stakeholders will have different levels of commitment; some people will be full-time volunteers, others will be donating an hour per week. What matters is that the project that you are responsible for runs on your schedule.

8. You Have Zero Availability

Non-profits tend to talk to one another. When your friends and family see what you’ve done for Joe’s startup, they will start having ideas of their own. The client you’re completed the project for will have other projects lined up. When you aren’t charging, there’s no shortage of clients.

be prepared to say, “no,” at some point

Before you agree to do any pro bono work at all, be prepared to say “no,” at some point.

The simplest way out is to say you have zero availability: you’re already booked up with paying work, or your boss has let you know she needs you for overtime next month.

Don’t feel bad about it. It’s probably true. There are only so many hours in the day, and even if you do have some time to spare, doesn’t your partner, dog, or social life deserve some attention?

There’s No Profit In Non-Profits

Working for free is not transactional. It probably won’t benefit your portfolio. It definitely won’t lead to paying work. Any skills or experience you acquire probably won’t be transferable. (It might give you the topic for a blog post.)

If the work were meant to benefit you, it would be called personalis bono.

Nevertheless, many of us will find ourselves agreeing to do pro bono work, either out of obligation or idealism. It’s not something to shy away from; changing the world — whether for a group or an individual — is a noble pursuit.

The key is that while you will not profit, neither should you suffer a loss. Volunteering your time, skills, and experience should be a sustainable process. One that you will not come to regret.

 

Featured image via Unsplash.

Source

The post How to Work for Free Without Wrecking Your Career first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

The world of web design is incredibly dynamic. Every year, new trends and opportunities emerge, primarily driven by the arrival of modern technology. 

In recent years, we’ve seen various updates to the web design landscape, such as the arrival of AR and VR solutions for making mixed media. Video content has increased in quality, while the demand for inclusivity and usability has transformed the way that we build everything from websites to apps. 

Yet, for the most part, web design trends have continued to focus on the visual. 

When we hear the word “interface,” we often think of the graphical user interface – the ultimate way to connect users with sites. However, now we have a new, more natural way for customers to interact with their digital tools… The era of voice is here. 

Designing for the Age of Voice

The technology sector has made incredible progress in the development of things like Automated Speech Recognition and Natural Language Understanding. 

Thanks to updates in the way that machines process and understand human language, voice recognition accuracy is now at 90% and above. More than ever before, users can speak to a smart assistant, speaker, or phone-based application, and get the results that they’re looking for without error. 

The simplicity of communicating with technology via voice means that users have adopted this technology at an incredible pace. Half of all searches will be made with voice by the end of this year.

We’re standing on the edge of a fundamental shift in the way that we interact with computers and critical tools. As designers and developers, we need to be ready to embrace this new medium. 

With that in mind, here’s what designers need to think about when designing for voice UI. 

1. Decide How to Experiment with Voice

There are various steps involved in making a website more “conversational.” One of the first steps for any designer or developer is to think about the kind of voice-based interactions they’re going to enable for an app or website. 

For instance, rather than embedding voice technology into a website, you might decide to create a separate Amazon Alexa “Skill” for devices like the Echo. Companies like Capital One have already invested in this technology so that users can ask their smart speaker about their balance, rather than opening a laptop and logging into the site. 

To determine what kind of voice experiences you should be creating for your client, work with them on a customer journey map. Using this map of interactions that the customer has with your client on a regular basis, you can highlight areas where voice interactions might fit into the user flow. 

For instance, if customers are constantly asking questions about a brand or its service, an FAQ page that’s equipped with a bot that can respond to voice queries could be an excellent choice. 

UI design should always solve problems. Examining the frictions and frustrations that your client’s end-users encounter during their journey will help you to decide which direction to take with your voice UI experience. 

2. Examine the Anatomy of Voice Commands

Before designers can create a dialog flow for their voice UI, they need to understand how voice commands work. The key to success in a successful design for voice is understanding the objective of the interaction. A voice consists of three crucial factors for designers to consider:

  • Intent: Intent represents the subject and context of the voice command. A high utility interaction involves a request for a specific task. For instance, your users might request that your app gives them a list of five-star hotels in a specific area. Designing for these requests is often straightforward because what the voice algorithm needs to do is clear. However, low-utility requests can be harder to decipher, such as “hotels near me,” because there’s less specificity for the bot to work with. 
  • Utterance: Utterance refers to how a user phrases a command. For instance, in the case of looking for five-star hotels in Amsterdam, the customer might say “show me hotels,” or they might ask for “places to stay”. Designers must consider every variation of an utterance for their voice command UI. 
  • Optional variables: This refers to the extra filters that your voice UI needs to be aware of. In the case of five-star hotels in Amsterdam, the descriptor “five stars” is optional. The optional input needs to overwrite default values and bring more detail to the search. 

SideChef, for instance, is a voice-activated recipe app that offers narrated guidance to users and allows customers to search for recipes based on their specific needs. The app comes with a wide range of variables built-in, allowing users to customize their searches according to descriptors like “vegetarian” or “quick” meals. 

3. Learn How to Prototype with Dialog Flows

Learning how to leverage a complex UI strategy like VUI takes time and practice. Prototyping designers will often have to think like scriptwriters, designing various dialog flows to suit the different needs of customers, and the numerous interactions they might face. 

Dialog flows will outline:

  • Keywords that lead to the interaction
  • Branches that represent where the conversation might lead
  • Example dialogs for the user and the voice assistant. 

Practicing your dialog flows with scripts that illustrate the back-and-forth between the voice assistant and user will help designers and developers to understand the various nuances that can appear in a customer to robot interaction. 

Remember, while a crucial part of good voice UI design is keeping the communication conversational and straightforward, you will need to ensure that there is a dialog flow in place for every discussion that may occur between end-users and their apps, website, or digital tools. Users don’t want to feel overloaded and overwhelmed, but they need to ensure that they can complete their tasks too.

Consider the voice-based game RuneScape: One Piercing Note, for instance. 

The developers behind this app allowed players to speak with other in-game characters and use commands like “pull the lever” or “open the chest.” In designing the playable components of the game, the designers needed to think about every possible interaction that a player might have with different parts of the story while ensuring that users didn’t stray off track. 

A Few Tips for Voice UI Design 

Voice UI design can be very complex, mainly if you’ve never created something using voice as your only input before. However, once you get used to creating dialog flows, the whole process starts to feel a lot easier. 

As you’re designing, remember to:

  • Always confirm when a task is complete: When designing a checkout flow for an eCommerce page, one of the most crucial screens for a designer is the confirmation page. It shows the customer that the transaction has successfully been completed and stops them from worrying whether they’ve done the right thing. The same concept applies to Voice UI design. If your client’s end-user asks a voice-activated app to book an appointment with their therapist, for instance, they want to know that the appointment has been successfully booked and added to their calendar. Determine how you’re going to deliver the peace of mind your customers need. 
  • Create a strong strategy for errors: Designers and developers are still in the very early stages of experimentation with voice UI. This means that there’s a good chance that something could go wrong with your applications and tools from time to time. Having a strong error strategy in place is crucial. Always design a dialog flow scenario that allows the assistant to respond if they don’t understand a request, or don’t hear anything at all. You can also implement analytics into these situations to identify misinterpretations and improve usability in the future.  
  • Add extra layers of security: Various Voice UI solutions like Google Assistant and Alexa can now recognize individual voices. This is a kind of biometric security that’s similar to face or touch ID. As voice recognition continues to improve, it’s essential to ensure that you’re adhering to the latest guidelines in security. Additional authentication may be required for some companies. For instance, passwords, face recognition, or fingerprints might be needed for things that require payments and transactions. For instance, the Duer voice assistant uses face recognition to both approve payments, and make meal recommendations based on previous purchases. 

Are You Ready for the Voice UI Revolution?

Voice-based user interfaces are here to stay.

In the years to come, the chances are that developers and designers will need to learn how to use voice more consistently as part of their interface strategies. 

The good news is that although voice takes some getting used to as a design tool, it’s easy enough to make sure that your projects are moving in the right direction. Just like any other kind of design, implementing voice means thinking about whether the interactions and experiences that you’re delivering to end-users are seamless, effective, and valuable. 

Succeeding in voice UI isn’t just about adding the capacity for voice into your designs. It’s a matter of learning how to make user’s lives easier with the power of voice.

 

Featured image via Unsplash.

Source

The post Designing UI for the Voice Era first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Quand on parle de solutions dans le cloud, ou le ‘nuage’, on évoque principalement l’utilisation de ressources informatiques mises à disposition par le biais d’Internet. Cette technique offre davantage de flexibilité et de rapidité. Elle se révèle également plus économique qu’une installation locale des composants et logiciels. Dans les solutions de Cloud Computing, les clients ne paient que pour les services basés dans le cloud qu’ils utilisent effectivement. En d’autres termes, vous pouvez grâce à cette technologie de pointe réduire vos coûts d’exploitation, faire fonctionner votre infrastructure informatique de manière optimale et efficace, et surtout, la faire évoluer en fonction de vos besoins. Mais au fait : qu’est-ce que le cloud ?

Qu’est-ce que le cloud ?

Le cloud, ou nuage en français, renvoie à une nouvelle conception de l’informatique. Les ressources de stockage, les logiciels d’analyse ou les applications sont basés sur Internet. Il s’agit donc de solutions dématérialisées, qui remplacent l’installation sur un réseau d’entreprise, en local. Le cloud constitue une infrastructure virtuelle sur laquelle des ressources accessibles depuis un navigateur ou une application dédiée sont mises à disposition. C’est le fournisseur des solutions de cloud computing qui se charge de la maintenance et de l’entretien de l’architecture sous-jacente.

Le terme ‘cloud’ est apparu dans les années 1990, pour désigner les parties d’une architecture dédiée à l’information et à son échange. On l’utilise couramment pour décrire les domaines informatiques dans lesquels des systèmes numériques comme des

ordinateurs de bureau, des serveurs, les smartphones ou les tablettes échangent des données. L’image du ‘nuage’ s’explique d’une part par le fait que cette architecture demeure pour une grande part voilée pour l’utilisateur, d’autre part par la dimension dématérialisée des ressources. L’histoire du cloud débute à proprement parler en 2006, lorsque Amazon décide de louer des capacités de stockage aux entreprises.

Depuis lors, l’offre croissante de services de cloud computing permet de délocaliser plus aisément à des prestataires externes des questions telles que le stockage des données ou la sécurité informatique. Les systèmes ERP cloud, par exemple, sont moins sensibles aux défaillances qu’un réseau local, dans la mesure où les données sont certes stockées sur un serveur, mais généralement de manière redondante, à plusieurs emplacements, ce qui limite le risque de perte. Les collaborateurs de l’entreprise peuvent alors se connecter par le biais d’Internet au stockage en ligne. Il leur suffit d’un PC, d’une tablette ou d’un smartphone pour accéder aux données dont ils ont besoin. L’accès peut se faire quel que soit l’endroit où ils se trouvent, au bureau, chez eux ou en déplacement.

Solutions de cloud computing : les avantages

Utiliser un ERP cloud présente pour les entreprises de nombreux avantages. Souvent, elles choisissent de passer à une solution cloud pour des raisons de coût. En effet, un ERP cloud permet de réduire l’investissement pour l’achat de matériel et de logiciels ou pour la mise en place de centres de données. De même, l’entreprise n’a pas besoin d’engager un expert en informatique pour gérer l’infrastructure locale, puisque celle-ci se trouve dans le cloud . Installer un centre de données local entraîne de nombreux frais pour une PME. S’y ajoutent des frais de gestion et le temps qu’il faut y consacrer, afin d’appliquer les mises à jour logicielles et de configurer le matériel. L’utilisation de logiciels cloud permet donc aux équipes informatiques en entreprise de se consacrer à d’autres missions et sur la stratégie commerciale. 

Le cloud computing est aussi plus rapide que les ressources locales. S’agissant d’offres à la demande, en libre-service, les PME et les ETI peuvent disposer en quelques minutes d’une puissance importante, mise à disposition par le prestataire. Il en résulte une meilleure flexibilité. L’entreprise n’a plus besoin de se soucier de la planification de ses capacités. C’est d’autant plus vrai que les services informatiques en cloud s’appuient sur un réseau puissant de centres de données. Il est régulièrement mis à niveau avec du matériel informatique rapide et efficace. La latence réseau est donc bien plus faible. 

Enfin, les solutions de cloud computing offrent des avantages en termes de fiabilité et de sécurité. Le cloud ERP simplifie la protection des données, la restauration en cas de problème et la continuité des activités. Le cloud permet en effet la mise en miroir des données, stockées à plusieurs endroits différents. Concernant la sécurité, c’est le prestataire de solutions cloud qui met à disposition les technologies de pointe. Il effectue également les contrôles indispensables. De cette manière, l’environnement informatique des PME et ETI est mieux sécurisé. Les données sont protégées et les applications résistent mieux aux menaces potentielles. 

Les différents types de solutions de cloud computing

L’un des avantages du cloud est, comme nous avons pu le voir, la flexibilité. Selon l’organisation des entreprises, les habitudes de travail et le fonctionnement des équipes, un type donné de cloud computing est plus adapté qu’un autre. Votre prestataire étudie votre cahier des charges et vous propose un ERP basé sur le cloud convenant réellement à vos besoins et à ceux de votre activité. Autrement dit, les solutions de cloud computing sont taillées sur mesure pour les différents utilisateurs. 

La première différence réside dans l’architecture du cloud sur lequel mettre en œuvre vos ressources. Il existe trois options pour la fourniture de services en cloud  : le cloud public, le cloud privé et le cloud  hybride. Dans le cas du cloud public, les ressources informatiques comme les serveurs et les supports de stockage se trouvent sur Internet. Le fournisseur donne accès aux logiciels et applications. Dans le cloud privé, à l’inverse, les ressources informatiques sont dédiées à une seule entreprise. Le cloud peut néanmoins être hébergé par un prestataire externe, pour les raisons que nous avons examinées ci-dessus. Enfin, le cloud hybride combine les deux solutions. 

Les services et les logiciels cloud, quant à eux, appartiennent aux catégories suivantes : 

  • IaaS, ou Infrastructure as a service
  • Paas, ou Platform as a service
  • Saas, ou Software as a service. 

Ces catégories peuvent évidemment se combiner pour fournir aux entreprises un service intégralement externalisé dans le cloud.

À quel moment une entreprise devrait-elle avoir recours à un ERP cloud ?

Vous vous demandez si des solutions de cloud computing sont faites pour vous ? Voici quelques éléments de réponse, sachant qu’aujourd’hui, environ un quart des entreprises a recours à un ERP cloud

La réponse à cette question est relativement simple. L’utilisation du cloud computing apporte un plus indéniable dès lors que les données de l’entreprise doivent être disponibles à partir de plus d’un terminal numérique. Lorsque les collaborateurs de la PME utilisent des terminaux mobiles comme le smartphone ou les tablettes, le recours au cloud s’impose. Le cloud permet, comme nous l’avons vu, l’accès décentralisé aux données. Vos collaborateurs peuvent y accéder de partout, et pas seulement depuis le siège de l’entreprise.

Les solutions en cloud sont intéressantes pour les entreprises qui sont basées sur plusieurs sites différents, d’où elles doivent pouvoir consulter une base de données commune. C’est aussi le cas lorsque l’entreprise connaît une croissance rapide et qu’il lui faut des capacités informatiques supplémentaires. Le cloud est par ailleurs une solution de mobilité par excellence, incontournable à l’heure du télétravail. Grâce au cloud  privé, la PME peut évoluer de manière flexible, en fonction de ses besoins en capacité de stockage et de calcul.  L’accès aux données est accordé de manière sécurisée uniquement à ceux qui doivent pouvoir s’en servir. Le plus souvent, l’investissement dans une solution de cloud computing est rentabilisé rapidement, en une année environ. 

Contrairement à ce qu’on pense souvent, les ERP cloud offrent une sécurité améliorée par rapport à la plupart des solutions locales. Le scepticisme que l’on rencontre parfois à l’égard des solutions en cloud n’est donc en aucun cas justifié. Le cryptage des données, en particulier, peut être mis en œuvre dans le cloud  comme sur un serveur local. Il est important que le prestataire fournisse une solution de cryptage adaptée, auquel cas le stockage en cloud ne pose pas de problème particulier. Pour une sécurité optimale, nous vous conseillons évidemment le recours à des solutions de cloud computing dans le cloud  privé. 

Le cloud pour quelles utilisations ?

Le cloud computing permet de nombreuses utilisations. En voici quelques exemples, parmi les plus intéressants pour les PME / ETI. Le cloud  permet tout d’abord de créer des applications et de les faire évoluer. On peut s’en servir aussi bien pour les applications sur ordinateur que pour les applications mobiles. Le cloud est particulièrement adapté aux applications API. Il est non seulement possible de les créer, mais aussi de les tester dans le cloud, de manière optimisée.

L’utilisation la plus courante est cependant le stockage de données, et leur restauration en cas de problème informatique. Le cloud contribue donc à la protection des données de l’entreprise. Ces données sont accessibles de partout. Il est facile de les analyser, en les partageant entre les membres de vos équipes et les différents services. Les services d’intelligence artificielle basés dans le cloud aident les dirigeants à prendre les meilleures décisions stratégiques. 

La puissance des solutions basées dans le cloud vous permettra aussi d’offrir des supports audio et vidéo à vos clients. Ils pourront les consulter depuis n’importe quel emplacement, et sur n’importe quel terminal. Enfin, ce type d’hébergement est aujourd’hui incontournable pour y stocker des logiciels cloud, avec utilisation à la demande, ce qu’on appelle SaaS pour Software as a service. 

Choisir les solutions de cloud computing SAP

SAP est spécialisé dans les solutions de cloud computing. Ce sont aujourd’hui plus de 200 millions d’utilisateurs du cloud qui les ont choisies comme support pour leur activité. SAP met en œuvre des technologies intelligentes depuis plus de 40 ans et accompagne les entreprises comme les PME / ETI. Aujourd’hui, SAP est la société de logiciels cloud leader dans le monde. Elle fournit en particulier des ERP cloud pour faciliter l’organisation de travail au quotidien et optimiser les processus de gestion. Tous les outils SAP peuvent être basés dans le cloud et sont conçus dans ce but. 

Nous avons développé en particulier différentes solutions pour les PME / ETI afin de les aider à gérer leur trésorerie, leurs stocks, le télétravail, les missions des différents collaborateurs ou encore les opérations financières. Grâce aux solutions SAP, votre entreprise répond de manière plus agile à l’évolution du marché. De plus, elle améliore son indice de satisfaction client. Vous souhaitez en savoir plus sur nos solutions de cloud computing ou nos ERP cloud ?

N’hésitez pas à nous contacter, par téléphone, par courriel ou par le chat. Notre service de support analysera précisément vos besoins et vous orientera vers les solutions les mieux adaptées à votre entreprise.

The post Solution Cloud Computing : maitrisez le Big Data et accélérez l’innovation de votre PME/ETI appeared first on SAP France News.

Source de l’article sur sap.com

In most companies the single largest cost is human resources. However, by leveraging Open Source intelligently, you can significantly reduce this cost, by literally having the entirety of GitHub’s user base, working for « free » for your company. This of course is a bit like what investors refers to as « China math », but GitHub has 65 million registered user accounts, most of whom we must assume are developers one way or another. If you intelligently structure your organisation around GitHub, there is literally nothing preventing you from using every single one of these developers as your own company’s resource, making you a million times more productive than mega corporations such as Amazon, Facebook, and Microsoft – For a millionth of the cost these mega corporations are paying. But first let’s illustrate the problem, such that the solution becomes clear …

The problem

In one of my previous jobs somebody had cloned an open source git repository, then added its code to our own private corporate cloud’s git repositories, for then to start modifying the thing (the horror!) 2 years later it took one of my developers 6 weeks to update the thing to use the latest version as created by its main developer on GitHub, trying to keep as many of our own customisations as possible in the process. Needless to say, but I was furious about the original decision, due to having responsibilities for code quality at this company.

Source de l’article sur DZONE

This week, a significant portion of the Web fell over when on Tuesday, sites powered by Fastly were impacted by a massive outage that affected around 85% of the network.

The near-total collapse — which was quickly identified and remedied — took out sites including GitHub, Stack Overflow, PayPal, Shopify, Stripe, Reddit, Amazon, and CNN. Furthermore, it was all but impossible to express rage on Twitter because the server that handles the social network’s emojis was also affected.

This outage was broad and severe, and we’re truly sorry for the impact to our customers and everyone who relies on them.

Nick Rockwell, Senior VP of Engineering and Infrastructure, Fastly Inc.

The incident occurred at around 10:00 UST (06:00 EST) and prompted mass “Error 503” messages. It was identified by Fastly in less than a minute and patched within an hour.

Initial analysis indicates that the whole episode was triggered by a single customer updating their settings (in a perfectly valid way) — you know those nightmares you have about clicking the wrong button and deleting the whole Web? Yeah, imagine being that person. The precise combination of settings triggered a bug in an update that had been missed in Fastly’s QA and had been sitting in production code since May 12th.

If you’ve ever visited a serious server center, you’ll know the kind of security they employ in defense of potential criminal attacks. The only center I’ve visited in person was inside a nuclear-proof bunker, involved multiple security checks, and I wasn’t even allowed into the really secure part. But it turns out, all the terrorists need to do to crash the global economy is open a CDN account and update their settings.

Fastly actually reacted far faster than previous CDN mass-outages by its competitors — one possible reason its share price soared this week. But it is still trapped in a cycle of competition in which fast and cheap are easily compared, and good is somewhat abstract…until it’s not.

Most of us feel like seasoned hands at the Web when the truth is we’re very early adopters. It will be a century or more before the Web is truly integrated into society. Still, we are building the foundations now, and future generations need those foundations to be robust. We need less focus on clawing back a few pennies, less focus on delivering sites 3 nanoseconds before a user opens their browser, and a greater focus on resilience.

Like everyone, I love eye-peelingly fast sites, and I’m more than happy to get a good deal, but personally, I don’t feel either of those things is worth waking up to an Error 503 on a site I’m responsible for.

Image via Unsplash.

Source

The post Poll: Fast CDN, Cheap CDN, Good CDN, Pick Any One… first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

For many enterprise-grade applications, providing a point where you can access in-depth analysis about your data has become a crucial feature. There are many approaches to this — you can build your own web application and backend that has views allowing customers to filter and analyze data. Alternatively, you can use the embedded analytics capabilities of Looker, Tableau, or Sisense — all of which are large business intelligence tools, with a host of features and connectors into all sorts of data sources.
But if you’re already on AWS, then it really is worth considering QuickSight to present analytics in your web application.

This series will guide you through the intricacies of creating a multi-tenant solution with QuickSight, dealing with data security across customers and within organizations. We’ll need to go beyond to AWS console and dive into the CLI/API commands that you’ll need to manage all of this.

Source de l’article sur DZONE

The serverless journey started with functions – small snippets of code running on-demand and a short period in Figure 1.  AWS Lambda in the “1.0” phase made this paradigm very popular, but it had its limitations around execution time, protocols, and poor local development experience. 

Since then, developers realized that the same serverless traits and benefits could be applied to microservices and Linux containers. This leads us into what we’re calling the “1.5” phase in Figure 1.  Some serverless containers here completely abstract Kubernetes, delivering the serverless experience through an abstraction layer that sits on top of it, like Knative.

Source de l’article sur DZONE

Ten years ago, people began talking about the “Independent Web.” Although we don’t commonly use the term anymore, that doesn’t mean that it’s not still as vital a topic of discussion today as it was a decade ago.

Today, I want to look at where the term came from, what it refers to today, and why it’s something that all of us in business, marketing, and web design should be thinking about.

What Is The Independent Web?

The Independent Web is a term that was coined back in 2010 by John Battelle.

In “Identity and The Independent Web,” Battelle broaches the subject of internet users losing control of their data, privacy, and decision-making to the likes of social media and search engines.

“When we’re ‘on’ Facebook, Google, or Twitter, we’re plugged into an infrastructure that locks onto us, serving us content and commerce in an automated but increasingly sophisticated fashion. Sure, we navigate around, in control of our experience, but the fact is, the choices provided to us as we navigate are increasingly driven by algorithms modeled on the service’s understanding of our identity.”

That’s the Dependent Web.

This is how Battelle explains the Independent Web:

“There is another part of the web, one where I can stroll a bit more at my own pace, and discover new territory, rather than have territory matched to a presumed identity. And that is the land of the Independent Web.”

In 2010, this referred to websites, search engines, and apps where users and their activity were not tracked. But a lot has changed since then, and many websites that were once safe to peruse without interference or manipulation are no longer.

What Happens When the Dependent Web Takes Over?

Nothing good.

I take that back. It’s not fair to make a blanket statement about Dependent Web platforms and sites. Users can certainly benefit from sharing some of their data with them.

Take Facebook, for instance. Since its creation, it’s enabled people to connect with long-lost friends, stay in touch with distant relatives, enable freelance professionals like ourselves to find like-minded communities, etc.

The same goes for websites and apps that track and use visitor data. Consumers are more than willing to share relevant data with companies so long as they benefit from the resulting personalized experiences.

But the Dependent Web also has a darker side. There are many ways that the Dependent Web costs consumers and businesses control over important things like:

Behavior

If you’ve seen The Social Dilemma, then you know that platforms like Facebook and Google profit from selling their users to advertisers.

That’s right. They’re not just selling user data. They’re selling users themselves. If the algorithms can change the way users behave, these platforms and their advertisers get to cash in big time.

Many websites and apps are also guilty of using manipulation to force users to behave how they want them to.

Personal Data

This one is well-known thanks to the GDPR in the EU and the CCPA in California. Despite these initiatives to protect user data and privacy, the exploitation of personal data on the web remains a huge public concern in recent years.

Content and Branding

This isn’t relevant to websites so much as it is to social media platforms and Google.

Dependent Web platforms ultimately dictate who sees your content and when. And while they’re more than happy to benefit from the traffic and engagement this content brings to their platforms, they’re just as happy to censor or pull down content as they please, just as Skillshare did in 2019 when it deleted half of its courses without telling its course creators.

What’s more, while social media and search engines have become the place to market our businesses, some of our branding gets lost when entering such oversaturated environments.

Income

When algorithms get updated, many businesses often feel the negative effects almost immediately.

For example, Facebook updated its algorithm in 2018 to prioritize “meaningful content.” This pushed out organic business content and pulled regular user content to the top of the heap.

This, in turn, forced businesses to have to pay-to-play if they wanted to use Facebook as a viable marketing platform.

Access

The Dependent Web doesn’t just impact individuals’ experiences. It can have far-reaching effects when one company provides a critical service to a large portion of the population.

We saw this happen in November when AWS went down.

It wasn’t just Amazon’s servers that went down, though. It took out apps and sites like:

  • 1Password
  • Adobe Spark
  • Capital Gazette
  • Coinbase
  • Glassdoor
  • Roku
  • The Washington Post

And there’s absolutely nothing that these businesses or their users could do but sit around and wait… because Amazon hosts a substantial portion of the web.

Innovation

When consumers and businesses become dependent on platforms that predominantly control the way we live and work, it’s difficult for us to stand up for the little guys trying to carve out innovative pathways.

And that’s exactly what we see happen time and time again with Big Tech’s buy-and-kill tactics.

As a result, we really lose the option to choose what we use to improve our lives and our businesses. And innovative thinkers lose the ability to bring much-needed changes to the world because Big Tech wants to own the vast majority of data and users.

How Can We Take Back Control From The Dependent Web?

Many things are happening right now that are trying to push consumers and businesses towards a more Independent Web:

Consumer Privacy Protection: GDPR and CCPA empower consumers to control where their data goes and what it’s used for.

Big Tech Regulations: The Senate held tech regulation hearings with Facebook’s and Twitters’s CEOs.

Public Awareness Initiatives: Films like The Social Dilemma bring greater awareness to what’s happening on social media.

Ad Blocker Adoption: Adblocker usage is at an all-time high.

Private Search Engine Usage: Although Google dominates search engine market share, people are starting to use private search engines like Duck Duck Go.

Private Browsing Growth: Over 60% of the global population is aware of what private browsing is (i.e., incognito mode), and roughly 35% use it when surfing the web.

Self-hosted and Open Source CMS Popularity: The IndieWeb community encourages people to move away from Dependent platforms and build their own websites and communities. This is something that Matt Mullenweg, the founder of WordPress, talked about back in 2012.

“The Internet needs a strong, independent platform for those of us who don’t want to be at the mercy of someone else’s domain. I like to think that if we didn’t create WordPress something else that looks a lot like it would exist. I think Open Source is kind of like our Bill of Rights. It’s our Constitution. If we’re not true to that, nothing else matters.”

As web designers, this is something that should really speak to you, especially if you’ve ever met a lead or client who didn’t understand why they needed a website when they could just advertise on Facebook or Instagram.

A Decentralized Web: Perhaps the most promising of all these initiatives are Solid and Inrupt, which were launched in 2018 by the creator of the Web, Tim Berners-Lee.

As Berners-Lee explained on the Inrupt blog in 2020:

”The Web was always meant to be a platform for creativity, collaboration, and free invention — but that’s not what we are seeing today. Today, business transformation is hampered by different parts of one’s life being managed by different silos, each of which looks after one vertical slice of life, but where the users and teams can’t get the insight from connecting that data. Meanwhile, that data is exploited by the silo in question, leading to increasing, very reasonable, public skepticism about how personal data is being misused. That in turn has led to increasingly complex data regulations.”

This is something we should all keep a close eye on. Consumers and businesses alike are becoming wary of the Dependent Web.

Who better than the creator of the web to lead us towards the Independent Web where we can protect our data and better control our experience?

 

Featured Image via Pexels.

Source

The post What Is The Independent Web And Does It Matter In 2021? first appeared on Webdesigner Depot.


Source de l’article sur Webdesignerdepot

Le Big Data est le flot d’informations dans lequel nous nous trouvons tous les jours (des zettaoctets de données provenant de nos ordinateurs, des terminaux mobiles et des capteurs). Ces données sont utilisées par les entreprises pour orienter la prise de décisions, améliorer les processus et les stratégies, et créer des produits, des services et des expériences centrés sur le client.

Le Big Data désigne non seulement de gros volumes de données, mais aussi des données de nature variée et complexe. Il dépasse généralement la capacité des bases de données traditionnelles à capturer, gérer et traiter ce type de données. De plus, le Big Data peut provenir de n’importe où et de tout ce que nous sommes en mesure de surveiller numériquement. Les satellites, les appareils IoT (Internet des Objets), les radars et les tendances des réseaux sociaux ne sont que quelques exemples parmi la multitude de sources de données explorées et analysées pour rendre les entreprises plus résilientes et compétitives.


L’importance de l’analyse du Big Data

La véritable valeur du Big Data se mesure d’après votre capacité à l’analyser et à le comprendre. L’intelligence artificielle (IA), le machine learning et les technologies de base de données modernes permettent de visualiser et d’analyser le Big Data pour fournir des informations exploitables en temps réel. L’analyse du Big Data aide les entreprises à exploiter leurs données en vue de saisir de nouvelles opportunités et de créer de nouveaux modèles de gestion. Comme l’a si bien dit Geoffrey Moore, auteur et analyste de gestion, « sans analyse du Big Data, les entreprises sont aveugles et sourdes, errant sur le Web comme des cerfs sur une autoroute ».

How does Big Data and Analytics work? Simply Explained

Click the button below to load the content from YouTube.

How does Big Data and Analytics work? Simply Explained


L’évolution du Big Data

Aussi inconcevable que cela puisse paraître aujourd’hui, l’Apollo Guidance Computer a emmené l’homme sur la lune avec moins de 80 kilo-octets de mémoire. Depuis, la technologie informatique s’est développée à un rythme exponentiel, de même que la génération de données. La capacité technologique mondiale à stocker des données a doublé tous les trois ans depuis les années 1980. Il y a un peu plus de 50 ans, lors du lancement d’Apollo 11, la quantité de données numériques générées dans le monde aurait pu tenir dans un ordinateur portable. Aujourd’hui, l’IDC estime ce chiffre à 44 zettaoctets (soit 44 000 milliards de gigaoctets) et prévoit qu’il atteindra 163 zettaoctets en 2025.

44 zettaoctets de données numériques aujourd’hui, IDC

163 zettaoctets de données numériques en 2025, IDC

Plus les logiciels et la technologie se développent, moins les systèmes non numériques sont viables. Le traitement des données générées et collectées numériquement requiert des systèmes de data management plus avancés. En outre, la croissance exponentielle des plates-formes de réseaux sociaux, des technologies pour smartphones et des appareils IoT connectés numériquement ont contribué à l’émergence du Big Data.


Types de Big Data : que sont les données structurées et non structurées ?

Les ensembles de données sont généralement catégorisés en trois types, selon leur structure et la complexité de leur indexation.

Illustration des différents types de big data : données structurées, données non-structurées, données semi-structurées.

  1. Données structurées : ce type de données est le plus simple à organiser et à rechercher. Il peut inclure des données financières, des machine logs et des détails démographiques. Une feuille de calcul Microsoft Excel, avec sa mise en forme de colonnes et de lignes prédéfinies, offre un moyen efficace de visualiser les données structurées. Ses composants peuvent facilement être catégorisés, ce qui permet aux concepteurs et administrateurs de bases de données de définir des algorithmes simples pour la recherche et l’analyse. Même lorsque les données structurées sont très volumineuses, elles ne sont pas nécessairement qualifiées de Big Data, car elles sont relativement simples à gérer et ne répondent donc pas aux critères qui définissent le Big Data. Traditionnellement, les bases de données utilisent un langage de programmation appelé SQL (Structured Query Language) pour gérer les données structurées. SQL a été développé par IBM dans les années 1970 pour permettre aux développeurs de créer et gérer des bases de données relationnelles (de type feuille de calcul) qui commençaient à émerger à l’époque.
  2. Données non structurées : cette catégorie de données peut inclure des publications sur les réseaux sociaux, des fichiers audio, des images et des commentaires client ouverts. Ces données ne peuvent pas être facilement capturées dans les bases de données relationnelles standard en lignes et colonnes. Auparavant, les entreprises qui voulaient rechercher, gérer ou analyser de grandes quantités de données non structurées devaient utiliser des processus manuels laborieux. La valeur potentielle liée à l’analyse et à la compréhension de ces données ne faisait aucun doute, mais le coût associé était souvent trop exorbitant pour en valoir la peine. Compte tenu du temps nécessaire, les résultats étaient souvent obsolètes avant même d’être générés. Contrairement aux feuilles de calcul ou aux bases de données relationnelles, les données non structurées sont généralement stockées dans des lacs de données, des entrepôts de données et des bases de données NoSQL.
  3. Données semi-structurées : comme leur nom l’indique, les données semi-structurées intègrent à la fois des données structurées et non structurées. Les e-mails en sont un bon exemple, car ils incluent des données non structurées dans le corps du message, ainsi que d’autres propriétés organisationnelles telles que l’expéditeur, le destinataire, l’objet et la date. Les dispositifs qui utilisent le marquage géographique, les horodatages ou les balises sémantiques peuvent également fournir des données structurées avec un contenu non structuré. Une image de smartphone non identifiée, par exemple, peut indiquer qu’il s’agit d’un selfie et préciser l’heure et l’endroit où il a été pris. Une base de données moderne exécutant une technologie d’IA peut non seulement identifier instantanément différents types de données, mais aussi générer des algorithmes en temps réel pour gérer et analyser efficacement les ensembles de données disparates.

Les sources du Big Data

Les objets générateurs de données se développent à un rythme spectaculaire, depuis les drones jusqu’aux grille-pains. Toutefois, à des fins de catégorisation, les sources de données sont généralement divisées en trois types :

Illustration des différentes sources du big data : données sociales, données machine, données altérables.

Données sociales

Comme leur nom l’indique, les données sociales sont générées par les réseaux sociaux : commentaires, publications, images et, de plus en plus, vidéos. En outre, compte tenu de l’ubiquité croissante des réseaux 4G et 5G, on estime que le nombre de personnes dans le monde qui regardent régulièrement des contenus vidéo sur leur smartphone atteindra 2,72 milliards en 2023. Bien que les tendances concernant les réseaux sociaux et leur utilisation évoluent rapidement et de manière imprévisible, leur progression en tant que générateurs de données numériques est incontestable.

Données machine

Les machines et appareils IoT sont équipés de capteurs et ont la capacité d’envoyer et de recevoir des données numériques. Les capteurs IoT aident les entreprises à collecter et traiter les données machine provenant des appareils, des véhicules et des équipements. Globalement, le nombre d’objets générateurs de données augmente rapidement, des capteurs météorologiques et de trafic jusqu’à la surveillance de la sécurité. Selon l’IDC, il y aura plus de 40 milliards d’appareils IoT en 2025, générant près de la moitié des données numériques mondiales.

Données altérables

Il s’agit des données parmi les plus évolutives au monde. Par exemple, un détaillant international traite plus d’un million de transactions client par heure. Si l’on ajoute à cela les transactions d’achat et bancaires au niveau mondial, on comprend mieux le volume phénoménal de données générées. En outre, les données altérables contiennent de plus en plus de données semi-structurées, y compris des images et des commentaires, ce qui les rend d’autant plus complexes à gérer et à traiter.


Les cinq V du Big Data

Ce n’est pas parce qu’un ensemble de données est volumineux qu’il s’agit nécessairement de Big Data. Pour être qualifiées en tant que telles, les données doivent posséder au minimum les cinq caractéristiques suivantes :

Illustration des 5 V du Big Data : Volume, Vitesse, Variété, Véracité, Valeur.

  1. Volume : même si le volume n’est pas le seul composant qui constitue le Big Data, il s’agit d’une de ses caractéristiques principales. Pour gérer et exploiter pleinement le Big Data, des algorithmes avancés et des analyses pilotées par l’IA sont nécessaires. Mais avant tout cela, il doit exister un moyen fiable et sécurisé de stocker, d’organiser et d’extraire les téraoctets de données détenus par les grandes entreprises.
  2. Vitesse : auparavant, les données générées devaient ensuite être saisies dans un système de base de données traditionnel (souvent manuellement) avant de pouvoir être analysées ou extraites. Aujourd’hui, grâce à la technologie du Big Data, les bases de données sont capables de traiter, d’analyser et de configurer les données lorsqu’elles sont générées, parfois en l’espace de quelques millisecondes. Pour les entreprises, cela signifie que les données en temps réel peuvent être exploitées pour saisir des opportunités financières, répondre aux besoins des clients, prévenir la fraude et exécuter toute autre activité pour laquelle la rapidité est un facteur clé.
  3. Variété : les ensembles de données contenant uniquement des données structurées ne relèvent pas nécessairement du Big Data, quel que soit leur volume. Le Big Data comprend généralement des combinaisons de données structurées, non structurées et semi-structurées. Les solutions de gestion des données et les bases de données traditionnelles n’offrent pas la flexibilité et le périmètre nécessaires pour gérer les ensembles de données complexes et disparates qui constituent le Big Data.
  4. Véracité : bien que les bases de données modernes permettent aux entreprises d’accumuler et d’identifier des volumes considérables de Big Data de différents types, elles ne sont utiles que si elles sont précises, pertinentes et opportunes. S’agissant des bases de données traditionnelles alimentées uniquement avec des données structurées, le manque de précision des données était souvent dû à des erreurs syntaxiques et des fautes de frappe. Les données non structurées présentent toute une série de nouvelles difficultés en matière de véracité. Les préjugés humains, le « bruit social » et les problèmes liés à la provenance des données peuvent avoir un impact sur la qualité des données.
  5. Valeur : les résultats de l’analyse du Big Data sont souvent fascinants et inattendus. Mais pour les entreprises, l’analyse du Big Data doit fournir une visibilité qui les aident à gagner en compétitivité et en résilience, et à mieux servir leurs clients. Les technologies modernes du Big Data offrent la possibilité de collecter et d’extraire des données susceptibles de procurer un avantage mesurable à la fois en termes de résultats et de résilience opérationnelle.

Avantages du Big Data

Les solutions modernes de gestion du Big Data permettent aux entreprises de transformer leurs données brutes en informations pertinentes avec une rapidité et une précision sans précédent.

  • Développement de produits et de services :l’analyse du Big Data permet aux développeurs de produits d’analyser les données non structurées, telles que les témoignages clients et les tendances culturelles, et de réagir rapidement.
  • Maintenance prédictive : dans le cadre d’uneenquête internationale, McKinsey a constaté que l’analyse du Big Data émanant des machines IoT pouvait réduire les coûts de maintenance des équipements jusqu’à 40 %.
  • Expérience client :dans le cadre d’une enquête réalisée en 2020 auprès de responsables d’entreprises du monde entier, Gartner a déterminé que « les entreprises en croissance collectent plus activement des données sur l’expérience client que les entreprises à croissance nulle ». L’analyse du Big Data permet aux entreprises d’améliorer et de personnaliser l’expérience de leurs clients avec leur marque.
  • Gestion de la résilience et des risques :la pandémie de COVID-19 a été une véritable prise de conscience pour de nombreux dirigeants d’entreprise qui se sont rendu compte à quel point leur activité était vulnérable. La visibilité offerte par le Big Data peut aider les entreprises à anticiper les risques et à se préparer aux imprévus.
  • Économies et efficacité accrue : lorsque les entreprises effectuent une analyse avancée du Big Data pour tous les processus de l’organisation, elles peuvent non seulement détecter les inefficacités, mais aussi déployer des solutions rapides et efficaces.
  • Amélioration de la compétitivité : les informations obtenues grâce au Big Data peuvent aider les entreprises à réaliser des économies, à satisfaire leurs clients, à concevoir de meilleurs produits et à innover dans les opérations de gestion.

IA et Big Data

La gestion du Big Data repose sur des systèmes capables de traiter et d’analyser efficacement de gros volumes d’informations disparates et complexes. À cet égard, le Big Data et l’IA ont une relation de réciprocité. Sans l’IA pour l’organiser et l’analyser, le Big Data n’aurait pas grande utilité. Et pour que l’IA puisse générer des analyses suffisamment fiables pour être exploitables, le Big Data doit contenir des ensembles de données suffisamment étendus. Comme l’indique Brandon Purcell, analyste chez Forrester Research, « les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

« Les données sont au cœur de l’intelligence artificielle. Un système d’IA doit apprendre des données pour remplir sa fonction ».

Brandon Purcell, analyste, Forrester Research


Machine learning et Big Data

Les algorithmes de machine learning définissent les données entrantes et identifient des modèles associés. Ces informations permettent de prendre des décisions avisées et d’automatiser les processus. Le machine learning se nourrit du Big Data, car plus les ensembles de données analysés sont fiables, plus le système est susceptible d’apprendre, de faire évoluer et d’adapter ses processus en continu.


Technologies du Big Data

Architecture du Big Data

À l’instar de l’architecture du bâtiment, l’architecture du Big Data fournit un modèle pour la structure de base déterminant la manière dont les entreprises gèrent et analysent leurs données. L’architecture du Big Data mappe les processus requis pour gérer le Big Data à travers quatre « couches » de base, des sources de données au stockage des données, puis à l’analyse du Big Data, et enfin via la couche de consommation dans laquelle les résultats analysés sont présentés en tant que Business Intelligence.

‍Analyse du Big Data

Ce processus permet de visualiser les données de manière pertinente grâce à l’utilisation de la modélisation des données et d’algorithmes spécifiques aux caractéristiques du Big Data. Dans le cadre d’une étude approfondie et d’une enquête de la MIT Sloan School of Management, plus de 2 000 dirigeants d’entreprise ont été interrogés sur leur expérience en matière d’analyse du Big Data. Comme on pouvait s’y attendre, ceux qui s’étaient impliqués dans le développement de stratégies de gestion du Big Data ont obtenu les résultats les plus significatifs.

Big Data et Apache Hadoop

Imaginez une grande boîte contenant 10 pièces de 10 centimes et 100 pièces de 5 centimes. Puis imaginez 10 boîtes plus petites, côte à côte, contenant chacune 10 pièces de 5 centimes et une seule pièce de 10 centimes. Dans quel scénario sera-t-il plus facile de repérer les pièces de 10 centimes ? Hadoop fonctionne sur ce principe. Il s’agit d’une structure en open source permettant de gérer le traitement du Big Data distribué sur un réseau constitué de nombreux ordinateurs connectés. Ainsi, au lieu d’utiliser un gros ordinateur pour stocker et traiter toutes les données, Hadoop regroupe plusieurs ordinateurs sur un réseau pouvant évoluer presque à l’infini et analyse les données en parallèle. Ce processus utilise généralement un modèle de programmation appelé MapReduce, qui coordonne le traitement du Big Data en regroupant les ordinateurs distribués.

Lacs de données, entrepôts de données et NoSQL

Les bases de données traditionnelles de type feuille de calcul SQL servent à stocker les données structurées. Le Big Data non structuré et semi-structuré nécessite des modèles de stockage et de traitement uniques, car il ne peut pas être indexé et catégorisé. Les lacs de données, les entrepôts de données et les bases de données NoSQL sont des référentiels de données capables de gérer les ensembles de données non traditionnels. Un lac de données est un vaste pool de données brutes qui n’ont pas encore été traitées. Un entrepôt de données est un référentiel de données qui ont déjà été traitées à des fins spécifiques. Les bases de données NoSQL fournissent un schéma flexible qui peut être modifié en fonction de la nature des données à traiter. Ces systèmes présentent chacun des avantages et des inconvénients, c’est pourquoi de nombreuses entreprises utilisent plutôt une combinaison de ces référentiels de données pour répondre au mieux à leurs besoins.

Bases de données in-memory

Les bases de données traditionnelles sur disque ont été conçues pour SQL et les bases de données relationnelles. Bien qu’elles soient capables de traiter de gros volumes de données structurées, elles ne sont pas adaptées au stockage et au traitement des données non structurées. Dans le cas des bases de données in-memory, le traitement et l’analyse se font entièrement dans la RAM, pour ne pas avoir à extraire les données d’un système sur disque. Les bases de données in-memory reposent également sur des architectures distribuées. Cela signifie qu’elles peuvent atteindre des vitesses beaucoup plus élevées en utilisant le traitement parallèle, par rapport aux modèles de base de données sur disque à un seul nœud.


Fonctionnement du Big Data

Le Big Data remplit ses fonctions lorsque son analyse fournit des informations pertinentes et exploitables qui améliorent l’activité de manière significative. Pour se préparer à la transition vers le Big Data, les entreprises doivent s’assurer que leurs systèmes et processus sont en mesure de collecter, de stocker et d’analyser le Big Data.

Illustration du fonctionnement du Big Data : collecter le Big Data, stocker le Big Data, Analyser le Big Data

  1. Collecter le Big Data.Une grande partie du Big Data est constituée d’énormes ensembles de données non structurées qui émanent de sources disparates et incohérentes. Les bases de données traditionnelles sur disque et les mécanismes d’intégration des données ne sont pas suffisamment performants pour les gérer. La gestion du Big Data requiert des solutions de base de données in-memory et des solutions logicielles spécifiques de l’acquisition de ce type de données.
  2. Stocker le Big Data.Comme son nom l’indique, le Big Data est volumineux. De nombreuses entreprises utilisent des solutions de stockage sur site pour leurs données existantes et espèrent réaliser des économies en réutilisant ces référentiels pour traiter le Big Data. Toutefois, le Big Data est plus performant lorsqu’il n’est pas soumis à des contraintes de taille et de mémoire. Les entreprises qui n’intègrent pas dès le départ des solutions de stockage Cloud dans leurs modèles de Big Data le regrettent souvent quelques mois plus tard.
  3. Analyser le Big Data. Il est impossible d’exploiter pleinement le potentiel du Big Data sans utiliser les technologies d’IA et de machine learning pour l’analyser. L’un des cinq V du Big Data est la « vitesse ». Pour être utiles et exploitables, les informations du Big Data doivent être générées rapidement. Les processus d’analyse doivent s’auto-optimiser et tirer régulièrement profit de l’expérience, un objectif qui ne peut être atteint qu’avec l’IA et les technologies modernes de bases de données.

Applications du Big Data

La visibilité offerte par le Big Data est bénéfique à la plupart des entreprises ou secteurs d’activité. Cependant, ce sont les grandes entreprises aux missions opérationnelles complexes qui en tirent souvent le meilleur parti.

Finance

Dans le Journal of Big Data, une étude de 2020 souligne que le Big Data « joue un rôle important dans l’évolution du secteur des services financiers, en particulier dans le commerce et les investissements, la réforme fiscale, la détection et les enquêtes en matière de fraude, l’analyse des risques et l’automatisation ». Le Big Data a également contribué à transformer le secteur financier en analysant les données et les commentaires des clients pour obtenir les informations nécessaires à l’amélioration de la satisfaction et de l’expérience client. Les ensembles de données altérables figurent parmi les plus importants et les plus évolutifs au monde. L’adoption croissante de solutions avancées de gestion du Big Data permettra aux banques et aux établissements financiers de protéger ces données et de les utiliser d’une manière qui bénéficie à la fois au client et à l’entreprise.

Hygiène et santé
publique

L’analyse du Big Data permet aux professionnels de santé d’établir des diagnostics plus précis, fondés sur des données avérées. De plus, le Big Data aide les administrateurs d’hôpitaux à identifier les tendances, à gérer les risques et à limiter les dépenses inutiles, afin de consacrer le maximum de fonds aux soins des patients et à la recherche. En cette période de pandémie, les chercheurs du monde entier s’efforcent de traiter et de gérer au mieux la COVID-19, et le Big Data joue un rôle fondamental dans ce processus. Un article de juillet 2020 paru dans The Scientist explique comment des équipes médicales ont pu collaborer et analyser le Big Data afin de lutter contre le coronavirus : « Nous pourrions transformer la science clinique en exploitant les outils et les ressources du Big Data et de la science des données d’une manière que nous pensions impossible ».

Transport et logistique

L’« effet Amazon » est un terme qui définit la manière dont Amazon a fait de la livraison en un jour la nouvelle norme, les clients exigeant désormais la même vitesse d’expédition pour tout ce qu’ils commandent en ligne. Le magazine Entrepreneur souligne qu’en raison de l’effet Amazon, « la course logistique au dernier kilomètre ne fera que s’intensifier ». Les entreprises du secteur s’appuient de plus en plus sur l’analyse du Big Data pour optimiser la planification des itinéraires, la consolidation des charges et les mesures d’efficacité énergétique.

Éducation

Depuis l’apparition de la pandémie, les établissements d’enseignement du monde entier ont dû réinventer leurs programmes d’études et leurs méthodes d’enseignement afin de faciliter l’apprentissage à distance. L’un des principaux défis a été de trouver des moyens fiables d’analyser et d’évaluer la performance des étudiants et l’efficacité globale des méthodes d’enseignement en ligne. Un article paru en 2020 au sujet de l’impact du Big Data sur la formation et l’apprentissage en ligne indique, au sujet des enseignants, que « le Big Data les aide à gagner en confiance pour personnaliser l’enseignement, développer l’apprentissage mixte, transformer les systèmes d’évaluation et promouvoir l’apprentissage continu ».

Énergie et services publics

Selon le U.S. Bureau of Labor Statistics, le service public consacre plus de 1,4 milliard de dollars aux relevés de compteurs et s’appuie généralement sur des compteurs analogiques et des lectures manuelles peu fréquentes. Les relevés de compteurs intelligents fournissent des données numériques plusieurs fois par jour et, grâce à l’analyse du Big Data, ces informations permettent d’accroître l’efficacité de la consommation énergétique, ainsi que la précision des prix et des prévisions. En outre, lorsque les agents n’ont plus à se charger des relevés de compteurs, la saisie et l’analyse des données peuvent permettre de les réaffecter plus rapidement là où les réparations et les mises à niveau sont les plus urgentes.

Publié en anglais sur insights.sap.com

The post Qu’est-ce que le Big Data ? appeared first on SAP France News.

Source de l’article sur sap.com