Le Règlement Général européen sur la Protection des données Personnelles (RGPD, GDPR en Anglais) est d’application directe (…)
Source de l’article sur Le Monde Informatique

L’écho de la blockchain résonne depuis longtemps au-delà des murs du domaine des logiciels. Chaque jour, la rumeur évoque l’élaboration d’un indice de prix du Bitcoin, tandis que les start-ups se démènent pour imaginer le prochain modèle de gestion novateur inspiré de cette technologie.

Mais que savons-nous véritablement sur ce sujet ?

Au plus fort de la crise financière de 2008, une personne ou un groupe de personnes agissant sous le pseudonyme Satoshi Nakamoto a adressé à une liste de diffusion un document intitulé « Bitcoin: A Peer-to-Peer Electronic Cash System » (Bitcoin : un système de paiement électronique de pair à pair). Cette publication proposait une solution pratique à un problème sur lequel butaient les défenseurs de la théorie de la monnaie virtuelle : le problème des généraux byzantins.

 

Créer un consensus parmi des acteurs décentralisés

Le problème des généraux byzantins trouve son origine dans une légende contemporaine à la chute de Constantinople aux mains de l’Empire ottoman en 1453. Un déploiement soigneusement planifié de troupes attaquant de différentes directions était alors le seul moyen de s’emparer de la cité fortifiée. Pour appliquer cette tactique, les généraux ottomans ont dû se résoudre à communiquer par l’entremise de messagers. Mais les généraux peinaient à s’accorder sur le moment précis de l’attaque, et pour cause : certains d’entre eux, voulant discréditer leurs homologues aux yeux du sultan, s’employaient à divulguer sciemment de fausses informations afin de déclencher une attaque prématurée. Dès lors, aucun des généraux ne pouvait avoir la garantie de l’authenticité des messages reçus.

Ce défaut de consensus, dû à l’absence de confiance entre les différents décideurs, constituait le coeur du problème.

L’argent et le rôle de l’intermédiaire

On observe la même situation dans le domaine des transactions numériques de valeur. Car comment avoir la garantie qu’un dollar virtuel ne sera pas versé deux fois ? Jusqu’ici, la réponse était on ne peut plus claire : en recourant à un intermédiaire chargé de superviser l’ensemble des transactions, autrement dit en faisant appel à un établissement bancaire.

Mais cela n’est pas aussi simple que cela en a l’air. Le traitement des paiements internationaux émis sous forme de virements SWIFT prend souvent plusieurs jours du fait des différents acteurs impliqués dans le processus, ce qui ne fait qu’augmenter les coûts des transactions et exclure les petits paiements ponctuels faute de commodité. La possibilité d’annuler une transaction présente également des inconvénients ; pour pouvoir réduire les risques de fraude, les fournisseurs de services irréversibles doivent recueillir davantage d’informations sur leurs clients que nécessaire en d’autres circonstances.

Dans le cas des transactions de valeur physiques, le problème a cependant été largement résolu. Prenons un exemple : imaginez qu’Alice veuille donner à Stéphane une certaine somme d’argent. Il lui suffit simplement de lui remettre une pièce infalsifiable qui représente la valeur du paiement. Alice n’a aucun moyen d’utiliser la même pièce pour effectuer simultanément deux paiements.

D’aucuns ont tenté d’appliquer le principe de la monnaie physique au monde numérique, bien qu’avec plus ou moins de succès. Le Bitcoin est la première monnaie à répondre très largement à ces exigences.

Signatures cryptographiques et valeur numérique

Pour faire en sorte que seuls les propriétaires légitimes puissent dépenser leurs pièces de monnaie numériques, le système Bitcoin utilise une cryptographie basée sur des clés publiques. Cela passe par l’attribution d’une clé privée composée de nombres générés de façon aléatoire qui, à son tour, permet d’obtenir une clé publique. À l’inverse, aucune clé publique ne peut être utilisée pour générer la clé privée correspondante. Une signature numérique est générée à partir de cette clé privée et d’un ensemble de données. La clé publique permet aux utilisateurs de savoir que la signature est dérivée de la clé privée correspondante, sans avoir à la connaître.

Le Bitcoin utilise également la fonction de hachage cryptographique, qui convertit de grandes chaînes de données en valeurs de données de longueur fixe. Une bonne fonction de hachage se caractérise par un excellent niveau de sécurité et permet d’assigner diverses quantités d’entrée en utilisant le moins possible les mêmes hachages.

Ce processus est irréversible, contrairement au chiffrement. Lorsqu’elle est appliquée à la même quantité d’entrée, la fonction de hachage produit toujours le même hachage, mais ne peut pas l’attribuer à la quantité d’entrée initiale. Chaque changement apporté à la quantité d’entrée génère un hachage totalement différent. C’est pourquoi ces fonctions sont aussi assimilées à des “empreintes digitales” numériques.

Dans le système Bitcoin, une pièce n’est autre qu’une combinaison de signatures numériques. La pièce est remise au moment où son propriétaire (en l’occurrence, Alice) signe numériquement un hachage dérivé de la précédente transaction et de la clé publique du bénéficiaire (Stéphane). Pour que Stéphane ait la certitude qu’Alice n’a pas déjà utilisé sa pièce dans une autre transaction, toutes les transactions sont disponibles publiquement.

La course mathématique à la recherche d’un consensus

Le système Bitcoin utilise à cette fin un réseau de pair à pair. Un nœud du réseau compile plusieurs transactions dans un même bloc, en dérive un hachage et l’émet avec un horodatage. Chaque bloc contient le hachage du bloc précédent, ce qui forme une chaîne que l’on appelle la blockchain.

Ce qui nous ramène au « problème des généraux byzantins » : tous les nœuds doivent s’accorder sur la première transaction effectuée et doivent déterminer si un autre bloc doit ou non être ajouté à la chaîne. Le Bitcoin utilise pour cela la méthode dite de la preuve de travail. Pour ajouter un bloc supplémentaire à la chaîne, les nœuds de calcul concernés doivent résoudre une énigme mathématique complexe. Le premier nœud qui trouve la solution la partage avec tous les autres nœuds. Une fois que ces derniers ont vérifié la solution, chacun d’eux ajoute le bloc à sa propre copie de la chaîne. Et le cycle recommence.

Pour s’adapter aux variations de la puissance de calcul totale du réseau, la difficulté de l’énigme est constamment ajustée, de sorte que de nouveaux blocs sont ajoutés à la chaîne environ toutes les 10 minutes. Si deux blocs sont détectés simultanément, le prochain bloc trouvé détermine la sous-chaîne qui sera conservée. La chaîne la plus longue prévaut.

Puisque l’énigme doit être résolue à chaque changement apporté au bloc, ce qui vaut également pour tous les blocs suivants, la longueur de la chaîne influence sa sécurité. Pour la modifier, un pirate devra résoudre l’énigme mathématique pour l’ensemble des blocs avant de pouvoir ajouter un nouveau bloc à la chaîne. L’élément de confiance, qui est aujourd’hui incarné par la banque, est donc concentré dans la logique mathématique de la blockchain.

L’Internet des valeurs

La blockchain fonctionne à la manière d’un journal public distribué dans lequel sont recensées des transactions irréversibles. Les utilisateurs ont la possibilité de vérifier et contrôler leurs transactions rapidement, à moindres frais et sans intermédiaires.

« Les cas d’utilisation de la blockchain publique peuvent transformer radicalement les marchés existants »

Les domaines d’application de la technologie blockchain ne se limitent en aucun cas au système Bitcoin. La blockchain tient davantage à un message sur la transmission de valeur : « l’Internet des valeurs. » La base de données sert de référence ultime pour la détermination des droits de propriété. Tous les types d’actifs pouvant être convertis en doubles numériques peuvent figurer dans la blockchain. Diamants, bâtiments, livraison de marchandises : les possibilités sont infinies.

Les effets ressentis par l’introduction de cette innovation varieront selon les secteurs d’activité. L’obtention d’un consensus intra-entreprise ou inter-entreprises suppose un changement évolutif, mais il existe une certitude : les cas d’utilisation des blockchains publiques peuvent transformer radicalement les marchés existants.

Concluons par un exemple d’utilisation de la blockchain chez Everledger, une start-up qui produit des doubles numériques de diamants. Ces doubles numériques sont calculés à partir de 40 points de données et sont stockés dans une blockchain de manière à retracer la propriété de la pierre entre le moment où elle a été extraite du minerai et le moment où elle a été transformée en pièce de joaillerie. Plus d’un million de bijoux ont déjà été sécurisés par des moyens numériques : voilà un beau témoignage de réussite.

Article publié pour la première fois en anglais le 12/10/2017 sur news.sap.com

Découvrez nos autres blogs sur la blockchain :

Source de l’article sur le site SAP

Le minage de cryptomonnaie, Bitcoin ou autre, consomme beaucoup d’électricité et demande de grosses ressources matérielles. Bien sûr des petits malins n’ont pas manqué de trouver le moyen d’utiliser l’électricité et les ressources matérielles d’autrui. Si bien qu’un nouveau fléau sévit sur Internet : le cryptojacking.

Le cryptojacking est défini comme l’utilisation secrète de votre terminal informatique en arrière-plan pour miner de la cryptomonnaie. Il suffit d’ouvrir la page d’un site contenant un script mineur, et vous commencerez (sans le savoir) à « miner » la crypto-monnaie pour le compte du propriétaire du script. La consommation du processeur, dans ce cas, peut atteindre des valeurs très élevées, prenant presque complètement les ressources de l’ordinateur explique Adguard dans son billet de mise en garde.

Selon AdGuard, près d’un milliard d’internautes ont déjà été victimes de cryptojacking. Pour des sites totalisant des millions de visites par mois, le minage de cryptomonnaie peut amener un gain de plusieurs dizaines de milliers de dollars par mois.

Toujours selon AdGuard, ce sont principalement des sites de streaming qui font du minage de cryptomonnaie ‘sur le dos’ de leurs visiteurs, sans forcément que les propriétaires des dits sites soient au courant.

AdGuard mentionne 3 sites de streaming : Openload, Streamango et Rapidvideo comme étant parmi les plus gros cryptojackers. Mais le record absolu serait détenu par OnlineVideoConverter, site qui totalise 490 millions de visites mensuelles et qui réalise des conversions de fichiers audio et vidéo. Les revenus ainsi générés par ce sites sont estimés à 200 000 dollars mensuels.

Si un jour vous visitez un site de ce genre et que tout d’un coup votre ordinateur ralentit et que son ventilateur se met à tourner à fond, ce ne sera peut-être pas à cause de la vidéo que vous regardez, mais peut-être parce que vous faites du minage de cryptomonnaie à votre insu…

Certains bloqueurs de publicités (AdBlocker) ont des options pour bloquer les scripts mineurs, mais bien évidemment, les mineurs malveillants ne manquent pas de créativité pour contourner leur vigileance.

Espérons que tous les éditeurs de solutions de sécurité proposent rapidement des solutions spécifiques contre ce qui est en train de devenir un nouveau fléau sur Internet.

Catégorie actualité: 
Image actualité AMP: 

Source de l’article sur Programmez.com

L’actualité SAP

Statistiques : 1 Message || 1407 Vus
Message de Felix_OUFRATERMEUS Source : http://www.sap-quest.com/topic16704.html

En juillet dernier, Microsoft a lancé AI for Earth, un fonds d’investissement pour soutenir la création de projets en intelligence artificielle oeuvrant pour l’environnement. A l’époque, Microsoft a doté de fonds de 2 millions de dollars. Lors du One Planet Summit qui se tient aujourd’hui à Paris, Microsoft a annoncé son intention de doter AI for Earth de 50 millions de dollars.

Ces 50 millions de dollars seront utilisés, sur une période de 5 ans, pour fournir des ressources informatiques à des universités, des ONG, ou des entreprises travaillant à relever les grands défis environnementaux.

« En comprenant les données climatiques, il devient possible de trouver des solutions pour l’avenir du monde », a expliqué Brad Smith, en charge des affaires publiques et des questions environnementales chez Microsoft, à notre confrère Les Echos.

Pour l’occasion, Microsoft souligne travailler activement pour limiter ses dépenses énergétiques. « Le challenge le plus important pour les entreprises technologiques réside dans la consommation électrique des centres de données », précise Brad Smith.

Catégorie actualité: 
Image actualité AMP: 

Source de l’article sur Programmez.com

 

Le contexte réglementaire investit de plus en plus la sphère des systèmes d’information, suivant en cela l’importance grandissante prise par ces systèmes dans la vie des entreprises et des citoyens.

L’existence de textes ne date pas d’aujourd’hui comme c’est le cas, par exemple, de la loi Godfrain relative à la fraude informatique (1988) ou la loi informatique et liberté (1978). Toutefois ce corpus législatif s’enrichit régulièrement et on peut citer, parmi d’autres exemples actuels ou récents, la Loi de Programmation Militaire (LPM) au niveau national ou, au niveau européen, le Règlement général sur la protection des données (RGPD) ou la directive NIS (Network and Information Security).

L’existence de ces textes est une bonne chose dans la mesure où elle constitue une prise en charge par la société civile des nouvelles problématiques et opportunités apportées par la société de l’information. Parallèlement, l’ensemble de ces lois font peser de nouvelles contraintes sur les organismes et impliquent une prise en compte efficace des RSSI pour ne pas exposer leurs organisations à un risque de non légalité.

Pour cela, le RSSI a besoin d’avoir une vue globale sur les contraintes apportées, directement ou indirectement, par ces textes afin de les intégrer à la stratégie de protection de son organisme. Stratégie qui consistera à intégrer ces contraintes réglementaires comme vecteurs d’opportunité pour la sécurisation du système d’information.

Attention, places limitées !!

Inscriptions obligatoires en ligne : http://ift.tt/2z5Khpw…

Le programme détaillé vous sera communiqué prochainement.

Conditions d’inscription :

Conférence gratuite pour les adhérents du CLUSIF

Conférence payante pour les extérieurs (85€ HT) et les étudiants (35€ HT)

Les adhérents du CLUSIF peuvent se faire remplacer par un collègue ou un collaborateur en cas d’empêchement. Le cas échéant, merci de prévenir le secrétariat du CLUSIF par mail (secretariat@clusif.fr) ou téléphone (01 53 25 08 80).

Places limitées – Inscription obligatoire

Inscrivez-vous dès maintenant à la prochaine conférence du CLUSIF, organisée mercredi 6 décembre 2017 à 16h (accueil à 15h30) à Paris Story, 11 bis rue Scribe, 75009 Paris

By Global Security Mag Online Source : http://ift.tt/2z44LPm

 

A l’ère des plateformes Cloud, des architectures microservices et des conteneurs, les environnements applicatifs n’ont jamais été aussi complexes. La performance des applications n’a également jamais été aussi critique pour les organisations. Comment une solution d’APM peut aujourd’hui répondre aux défis de la complexité applicative ?

Qu’est-ce qu’une application performante ?

Les applications digitales sont plus que jamais au cœur de l’activité des organisations et constituent un moteur incontournable de leur croissance. Toutes les entreprises sont désormais « technologiques » : la dématérialisation de leurs processus est incontournable dans une économie digitale de plus en plus prégnante. Le succès d’une organisation, quelle que soit sa taille ou son activité, repose aujourd’hui en grande partie sur sa capacité à fournir des applications performantes pour répondre aux besoins de ses clients-utilisateurs. Des consommateurs hyperconnectés et hyper-exigeants, dont les maîtres-mots sont disponibilité, rapidité et sécurité.

A défaut, les organisations s’exposent à des conséquences potentiellement critiques. Tout d’abord en termes économiques : par exemple, des temps de chargement trop longs peuvent entraîner un mauvais taux de conversion pour un site de e-commerce, ou une baisse de productivité dans le cas d’une application d’entreprise. En termes d’image de marque ensuite : l’entreprise peut être taxée d’incapable à délivrer un service de qualité, et dévalorisée par rapport à ses concurrents. Enfin, côté IT, les exercices de troubleshooting privent de ressources précieuses d’autres projets et tâches à plus forte valeur ajoutée. Sans compter que, si le problème tarde trop à être résolu, c’est toute la crédibilité des équipes IT qui en pâtit au sein de l’entreprise.

D’où la nécessité pour les entreprises de mettre en œuvre un outil de gestion de la performance applicative (APM – Application Performance Management), qui consiste à surveiller et analyser les performances de leurs applications afin d’identifier et de résoudre plus rapidement les ralentissements susceptibles d’impacter les utilisateurs. Ce faisant, elles peuvent avoir une approche proactive des problèmes, limiter leurs effets et améliorer la satisfaction de leurs utilisateurs.

Les premières solutions de gestion de la performance, apparues au milieu des années 1990, concentraient leurs efforts sur la qualité des réseaux et la puissance des postes utilisateurs. Puis elles ont évolué au fur et à mesure des avancées technologiques successives. Au cours des vingt dernières années, les architectures applicatives sont ainsi passées d’un modèle monolithique type mainframe à un modèle distribué type SOA (Service Oriented Architecture), jusqu’aux environnements Cloud et aux architectures microservices aujourd’hui en plein essor.

Cloud, microservices… : la performance face à la complexité

Comme les précédentes, les dernières avancées en matière d’architecture applicative soulèvent de nouvelles problématiques et de nouveaux enjeux quant à la gestion de la performance. Comment, en effet, comprendre et analyser des millions de dépendances et de métriques, au sein d’architectures digitales de plus en plus complexes, dynamiques, modulaires, élastiques et évolutives, où cohabitent un nombre croissant de technologies ?

Les solutions de monitoring applicatif doivent, par exemple, fournir des informations sur l’infrastructure Cloud elle-même, pour permettre notamment de répondre à la question cruciale : « a-t-on ce pour quoi on paye ? » Ce qui fait notamment référence au nombre de CPU, à la taille de la mémoire, aux performances du réseau, à la disponibilité, etc. Les instances Cloud ont tendance à être instables et à tomber sans prévenir. Est ce que cela conduit nécessairement à des problèmes de performance ou est-ce que cela peut être contourné à la volée en déplaçant la charge ou en lançant de nouvelles instances ? La nature éphémère des instances Cloud rend le monitoring plus complexe, puisque les données doivent être cartographiées correctement à travers plusieurs instances.

Le monitoring du réseau est lui aussi essentiel. D’abord, parce qu’un réseau est, par essence, une ressource partagée, particulièrement dans les environnements Cloud. Son débit et sa latence dépendent de nombreux facteurs externes, et évoluent sans cesse. Il est donc important d’en comprendre l’impact sur la performance des applications, sur différentes zones géographiques mais aussi localement, sur le trafic entre les différents composants de l’application.

Le succès d’un monitoring repose par ailleurs sur la richesse des données de contexte. Pour les départements IT, toute alerte sortie de son contexte représente autant de temps et d’efforts d’analyse et de compréhension. Chaque opération pour corréler les différents éléments est potentiellement source d’erreurs, mais aussi de frustrations et de frictions. C’est en particulier vrai dans des architectures microservices où l’identification manuelle de l’origine d’un problème revient à chercher une aiguille dans une botte de foin. D’où la nécessité d’avoir des outils qui fournissent des éléments de contextes clairs et des réponses pertinentes.

Les organisations doivent donc adopter une approche radicalement différente de la façon dont elles monitorent leurs applications et les environnements sur lesquels elles s’exécutent, si elles veulent en mesurer efficacement la performance et garder une approche proactive des problèmes. Les acteurs de l’APM, de leur côté, doivent reconsidérer leur approche, pour fournir aux entreprises davantage de valeur ajoutée que la simple identification de problèmes. Gérer la complexité : voilà le défi lancé par la nouvelle génération d’applications !

Quand l’APM devient intelligent

Les entreprises veulent (doivent) donc tout comprendre de toutes leurs transactions. Et seule une vision globale des performances applicatives leur permet de véritablement comprendre ce que font leurs utilisateurs, comment la performance impacte leur conversion, comment elles peuvent mieux protéger leur marque, et déterminer la meilleure stratégie d’investissement technologique. C’est pourquoi elles sont de plus en plus nombreuses à se tourner aujourd’hui vers le Management de la Performance Digitale (APM).

Dernière évolution en date de l’APM, qui met l’accent sur la capacité à capturer, de manière exhaustive, l’intégralité de chaque transaction pour chaque action utilisateur. Autrement dit, de l’ensemble de la chaîne complexe de métadonnées qui se cache derrière chaque clic, pour répondre à la requête d’un utilisateur, et ce quelle que soit la façon dont il interagit avec l’application.

Les entreprises attendent donc d’une solution d’APM, d’une part qu’elle découvre et cartographie, automatiquement et en temps réel, l’ensemble de leur environnement applicatif et de ses dépendances technologiques, d’autre part, qu’elle détecte et analyse, automatiquement et en continu, les anomalies de performances et leur cause.

C’est là que l’utilisation d’un moteur d’intelligence artificielle prend tout son sens. Cela fait des années que les sociétés de services financiers utilisent des analyses, des algorithmes prédictifs et des dispositifs d’automatisation, pour exécuter leurs transactions et mieux servir leurs clients. Intelligence artificielle, machine learning, algorithmes : quel que soit le nom qu’on leur donne, elles constituent une technologie éprouvée pour analyser (et répondre à) de gigantesques volumes de données en temps réel. Et c’est exactement ce dont on a besoin pour gérer la complexité croissante des applications de dernière génération.

Les moteurs d’intelligence artificielle sont ainsi capables d’apprendre le comportement et le niveau de performance habituels d’un environnement, et d’en détecter les anomalies. Quand un incident est identifié, ils scrutent des milliards d’évènements et utilisent des analyses Big Data pour identifier la cause du problème. L’avantage, pour les entreprises, à déployer des technologies d’intelligence artificielle, de machine learning ou d’algorithmes, en même temps que les analyses de leurs performances digitales, c’est qu’elles leur permettent de réduire les coûts associés à l’identification des problèmes et l’analyse de leurs causes. Elles n’ont plus besoin d’allouer leur capital humain le plus coûteux à des opérations de diagnostic ad hoc : elles peuvent le consacrer pleinement aux problématiques d’innovation pour lesquelles il a une réelle valeur ajoutée.

Les solutions de monitoring les plus récentes sont par exemple capables de s’intégrer de manière transparente avec les approches de livraison et d’intégration continues, et de fournir des données immensément riches. Elles peuvent comparer la nouvelle version d’une fonctionnalité aux précédentes, afin de révéler les changements en termes de qualité et de performance, sur des exécutions de tests plus ou moins longues. Le monitoring devient ainsi le principal outil d’amélioration de la qualité, tout au long du processus de développement, en identifiant la cause exacte d’un problème, et en permettant aux développeurs d’aller jusqu’à la ligne de code qui en est à l’origine.

L’intelligence artificielle constitue assurément un atout majeur en matière d’exploitation en temps réel de données dynamiques et complexes. L’avenir de l’APM appartient donc à ceux qui sauront, dès aujourd’hui, saisir cette chance pour mieux gérer la complexité inhérente aux applications de dernière génération.

Mickael Wozniak
Source : https://www.programmez.com/avis-experts/intelligence-artificielle-lavenir-de-lapm-commence-aujourdhui-26670

En plein débats sur l’accélération du réchauffement climatique, Stephen Hawking livre une nouvelle mise en garde à l’Humanité : la trajectoire actuellement suivie lui semble proprement insouten […]

Source : Pour Hawking, l’Humanité a 600 ans pour quitter la Terre

De multiples vulnérabilités ont été découvertes dans Fortinet FortiWLC et FortiMail. Elles permettent à un attaquant de provoquer une exécution de code arbitraire et une injection de code indirecte à distance (XSS).

Source : https://www.cert.ssi.gouv.fr/avis/CERTFR-2017-AVI-352/