Cloudnews
48.7K views | +1 today
Follow
 
Scooped by Yves Pellemans
onto Cloudnews
Scoop.it!

Après Amazon, Microsoft et Google, IBM intègre Docker à son cloud !

Après Amazon, Microsoft et Google, IBM intègre Docker à son cloud ! | Cloudnews | Scoop.it

Après Amazon, Microsoft et Google, c'est au tour d'IBM de rentrer dans la course au support de Docker, la technologie de containers Open Source qui monte. En plus de l'intégration à son PaaS Bluemix, Big Blue prévoit également de s'impliquer dans le développement de Docker Hub Enterprise.

La fièvre Docker continue de se répandre au sein des entreprises du secteur IT. Dans le sillage d'Amazon Web Services, Microsoft et Google, IBM est en train d'équiper ses services cloud d'entreprises pour faire tourner des containers de virtualisation Docker. Fournis comme élément des services de sa plate-forme Bluemix, le service IBM Containers est actuellement en beta et permettre aux utilisateurs de lancer et de faire tourner des containers Docker sur le cloud d'IBM. Le service va supporter toutes les fonctionnalités natives de Docker comme les nouveaux services d'orchestration que les administrateurs peuvent utiliser pour organiser et gérer des workloads complexes basés sur Docker.

Les containers Docker utilisés pour packager les applications
IBM a également noué un partenariat avec Docker, la société qui gère le logiciel Open Source de virtualisation, pour développer davantage Docker Hub Enterprise. Il s'agit d'un logiciel de gestion pour Docker qui peut être aussi bien être utilisé dans le cloud public, sur site que pour un déploiement dans le cloud privé. Les containers Docker peuvent être utilisées pour packager les applications de façon à ce qu'elles puissent être facilement déplacées sur différents serveurs.

Introduite l'année dernière, la technologie a prouvé son immense succès : elle a depuis été téléchargée plus de 50 millions de fois, selon Docker. Les fournisseurs de cloud ont été particulièrement friands pour supporter Docker, apportant des outils de gestion pour aider leurs clients à mieux utiliser Docker dans leurs environnements hébergés. Le mois dernier, Amazon a installé un service de gestion pour faire tourner Docker sur AWS. Google a de son côté lancé en Open Source son logiciel Kubernetes, taillé pour la gestion de containers. Microsoft a quant à lui passé un partenariat avec Docker pour créer une version de la technologie de container pourtourner sur Windows et la supporter aussi sur son service cloud Azure. D'autres fournisseurs cloud plus petits comme Digital Ocean et Joyent supportent également ardemmant la technologie dans leurs propres services.

Le service IBM Containers sera d'abord disponible en version beta à des fins de test. Big Blue n'a pas annoncé de prix ni précisé quand la version commerciale de son service sera lancée.

more...
No comment yet.
Cloudnews
Toute les news sur la transformation digitale, l'hybride Cloud, le data analytic, l'IA et l'Automation
Curated by Yves Pellemans
Your new post is loading...
Your new post is loading...
Scooped by Yves Pellemans
Scoop.it!

IA : Intel révise ses ambitions à la hausse

IA : Intel révise ses ambitions à la hausse | Cloudnews | Scoop.it

Intel a fait plusieurs annonces clés lors de son Data-Centric Innovation Summit organisé la semaine dernière à Santa Clara (Californie).

 

La multinationale a notamment déclaré avoir généré plus de 1 milliard de dollars en 2017 grâce aux ventes de ses processeurs Xeon. Ces derniers sont utilisés pour des traitements d’intelligence artificielle (IA) dans les centres de données.

 

Par ailleurs, avec la génération Cascade Lake, les prochains Xeon Scalable de l’entreprise américaine supporteront la mémoire persistante Intel Optane DC. Et de nouvelles fonctionnalités d’IA (Intel DL Boost), comme l’a indiqué Silicon.fr.

 

En conséquence, Intel a révisé à la hausse le marché adressable total (TAM) pour son activité orientée data. Le fondeur parle désormais d’un TAM de 200 milliards de dollars en 2022, contre 160 milliards de dollars initialement.

 

Pour Navin Shenoy, vice-président exécutif et directeur général du groupe datacenter d’Intel, l’industrie doit appréhender la data de manière holistique.

 

« La réalisation d’un tel objectif exige une combinaison de technologies fonctionnant de concert – parmi lesquelles la vision par ordinateur, le calcul à la périphérie (edge computing), la cartographie, le cloud et l’intelligence artificielle », a-t-il déclaré.

Intel se positionne ainsi comme un acteur technique incontournable de ce marché.

Yves Pellemans's insight:

200 milliards de dollars à horizon 2022. C’est la valeur du marché que veut adresser le fondeur pour son activité orientée intelligence artificielle et datacenters.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Trimestriels : les revenus de Netapp en hausse de 12%

Trimestriels : les revenus de Netapp en hausse de 12% | Cloudnews | Scoop.it

Netapp a publié ses résultats financiers pour son premier trimestre fiscal 2019 qui s’est achevé fin juillet. George Kurian, directeur général explique d’emblée que le chiffre d’affaires, la marge brute, la marge opérationnelle et le bénéfice par action ont tous dépassé ses prévisions.

Le chiffre d’affaires a ainsi atteint 1,47 milliard de dollars, en hausse de 12% par rapport au 1,32 milliard de dollars du premier trimestre de l’exercice 2018. Le fournisseur de solutions de stockage affiche un bénéfice net (GAAP) de 283 millions de dollars, contre un bénéfice net de 131 millions de dollars sur la même période de l’an dernier.

« Les entreprises voient la valeur de notre stratégie Data Fabric et affichent une forte confiance en NetApp en effectuant des investissements à long terme dans notre logiciel IP pour activer le Data Fabric dans toute l’entreprise », a déclaré George Kurian lors de sa communication avec les analystes.

Netapp indique que sa gamme de produits 100% flash, y compris les produits et services FAS, EF et SolidFire 100% Flash, a progressé de 50% en glissement annuel pour atteindre 2,2 milliards de dollars en chiffre d’affaires annualisé.

« La transition du marché vers le Flash, qui en est encore à ses débuts, nous offre une énorme opportunité, car nous consolidons et déplaçons les équipements existants des concurrents et nous participons à de nouveaux déploiements de charges de travail et solutions », a poursuivi George Kurian.

Netapp prévoit que les revenus de son deuxième trimestre fiscal se situeront entre 1,45 milliard et 1,55 milliard de dollars, ce qui, à mi-parcours, représente une augmentation de 6% d’une année sur l’autre. Netapp précise également avoir relevé ses prévisions annuelles pour tenir compte de sa performance du premier trimestre.

Yves Pellemans's insight:
Netapp : +12% de CA et doublement du bénéfice Net (GAAP) 
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Les systèmes de fichiers sont bien plus en danger qu’on ne le pense

Les systèmes de fichiers sont bien plus en danger qu’on ne le pense | Cloudnews | Scoop.it

Ces informations en libre-service sont la plupart du temps des données obsolètes mais sensibles, qui relèvent aujourd’hui de diverses réglementations, comme la loi de Sécurité Financière (LSF), le RGPD ou encore la norme de sécurité des données pour le secteur des cartes de paiement (PCI). Toute personne divulguant ou même consultant ces données sans autorisation adéquate s’expose à des sanctions. Quant à l’entreprise qui laisse fuiter de telles informations, les conséquences sur son activité ou à minima sur son image de marque seront désastreuses.

Savez-vous où sont stockées vos données sensibles ? Les pirates, eux, le savent

Le rapport Data Risk Report met l’accent sur les raisons d’élaborer des règles pour protéger des données, et sur la nécessaire prise en compte de ces questions par les conseils d’administration. Sans cela, les pirates, qu’ils soient à l’intérieur ou à l’extérieur de l’entreprise, ont pour ainsi dire le champ libre pour consulter et dérober des données critiques. Lors des attaques internes, ils n’ont qu’à fureter pour identifier les fichiers sensibles laissés sans protection. Quant aux attaques externes, force est de constater que les cyber-malfaiteurs continuent de franchir sans difficulté les barrières de sécurité.

L’hameçonnage reste une des techniques privilégiées par les attaquants extérieurs : un e-mail, provenant apparemment d’une source légitime, contient un lien ou tout simplement une pièce jointe. Lorsqu’un employé clique sur le lien ou la pièce jointe, un programme malveillant est installé sur l’ordinateur de l’utilisateur. Piloté depuis un site distant, ce programme permet aux pirates d’accéder aux ressources internes de l’entreprise, tout comme s’ils étaient eux-mêmes employés de l’entreprise.

En plus de l’hameçonnage, les pirates ont su tirer profit de la faiblesse des mots de passe, des failles de sécurité connues mais non corrigées, ou encore d’un afflux constant de nouvelles vulnérabilités qu’ils savent exploiter. Avec toutes ces techniques à leur disposition, rien n’est plus aisé pour ces pirates de devenir des « employés fictifs » et d’accéder à toutes les données qui n’ont pas été protégées.

Pourquoi les attaques ne sont-elles pas détectées plus tôt ?

Malheureusement, la plupart des entreprises ne savent pas vraiment ce qui se passe au sein de leurs infrastructures. Quand nous échangeons avec les responsables des systèmes d’information et de la sécurité informatique, nous posons souvent une question toute simple : « comment savez-vous si vos 10 000 fichiers contenant des informations sensibles ont été corrompus, effacés ou consultés ? »

La réponse pourra surprendre ceux qui n’ont jamais travaillé dans l’informatique : la plupart des organisations ne surveillent pas l’utilisation de ces fichiers. Et si l’on ne surveille pas l’utilisation qui en est faite des fichiers, il semble très difficile de détecter quand ceux-ci font l’objet d’une malveillance. Imaginons qu’une société de cartes de paiement cherche à identifier des transactions frauduleuses alors qu’elle n’est pas capable de contrôler les débits — une véritable gageure.

Investissez là où sont concentrés les risques

Si votre entreprise envisage d’investir dans la sécurité, les quelques conseils suivants vous aideront à bénéficier pleinement du potentiel de ces investissements :

> Tout d’abord, évaluez les risques en faisant l’inventaire de ce qu’il vous faut protéger.Identifiez les données importantes, sensibles et réglementées aux endroits qui vous semblent évidents et, plus important encore, là où vous ne vous attendez pas à en trouver.
Ne vous arrêtez pas là : vous devez encore identifier les personnes qui y ont accès, vérifier si ces données sont utilisées et si oui, par qui. Vous avez besoin de ces différentes informations pour décider si les données en question sont nécessaires (plus de la moitié sont probablement obsolètes), pour identifier les endroits où elles sont les plus exposées et donc pour repérer les utilisations frauduleuses.

> Ensuite, traitez ces risques. Verrouillez les données sensibles qui sont exposées. Efforcez-vous de compliquer les choses pour les attaquants, à l’intérieur et à l’extérieur de la structure, qui souhaitent utiliser les identifiants de connexion d’un employé lambda pour accéder aux précieux numéros de carte de crédit ou de sécurité sociale. Archivez, supprimez ou mettez en quarantaine les données obsolètes qui ne sont pas vraiment nécessaires et qui, en définitive, ont moins d’utilité pour vous que pour les pirates.

> Enfin, pour minimiser votre exposition au risque, vous devez désigner un coordonnateur qui prendra des décisions concernant vos données importantes. Parmi celles-ci : à qui l’accès doit-il être accordé ou enlevé, comment définir une utilisation acceptable, quand les données doivent-elles être effacées ? Aidez les coordonnateurs à prendre des décisions éclairées avec un minimum d’intervention de leur part, et vous pourriez même diminuer vos risques tout en augmentant votre efficacité.

Le flux de données est exponentiel. Nous devons donc nous attendre à davantage d’attaques. Les dirigeants des entreprises ont reçu le message et commencent à mettre en place des mesures de protection, sous la pression des nouvelles réglementations.
Rester dans l’ombre en espérant passer inaperçu est inutile : les organisations qui investissent intelligemment, en s’appuyant sur une analyse hiérarchisée des risques, seront bien mieux préparées pour faire face à la prochaine vague de cybercriminalité.

Yves Pellemans's insight:

Dans une entreprise, un dossier sur cinq est lisible par n’importe lequel des collaborateurs.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

5G : Samsung se place en pole position avec le modem Exynos 5100

Samsung a annoncé son modem 5G Exynos 5100 qui sera disponible d’ici la fin 2018.

Samsung pousse dans le domaine très en vogue de la 5G. La firme sud-coréenne a ainsi développé son propre modem 5G compatible avec la spécification standard la plus récente 5G New Radio (5GNR) – Release 15 – de l’organisme de normalisation mondial 3GPP.

Ce dernier n’a approuvé la version 15 qu’en juin dernier et l’a publiée en juillet.

 

Baptisé Exynos 5100, il est gravé en classe 10 nm (nanomètres).

Il porte en germe la promesse de débits allant jusqu’à 6 Gbit/s pour les ondes millimétriques, jusqu’à 2 Gbits/s pour les fréquences sub-6 GHz et 1,6 Gbps pour la 4G LTE Advanced.

Il supporte aussi les réseaux GSM et CDMA (2G), WCDMA (3G), TD-SCDMA et HSPA, permettant d’utiliser un seul téléphone dans de nombreuses régions, notamment aux États-Unis et en Corée du Sud.

Yves Pellemans's insight:

La puce Samsung Exynos 5100, supporte la 5G et la pré-5G, mais également le 2G, 3G et 4G. Elle sera disponible dès Décembre 2018.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Face aux Gafa, l'Inde veut reprendre le contrôle de ses données

Face aux Gafa, l'Inde veut reprendre le contrôle de ses données | Cloudnews | Scoop.it
À l'instar de la Chine, le gouvernement indien plancherait sur un projet de loi pour obliger les sociétés étrangères à stocker les données personnelles des utilisateurs sur son territoire. Le but : reprendre le contrôle des données de ses citoyens et favoriser l'écosystème local pour faire émerger ses propres mastodontes du numérique.

L'Inde sort ses griffes. Le gouvernement plancherait sur un projet de loi afin de compliquer l'expansion des géants américains de la tech sur son territoire. L'objectif : reprendre le contrôle des données de ses citoyens et favoriser l'écosystème local pour faire émerger ses propres mastodontes du numérique. Le projet de loi propose notamment de rendre obligatoire, pour les sociétés étrangères, le stockage des données personnelles des utilisateurs indiens - issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce - sur son sol. Les données devront également être rendues accessibles aux autorités locales en cas d'enquête.

Ce projet "est sans précédent et doit être pris très au sérieux", a déclaré auprès du Wall Street Journal Vinay Kesari, avocat basé à Bangalore, et spécialisé dans les questions de réglementation, ayant travaillé avec des entreprises technologiques américaines. "Cela pourrait avoir d'énormes implications."

Un marché potentiel de 390 millions d'internautes

Dans le viseur de l'Inde : les géants américains qui opèrent sur son territoire, comme Google, Apple, Facebook ou encore Amazon. À défaut de pénétrer le marché chinois, où la plupart des acteurs étrangers sont censurés au nom de la politique de contrôle de l'Internet, connue sous le nom de "Great Firewall of China" (en français, Grande Muraille électronique de Chine), les entreprises américaines ont redoublé d'efforts ces dernières années pour séduire le marché indien. À commencer par Amazon.

Suite aux difficultés rencontrées par l'ogre du commerce en ligne pour s'imposer en Chine face au géant Alibaba, le Pdg et fondateur Jeff Bezos a revu sa stratégie d'implantation en Asie pour miser sur l'Inde. En juin 2016, en visite dans le pays, l'homme d'affaires avait annoncé un plan d'investissement de 3 milliards de dollars, qui venait s'ajouter à celui de 2 milliards déjà mis sur la table en 2014. Car le marché indien a de quoi faire saliver le leader mondial de l'e-commerce. D'après RedSeer Consulting, les ventes annuelles des sites d'e-commerce en Inde représenteront entre 80 et 100 milliards de dollars d'ici 2020, contre 13 milliards en 2016. Et ce n'est pas tout. L'Inde est désormais le deuxième marché mondial des smartphones et recense 390 millions d'internautes, se classant ainsi derrière la Chine mais devant les États-Unis. De quoi faire saliver les sociétés de la Silicon Valley...
L'Inde imite la Chine

L'Inde marche ainsi dans les pas de son voisin chinois, qui, en rendant son marché difficile d'accès, a favorisé l'émergence des géants Alibaba et Tencent. La deuxième économie mondiale a notamment adopté une législation similaire en novembre 2016, forçant les entreprises étrangères à stocker sur son territoire les données des internautes chinois. Ainsi, Apple a construit son premier data center en Chine, et a confié la gestion des données de ses utilisateurs à un partenaire local.

Ce projet de loi arrive au moment où le régulateur indien des télécoms menace d'interdire l'accès au réseau mobile national aux iPhone. Depuis deux ans, Apple refuse de rendre disponible au téléchargement une application anti-spam, développée sous l'égide du gouvernement indien. Cette application a officiellement été créée pour lutter contre le démarchage téléphonique abusif - très répandu dans le pays - en filtrant les messages et les appels indésirables. De son côté, le fabricant d'iPhone suspecte l'appli de siphonner massivement les données personnelles des utilisateurs... Apple dispose de six mois pour se conformer aux exigences du régulateur, avant de se voir couper l'accès au réseau, rendant ses téléphones inutilisables.
Yves Pellemans's insight:

Le projet de loi propose de rendre obligatoire le stockage des données personnelles issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce, sur son sol !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cloud décentralisé : l'utilisateur devient fournisseur... et les prix chutent

Cloud décentralisé : l'utilisateur devient fournisseur... et les prix chutent | Cloudnews | Scoop.it
Plusieurs start-up ont commencé à dessiner les contours d'offres cloud décentralisées. Face aux Alibaba Cloud, AWS, IBM Cloud, Google Cloud Platform et Microsoft Azure, ces jeunes pousses, parmi lesquelles figurent les Américains Dfinity et Otoy, le Polonais Golem ou le Français iExec, proposent une alternative. Un modèle distribué, souvent à base de blockchain, permettant à toute entreprise ou particulier de vendre de la ressource informatique (SaaS, IaaS, PaaS). Le concept a émergé en 2017 (lire notre article : Demain, vers une bourse du cloud computing). Mais désormais, la tendance s'accélère.

Comme souvent, les premiers frémissements viennent de Chine. Xunlei a annoncé en janvier dernier vouloir se positionner sur le créneau. Et le groupe Internet chinois ne part pas de rien. Il compte en effet tirer parti du million de serveurs multimédia déjà déployés chez ses clients particuliers. Des boîtiers, baptisés OneThing Cloud, qui leur permettent de stocker données et fichiers personnels. Cette base représenterait une manne de 1000 petabytes de stockage (pour environ 10 terabytes de bande passante). Et ce ne serait là qu'un début. Xunlei affirme avoir reçu des commandes pour 20 millions de boîtiers supplémentaires (selon Forbes). Pour l'heure limitée à la Chine, la commercialisation de OneThing Cloud devrait être étendue à terme à l'Asie du Sud, à l'Inde et aux Etats-Unis.

Au premier trimestre, Xunlei a lancé un premier service cloud décentralisé tirant parti de l'infrastructure OneThing Cloud : un réseau de diffusion de contenu web (CDN). Une brique que l'entreprise de Shenzhen compte enrichir dans les prochains mois avec d'autres solutions d'IaaS (centrées sur le calcul, le stockage). Pour inciter ses clients à donner accès à leurs ressources inutilisées, Xunlei offre des crédits gratuits à ses services (VOD, accélération réseau, stockage de fichiers…), et ce via sa propre crypto-monnaie, le LinkToken.
100 millions de dollars de R&D

Reste qu'un cloud distribué, à travers lequel les ressources IT sont réparties sur des milliers voire des millions de terminaisons réseau, se révèle par définition nettement plus complexe à opérer qu'un cloud centralisé. Face à ce défi technique, Xunlei indique avoir dépensé plus de 100 millions de dollars de R&D depuis 2014. "Il faut dire également que tous les traitements ne sont pas aussi facilement applicables à une infrastructure informatique décentralisée", prévient Gilles Fedak, chercheur à l'Inria et fondateur d'iExec. "Globalement, il vaut mieux être en présence d'une application déterministe, et éviter les systèmes aléatoires. De même, certains environnements type site web seront plus difficiles à distribuer."

A l'instar de Xunlei, iExec n'en est plus à l'étape de la preuve de concept. Après une ICO de 12,5 millions de dollars bouclée en mai 2017, cette spin-off de l'INRIA a lancé sa plateforme en novembre. Centrée pour l'heure sur le SaaS, elle s'articule autour d'une place de marché (Dapp Store) où les éditeurs peuvent venir vendre leurs applications cloud. Sous le capot, la blockchain Ethereum et ses smart contracts orchestrent la logique commerciale : les conditions de mise à disposition des apps et les transactions financières sous-jacentes opérées via l'échange de tokens. Un kit de développement est mis à la disposition des éditeurs pour créer des applications.

"Notre objectif est de proposer une solution cloud similaire à celle d'Amazon Web Services, mais beaucoup moins chère"

Pour l'heure, la plateforme d'iExec compte une quinzaine de logiciels. "Ils recouvrent des workloads éligibles à une architecture de calcul réparti. On en trouve dans le rendu graphique, l'IA d'apprentissage, avec une déclinaison cloud de Tensorflow par exemple, ou encore dans la prédiction financière", égraine Gilles Fedak. En janvier, iExec a lancé un hackathon avec à la clé 150 000 dollars à gagner. Objectif : attirer de nouvelles applications. "Sur 50 candidats, nous en avons sélectionné 15. Notre objectif est dès lors de hisser notre app store à 30 à 40 applications d'ici la fin du premier semestre", précise Gilles Fedak.

En parallèle, iExec planche sur l'extension de son offre au IaaS. Pour doter sa place de marché d'un premier pool de fournisseurs de capacité de calcul, la jeune pousse a commencé à signer des alliances. Parmi ses premiers partenaires figurent le spécialiste du cloud mining Genesis Mining (qui entend faire appel à elle pour commercialiser les ressources inutilisées de sa ferme de calcul). Mais également Stimergy, un spécialiste des chaudières connectées, Cloud&Heat, un fournisseur de systèmes de cloud privé, ou encore Qarnot Computing, qui commercialise des serveurs-radiateurs.
Objectif sécurité

"Notre objectif est de proposer une solution cloud similaire à celle d'Amazon Web Services, mais beaucoup moins chère", explique de son côté Chen Lei, PDG de Xunlei. Le modèle est imparable : le groupe chinois fait reposer l'investissement matériel sur les épaules de ses abonnés. Chez iExec, on met aussi en avant des coûts censés être plus faibles, mais pas pour les mêmes raisons. "A terme, les services cloud distribués via notre plateforme devraient afficher des prix plus faibles que le marché du fait de la dynamique de concurrence qui va s'instaurer entre les éditeurs impliqués", commente Gilles Fedak.

Autre point fort mis en avant par iExec : son infrastructure de sécurité. La société lyonnaise a mis au point un algorithme, baptisé Proof of Contribution, qui, en fonction de la capacité d'un éditeur à livrer correctement un service cloud lui attribue un score de réputation. "Sachant qu'en amont chaque fournisseur doit verser une caution. Si l'exécution du service est réalisée avec succès pour le compte d'un client, la caution lui est reversée, dans le cas contraire, il la perd", ajoute Gilles Fedak. Dans la même logique, iExec a optimisé sa plateforme pour permettre aux applications qui y sont exécutées de tirer parti des processeurs Intel SGX, et de leur mécanisme d'enclave sécurisé. Un dispositif qui garantit (via un système de signature) qu'un logiciel a été correctement exécuté sur une machine, et ce sans que quiconque ait pu y avoir accès ou le falsifier, y compris le propriétaire de cette dernière.

Pour réaliser ce tour de passe-passe, iExec s'est notamment rapproché d'Intel, mais aussi d'IBM. La start-up a commencé à tester le principe des enclaves sur le cloud public de Big Blue, qui implémente justement la technologie SGX (lire le post sur le site d'iExec). "Mais il ne s'agit pas du seul grand fournisseur de cloud avec lequel nous discutons. Nous espérons bien qu'ils seront au moins deux à rallier notre réseau au moment de l'extension de notre plateforme au IaaS", confie Gilles Fedak. Une nouvelle étape dont le coup d'envoi devrait être donné d'ici fin mai.
Yves Pellemans's insight:

De jeunes pousses proposent une alternative. Un modèle distribué, souvent à base de blockchain, permettant à toute entreprise ou particulier de vendre de la ressource informatique (SaaS, IaaS, PaaS). Le concept entre cloud et Edge computing a émergé en 2017 et la tendance s'accélère. A suivre ....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Uber multiplie les partenariats pour que ses taxis volants puissent décoller en 2023

Uber multiplie les partenariats pour que ses taxis volants puissent décoller en 2023 | Cloudnews | Scoop.it

L’Université du Texas à Austin rejoint la longue liste des partenaires rassemblés par Uber afin de l'aider à concevoir les moteurs de ses futurs taxis volants, a annoncé l'institution le 9 août. Il faut dire qu'il ne reste plus que deux ans à la société de VTC pour respecter le calendrier de son programme Uber Elevate, qui fixe les premiers tests en 2020. La commercialisation du service est quant à elle prévue à Dallas-Forth Worth, Los Angeles et Dubai en 2023.


L’équipe d’ingénieurs de l'Université du Texas doit évaluer l'efficacité du nouveau système de motorisation intégré aux taxis volants. Le concept consiste en deux moteurs empilés l’un sur l’autre et tournant dans le même sens. L’armée américaine, dont Uber s’est également attaché les services, y travaille encore. Mais selon les premiers essais, il constituerait à ce jour l'approche la plus efficiente pour ce type de transport. Les ingénieurs de l'Université du Texas doivent également mesurer le niveau sonore de ces nouveaux moteurs afin qu'ils ne soient pas un frein à l'autorisation de voler en milieu urbain. Uber collabore aussi avec la Nasa et d’autres entreprises du secteur aérospatial pour s'assurer que ces moteurs soient suffisamment puissants.



185 000 DOLLARS VERSÉS À L’UNIVERSITÉ DU TEXAS

Le projet sera-t-il prêt à temps ? Difficile à dire car il s’avère ambitieux. Les futurs taxis volants devront pouvoir transporter jusqu’à quatre passagers à une vitesse comprise entre 240 et 320 kilomètres/heure et une altitude de 300 et 600 mètres. Ils décolleront et atterriront via des hubs verticaux nichés sur les toits des immeubles. Ceux-ci leur permettront de recharger leurs batteries en cinq minutes chrono. Juste le temps de débarquer et de reprendre de nouveaux passagers. Plus de 1000 décollages par heure sont prévus sur certains hubs aux heures d'affluence.

Dans ce projet, Uber établit un cahier des charges pour ses partenaires, mais le groupe n'endosse pas le rôle de constructeur ni d'acheteur. Il veut conserver son rôle de plateforme, le même que celui qu'il joue aujourd'hui auprès des VTC, souligne Le Monde. Cela ne l'empêche pas de mettre la main à la poche. La société aurait ainsi versé pas moins de 185 000 dollars à l’Université du Texas pour les 18 mois de labeur à venir, rapporte l'Austin Business Journal. Mais cela sera-t-il suffisant ? Car même si son taxi voyait le jour dans les temps, sans l’aval des autorités américaines, il risquerait fort de ne jamais décoller.

Yves Pellemans's insight:

Le projet sera-t-il prêt à temps ? Difficile à dire car il s’avère ambitieux. Les futurs taxis sont des aéronefs à décollage et atterrissage verticaux totalement électriques qui tiennent autant de l’hélicoptère que du drone ...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Sécurité cloud : AWS expose des données d'infrastructure de GoDaddy

Amazon Web Services (AWS) a exposé par accident options de tarification et configurations détaillées de 31 000 serveurs utilisés par GoDaddy.

AWS, référence mondiale du cloud public, et GoDaddy, poids lourd de l’enregistrement de noms de domaine et de l’hébergement web, se seraient bien passés de cette exposition.

Des documents détaillant l’infrastructure et des ressources utilisées par GoDaddy dans le cloud d’Amazon (AWS) ont été accessibles publiquement sur Internet. C’est ce qu’indique un rapport de la société de cybersécurité UpGuard, dont Engadget s’est fait l’écho.

Le 19 juin 2018, un chercheur de l’équipe UpGuard Cyber Risk a découvert un « bucket » (seau) du service de stockage Amazon S3 (Simple Storage Service) publiquement lisible, nommé abbottgodaddy. S’y trouvaient des feuilles de calcul appartenant à GoDaddy, dont un fichier Excel de 17 Mo.

Dans son analyse mise en ligne le 9 août, UpGuard indique que les fichiers en accès public contenaient « des informations de configuration de haut niveau pour des dizaines de milliers de systèmes et des options de tarification pour l’exécution de ces systèmes dans le cloud d’AWS ».

Ce sont ainsi 31 000 serveurs dont les détails ont été exposés (noms d’hôtes, systèmes d’exploitation, CPU, ressources mémoire, charges de travail, régions AWS, etc.).

« Les remises offertes en fonction de différents scénarios » étaient également disponibles. En fait, « ces données permettaient de cartographier un déploiement à très grande échelle d’une infrastructure basée sur le cloud AWS », a expliqué l’entreprise de cybersécurité.

Comme pour d’autres expositions de données sensibles répérées par ses soins, UpGuard a rapidement alerté les sociétés concernées par sa découverte. Des dispositions ont été prises dans la foulée pour colmater la brèche, selon la firme californienne.
Les « meilleures pratiques » négligées ?

AWS a confirmé l’information. En revanche, ni un tiers, ni le client n’ont été mis en cause. « Le bucket en question a été créé par un commercial AWS pour stocker des scénarios de tarification AWS prospectifs », a expliqué un(e) porte-parole à Engadget. Mais ce commercial n’aurait « pas suivi les meilleures pratiques » d’AWS en la matière. Lampiste ?

Normalement, les buckets d’Amazon S3 sont privés par défaut (accessibles au titulaire du compte et à l’administrateur root). Mais, ils peuvent être configurés de manière à permettre un accès public. Que ce soit par erreur ou à dessein. Dans ce cas, toute personne qui visite l’URL du seau concerné peut accéder à son contenu et le télécharger…

Au risque de tomber entre de mauvaises mains et d’impacter les finances et l’activité des organisations ciblées. AWS a donc tenté d’apaiser. « Aucune information de clients GoDaddy n’était dans le bucket exposé », a indiqué le fournisseur cloud. De quoi rassurer les 18 millions de clients revendiqués dans le monde par le registrar américain GoDaddy ?
Yves Pellemans's insight:

Ce sont ainsi 31 000 serveurs dont les détails ont été exposés (noms d’hôtes, systèmes d’exploitation, CPU, ressources mémoire, charges de travail, régions AWS, etc.).

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Black Hat 2018 : 5 tendances clés de cybersécurité

L’édition 2018, la 21e, de la conférence Black Hat USA a lieu cette semaine à Las Vegas (Nevada). Plus de 17 000 professionnels de la sécurité informatique et du renseignement échangent entre eux et testent de nouveaux produits et services.

Automatisation, intelligence artificielle, protection des données et des infrastructures critiques à l’heure de la mutiplication des terminaux et objets connectés sont au coeur des débats, rapporte CRN. Voici 5 grandes tendances mises en exergue :
SOAR, IA, Data, logistique, IOT

1. Vers une prochaine génération de solutions d’orchestration et d’automatisation de gestion des incidents de sécurité (SOAR – Security Orchestration and Automation Response).

2. Montée en puissance de l’intelligence artificielle (IA) et des capacités d’analyse du comportement des utilisateurs et des entités (UEBA – User and Entity Behavior Analytics) basée sur l’apprentissage automatique (Machine Learning).

3. Investissements en hausse des entreprises dans la protection des données et la gestion des accès. L’évolution du cadre réglementaire (RGPD – Règlement général sur la protection des données, directive e-Privacy…) explique la tendance.

4. La chaîne d’approvisionnement et la logistique sont fortement menacées (attaques par rançongiciels (ransomwares) et malwares destructeurs, menaces persistantes…). Et les tierces parties de la chaîne peuvent également être des cibles.

5. La surface d’attaque augmente encore avec l’internet des objets (IoT).
Yves Pellemans's insight:

Orchestration de sécurité, analyse, data, logistique et infrastructure à l’heure du tout connecté sont au coeur de la conférence Black Hat.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

BI & Big Data : Qlik rachète Podium dans sa stratégie de diversification et de reconquête

Qlik vient de racheter la startup Podium Data. L'acquisition donne au fournisseur de Data Visualisation et de BI en libre-service une nouvelle brique de gestion des données pour renforcer sa stratégie en entreprise et muscler sa capacité à concurrencer son grand rival Tableau.

Selon les termes de l'accord, Podium Data transférera ses 30 employés - y compris les co-fondateurs et l'équipe de direction - de son siège social de Lowell au bureau régional de Qlik à Newton. Les conditions financières n'ont pas été divulguées.

Podium sera une filiale à 100 % de Qlik. Elle fonctionnera comme une unité commerciale distincte, mais avec des connexions plus étroites avec la plate-forme de Qlik pour fournir des « capacités étendues de gestion BI des données », dixit Drew Clarke, vice-président senior en charge de la stratégie chez Qlik.

La technologie de Podium automatise l'ingestion, la validation, la curation et la préparation des données. Elle restera ouverte et pourra s'intégrer aux plateformes de BI et d'analyse d'autres fournisseurs, assure néanmoins Paul Barth, PDG de Podium.

Qlik sur le retour ?

Stratégiquement, cette acquisition s'inscrit dans le cadre des efforts de Qlik pour se remettre des problèmes commerciaux qui l'ont conduit à être racheté par la société de capital-investissement Thoma Bravo en 2016. Il s'en est suivi de multiples licenciements et un changement de direction. Entre temps, Qlik a pris du retard en marketing et en développement de produits sur Tableau et sur le nouveau venu en plein boom Power BI de Microsoft.

« Cela fait partie d'une accélération dans la concrétisation de notre vision », a déclaré Drew Clarke lors d'une co-conférence de presse avec Paul Barth au bureau de Newton. « Lorsque nous avons examiné ce qui se passait dans les mégadonnées (Big Data) en termes de volumétrie et de gestion de ces données pour les rendre accessibles et prêtes pour l'analyse, nous avons estimé que la solution de Podium était parfaitement adaptée [à notre stratégie de développement] ».

Bien que Drew Clarke soutienne que Qlik est depuis longtemps « adapté au niveau d’exigence des entreprises » plutôt qu’adapté à leurs départements et à leurs services, il a également admis que la technologie de Podium donnait à Qlik la capacité de mieux monter en charge et de gérer de plus gros volumes de données.

Yves Pellemans's insight:

Avec l'acquisition de Podium Data, Qlik amplifie ses capacités de préparation et d’ingestion des données.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Nutanix entre sur le marché du DaaS multicloud en rachetant Frame

Nutanix entre sur le marché du DaaS multicloud en rachetant Frame | Cloudnews | Scoop.it

Nutanix a annoncé son intention d’acquérir le spécialiste de la fourniture d’infrastructures et d’applications de bureau virtualisées Frame. Frame permettra à Nutanix de fournir une solution de desktop sous forme de service (DaaS) dans son offre Cloud Nutanix Xi, qui prendra en charge l’instanciation de bureaux virtuels en un clic sur Amazon Web Services et Microsoft Azure. La solution DaaS de Frame est nativement multi-cloud et permet aux directions informatiques de fournir des bureaux virtuels indifféremment à partir de clouds publics ou de leurs propres datacenters. Frame intègre des fonctionnalités de mise à l’échelle automatique qui garantissent des performances élevées à toutes les échelles, tout en étant capable de prendre en charge plusieurs clients en isolant complètement les utilisateurs, les postes de travail et les données.

Yves Pellemans's insight:

Avec le rachat de Frame, Nutanix prendra en charge l’instanciation de bureaux virtuels sur Amazon Web Services et Microsoft Azure

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Le fabricant de puces TSMC, fournisseur de l'iPhone, victime d'une cyberattaque qui a perturbé sa production

Le fabricant de puces TSMC, fournisseur de l'iPhone, victime d'une cyberattaque qui a perturbé sa production | Cloudnews | Scoop.it

L'entreprise taïwanaise TSMC, l'une des plus importantes fonderies d'électronique au monde, a vu ses usines perturbées par une cyberattaque le 3 août. Une partie de ses lignes de production ont été arrêtées durant le week-end afin de rétablir les équipements atteints. En tant que fournisseur d'Apple, AMD, Nvidia et Qualcomm, TSMC joue un rôle clé dans la production d'appareils électroniques grand public.

Yves Pellemans's insight:

TSMC, l'une des plus importantes fonderies d'électronique au monde, a vu ses usines perturbées par une cyberattaque le 3 août

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Puce IA haute performance : Baidu dévoile Kunlun

Baptisée Kunlun, la puce a été est conçue pour gérer les modèles AI pour l’edge computing sur les périphériques et dans le cloud via des data centers.
260 TOPS

Kunlun est en fait décliné en deux moutures : la version 818-300 sera utilisée pour l’entraînement des agents IA et la 818-100 pour l’inférence.

La puce Kunlun ne constitue pas le premier pas du géant chinois dans le développement de puces pour l’IA.

Dès 2011, Baidu avait en effet commencé à mettre au point un accélérateur matériel pour l’IA basé sur une puce de type FPGA (Field-Programmable Gate Array) et destiné à l’apprentissage en profondeur (deep learning). Parallèlement, le groupe avait aussi commencé à exploiter des GPU pour les centres de données.

Mais, Kunlun permet à Baidu de faire un bond en termes de performances. La puce est en effet près de 30 fois plus véloce que son accélérateur FPGA. A noter que pour son projet Brainwave, Microsoft exploite également des puces de type FPGA pour le traitement rapide de l’IA dans le cloud.

Gravée dans une technologie Samsung de 14 nm (nanomètres), sa bande passante mémoire est de 512 Go / s et ses performances de 260 TOPS (Tera Operations Per Second), le tout avec une consommation de 100 watts.
D’autres annonces

En plus de supporter les algorithmes communs d’apprentissage en profondeur, la puce Kunlun peut également prendre en charge une grande variété d’applications IA, telles que la reconnaissance vocale, le classement par recherche, le traitement du langage naturel, la conduite autonome et les recommandations à grande échelle.

Baidu a également annoncé une mise à jour de sa suite de services IA, avec le lancement de Baidu Brain 3.0. La plate-forme peut désormais fournir une simple formation des modèles IA par glisser-déposer. Elle offre actuellement 110 services IA, allant de la vision par ordinateur au traitement du langage naturel en passant par le logiciel de reconnaissance faciale.

Parallèlement, le groupe dirigé par Robin Li a également accéléré la production de son bus entièrement autonome Apolong, développé en partenariat avec le fabricant local King Long. Les premiers mini-bus de 14 places devraient être livrés au Japon d’ici début 2019 en partenariat avec une filiale de SoftBank.

La Chine est à l’avant garde en matière d’IA. Plus globalement, le gouvernement a fait du développement de puces en interne une priorité.

Avec son plan «Made in China 2025», ce dernier escompte que les puces « domestiques » représentent 40 % de ses besoins.

Yves Pellemans's insight:

La première puce IA chinoise est gravée en 14 nm (nanomètres), la bande passante mémoire est de 512 Go / s et ses performances sont de 260 TOPS (Tera Operations Per Second) pour une consommation de 100 watts. 

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Troisième trimestre de croissance d’affilée pour Cisco qui termine son exercice 2018 en beauté

Troisième trimestre de croissance d’affilée pour Cisco qui termine son exercice 2018 en beauté | Cloudnews | Scoop.it
Cisco a publié ses résultats pour l’exercice qui s’est achevé fin juillet. À 12,8 milliards de dollars, son chiffre d’affaires trimestriel progresse de 6%. Une croissance tirée par les produits, qui progressent de 7%, contre 3% pour les services (un tiers de son CA total), qui profitent néanmoins de la traction pour les services avancés.

Les plates-formes d’infrastructure, qui représentent toujours plus de 50% de son chiffre d’affaires, croissent de 7%. La commutation enregistre un bon trimestre avec une forte croissance sur les produits de campus, tirée par la montée en puissance des Catalyst 9000 et par la croissance des produits datacenter de la famille Nexus 9000, selon Kelly Kramer, directeur financier de la société.

Cisco revendique également « une bonne croissance du sans-fil » grâce notamment à Meraki et aux offres Wave 2. L’activité datacenter enregistre une croissance à deux chiffres grâce aux serveurs et à HyperFlex. Le routage a légèrement diminué en raison de la faiblesse du routage SP, constate Cisco.

Les applications progressent de 10% au total. Cisco constate notamment une croissance très solide dans les communications unifiées, la téléprésence, les conférences et sur AppDynamics. La sécurité a augmenté de 12%, avec de bonnes performances dans la sécurité réseau, la prévention de menaces unifiée, les solutions d’accès et la sécurité Web.

Le résultat opérationnel (non-GAAP) s’établit à 4,0 milliards de dollars, en hausse de 4%, avec une marge d’exploitation de 30,9%. Le résultat net s’élève à 3,3 milliards de dollars, en hausse de 8%.

Sur l’ensemble de l’exercice, les revenus de Cisco ont atteint 49,3 milliards de dollars, en hausse de 3%. Le bénéfice net s’élève à 12,7 milliards de dollars, en hausse de 5% par rapport à l’exercice 2017.

« 2018 a été une excellente année, a déclaré Chuck Robbins, CEO de Cisco au cours de la conférence téléphonique dédiée aux analystes transcrite par seeking Alpha. Nous avons renoué avec la croissance en investissant dans nos principales filiales, en offrant de nouvelles plates-formes innovantes et en continuant d’orienter nos activités vers davantage de logiciels et d’abonnements. Nos résultats records démontrent la solidité de notre entreprise ainsi que la pertinence de notre orientation stratégique et et notre exécution au cours des douze derniers mois. »
Yves Pellemans's insight:

Les plates-formes d’infrastructure, représentent toujours plus de 50% du CA (+7%). La commutation enregistre une croissance sur les produits de campus par la montée en puissance des Catalyst 9000 et par la croissance des produits DC de la famille Nexus 9000.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Oracle : les crédits cloud sur la sellette

Oracle : les crédits cloud sur la sellette | Cloudnews | Scoop.it

En juin dernier, lors de la présentation de ses résultats trimestriels, Safra Catz assurait que le changement dans la comptabilisation des revenus Cloud de l’éditeur n’avait pas pour objectif de dissimuler de mauvaises nouvelles. Aujourd’hui, il semble que si.

En ce mois d’août 2018, Oracle doit fait face à une sérieuse remise en question de ses méthodes de ventes se rapportant à ses offres Cloud qui pourrait bien avoir de lourdes conséquences financières pour l’entreprise.

La première salve a été tirée le 10 août avec l’annonce d’un recours collectif du fonds de pension City of Sunrise Firefighters qui accuse Oracle d’avoir entre le 10 mai 2017 et le 19 mars 2018 « présenté de manière inexacte dans ses communiqués de presse, ses documents boursiers et ses déclarations les véritables moteurs de la croissance de ses revenus cloud ».

Récusant l’argumentaire officiel de l’éditeur mettant en avant les bénéfices supposés de ses produits en termes d’automatisation et de réduction des coûts, et l’intimité de son partenariat avec ses clients, le fonds de pension accuse Oracle d’user en réalité « de menaces et de tactiques d’extorsion pour conduire ses ventes cloud ».

Ces procédés n’auraient d’autre fin que de « dissimuler le manque de demande réelle pour ses services cloud, rendant la croissance insoutenable et conduisant à terme les clients à fuir ». City of Sunrise Firefighters cite notamment le fameux « audits » que l’éditeur diligente chez ses clients pour vérifier la bonne utilisation de ses produits.

La deuxième salve est venue de la publication le 12 août par Business Insider de la confession d’un ancien membre de l’équipe commerciale d’Oracle qui décrit par le menu les ficelles qui permettaient aux équipes de ventes de stimuler les ventes cloud et donc leurs commissions.

Selon lui, « tous les revenus du cloud ne provenaient pas [jusqu’à une date récente] de clients qui utilisaient réellement le Cloud d’Oracle ». L’une de ces ficelles consistait à conditionner l’attribution de remises sur les produits que les clients souhaitaient acheter à l’acceptation de crédits cloud qu’ils ne souhaitaient pas acheter. Peu importait que ces crédits cloud soient utilisés ou non.

Autre ficelle : la technique du « Annuler et remplacer » consistant à convertir des contrats de support dont les clients ne veulent pas – mais qu’Oracle les oblige à souscrire là encore via des remises ciblées – en crédits cloud.

L’avantage de cette formule pour les clients, c’est qu’ils n’étaient obligés de renouveler les contrats des produits qu’ils n’utilisaient pas à leur échéance (généralement au bout de trois ans). Les équipes de ventes d’Oracle ont largement recouru à ce système qui leur permettait de comptabiliser du chiffre d’affaires Cloud et de toucher les commissions afférentes.

Le problème, c’est que si les clients n’utilisent pas leurs crédits cloud, à l’issue des contrats le chiffre d’affaires cloud s’effondre. City of Sunrise Firefighters a la conviction que c’est ce qui est arrivé à Oracle cette année. Cela expliquerait qu’Oracle ait décidé de modifier le reporting de ses ventes cloud lors de la dernière publication de ses résultats trimestriels de sorte qu’on ne puisse plus distinguer leur évolution.

En mars dernier, lorsque la société avait révélé que la croissance de ses revenus cloud avait stagné et qu’elle prévoyait un ralentissement significatif de sa croissance cloud par rapport à celle de ses concurrents, le titre avait fortement chuté (-9%). Il n’était donc pas question de prendre le risque d’une nouvelle chute en juin.

Oracle a apparemment pris conscience tardivement des conséquences potentiellement néfastes de cette politique. En août 2017, un courrier électronique a été envoyé aux 35.000 employés travaillant au sein des équipes de vente pour leur enjoindre de ne vendre que des produits et services que les clients utiliseront vraiment, selon Business Insider. C’est aussi à cette époque qu’Oracle a mis en place sa stratégie Bring your own licence (BYOL) qui permet aux clients de transférer leurs licences sur sites existantes vers le Cloud.

Yves Pellemans's insight:

Le fonds de pension "City of Sunrise Firefighters" accuse Oracle d’user en réalité « de menaces et de tactiques d’extorsion pour conduire ses ventes cloud ».

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

La fin de la pénurie de flash NAND pourrait entraîner une chute spectaculaire des prix des SSD

La fin de la pénurie de flash NAND pourrait entraîner une chute spectaculaire des prix des SSD | Cloudnews | Scoop.it

SANTA CLARA, Californie - La pénurie de mémoire flash NAND qui a commencé à la fin de 2016 touche à sa fin et le marché se dirige tout droit vers une offre excédentaire qui devrait se traduire par un effondrement spectaculaire des prix.

 

C’est le message que Jim Handy, directeur général et analyste en semi-conducteurs chez Objective Analysis, a livré la semaine dernière lors du Flash Memory Summit, qui se tenait à Santa Clara. Handy estime que le prix des modules de mémoire flash NAND pourrait chuter de 80 % en deux trimestres. Selon lui, la baisse devrait ensuite se poursuivre à un rythme plus modéré de 30 % par an jusqu’à ce que la prochaine pénurie se produise.

Selon Handy, les pénuries et les périodes de surproduction sont de nature cyclique, et chacune dure généralement environ deux ans. Les prix montent en flèche en période de pénurie, ce qui stimule les profits des fabricants qui sont très motivés à réinvestir dans leur entreprise pour éviter de payer des impôts sur ces revenus. Ces investissements finissent par conduire à une offre excédentaire qui fait chuter les profits des fournisseurs jusqu’à ce que la demande rattrape le niveau de l’offre.

Le cycle typique de deux ans entre pénurie et surproduction pourrait se trouver rompu dans les années à venir. L’émergence de Yangtze Memory Technologies, un nouvel acteur chinois de la mémoire NAND - lourdement soutenu par le gouvernement chinois -, devrait entraîner une période d’offre excédentaire de trois ans au lieu des deux années habituelles.

Quadruplement de la capacité SSD pour le même prix 

Mais, même si Handy pense que les prix des puces flash NAND vont s’effondrer, il ne s’attend pas à ce que les prix des SSD chutent en proportion. Handy pense plutôt qu’un client qui obtient aujourd’hui un SSD d’une certaine capacité pour 1 000 $ obtiendra quatre fois plus de capacité au même prix à l’avenir.

« Les prix des SSD resteront les mêmes. Les capacités vont tout simplement exploser », indique Handy. « Un téraoctet pourrait être la plus petite capacité de SSD d’entreprise que vous pourrez acheter dans un an. »

Les prévisions varient en ce qui concerne le moment précis où la surcapacité se traduira par une chute des prix. Les services IT devraient toutefois remarquer une évolution dans les mois à venir.

« Au début, il y aura une énorme chute des prix, et ensuite, il y aura une baisse beaucoup plus modérée de 30 % par an jusqu’à la prochaine pénurie. Et puis la courbe redeviendra plate », a dit Handy.

Les modules flash fabriqués en 3D NAND 64 couches coûtent environ 8 cents par Go, alors que la NAND planaire en 16 nanomètres revient à environ 21 cents par Go, selon Handy. La récente pénurie est largement liée aux difficultés rencontrées par les fabricants à passer de la technologie planaire à la 3D NAND, plus dense.

« Ce qui a causé la pénurie, c’est que la fabrication n’a pas été aussi efficace qu’elle était censée l’être. Ce problème est en passe d’être résolu et c’est l’une des raisons pour lesquelles nous nous retrouvons dans cette offre excédentaire », a dit M. Handy.

La surcapacité de Flash pourrait avoir des effets en cascade sur l'industrie microélectronique

Handy prédit que les fabricants de modules flashes devraient réagir à la surproduction en fermant une partie de leurs usines de NAND planaire ou en les convertissant en usine de DRAM, une conversion, qui, à son tour, entraînera une baisse significative des prix de la mémoire vive.

« Nous aurons d’abord un effondrement du NAND. Ensuite, il y aura un effondrement subséquent des prix de la DRAM à mesure que la capacité excédentaire des usines NAND sera mise entre les mains des divisions mémoire. Il y aura alors une surcapacité et les fabricants de DRAM finiront par convertir leur capacité DRAM en capacité de fab générant alors un excédent de capacité de fab », indique Handy. « Tout le marché des semi-conducteurs court le risque d’une surcapacité parce que le domino NAND est sur le point de tomber. »

Yves Pellemans's insight:

Le prix des modules de mémoire flash NAND pourrait chuter de 80 % en deux trimestres. Tout le marché des semi-conducteurs court le risque d’une surcapacité parce que le domino NAND est sur le point de tomber.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Deep Learning : Intel jette son dévolu sur Vertex.AI

Intel a mis la main sur Vetex.AI, du nom d’une start-up spécialisée dans le deep learning, une branche de l’intelligence artificielle.

Si le montant de la transaction n’a pas été divulgué, on sait que l’équipe de la start-up composée de 7 personnes va rejoindre l’unité Movidius d’Intel (du nom de la start-up acquise par le fabricant de puces en 2016).

Fondée en 2015, Vertex.AI a développé la plate-forme open source PlaidML. Lancé en octobre dernier, elle consiste en un “moteur d’apprentissage profond portable“, qui permet aux développeurs de déployer des modèles IA sur tout type d’appareil, tournant sous Windows, Linux ou macOS.

PlaidML sera utilisé pour prendre en charge “divers matériels”. En outre, Intel a annoncé son intention d’intégrer sa bibliothèque nGraph de Vertex-.AI afin de développer des frameworks d’apprentissage en profondeur avec la plate-forme. Le développement de PlaidML va également être poursuivi et restera open source sous licence Apache 2.0.
Une véritable poussée d’Intel dans l’IA

Dans une contribution de blog, la start-up basée à Seattle se dit « ravie de faire progresser le deep learning flexible pour l’informatique de pointe avec Intel » et ajoute que « si vous souhaitez nous rejoindre, Intel recrute des experts d’IA, y compris ici à Seattle ».

Co-fondée par Choong Ng, Jeremy Bruestle et Brian Retford, Vetex.AI a reçu un soutien financier d’investisseurs tels que Curious Capital et Creative Destruction Lab, un accélérateur axé sur les start-ups spécialisées dans l’apprentissage automatique.

Durant les dernières années, Intel n’a cessé d’acquérir des start-ups spécialisées dans l’IA. Le groupe a ainsi jeté son dévolu sur Altera, Nervana (puces IA), Movidius et eASIC cette année.

Intel a également été occupé à développer son propre logiciel d’IA, avec notamment la boîte à outils OpenVINO.

Yves Pellemans's insight:

Intel met clairement le cap sur l'IA. Intel prévoit ainsi de futurs processeurs Xeon dotés de prédispositions pour les calculs IA.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

"Arrêtons de résumer l’IA aux algorithmes, il faut aussi innover dans le hardware !"

"Arrêtons de résumer l’IA aux algorithmes, il faut aussi innover dans le hardware !" | Cloudnews | Scoop.it
Quelle est la place du hardware dans la stratégie nationale de la France en IA ?

Igor Carron : Le hardware est quasi-inexistant dans la stratégie française en IA. Le rapport Villani n’y consacre qu’une ou deux pages et le mot ne figure pas une seule fois dans le discours prononcé par le président Emmanuel Macron le 29 mars. Depuis, je ne perçois pas d’attention de l’Etat sur le sujet, ni même des scientifiques. Parmi les instituts dédiés à l’IA qui se montent, il semble qu’aucun n’ait de composante hardware. Cela montre que la communauté académique du hardware n’a pas une taille suffisante. Et pour cause : elle n’a pas été assez financée par le passé.

En quoi l’IA a-t-elle besoin de nouveaux types de processeurs ?

La consommation d’énergie des équipements numériques croît déjà à une vitesse inquiétante. L’essor de l’IA accentue dramatiquement cette tendance, car l’IA est extrêmement gourmande en calculs. Nous aurons donc besoin de hardware plus efficace énergétiquement. En outre, les calculs liés à l’IA sont spécifiques. Alors que le calcul intensif traditionnel cherche toujours plus de précision d’arrondi avec un encodage sur 64 voire 128 bits, le deep learning s’accommode très bien d’une moindre précision et peut parfois se contenter de 8 bits. C’est une inversion des priorités, qui demandera probablement de nouveaux processeurs.

Sans compter la fin prochaine de la loi de Moore…

La fin annoncée de la loi de Moore [loi empirique qui traduit la progression exponentielle de la puissance de calcul des microprocesseurs depuis des décennies, NDLR] impose de toute façon de penser de nouvelles architectures de calcul. La fin de ce dogme ouvre des opportunités inédites. Il nous faut les saisir ! On a tendance à résumer l’IA aux algorithmes, aux logiciels, mais si on veut tenir compte du facteur énergétique et du moindre besoin de précision, il faut aussi innover dans le hardware. Ce sera source d’innovation dans le logiciel. Regardez Snips et son assistant vocal qui tourne en local sur du hardware peu puissant pour assurer la protection des données personnelles : ils ont dû innover en matière d’algorithmes pour y arriver. Si on veut devenir un acteur important de l’IA, il faut y aller en tandem soft et hard.

D’autres pays ont-ils plus conscience de l’enjeu du hardware pour l’IA ?

C’est clairement le cas des Etats-Unis et de la Chine. Et ce depuis ce que j’appelle l’explosion cambrienne de mai 2016: quand Google annonce qu’il utilise depuis 18 mois une puce dédiée à l’IA, nommée TPU (tensor processor unit), que Nvidia, le spécialiste des processeurs graphiques (GPU) au cœur de l’essor du deep learning, voit son cours de Bourse décoller et qu’Intel rachète coup sur coup deux spécialistes du hardware IA, Movidius et Nervana, pour plus de 400 millions de dollars chacun. Nervana était alors une start-up de 50 personnes. Aujourd’hui, ils sont 800 et contribuent à la roadmap technologique d’Intel ! Il faut bien comprendre qu’un Google ou un Baidu offrent via le cloud des services d’IA utilisés chaque jour par des centaines de millions de personnes. Ils sont donc directement confrontés aux besoins massifs de calculs de l’IA.

Comment faire pour que la France ne reste pas à l’écart du mouvement ?

L’absence de grands acteurs du numérique fait que la prise de conscience du besoin de hardware dédié à l’IA est difficile. Il y a des start-ups françaises sur le sujet, LightOn bien sûr, mais aussi Kalray, Mipsology, AnotherBrain… Le problème est que le hardware est assez mal appréhendé par les capital-risqueurs et l’Etat et que les dispositifs de soutien à l’innovation ne sont pas adaptés. Pour ne pas être accusé par Bruxelles de subventionner des entreprises, tout concours d’innovation demande à la start-up de financer près de 50% de son projet. C’est compliqué pour du hardware car les sommes à mobiliser sont importantes. La seule solution, c’est la commande publique. C’est ce que font les Etats-Unis avec leur programme SBIR – Small Business Innovation Research – destiné à aider les petites entreprises innovantes. Il ne s’agit pas de subventionner une start-up mais de lui passer une commande qui lui permettra de mettre au point un prototype, par exemple. Il faut ce genre d’approche en France. La commande publique est essentielle.
Yves Pellemans's insight:

 L’IA accentue dramatiquement la consommation d’énergie des équipements, car l’IA est extrêmement gourmande en calculs. Nous aurons donc besoin de hardware plus efficace énergétiquement.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Samsung investit 161 milliards de dollars, dont 22 milliards dans l'IA et la voiture autonome

Samsung investit 161 milliards de dollars, dont 22 milliards dans l'IA et la voiture autonome | Cloudnews | Scoop.it

Fragilisé par des ventes de smartphones plus faibles que prévues au premier trimestre, Samsung lance un vaste plan d’investissement de 161 milliards de dollars sur 3 ans pour se refaire une santé. Dans un communiqué paru ce mercredi 8 août, le groupe sud-coréen précise que les investissements seront principalement menés par sa filiale Samsung Electronics, fleuron du groupe et premier fabricant mondial de puces électroniques

25 milliards de dollars pour l'IA, la voiture autonome et la 5G

Afin de trouver des relais de croissance, l’enveloppe consacrera, outre l’investissement en capital, pas moins de 22 milliards de dollars à la recherche sur l'intelligence artificielle, la voiture autonome ou la 5G… "Samsung espère que les innovations permises par les technologies d’intelligence artificielle permettront de transformer le secteur, quand les technologies de communication 5G créeront de nouvelles opportunités sur les segments de la voiture autonome, de l’internet des objets et de la robotique”, avance le groupe dans son communiqué. Samsung projette notamment d'accroître significativement ses efforts concernant la recherche en IA en portant à un millier le nombre de ses chercheurs spécialisés sur le sujet.

Afin de conserver son leadership sur le marché des semi-conducteurs, le groupe concentrera une part de ses investissements dans l’équipement de ses usines, en vue d’accroître sa production. Environ 70% de l’enveloppe globale devraient être investis en Corée du Sud, ce qui devrait permettre de créer 40 000 emplois sur trois ans. Une requête qui avait été adressée au géant de l’électronique par le gouvernement sud-coréen, inquiet du taux de chômage des jeunes, lors d’une rencontre organisée 2 jours plus tôt entre le ministre des Finances et Lee Jae-Yong, le vice-président de l’empire Samsung

Yves Pellemans's insight:

Samsung consacrera, outre l’investissement en capital, pas moins de 22 milliards de dollars à la recherche sur l'intelligence artificielle, la voiture autonome ou la 5G…

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Dell optimiste sur son potentiel de croissance au cours des quatre prochaines années

Dell optimiste sur son potentiel de croissance au cours des quatre prochaines années | Cloudnews | Scoop.it

En prévision de sa prochaine opération de réintroduction en bourse, Dell vient de présenter ses prévisions de chiffre d’affaires à la commission des opérations de bourse américaine. On y apprend que Dell prévoit de réaliser entre 99,5 et 103,3 milliards de dollars à l’horizon 2022 (exercice fiscal qui s’achèvera fin janvier 2022). Cela représente une augmentation de près de 30% par rapport aux 79,9 milliards de dollars réalisés sur l’exercice 2018 clos le 2 février dernier, soit un peu moins de 7% de croissance moyenne annuelle.

Sur l’exercice en cours, Dell prévoit de générer 87,5 milliards de dollars, soit 9,5% de croissance par rapport à l’exercice 2018. Sa division solutions d’infrastructures (ISG), qui regroupe les serveurs, le stockage, la protection des données et le réseau devrait réaliser 34 milliards de dollars pour l’exercice 2019, soit +10,9%, et atteindront 38 milliards de dollars d’ici 2022.

Les ventes de sa division solutions clients (PC, ordinateurs portables et postes de travail) génèreront 42,5 milliards de dollars pour l’exercice 2019 (+7,7%). Dell prévoit 47 milliards de dollars à l’horizon 2022.

Yves Pellemans's insight:

Dell prévoit de réaliser entre 99,5 et 103,3 milliards de dollars à l’horizon 2022

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Satellites : Washington veut sa « Force de l'espace » pour 2020

Satellites : Washington veut sa « Force de l'espace » pour 2020 | Cloudnews | Scoop.it

L'US Space Force promue par Donald Trump devra concevoir de nouvelles technologies et défendre les satellites mis en orbite par les États-Unis.

Le vice-président des États-Unis, Mike Pence, a annoncé lors d’une intervention au Pentagone, jeudi 9 août, la création d’une « Force de l’espace » à horizon 2020.

Voulue par Donald Trump, cette armée en devenir est présentée comme essentielle « pour défendre l’Amérique » face aux menaces potentielles que font peser d’autres puissances, la Chine et la Russie en particulier, sur les satellites américains.

Ils sont 100 aujourd’hui, dont 31 satellites GPS, actuellement contrôlés dans leur majorité par l’US Air force, a souligné le magazine Time. Mais cela ne suffit plus, selon Donald Trump. Le président des États-Unis a donc signé en juin dernier un décret en faveur de la création d’une force dédiée capable d’imposer une « domination américaine de l’espace ».

Mike Pence a donc dévoilé le programme envisagé pour sa mise en oeuvre, rapporte le Washington Post. Elle passerait, pour commencer, par la création d’une autorité de contrôle (US Space Command) dotée d’un budget dédié. Et se poursuivrait par une réorganisation des opérations spatiales et des personnels au sein du Pentagone.

La création d’une agence de développement chargée de concevoir de nouvelles technologies de défense spatiale est également au menu… Le gouvernement fédéral américain a donc appelé le Congrès à allouer 8 milliards de dollars supplémentaires pour les systèmes de sécurité spatiale au cours des cinq prochaines années.

Les critiques ne manquent pas, y compris dans les sphères du pouvoir. Lui-même sceptique au départ, le secrétaire à la Défense, Jim Mattis, ne voulait pas ajouter « une couche organisationnelle et administrative supplémentaire » au Pentagone, comme l’a rappelé le New York Times. Le ministre s’est finalement rangé parmi les soutiens du projet.

Il revient désormais au Congrès des États-Unis de se prononcer pour ou contre la création – et le financement – de cette Force de l’espace promue par Donald Trump.

 

Yves Pellemans's insight:

Cette « US Space Force » deviendrait la sixième branche des forces armées américaines. Les cinq branches existantes étant les armées : de terre (US Army), de l’air (Air Force), la marine (Navy), les corps des marines et les garde-côtes.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IA : Dell EMC annonce deux solutions clés en main pour les entreprises

Dell EMC veut creuser le sillon de l’intelligence artificielle (IA). A cet effet, le groupe texan a dévoilé « Ready Solutions for AI », une pile technologique destinée à simplifier le recours à l’IA.
Des offres clés en main

Il s’agit en effet de permettre aux entreprises de de focaliser sur le développement d’applications IA plutôt que sur l’approvisionnement et la mise en place souvent fastidieuse de leurs propres solutions.

Les deux offres de Dell EMC comprennent des frameworks et des bibliothèques pour l’IA, des serveurs pour le calcul, de la mise en réseau, le stockage et des services de conseil et de déploiement fournis par le groupe.

Pour Tom Burns, vice-président senior en charge du Networking & Solutions au sein de Dell EMC, “il ne fait aucun doute que l’IA est l’avenir, et nos clients se préparent maintenant“. Et d’ajouter que “notre objectif est de diriger le secteur avec les solutions IA les plus puissantes et les mieux intégrées. Ce que nous annonçons aujourd’hui permet aux clients de commencer à obtenir de meilleurs résultats et de se positionner pour le rôle de plus en plus important que prend l’IA.”
Pour le machine learning et deep learning

La première des offres, qui cible le machine learning (ou apprentissage automatique en français), est basée sur les serveurs rack Dell PowerEdge R640 et R740xd, chacun pouvant être équipé de deux unités centrales Intel Xeon Scalable.

Dell EMC a aussi recours à plusieurs outils logiciels pour exécuter des modèles d’apprentissage automatique. Ils incluent Data Science Workbench de Cloudera et Apache Spark, un moteur d’analyse open source populaire doté de nombreuses fonctionnalités IA.

La société a également intégré son propre moteur Data Science Provisioning Engine, un outil conçu pour faciliter le déploiement de l’extension BigDL AI d’Intel pour Spark.

L’autre offre se concentre sur le deep learning (ou apprentissage en profondeur en français).

Au cœur de la solution se trouvent les serveurs rack PowerEdge R740xd et C4140. Cette dernière se présente comme une machine singulière dans la gamme PowerEdge. Elle peut héberger jusqu’à quatre unités de traitement graphique Tesla V100 signées Nvidia.
80 % des entreprises vont prendre le virage IA

La solution combine les serveurs avec le système de stockage flash connecté au réseau Isilon F800 de Dell EMC et le gestionnaire de cluster pour la science des données signé Bright Computing.

Les nouvelles offres s’inscrivent dans les efforts de Dell EMC visant à cibler le marché en pleine croissance de l’IA.

Selon Dell EMC, 80 % des entreprises envisageraient d’investir dans des «technologies avancées d’IA» au cours des cinq prochaines années.

Un véritable levier de croissance pour le groupe, Ready Solutions for AI se positionnant comme un choix pertinent. En effet, selon Forrester Research, Ready Solutions for AI améliore la productivité globale de la science des données jusqu’à 30 % et réduit les délais d’implémentation de 6 à 12 mois par rapport à des approches « propriétaires » de l’IA.

Ces deux offres sont disponibles dès à présent aux Outre-Atlantique, avec une disponibilité au Brésil, au Canada, au Mexique, en France, en Allemagne, au Royaume-Uni, en Australie, en Chine, en Inde et au Japon prévue dans les 60 prochains jours.
Yves Pellemans's insight:

Dell EMC annonce 2 offres IA sous le nom de « Ready Solutions for AI

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cisco débourse 2,35 Md$ pour Duo Security

Avec Duo Security, Cisco débourse 2.35 Md$ et poursuit la conquête de fonctions de sécurité et se dote ici d’un spécialiste de l’authentification forte. Des intégrations poussées avec les produits en place du groupe sont prévues.

 

Cisco poursuit sans relâche sa quête d’outils de sécurité. Cette acquisition permet à Cisco d’ajouter en effet  des services d'authentification multi-facteurs à son portefeuille d’outils de  sécurité. La transaction devrait être finalisée d’ici à la fin octobre.

Yves Pellemans's insight:

Cisco a annoncé l’acquisition de Duo Security, spécialisée dans l’authentification forte dans le cloud. Cisco va débourser 2,35 milliards de dollars en cash !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Ces start-up en route pour ubériser Dropbox grâce à la blockchain

Ces start-up en route pour ubériser Dropbox grâce à la blockchain | Cloudnews | Scoop.it
Depuis quelques années, un nouveau concept de stockage de fichiers est apparu dans le sillage des blockchains. Des start-up comme Filecoin, Storj, Sia, et MaidSafe ont choisi de recourir à des chaînes de blocs pour proposer un mode d'hébergement décentralisé des documents. Ces offres s'adossent en général à des briques open source. Le concept rappelle celui des Torrents et des réseaux peer-to-peer qui ont connu leur heure de gloire dans les années 2000 pour le téléchargement (pas toujours légal) de films ou de musiques. Les fichiers sont cryptés, découpés en morceaux, puis dupliqués sur plusieurs disques durs pour assurer la résilience du système et limiter les risques de piratage. Le détenteur du document dispose d'une clé (privée) pour le recomposer. Théoriquement, il est ainsi le seul à pouvoir y accéder.

Ces applications décentralisées (ou Dapp, pour decentralized application) s'appuient ainsi sur les capacités de stockage inutilisées des clients. A ces derniers de décider du volume d'espace disque qu'ils souhaitent louer à la communauté sur leurs PC, serveurs ou périphériques d'archivage. Ils reçoivent en contrepartie des jetons qui leur permettent ensuite de payer tout ou partie des services cloud auxquels ils ont recours sur le réseau.
Storj, le leader

Du fait de son ancienneté (qui remonte à 2014) et de sa base installée, Storj (prononcez "storage") fait figure de leader sur le créneau du stockage décentralisé. Storj Lab, la société derrière cette plateforme open source, revendique un réseau de plus de 150 000 machines réparties dans 200 pays. Parmi ses références clients, on relève le moteur de recherche décentralisé BitCave.

Storj a fait le choix d'une tarification simple de 0,015 dollar par Go et par mois pour le stockage, auquel s'ajoute 0,05 dollar par Go téléchargé pour la bande passante. La start-up a noué un partenariat avec le client FTP Filezilla (15 millions d'utilisateurs mensuels). Les adeptes de Storj peuvent ainsi utiliser ce logiciel pour gérer envoi et partage de fichiers. Storj s'est aussi rapproché de CapLinked, un éditeur spécialisé dans le partage d'informations confidentielles entre entreprises. Gage de crédibilité, Ben Golub, ancien PDG de Docker, a récemment rejoint Storj.
Sia, challenger économique

Sia est un concurrent sérieux de Storj. Proposée par la société américaine Nebulous, la plateforme a été lancée en 2015. Affichant une capacité de stockage de 4,5 Pb, Sia fait appel à sa propre blockchain et utilise des contrats intelligents (smart contracts) pour gérer les transactions entre loueurs et consommateurs d'espaces de stockage. La start-up a mis au point sa propre crypto-devise (SiaCoin) pour servir de monnaie d'échange entre les deux partis.

Avant d'être uploadé sur Storj, chaque fichier est divisé en 30 segments. Côté cryptage, la plateforme utilise l'algorithme open source Twofish. Elle recourt aussi à une technologie de hash, Merkle tree, comme preuve de stockage. Ciblant en priorité les entreprises, Sia affirme atteindre des débits supérieurs à 100 Mbit/s et être en mesure de gérer des dizaines de milliers de fichiers.

Selon sa feuille de route technique, Sia compte s'étendre à la gestion de la récupération de données après sinistre. Objectif affiché : devenir un concurrent sérieux du service de stockage S3 d'Amazon d'ici 2020. Au niveau tarification, ses prix varient en fonction de l'offre et de la demande. Pour l'heure, Sia affiche un tarif global au To inférieur à 2 dollars par mois, contre 12,50 dollars pour 2 To pour la version standard de Dropbox Business et 24 dollars pour AWS S3 (sur la zone Paris). C'est également nettement moins cher que chez Storj.
Filecoin, le nouvel entrant

Filecoin a suscité un engouement médiatique l'été dernier en réalisant une des plus grosses ICO de l'histoire. La start-up a levé 257 millions de dollars en convertissant sa crypto-monnaie, le Filecoin, en billets verts. Cette levée de fonds a aussi associé des investisseurs traditionnels tels que Sequoia Capital, Andreessen Horowitz ou Union Square Ventures. Une manne qui laisse augurer de belles perspectives car, pour l'heure, Filecoin reste à l'état de projet.

La jeune pousse appartient à la société Protocol Labs, à l'origine du protocole IPFS (InterPlanetary File System). Fonctionnant sur le principe du peer-to-peer, IPFS se veut une alternative au fameux HTTP. La technologie servira de socle à la futur plateforme. Quant à la crypto-monnaie de la start-up, elle permettra de rétribuer les mineurs qui mettront à disposition leur espace de stockage.
MaidSafe, un écosystème ambitieux

Tout comme Filecoin, MaidSafe en est encore au stade du développement. MaidSafe qui veut dire "Massive Array of Internet Disks - Secure Access For Everyone" reprend un grand nombre d'éléments des plateformes concurrentes. Cette plateforme fait appel à un réseau autonome. Via des smart contracts, elle orchestre les relations entre ses membres sans intervention humaine.

MaidSafe s'appuie sur sa propre preuve de travail. Baptisée Proof of ressource, elle arbitre la répartition des fichiers en fonction notamment du niveau de CPU, de la bande passante et de l'espace disque des membres du réseau. MaidSafe voit les choses en grand. Avec pour objectif de s'entourer d'un écosystème de partenaires, la start-up propose son propre navigateur web (Safe Browser) aux côtés d'un gestionnaire d'hébergement web.

Enfin, MaidSafe promet les prix les plus bas possibles. Pas de tarifs fixés à l'avance, la plateforme se propose de les ajuster en permanence en fonction de la demande utilisateur et des ressources disponibles.
Yves Pellemans's insight:

Les solutions de DataBox (Dropbox, Google Drive, OneDrive...) ont  leurs limites suivant la bande passante et de la disponibilité du service. Recourir à ces solutions pose par ailleurs la question de la confidentialité des données à l'heure du RGPD.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Blockchain advertising, le contrat de confiance de la publicité digitale

Blockchain advertising, le contrat de confiance de la publicité digitale | Cloudnews | Scoop.it

Pour le couple blockchain et publicité, 2017 fut l'année des premiers flirts. Le meilleur exemple est la plateforme Adchain lancée en beta par Meta X pour offrir une vue globale de toute la data associée à une impression pub et permettre de savoir qui a accès à quelle donnée. En 2018, l'idylle bat son plein. Selon Christophe Dané, fondateur du cabinet de conseil Digitall Makers, "une trentaine de projets blockchain relatifs à l'achat média, la gestion de la data et la lutte contre la fraude sur le marché anglo-saxon" ont vu le jour.

 

Toutes les conditions étaient réunies pour que le couple tienne. Avec d'un côté un marché de la publicité digitale gangrené par la fraude et confronté à une crise de confiance sans précédent et, de l'autre, une technologie qui assure la transparence et la traçabilité des échanges, et permettant à chacun de ses membres de voir l'intégralité des transactions qui s'y déroulent. Cette année, le marché de la fraude pèsera 52 millions de dollars par jour, selon les estimations de Juniper Research.

 

Deux projets chez IBM

Ce sont désormais les géants du marché qui s'emparent de la technologie. En premier lieu IBM, qui a annoncé à l'occasion des Cannes Lions le lancement d'IBM Blockchain Platform, un projet adossé à Ethereum et déployé au sein de la plateforme programmatique Mediaocean. Objectif annoncé : tracker l'intégralité des transactions digital media et ainsi déterminer le pourcentage des dépenses médias capté par chacun des intermédiaires de la chaîne de valeur. Ces fameux "middlemen" qui, selon un rapport de l'ANA publié en 2016, s'arrogent 40 centimes de chaque dollar investi par l'annonceur. Si le projet n'en est encore qu'à la phase de test, il emporte l'adhésion de quelques-uns des plus gros annonceurs américains dont Pfizer, Kellogg ou encore Unilever. Ce dernier a participé aux premiers tests réalisés début 2018 et compte prendre part au prochain pilote, prévu sur le marché américain, en juillet prochain. Un déploiement massif est espéré courant 2019. "Je pense que nous aurons une solution complètement opérationnelle et adoptée par la majorité de l'industrie d'ici la fin de l'année prochaine", a pronostiqué le PDG de Mediaocean, Bill Wise.

"Une trentaine de projets blockchain relatifs à l'achat média, la gestion de la data et la lutte contre la fraude sur le marché anglo-saxon ont vu le jour en 2018"

IBM n'en est pas à son coup d'essai. Le géant de l'informatique a annoncé quelques semaines plus tôt le lancement d'un proof of concept (POC) avec Salon Media. L'ambition est ici d'enregistrer tous les détails contractuels des accords noués entre les différents membres de la chaîne au sein d'un écosystème immuable et entièrement auditable. De quoi court-circuiter les pratiques d'un marché qui fonctionne encore beaucoup aux rabais négociés sous le manteau. Typiquement, un trading desk qui accepte de reverser une partie de sa rémunération à l'agence qui le choisit, en lui payant des prestations de conseil ou de formation fictifs. Le projet a été adoubé par le consortium Adledger, une organisation chargée de réfléchir aux moyens de déployer la blockchain au service du marché pub digital. A son bord, quelques-uns des plus gros acteurs du marché côté buy-side : Publicis Media, Group M, IPG Mediabrands ou encore Appnexus.

Ce dernier est également partenaire d'un autre projet d'envergure, Amino Payments, une plateforme blockchain elle aussi désireuse d'apporter une totale transparence au marché pub. Deux des plus gros annonceurs US lui ont annoncé son soutien : AT&T et Bayer. Christophe Dané note "un vrai consensus pour épurer le marché" et imagine certains de ces projets aller encore plus loin, en s'appuyant sur les smart contracts, ces contrats qui s'exécutent automatiquement en fonction de conditions choisies au préalable pour aller plus loin. "Ce serait par exemple un annonceur qui impose de ne payer que pour les publicités vues à plus de 30% et sous certaines conditions", illustre-t-il. Le contrat ne s'applique donc que si l'ensemble des règles sont respectées.

Les éditeurs aussi

Du côté des éditeurs, on est également décidé à faire bouger les choses. Et c'est le groupe Dow Jones Media Groupe qui a tiré le premier, en annonçant rejoindre le projet imaginé par Brave. Ce navigateur Internet ambitionne de ne proposer des publicités ciblées qu'auprès des internautes qui ont partagé leur consentement sur la base d'un opt-in. Autre spécificité : les internautes qui consulteront les sites MarketWatch et Barrons.com, depuis le navigateur de Brave, gagneront des tokens BAT à chaque fois qu'ils interagiront avec le contenu publicitaire.

Lancé par le fondateur de Mozilla, Brendan Eich, le navigateur n'est bien sûr pas aussi populaire que Chrome mais il compte tout de même 2 millions d'utilisateurs dans le monde. "L'ambition est de réduire les parties prenantes au trio annonceur, internaute et éditeur", analyse Christophe Dané. Une désintermédiation qui permet de gonfler la part captée par l'éditeur. Il touche près de 55% de la rémunération versée par l'annonceur, "bien plus que dans le circuit classique", note Christophe Dané. La mécanique est d'autant plus vertueuse que l'internaute peut décider d'encaisser sa crypto-monnaie ou… l'utiliser pour effectuer un achat payant chez l'éditeur.  Christophe Dané s'interroge tout de même sur la durée de vie des informations collectées. "Tout ce qui est inscrit dans une blockchain est immuable. Ça pose problème sur Internet où le droit à l'oubli existe et où je vois mal comment un utilisateur qui a donné son consentement peut faire marche-arrière et effacer toute trace."

Facebook et Google, les absents

Ce n'est bien sûr pas le seul frein à l'envol des projets de blockchain advertising. Si on met de côté la problématique de la rapidité d'encryptage des blocks "qui n'est pas aussi efficace que dans les opérations RTB", selon Christophe Dané , le principal écueil reste celui de l'adhésion des sociétés adtech. Ces fameux prestataires dont les pratiques seraient "outées" avec pour risque d'être carrément désintermédiés. Il faudra également attirer annonceurs et éditeurs. "Je ne suis pas sûr qu'ils soient tous convaincus par un modèle où il n'y a pas de demi-mesure en matière de transparence", ajoute Christophe Dané. Un éditeur a-t-il envie que les CPM qu'il négocie soient visibles de tous ? Même question côté annonceur ? Pas vraiment un souci à en croire le PDG d'Appnexus, Brian O'Kelley, qui expliquait au JDN qu'on "peut mettre en place au sein d'une blockchain des mécaniques de permissions qui font que tout le monde ne peut pas tout voir". Et c'est particulièrement vrai pour les DLT (distributed ledger technology, ou technologie de registre distribué) des blockchains privées ou des consortiums au sein desquels les participants décident en amont de qui pourra accéder à quelles informations.

Enfin, dans un secteur où Google et Facebook captent plus des deux tiers de la valeur, il parait difficile de voir la pratique se démocratiser sans l'adhésion du duopole. Et pour le moment, ni Facebook ni Google n'ont pris position. Certes, le premier a lancé une division blockchain et le second a annoncé travailler sur un projet de blockchain dans le cloud pour sécuriser la data des internautes. Mais rien concernant le marché publicitaire. Christophe Dané se veut cependant optimiste. "Je pense que Google comme Facebook ont intérêt à y aller pour faire taire les critiques concernant leur stratégie de walled gardens. S'ils cloisonnent ainsi l'utilisation de leurs services et de leur data, ce n'est pas parce qu'ils refusent de les partager, mais parce qu'ils sont bien placés pour savoir que les acteurs du secteur ne sont pas vraiment respectueux des politiques de confidentialité." Une blockchain où tout se voit leur permettrait de se prémunir contre ce risque.

Yves Pellemans's insight:

IBM, Appnexus ou encore le groupe Dow Jones, les poids lourds des médias investissent dans des projets blockchain visant à apporter plus de transparence et de sécurité au marché.

more...
No comment yet.