Cloudnews
48.7K views | +0 today
Follow
 
Scooped by Yves Pellemans
onto Cloudnews
Scoop.it!

Cloud : une question de survie ?!?

Bien que la maîtrise des budgets, informatiques ou autres soit légitimement une priorité des entreprises, dans un contexte de crise économique durable et de concurrence exacerbée, il me semble qu’adopter le Cloud pour se cantonner à un objectif de réduction des coûts traduit une vision très limitée des apports de cette technologie.

La question de l’adoption du Cloud ne se pose plus aujourd’hui. Selon une enquête d’IDC, 69 % des entreprises dans le monde ont déjà investi dans la technologie, les autres prévoyant de le faire dans les deux prochaines années (2). Elles pensent en outre que leur utilisation du Cloud est vouée à augmenter de 38 % en moyenne dans les 18 prochains mois et prévoient que plus de la moitié de leur système d’information résidera dans le Cloud d’ici la fin 2015 ... 

more...
No comment yet.
Cloudnews
Toute les news sur la transformation digitale, l'hybride Cloud, le data analytic, l'IA et l'Automation
Curated by Yves Pellemans
Your new post is loading...
Your new post is loading...
Scooped by Yves Pellemans
Scoop.it!

La fin de la pénurie de flash NAND pourrait entraîner une chute spectaculaire des prix des SSD

La fin de la pénurie de flash NAND pourrait entraîner une chute spectaculaire des prix des SSD | Cloudnews | Scoop.it

SANTA CLARA, Californie - La pénurie de mémoire flash NAND qui a commencé à la fin de 2016 touche à sa fin et le marché se dirige tout droit vers une offre excédentaire qui devrait se traduire par un effondrement spectaculaire des prix.

 

C’est le message que Jim Handy, directeur général et analyste en semi-conducteurs chez Objective Analysis, a livré la semaine dernière lors du Flash Memory Summit, qui se tenait à Santa Clara. Handy estime que le prix des modules de mémoire flash NAND pourrait chuter de 80 % en deux trimestres. Selon lui, la baisse devrait ensuite se poursuivre à un rythme plus modéré de 30 % par an jusqu’à ce que la prochaine pénurie se produise.

Selon Handy, les pénuries et les périodes de surproduction sont de nature cyclique, et chacune dure généralement environ deux ans. Les prix montent en flèche en période de pénurie, ce qui stimule les profits des fabricants qui sont très motivés à réinvestir dans leur entreprise pour éviter de payer des impôts sur ces revenus. Ces investissements finissent par conduire à une offre excédentaire qui fait chuter les profits des fournisseurs jusqu’à ce que la demande rattrape le niveau de l’offre.

Le cycle typique de deux ans entre pénurie et surproduction pourrait se trouver rompu dans les années à venir. L’émergence de Yangtze Memory Technologies, un nouvel acteur chinois de la mémoire NAND - lourdement soutenu par le gouvernement chinois -, devrait entraîner une période d’offre excédentaire de trois ans au lieu des deux années habituelles.

Quadruplement de la capacité SSD pour le même prix 

Mais, même si Handy pense que les prix des puces flash NAND vont s’effondrer, il ne s’attend pas à ce que les prix des SSD chutent en proportion. Handy pense plutôt qu’un client qui obtient aujourd’hui un SSD d’une certaine capacité pour 1 000 $ obtiendra quatre fois plus de capacité au même prix à l’avenir.

« Les prix des SSD resteront les mêmes. Les capacités vont tout simplement exploser », indique Handy. « Un téraoctet pourrait être la plus petite capacité de SSD d’entreprise que vous pourrez acheter dans un an. »

Les prévisions varient en ce qui concerne le moment précis où la surcapacité se traduira par une chute des prix. Les services IT devraient toutefois remarquer une évolution dans les mois à venir.

« Au début, il y aura une énorme chute des prix, et ensuite, il y aura une baisse beaucoup plus modérée de 30 % par an jusqu’à la prochaine pénurie. Et puis la courbe redeviendra plate », a dit Handy.

Les modules flash fabriqués en 3D NAND 64 couches coûtent environ 8 cents par Go, alors que la NAND planaire en 16 nanomètres revient à environ 21 cents par Go, selon Handy. La récente pénurie est largement liée aux difficultés rencontrées par les fabricants à passer de la technologie planaire à la 3D NAND, plus dense.

« Ce qui a causé la pénurie, c’est que la fabrication n’a pas été aussi efficace qu’elle était censée l’être. Ce problème est en passe d’être résolu et c’est l’une des raisons pour lesquelles nous nous retrouvons dans cette offre excédentaire », a dit M. Handy.

La surcapacité de Flash pourrait avoir des effets en cascade sur l'industrie microélectronique

Handy prédit que les fabricants de modules flashes devraient réagir à la surproduction en fermant une partie de leurs usines de NAND planaire ou en les convertissant en usine de DRAM, une conversion, qui, à son tour, entraînera une baisse significative des prix de la mémoire vive.

« Nous aurons d’abord un effondrement du NAND. Ensuite, il y aura un effondrement subséquent des prix de la DRAM à mesure que la capacité excédentaire des usines NAND sera mise entre les mains des divisions mémoire. Il y aura alors une surcapacité et les fabricants de DRAM finiront par convertir leur capacité DRAM en capacité de fab générant alors un excédent de capacité de fab », indique Handy. « Tout le marché des semi-conducteurs court le risque d’une surcapacité parce que le domino NAND est sur le point de tomber. »

Yves Pellemans's insight:

Le prix des modules de mémoire flash NAND pourrait chuter de 80 % en deux trimestres. Tout le marché des semi-conducteurs court le risque d’une surcapacité parce que le domino NAND est sur le point de tomber.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Deep Learning : Intel jette son dévolu sur Vertex.AI

Intel a mis la main sur Vetex.AI, du nom d’une start-up spécialisée dans le deep learning, une branche de l’intelligence artificielle.

Si le montant de la transaction n’a pas été divulgué, on sait que l’équipe de la start-up composée de 7 personnes va rejoindre l’unité Movidius d’Intel (du nom de la start-up acquise par le fabricant de puces en 2016).

Fondée en 2015, Vertex.AI a développé la plate-forme open source PlaidML. Lancé en octobre dernier, elle consiste en un “moteur d’apprentissage profond portable“, qui permet aux développeurs de déployer des modèles IA sur tout type d’appareil, tournant sous Windows, Linux ou macOS.

PlaidML sera utilisé pour prendre en charge “divers matériels”. En outre, Intel a annoncé son intention d’intégrer sa bibliothèque nGraph de Vertex-.AI afin de développer des frameworks d’apprentissage en profondeur avec la plate-forme. Le développement de PlaidML va également être poursuivi et restera open source sous licence Apache 2.0.
Une véritable poussée d’Intel dans l’IA

Dans une contribution de blog, la start-up basée à Seattle se dit « ravie de faire progresser le deep learning flexible pour l’informatique de pointe avec Intel » et ajoute que « si vous souhaitez nous rejoindre, Intel recrute des experts d’IA, y compris ici à Seattle ».

Co-fondée par Choong Ng, Jeremy Bruestle et Brian Retford, Vetex.AI a reçu un soutien financier d’investisseurs tels que Curious Capital et Creative Destruction Lab, un accélérateur axé sur les start-ups spécialisées dans l’apprentissage automatique.

Durant les dernières années, Intel n’a cessé d’acquérir des start-ups spécialisées dans l’IA. Le groupe a ainsi jeté son dévolu sur Altera, Nervana (puces IA), Movidius et eASIC cette année.

Intel a également été occupé à développer son propre logiciel d’IA, avec notamment la boîte à outils OpenVINO.

Yves Pellemans's insight:

Intel met clairement le cap sur l'IA. Intel prévoit ainsi de futurs processeurs Xeon dotés de prédispositions pour les calculs IA.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

"Arrêtons de résumer l’IA aux algorithmes, il faut aussi innover dans le hardware !"

"Arrêtons de résumer l’IA aux algorithmes, il faut aussi innover dans le hardware !" | Cloudnews | Scoop.it
Quelle est la place du hardware dans la stratégie nationale de la France en IA ?

Igor Carron : Le hardware est quasi-inexistant dans la stratégie française en IA. Le rapport Villani n’y consacre qu’une ou deux pages et le mot ne figure pas une seule fois dans le discours prononcé par le président Emmanuel Macron le 29 mars. Depuis, je ne perçois pas d’attention de l’Etat sur le sujet, ni même des scientifiques. Parmi les instituts dédiés à l’IA qui se montent, il semble qu’aucun n’ait de composante hardware. Cela montre que la communauté académique du hardware n’a pas une taille suffisante. Et pour cause : elle n’a pas été assez financée par le passé.

En quoi l’IA a-t-elle besoin de nouveaux types de processeurs ?

La consommation d’énergie des équipements numériques croît déjà à une vitesse inquiétante. L’essor de l’IA accentue dramatiquement cette tendance, car l’IA est extrêmement gourmande en calculs. Nous aurons donc besoin de hardware plus efficace énergétiquement. En outre, les calculs liés à l’IA sont spécifiques. Alors que le calcul intensif traditionnel cherche toujours plus de précision d’arrondi avec un encodage sur 64 voire 128 bits, le deep learning s’accommode très bien d’une moindre précision et peut parfois se contenter de 8 bits. C’est une inversion des priorités, qui demandera probablement de nouveaux processeurs.

Sans compter la fin prochaine de la loi de Moore…

La fin annoncée de la loi de Moore [loi empirique qui traduit la progression exponentielle de la puissance de calcul des microprocesseurs depuis des décennies, NDLR] impose de toute façon de penser de nouvelles architectures de calcul. La fin de ce dogme ouvre des opportunités inédites. Il nous faut les saisir ! On a tendance à résumer l’IA aux algorithmes, aux logiciels, mais si on veut tenir compte du facteur énergétique et du moindre besoin de précision, il faut aussi innover dans le hardware. Ce sera source d’innovation dans le logiciel. Regardez Snips et son assistant vocal qui tourne en local sur du hardware peu puissant pour assurer la protection des données personnelles : ils ont dû innover en matière d’algorithmes pour y arriver. Si on veut devenir un acteur important de l’IA, il faut y aller en tandem soft et hard.

D’autres pays ont-ils plus conscience de l’enjeu du hardware pour l’IA ?

C’est clairement le cas des Etats-Unis et de la Chine. Et ce depuis ce que j’appelle l’explosion cambrienne de mai 2016: quand Google annonce qu’il utilise depuis 18 mois une puce dédiée à l’IA, nommée TPU (tensor processor unit), que Nvidia, le spécialiste des processeurs graphiques (GPU) au cœur de l’essor du deep learning, voit son cours de Bourse décoller et qu’Intel rachète coup sur coup deux spécialistes du hardware IA, Movidius et Nervana, pour plus de 400 millions de dollars chacun. Nervana était alors une start-up de 50 personnes. Aujourd’hui, ils sont 800 et contribuent à la roadmap technologique d’Intel ! Il faut bien comprendre qu’un Google ou un Baidu offrent via le cloud des services d’IA utilisés chaque jour par des centaines de millions de personnes. Ils sont donc directement confrontés aux besoins massifs de calculs de l’IA.

Comment faire pour que la France ne reste pas à l’écart du mouvement ?

L’absence de grands acteurs du numérique fait que la prise de conscience du besoin de hardware dédié à l’IA est difficile. Il y a des start-ups françaises sur le sujet, LightOn bien sûr, mais aussi Kalray, Mipsology, AnotherBrain… Le problème est que le hardware est assez mal appréhendé par les capital-risqueurs et l’Etat et que les dispositifs de soutien à l’innovation ne sont pas adaptés. Pour ne pas être accusé par Bruxelles de subventionner des entreprises, tout concours d’innovation demande à la start-up de financer près de 50% de son projet. C’est compliqué pour du hardware car les sommes à mobiliser sont importantes. La seule solution, c’est la commande publique. C’est ce que font les Etats-Unis avec leur programme SBIR – Small Business Innovation Research – destiné à aider les petites entreprises innovantes. Il ne s’agit pas de subventionner une start-up mais de lui passer une commande qui lui permettra de mettre au point un prototype, par exemple. Il faut ce genre d’approche en France. La commande publique est essentielle.
Yves Pellemans's insight:

 L’IA accentue dramatiquement la consommation d’énergie des équipements, car l’IA est extrêmement gourmande en calculs. Nous aurons donc besoin de hardware plus efficace énergétiquement.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Samsung investit 161 milliards de dollars, dont 22 milliards dans l'IA et la voiture autonome

Samsung investit 161 milliards de dollars, dont 22 milliards dans l'IA et la voiture autonome | Cloudnews | Scoop.it

Fragilisé par des ventes de smartphones plus faibles que prévues au premier trimestre, Samsung lance un vaste plan d’investissement de 161 milliards de dollars sur 3 ans pour se refaire une santé. Dans un communiqué paru ce mercredi 8 août, le groupe sud-coréen précise que les investissements seront principalement menés par sa filiale Samsung Electronics, fleuron du groupe et premier fabricant mondial de puces électroniques

25 milliards de dollars pour l'IA, la voiture autonome et la 5G

Afin de trouver des relais de croissance, l’enveloppe consacrera, outre l’investissement en capital, pas moins de 22 milliards de dollars à la recherche sur l'intelligence artificielle, la voiture autonome ou la 5G… "Samsung espère que les innovations permises par les technologies d’intelligence artificielle permettront de transformer le secteur, quand les technologies de communication 5G créeront de nouvelles opportunités sur les segments de la voiture autonome, de l’internet des objets et de la robotique”, avance le groupe dans son communiqué. Samsung projette notamment d'accroître significativement ses efforts concernant la recherche en IA en portant à un millier le nombre de ses chercheurs spécialisés sur le sujet.

Afin de conserver son leadership sur le marché des semi-conducteurs, le groupe concentrera une part de ses investissements dans l’équipement de ses usines, en vue d’accroître sa production. Environ 70% de l’enveloppe globale devraient être investis en Corée du Sud, ce qui devrait permettre de créer 40 000 emplois sur trois ans. Une requête qui avait été adressée au géant de l’électronique par le gouvernement sud-coréen, inquiet du taux de chômage des jeunes, lors d’une rencontre organisée 2 jours plus tôt entre le ministre des Finances et Lee Jae-Yong, le vice-président de l’empire Samsung

Yves Pellemans's insight:

Samsung consacrera, outre l’investissement en capital, pas moins de 22 milliards de dollars à la recherche sur l'intelligence artificielle, la voiture autonome ou la 5G…

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Dell optimiste sur son potentiel de croissance au cours des quatre prochaines années

Dell optimiste sur son potentiel de croissance au cours des quatre prochaines années | Cloudnews | Scoop.it

En prévision de sa prochaine opération de réintroduction en bourse, Dell vient de présenter ses prévisions de chiffre d’affaires à la commission des opérations de bourse américaine. On y apprend que Dell prévoit de réaliser entre 99,5 et 103,3 milliards de dollars à l’horizon 2022 (exercice fiscal qui s’achèvera fin janvier 2022). Cela représente une augmentation de près de 30% par rapport aux 79,9 milliards de dollars réalisés sur l’exercice 2018 clos le 2 février dernier, soit un peu moins de 7% de croissance moyenne annuelle.

Sur l’exercice en cours, Dell prévoit de générer 87,5 milliards de dollars, soit 9,5% de croissance par rapport à l’exercice 2018. Sa division solutions d’infrastructures (ISG), qui regroupe les serveurs, le stockage, la protection des données et le réseau devrait réaliser 34 milliards de dollars pour l’exercice 2019, soit +10,9%, et atteindront 38 milliards de dollars d’ici 2022.

Les ventes de sa division solutions clients (PC, ordinateurs portables et postes de travail) génèreront 42,5 milliards de dollars pour l’exercice 2019 (+7,7%). Dell prévoit 47 milliards de dollars à l’horizon 2022.

Yves Pellemans's insight:

Dell prévoit de réaliser entre 99,5 et 103,3 milliards de dollars à l’horizon 2022

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Satellites : Washington veut sa « Force de l'espace » pour 2020

Satellites : Washington veut sa « Force de l'espace » pour 2020 | Cloudnews | Scoop.it

L'US Space Force promue par Donald Trump devra concevoir de nouvelles technologies et défendre les satellites mis en orbite par les États-Unis.

Le vice-président des États-Unis, Mike Pence, a annoncé lors d’une intervention au Pentagone, jeudi 9 août, la création d’une « Force de l’espace » à horizon 2020.

Voulue par Donald Trump, cette armée en devenir est présentée comme essentielle « pour défendre l’Amérique » face aux menaces potentielles que font peser d’autres puissances, la Chine et la Russie en particulier, sur les satellites américains.

Ils sont 100 aujourd’hui, dont 31 satellites GPS, actuellement contrôlés dans leur majorité par l’US Air force, a souligné le magazine Time. Mais cela ne suffit plus, selon Donald Trump. Le président des États-Unis a donc signé en juin dernier un décret en faveur de la création d’une force dédiée capable d’imposer une « domination américaine de l’espace ».

Mike Pence a donc dévoilé le programme envisagé pour sa mise en oeuvre, rapporte le Washington Post. Elle passerait, pour commencer, par la création d’une autorité de contrôle (US Space Command) dotée d’un budget dédié. Et se poursuivrait par une réorganisation des opérations spatiales et des personnels au sein du Pentagone.

La création d’une agence de développement chargée de concevoir de nouvelles technologies de défense spatiale est également au menu… Le gouvernement fédéral américain a donc appelé le Congrès à allouer 8 milliards de dollars supplémentaires pour les systèmes de sécurité spatiale au cours des cinq prochaines années.

Les critiques ne manquent pas, y compris dans les sphères du pouvoir. Lui-même sceptique au départ, le secrétaire à la Défense, Jim Mattis, ne voulait pas ajouter « une couche organisationnelle et administrative supplémentaire » au Pentagone, comme l’a rappelé le New York Times. Le ministre s’est finalement rangé parmi les soutiens du projet.

Il revient désormais au Congrès des États-Unis de se prononcer pour ou contre la création – et le financement – de cette Force de l’espace promue par Donald Trump.

 

Yves Pellemans's insight:

Cette « US Space Force » deviendrait la sixième branche des forces armées américaines. Les cinq branches existantes étant les armées : de terre (US Army), de l’air (Air Force), la marine (Navy), les corps des marines et les garde-côtes.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IA : Dell EMC annonce deux solutions clés en main pour les entreprises

Dell EMC veut creuser le sillon de l’intelligence artificielle (IA). A cet effet, le groupe texan a dévoilé « Ready Solutions for AI », une pile technologique destinée à simplifier le recours à l’IA.
Des offres clés en main

Il s’agit en effet de permettre aux entreprises de de focaliser sur le développement d’applications IA plutôt que sur l’approvisionnement et la mise en place souvent fastidieuse de leurs propres solutions.

Les deux offres de Dell EMC comprennent des frameworks et des bibliothèques pour l’IA, des serveurs pour le calcul, de la mise en réseau, le stockage et des services de conseil et de déploiement fournis par le groupe.

Pour Tom Burns, vice-président senior en charge du Networking & Solutions au sein de Dell EMC, “il ne fait aucun doute que l’IA est l’avenir, et nos clients se préparent maintenant“. Et d’ajouter que “notre objectif est de diriger le secteur avec les solutions IA les plus puissantes et les mieux intégrées. Ce que nous annonçons aujourd’hui permet aux clients de commencer à obtenir de meilleurs résultats et de se positionner pour le rôle de plus en plus important que prend l’IA.”
Pour le machine learning et deep learning

La première des offres, qui cible le machine learning (ou apprentissage automatique en français), est basée sur les serveurs rack Dell PowerEdge R640 et R740xd, chacun pouvant être équipé de deux unités centrales Intel Xeon Scalable.

Dell EMC a aussi recours à plusieurs outils logiciels pour exécuter des modèles d’apprentissage automatique. Ils incluent Data Science Workbench de Cloudera et Apache Spark, un moteur d’analyse open source populaire doté de nombreuses fonctionnalités IA.

La société a également intégré son propre moteur Data Science Provisioning Engine, un outil conçu pour faciliter le déploiement de l’extension BigDL AI d’Intel pour Spark.

L’autre offre se concentre sur le deep learning (ou apprentissage en profondeur en français).

Au cœur de la solution se trouvent les serveurs rack PowerEdge R740xd et C4140. Cette dernière se présente comme une machine singulière dans la gamme PowerEdge. Elle peut héberger jusqu’à quatre unités de traitement graphique Tesla V100 signées Nvidia.
80 % des entreprises vont prendre le virage IA

La solution combine les serveurs avec le système de stockage flash connecté au réseau Isilon F800 de Dell EMC et le gestionnaire de cluster pour la science des données signé Bright Computing.

Les nouvelles offres s’inscrivent dans les efforts de Dell EMC visant à cibler le marché en pleine croissance de l’IA.

Selon Dell EMC, 80 % des entreprises envisageraient d’investir dans des «technologies avancées d’IA» au cours des cinq prochaines années.

Un véritable levier de croissance pour le groupe, Ready Solutions for AI se positionnant comme un choix pertinent. En effet, selon Forrester Research, Ready Solutions for AI améliore la productivité globale de la science des données jusqu’à 30 % et réduit les délais d’implémentation de 6 à 12 mois par rapport à des approches « propriétaires » de l’IA.

Ces deux offres sont disponibles dès à présent aux Outre-Atlantique, avec une disponibilité au Brésil, au Canada, au Mexique, en France, en Allemagne, au Royaume-Uni, en Australie, en Chine, en Inde et au Japon prévue dans les 60 prochains jours.
Yves Pellemans's insight:

Dell EMC annonce 2 offres IA sous le nom de « Ready Solutions for AI

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cisco débourse 2,35 Md$ pour Duo Security

Avec Duo Security, Cisco débourse 2.35 Md$ et poursuit la conquête de fonctions de sécurité et se dote ici d’un spécialiste de l’authentification forte. Des intégrations poussées avec les produits en place du groupe sont prévues.

 

Cisco poursuit sans relâche sa quête d’outils de sécurité. Cette acquisition permet à Cisco d’ajouter en effet  des services d'authentification multi-facteurs à son portefeuille d’outils de  sécurité. La transaction devrait être finalisée d’ici à la fin octobre.

Yves Pellemans's insight:

Cisco a annoncé l’acquisition de Duo Security, spécialisée dans l’authentification forte dans le cloud. Cisco va débourser 2,35 milliards de dollars en cash !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Ces start-up en route pour ubériser Dropbox grâce à la blockchain

Ces start-up en route pour ubériser Dropbox grâce à la blockchain | Cloudnews | Scoop.it
Depuis quelques années, un nouveau concept de stockage de fichiers est apparu dans le sillage des blockchains. Des start-up comme Filecoin, Storj, Sia, et MaidSafe ont choisi de recourir à des chaînes de blocs pour proposer un mode d'hébergement décentralisé des documents. Ces offres s'adossent en général à des briques open source. Le concept rappelle celui des Torrents et des réseaux peer-to-peer qui ont connu leur heure de gloire dans les années 2000 pour le téléchargement (pas toujours légal) de films ou de musiques. Les fichiers sont cryptés, découpés en morceaux, puis dupliqués sur plusieurs disques durs pour assurer la résilience du système et limiter les risques de piratage. Le détenteur du document dispose d'une clé (privée) pour le recomposer. Théoriquement, il est ainsi le seul à pouvoir y accéder.

Ces applications décentralisées (ou Dapp, pour decentralized application) s'appuient ainsi sur les capacités de stockage inutilisées des clients. A ces derniers de décider du volume d'espace disque qu'ils souhaitent louer à la communauté sur leurs PC, serveurs ou périphériques d'archivage. Ils reçoivent en contrepartie des jetons qui leur permettent ensuite de payer tout ou partie des services cloud auxquels ils ont recours sur le réseau.
Storj, le leader

Du fait de son ancienneté (qui remonte à 2014) et de sa base installée, Storj (prononcez "storage") fait figure de leader sur le créneau du stockage décentralisé. Storj Lab, la société derrière cette plateforme open source, revendique un réseau de plus de 150 000 machines réparties dans 200 pays. Parmi ses références clients, on relève le moteur de recherche décentralisé BitCave.

Storj a fait le choix d'une tarification simple de 0,015 dollar par Go et par mois pour le stockage, auquel s'ajoute 0,05 dollar par Go téléchargé pour la bande passante. La start-up a noué un partenariat avec le client FTP Filezilla (15 millions d'utilisateurs mensuels). Les adeptes de Storj peuvent ainsi utiliser ce logiciel pour gérer envoi et partage de fichiers. Storj s'est aussi rapproché de CapLinked, un éditeur spécialisé dans le partage d'informations confidentielles entre entreprises. Gage de crédibilité, Ben Golub, ancien PDG de Docker, a récemment rejoint Storj.
Sia, challenger économique

Sia est un concurrent sérieux de Storj. Proposée par la société américaine Nebulous, la plateforme a été lancée en 2015. Affichant une capacité de stockage de 4,5 Pb, Sia fait appel à sa propre blockchain et utilise des contrats intelligents (smart contracts) pour gérer les transactions entre loueurs et consommateurs d'espaces de stockage. La start-up a mis au point sa propre crypto-devise (SiaCoin) pour servir de monnaie d'échange entre les deux partis.

Avant d'être uploadé sur Storj, chaque fichier est divisé en 30 segments. Côté cryptage, la plateforme utilise l'algorithme open source Twofish. Elle recourt aussi à une technologie de hash, Merkle tree, comme preuve de stockage. Ciblant en priorité les entreprises, Sia affirme atteindre des débits supérieurs à 100 Mbit/s et être en mesure de gérer des dizaines de milliers de fichiers.

Selon sa feuille de route technique, Sia compte s'étendre à la gestion de la récupération de données après sinistre. Objectif affiché : devenir un concurrent sérieux du service de stockage S3 d'Amazon d'ici 2020. Au niveau tarification, ses prix varient en fonction de l'offre et de la demande. Pour l'heure, Sia affiche un tarif global au To inférieur à 2 dollars par mois, contre 12,50 dollars pour 2 To pour la version standard de Dropbox Business et 24 dollars pour AWS S3 (sur la zone Paris). C'est également nettement moins cher que chez Storj.
Filecoin, le nouvel entrant

Filecoin a suscité un engouement médiatique l'été dernier en réalisant une des plus grosses ICO de l'histoire. La start-up a levé 257 millions de dollars en convertissant sa crypto-monnaie, le Filecoin, en billets verts. Cette levée de fonds a aussi associé des investisseurs traditionnels tels que Sequoia Capital, Andreessen Horowitz ou Union Square Ventures. Une manne qui laisse augurer de belles perspectives car, pour l'heure, Filecoin reste à l'état de projet.

La jeune pousse appartient à la société Protocol Labs, à l'origine du protocole IPFS (InterPlanetary File System). Fonctionnant sur le principe du peer-to-peer, IPFS se veut une alternative au fameux HTTP. La technologie servira de socle à la futur plateforme. Quant à la crypto-monnaie de la start-up, elle permettra de rétribuer les mineurs qui mettront à disposition leur espace de stockage.
MaidSafe, un écosystème ambitieux

Tout comme Filecoin, MaidSafe en est encore au stade du développement. MaidSafe qui veut dire "Massive Array of Internet Disks - Secure Access For Everyone" reprend un grand nombre d'éléments des plateformes concurrentes. Cette plateforme fait appel à un réseau autonome. Via des smart contracts, elle orchestre les relations entre ses membres sans intervention humaine.

MaidSafe s'appuie sur sa propre preuve de travail. Baptisée Proof of ressource, elle arbitre la répartition des fichiers en fonction notamment du niveau de CPU, de la bande passante et de l'espace disque des membres du réseau. MaidSafe voit les choses en grand. Avec pour objectif de s'entourer d'un écosystème de partenaires, la start-up propose son propre navigateur web (Safe Browser) aux côtés d'un gestionnaire d'hébergement web.

Enfin, MaidSafe promet les prix les plus bas possibles. Pas de tarifs fixés à l'avance, la plateforme se propose de les ajuster en permanence en fonction de la demande utilisateur et des ressources disponibles.
Yves Pellemans's insight:

Les solutions de DataBox (Dropbox, Google Drive, OneDrive...) ont  leurs limites suivant la bande passante et de la disponibilité du service. Recourir à ces solutions pose par ailleurs la question de la confidentialité des données à l'heure du RGPD.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Blockchain advertising, le contrat de confiance de la publicité digitale

Blockchain advertising, le contrat de confiance de la publicité digitale | Cloudnews | Scoop.it

Pour le couple blockchain et publicité, 2017 fut l'année des premiers flirts. Le meilleur exemple est la plateforme Adchain lancée en beta par Meta X pour offrir une vue globale de toute la data associée à une impression pub et permettre de savoir qui a accès à quelle donnée. En 2018, l'idylle bat son plein. Selon Christophe Dané, fondateur du cabinet de conseil Digitall Makers, "une trentaine de projets blockchain relatifs à l'achat média, la gestion de la data et la lutte contre la fraude sur le marché anglo-saxon" ont vu le jour.

 

Toutes les conditions étaient réunies pour que le couple tienne. Avec d'un côté un marché de la publicité digitale gangrené par la fraude et confronté à une crise de confiance sans précédent et, de l'autre, une technologie qui assure la transparence et la traçabilité des échanges, et permettant à chacun de ses membres de voir l'intégralité des transactions qui s'y déroulent. Cette année, le marché de la fraude pèsera 52 millions de dollars par jour, selon les estimations de Juniper Research.

 

Deux projets chez IBM

Ce sont désormais les géants du marché qui s'emparent de la technologie. En premier lieu IBM, qui a annoncé à l'occasion des Cannes Lions le lancement d'IBM Blockchain Platform, un projet adossé à Ethereum et déployé au sein de la plateforme programmatique Mediaocean. Objectif annoncé : tracker l'intégralité des transactions digital media et ainsi déterminer le pourcentage des dépenses médias capté par chacun des intermédiaires de la chaîne de valeur. Ces fameux "middlemen" qui, selon un rapport de l'ANA publié en 2016, s'arrogent 40 centimes de chaque dollar investi par l'annonceur. Si le projet n'en est encore qu'à la phase de test, il emporte l'adhésion de quelques-uns des plus gros annonceurs américains dont Pfizer, Kellogg ou encore Unilever. Ce dernier a participé aux premiers tests réalisés début 2018 et compte prendre part au prochain pilote, prévu sur le marché américain, en juillet prochain. Un déploiement massif est espéré courant 2019. "Je pense que nous aurons une solution complètement opérationnelle et adoptée par la majorité de l'industrie d'ici la fin de l'année prochaine", a pronostiqué le PDG de Mediaocean, Bill Wise.

"Une trentaine de projets blockchain relatifs à l'achat média, la gestion de la data et la lutte contre la fraude sur le marché anglo-saxon ont vu le jour en 2018"

IBM n'en est pas à son coup d'essai. Le géant de l'informatique a annoncé quelques semaines plus tôt le lancement d'un proof of concept (POC) avec Salon Media. L'ambition est ici d'enregistrer tous les détails contractuels des accords noués entre les différents membres de la chaîne au sein d'un écosystème immuable et entièrement auditable. De quoi court-circuiter les pratiques d'un marché qui fonctionne encore beaucoup aux rabais négociés sous le manteau. Typiquement, un trading desk qui accepte de reverser une partie de sa rémunération à l'agence qui le choisit, en lui payant des prestations de conseil ou de formation fictifs. Le projet a été adoubé par le consortium Adledger, une organisation chargée de réfléchir aux moyens de déployer la blockchain au service du marché pub digital. A son bord, quelques-uns des plus gros acteurs du marché côté buy-side : Publicis Media, Group M, IPG Mediabrands ou encore Appnexus.

Ce dernier est également partenaire d'un autre projet d'envergure, Amino Payments, une plateforme blockchain elle aussi désireuse d'apporter une totale transparence au marché pub. Deux des plus gros annonceurs US lui ont annoncé son soutien : AT&T et Bayer. Christophe Dané note "un vrai consensus pour épurer le marché" et imagine certains de ces projets aller encore plus loin, en s'appuyant sur les smart contracts, ces contrats qui s'exécutent automatiquement en fonction de conditions choisies au préalable pour aller plus loin. "Ce serait par exemple un annonceur qui impose de ne payer que pour les publicités vues à plus de 30% et sous certaines conditions", illustre-t-il. Le contrat ne s'applique donc que si l'ensemble des règles sont respectées.

Les éditeurs aussi

Du côté des éditeurs, on est également décidé à faire bouger les choses. Et c'est le groupe Dow Jones Media Groupe qui a tiré le premier, en annonçant rejoindre le projet imaginé par Brave. Ce navigateur Internet ambitionne de ne proposer des publicités ciblées qu'auprès des internautes qui ont partagé leur consentement sur la base d'un opt-in. Autre spécificité : les internautes qui consulteront les sites MarketWatch et Barrons.com, depuis le navigateur de Brave, gagneront des tokens BAT à chaque fois qu'ils interagiront avec le contenu publicitaire.

Lancé par le fondateur de Mozilla, Brendan Eich, le navigateur n'est bien sûr pas aussi populaire que Chrome mais il compte tout de même 2 millions d'utilisateurs dans le monde. "L'ambition est de réduire les parties prenantes au trio annonceur, internaute et éditeur", analyse Christophe Dané. Une désintermédiation qui permet de gonfler la part captée par l'éditeur. Il touche près de 55% de la rémunération versée par l'annonceur, "bien plus que dans le circuit classique", note Christophe Dané. La mécanique est d'autant plus vertueuse que l'internaute peut décider d'encaisser sa crypto-monnaie ou… l'utiliser pour effectuer un achat payant chez l'éditeur.  Christophe Dané s'interroge tout de même sur la durée de vie des informations collectées. "Tout ce qui est inscrit dans une blockchain est immuable. Ça pose problème sur Internet où le droit à l'oubli existe et où je vois mal comment un utilisateur qui a donné son consentement peut faire marche-arrière et effacer toute trace."

Facebook et Google, les absents

Ce n'est bien sûr pas le seul frein à l'envol des projets de blockchain advertising. Si on met de côté la problématique de la rapidité d'encryptage des blocks "qui n'est pas aussi efficace que dans les opérations RTB", selon Christophe Dané , le principal écueil reste celui de l'adhésion des sociétés adtech. Ces fameux prestataires dont les pratiques seraient "outées" avec pour risque d'être carrément désintermédiés. Il faudra également attirer annonceurs et éditeurs. "Je ne suis pas sûr qu'ils soient tous convaincus par un modèle où il n'y a pas de demi-mesure en matière de transparence", ajoute Christophe Dané. Un éditeur a-t-il envie que les CPM qu'il négocie soient visibles de tous ? Même question côté annonceur ? Pas vraiment un souci à en croire le PDG d'Appnexus, Brian O'Kelley, qui expliquait au JDN qu'on "peut mettre en place au sein d'une blockchain des mécaniques de permissions qui font que tout le monde ne peut pas tout voir". Et c'est particulièrement vrai pour les DLT (distributed ledger technology, ou technologie de registre distribué) des blockchains privées ou des consortiums au sein desquels les participants décident en amont de qui pourra accéder à quelles informations.

Enfin, dans un secteur où Google et Facebook captent plus des deux tiers de la valeur, il parait difficile de voir la pratique se démocratiser sans l'adhésion du duopole. Et pour le moment, ni Facebook ni Google n'ont pris position. Certes, le premier a lancé une division blockchain et le second a annoncé travailler sur un projet de blockchain dans le cloud pour sécuriser la data des internautes. Mais rien concernant le marché publicitaire. Christophe Dané se veut cependant optimiste. "Je pense que Google comme Facebook ont intérêt à y aller pour faire taire les critiques concernant leur stratégie de walled gardens. S'ils cloisonnent ainsi l'utilisation de leurs services et de leur data, ce n'est pas parce qu'ils refusent de les partager, mais parce qu'ils sont bien placés pour savoir que les acteurs du secteur ne sont pas vraiment respectueux des politiques de confidentialité." Une blockchain où tout se voit leur permettrait de se prémunir contre ce risque.

Yves Pellemans's insight:

IBM, Appnexus ou encore le groupe Dow Jones, les poids lourds des médias investissent dans des projets blockchain visant à apporter plus de transparence et de sécurité au marché.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Dell/VMware et Nutanix continuent à dominer un marché de l'hyperconvergence en forte croissance

Dell/VMware et Nutanix continuent à dominer un marché de l'hyperconvergence en forte croissance | Cloudnews | Scoop.it

Au premier trimestre 2018, le couple Dell/VMware et Nutanix ont poursuivi leur domination du marché des systèmes hyperconvergés. Dell devance Nutanix sur le marché des appliances vendues en marque propres, tandis que VMware et Nutanix font quasiment jeu égal sur le marché des plates-formes logicielles hyperconvergées.

Dell, VMware et Nutanix ont continué à dominer le marché des infrastructures hyper convergentes au premier trimestre selon les dernières données rendues publiques par IDC.

 

Selon le baromètre du cabinet d’analystes, Dell et Nutanix sont en tête des ventes d’appliances hyperconvergées (HCI, hyper converged infrastructure), tandis que les plates-formes logicielles de VMware et Nutanix dominent le marché des systèmes hyperconvergés. Hewlett-Packard Enterprise et Cisco enregistrent de fortes croissances, mais restent très loin des leaders.

Depuis deux trimestres, IDC mesure le marché HCI de deux façons. Le cabinet d’analystes classe tout d’abord les fournisseurs selon la marque du système hyperconvergé livré au client et ensuite selon la marque du logiciel faisant tourner la plate-forme. Dans les deux cas, IDC prend en compte le chiffre d’affaires du système complet (matériel et logiciel). Le cabinet d’analystes ne distingue pas encore les fournisseurs par leur revenu logiciel pur.

Selon IDC, le marché de l’hyperconvergence a bondi de 76,3 % sur un an, une solide progression, tirée par la performance des acteurs du quatuor de tête. Les ventes d’appliances motorisées par la plate-forme de VMware ont ainsi bondi de 110 %, tandis que celles motorisées par Nutanix progressaient de 86 %.

Les ventes de systèmes hyperconvergés au 1er trimestre 2018

Fournisseur Revenu T1-2018 Part de marché Revenu T1-2017 Part de marché Croissance VMware 456,3 37 % 217,8 31 % 110 % Nutanix 398,7 33 % 214,9 31 % 86 % HPE 61,3 5 % 16,1 2 % 281 % Cisco 59,9 5 % 24,5 4 % 145 % Autres 251,0 20 % 222,6 32 % 13 % Total 1227,2 100 % 696,0 100 % 76 %

 (source : IDC)

VMware profite incontestablement de sa position de leader de la virtualisation pour marquer des points dans l’hyperconvergence, mais il continue à être talonné par Nutanix. La filiale de Dell affiche ainsi un revenu de 456 M$ contre 398 pour son rival. Ensemble, les solutions de VMware et Nutanix s’adjugent 70 % du marché de l’hyperconvergence.

HPE et Cisco sont nettement détachés, mais les deux constructeurs affichent des croissances encore plus impressionnantes, respectivement de 281 % et de 145 %. Comme le confirmait récemment Matthieu de Fressenel, le patron des serveurs d’HPE France au MagIT, les ventes de Simplivity ont décollé notamment sur le marché des équipements pour sites distants et agences (marché dit « ROBO » pour Remote Office, Branch Office).

Et ce décollage se traduirait dans les chiffres. Selon Matthieu de Fressenel, la croissance d’HPE en France sur le marché hyperconvergé aurait ainsi dépassé celle de Nutanix en France. 

Un autre point à retenir des chiffres publiés par IDC est le fait que les ventes de systèmes hyperconvergés font désormais quasiment jeu égal avec celles des systèmes convergés. Les premiers ont généré un CA de 1,27 Md$ au premier trimestre, tandis que les seconds généraient un revenu de 1,33 Md$. Surtout, les ventes de systèmes convergés sont à l’arrêt. Elles ont légèrement reculé de 0,9 % sur un an.

Sur le marché des systèmes convergés, Dell est aussi en tête avec un CA de 641 M$ (env. 48 % de parts de marché), devant le couple Cisco/NetApp avec 462 M$ (env. 35 % de PDM). Mais Dell est en recul de 1 % tandis que NetApp progresse de 16,8 %. HPE complète le podium, mais dans la douleur. La firme dirigée par Antonio Neri affiche des ventes de 105 M$, en recul de 42,4 % sur un an.

Les ventes de systèmes convergés au 1er trimestre 2018

Fournisseur Revenu
T1-2018
Part de
marché
Revenu
T1-2017
Part de
marché
Croissance Dell Inc 641,3 48 % 648,0 48 % -1 % Cisco/NetApp 462,0 35 % 395,6 29 % 17 % HPE 105,3 8 % 182,9 14 % -42 % All Others 128,5 10 % 122,9 9 % 5 % Total 1337,1 100 % 1349,4 100 % -1 %

 (source : IDC)

Yves Pellemans's insight:

VMware profite incontestablement de sa position de leader de la virtualisation pour marquer des points dans l’HCI.

Concernant les solutions convergés DELL/EMC, Cisco/NetAPP et HPE pésent plus de 90% du marché

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IoT industriel : PTC, Hitachi et SAP « visionnaires », selon Gartner

L’intérêt des industriels pour l’internet des objets (IoT) et ses plateformes logicielles permettant de gérer, analyser et contrôler les données générées par des capteurs placés sur leurs équipements est bien réel. Toutefois, aucun fournisseur de l’IoT industriel (IIoT) ne peut encore prétendre au statut de « leader », selon l’analyse de Gartner.

La société d’études a récemment livré son premier Magic Quadrant (payant) des plateformes dédiées à l’IoT industriel. CRN s’en est fait l’écho. Les fournisseurs ont été évalués en fonction de l’étendue de leur vision et de leur capacité à la mettre en oeuvre.

Il n’y a ni « leader », ni « challenger » dans ce Carré. En revanche, trois plateformes sortent du lot :
ThingWorx, Lumada, Leonardo

1. PTC, l’un des trois « visionnaires » du Quadrant, séduit Gartner avec sa plateforme ThingWorx. Elle est proposée sur site (on-premise), dans le cloud ou en mode hybride.

Ses atouts : la place de marché (marketplace) associée à ThingWorx. Le fournisseur américain tire également parti de partenariats et d’investissements dans l’IIoT et le Cloud réalisés auprès d’acteurs tels que Microsoft, AWS et GE Digital (avec sa plateforme Predix).

Les défis : il manque encore à PTC une base installée de clients dans les secteurs des transports et des services publics, relève le cabinet d’études américain.

2. Hitachi. L’industriel japonais a développé la plateforme Lumada. Celle-ci peut être déployée sur site ou être hébergée dans le cloud (AWS, Google Cloud, Microsoft Azure).

Ses atouts : les capacités de calcul à la périphérie du réseau de la plateforme Lumada.

Les défis : l’absence de marketplace permettant l’accès à des applications tierces.

3. SAP a étendu les capacités de son système Leonardo au-delà de l’IoT.

Ses atouts : des capacités éprouvées permettant d’enrichir les technologies opérationnelles (OT), ou systèmes de contrôle industriel, de capacités IoT.

Les défis : une offre plus orientée vers les clients existants de l’éditeur allemand du fait de la forte intégration avec ses propres solutions middleware et d’entreprise.

Accenture (CPaaS), IBM (Watson pour l’IoT), Oracle et Software AG (Cumulocity), eux, sont considérés par Gartner comme des acteurs de niche de ce marché en devenir.

Atos (Codex IoT), Altizon (Datonis), QiO (Foresight), Flutera (Cerebra) le sont également. Et la marge de manoeuvre de ces fournisseurs reste importante.

En effet, selon Gartner, les plateformes IoT sur site (on-premise) dotées de capacités de calcul à la périphérie du réseau (edge computing) devraient représenter 60% du marché des solutions analytiques de l’IoT industriel à horizon 2020. Contre 10% aujourd’hui.
Yves Pellemans's insight:

Personne ne peut encore prétendre au « leadership » du Magic Quadrant de Gartner pour l’IoT industriel mais cela avance ....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Maintenance prédictive, réparations en ligne : quand la voiture devient garagiste

Maintenance prédictive, réparations en ligne : quand la voiture devient garagiste | Cloudnews | Scoop.it
Pourquoi attendre la panne ou un seuil théorique pour changer les pièces usées d'une voiture ? La question taraude depuis longtemps des constructeurs automobiles qui aimeraient fluidifier le processus de maintenance et de réparation de leurs véhicules. Car pour savoir quand changer une pièce, les conducteurs se fient pour l'instant à des recommandations basées sur la distance parcourue depuis le dernier remplacement. Ces recommandations correspondent à la distance moyenne à partir de laquelle la pièce commence à être endommagée. Sauf que son usure effective peut grandement varier selon l'agressivité de la conduite, la vitesse moyenne, la météo ou encore le type de routes empruntées.

Grâce à l'IoT embarqué dans les véhicules connectés, les constructeurs vont pouvoir, en vrac, analyser l'usure de chaque pièce, personnaliser leurs recommandations de maintenance, prévenir les conducteurs lorsque le temps est venu de passer au garage voire même effectuer certaines interventions à distance. De nombreux constructeurs, comme Renault, PSA, Ford ou Volkswagen se préparent déjà à intégrer ces méthodes, à mesure que le parc automobile se renouvelle et que la proportion de véhicules connectés grandit, pour les deux ou trois années à venir.
Données théoriques, usure pratique

Ils peuvent, pour ce faire, s'adjoindre les services de start-up comme le Français Drust, fondé par trois anciens de la R&D de PSA. Ce dernier peut analyser directement les données relatives à un véhicule connecté ou celles d'une voiture classique, après avoir installé son boitier connecté. L'entreprise se concentre pour l'instant sur l'usure des freins et des pneus. "Pour les pneus, nous utilisons les données d'un accéléromètre fixé sur le châssis pour détecter les virages et les accélérations", détaille le directeur opérationnel de Drust, Pascal Galacteros. "Nous combinons ensuite ces données effectives aux modèles physiques utilisés par les constructeurs de pneus pour voir combien de temps ils vont durer."

Vient ensuite une phase de pondération statistique à l'aide d'intelligence artificielle. Le profil du client entre bien évidemment en ligne de compte. Il s'agit, par exemple, de prendre en compte les mois pendant lesquels il roule plus que d'autres, s'il part en vacances en voiture chaque été. "Nous finissons par déterminer un mois durant lequel il faudra effectuer une intervention sur le véhicule", ajoute Pascal Galacteros. Drust compare également ses résultats avec ceux d'une base de données acquise auprès de sociétés qui valident la durée de vie des pièces automobiles pour le compte des constructeurs en Espagne. Elle recense plus de 25 millions de kilomètres effectués sur différents types de routes et de conditions météo.
Verrouiller la relation client

La maintenance prédictive permet au constructeur de prévenir les conducteurs dont le véhicule a besoin d'une révision, par exemple via une notification sur leur smartphone, puis de leur proposer un rendez-vous chez un concessionnaire partenaire. Pour le client, c'est la garantie d'intervenir avant qu'il ne soit trop tard… ou d'éviter d'alourdir la facture. "Les plaquettes de freins sont fixées sur un disque avec une épaisseur d'usure. Si on dépasse cette épaisseur, on attaque les pièces de fixation et on endommage le disque qu'il faudra aussi changer," prévient Pascal Galacteros. Pour les constructeurs, il s'agit de privilégier leur propre réseau de réparation. En étant les premiers à savoir qu'un véhicule a besoin de maintenance, ils peuvent aiguiller les conducteurs et éviter qu'ils se rendent chez des garagistes indépendants. Quant aux garagistes, ces prédictions d'usure leur permettront de mieux anticiper la demande et donc de s'assurer d'avoir les bonnes pièces en stock.

La plupart des voitures doivent être mises à jour localement. Un peu comme s'il fallait se rendre dans un Apple Store pour installer la dernière version d'iOS…

Reste un cas de figure où il est impossible de prévoir que le véhicule aura besoin d'une maintenance : lorsqu'il comporte un défaut de conception ou un bug. "L'enjeu est de taille pour des constructeurs qui veulent réduire les milliards de dollars qu'ils dépensent dans des rappels de véhicules défectueux," explique Julien Masson, directeur de la division voiture connectée d'Orange Business Services. "Au-delà du coût financier, c'est un processus chronophage : il faut prendre un rendez-vous en concession, faire intervenir un réparateur, démonter le véhicule… Alors que de nombreux problèmes matériels sont simplement liés à des soucis logiciels qui peuvent être réglés à distance". Ces mises à jour à distance, dites "OTA" (Over the air, ndlr), sont la norme dans l'univers des smartphones. Mais pas encore dans celui des voitures. A part Tesla, très en avance sur le sujet, la plupart des autres véhicules doivent être mis à jour en accédant localement à leur système informatique. Un peu comme s'il fallait se rendre dans un Apple Store pour installer la dernière version d'iOS…

Deux exemples récents illustrent bien la différence de traitement entre ces deux méthodes. Fiat-Chrysler a annoncé fin mai le rappel en Amérique du Nord d'environ 5 millions de véhicules dont le régulateur de vitesse était dans certains cas impossible à désactiver, afin de corriger le problème via une mise à jour logicielle. Quelques jours plus tard, Consumer Reports, l'UFC-Que Choisir américain, publiait un rapport déconseillant d'acheter la Tesla Model 3 après avoir détecté des anomalies dans le système de freinage d'urgence. Une semaine après la parution du rapport, Tesla mettait à jour tout son parc de véhicules via une mise à jour OTA. Consumer Reports recommande désormais l'achat de la Tesla Model 3. Pendant ce temps-là, les voitures défectueuses de Fiat Chrysler dorment toujours au garage…
Yves Pellemans's insight:

Grâce à un mélange d'IoT, de statistiques et d'intelligence artificielle, il est possible de personnaliser l'entretien d'un véhicule connecté en fonction de chaque conducteur et de chaque pièce

more...
Lydia Gracia's curator insight, June 19, 7:02 AM

IoT embarqué

Scooped by Yves Pellemans
Scoop.it!

5G : Samsung se place en pole position avec le modem Exynos 5100

Samsung a annoncé son modem 5G Exynos 5100 qui sera disponible d’ici la fin 2018.

Samsung pousse dans le domaine très en vogue de la 5G. La firme sud-coréenne a ainsi développé son propre modem 5G compatible avec la spécification standard la plus récente 5G New Radio (5GNR) – Release 15 – de l’organisme de normalisation mondial 3GPP.

Ce dernier n’a approuvé la version 15 qu’en juin dernier et l’a publiée en juillet.

 

Baptisé Exynos 5100, il est gravé en classe 10 nm (nanomètres).

Il porte en germe la promesse de débits allant jusqu’à 6 Gbit/s pour les ondes millimétriques, jusqu’à 2 Gbits/s pour les fréquences sub-6 GHz et 1,6 Gbps pour la 4G LTE Advanced.

Il supporte aussi les réseaux GSM et CDMA (2G), WCDMA (3G), TD-SCDMA et HSPA, permettant d’utiliser un seul téléphone dans de nombreuses régions, notamment aux États-Unis et en Corée du Sud.

Yves Pellemans's insight:

La puce Samsung Exynos 5100, supporte la 5G et la pré-5G, mais également le 2G, 3G et 4G. Elle sera disponible dès Décembre 2018.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Face aux Gafa, l'Inde veut reprendre le contrôle de ses données

Face aux Gafa, l'Inde veut reprendre le contrôle de ses données | Cloudnews | Scoop.it
À l'instar de la Chine, le gouvernement indien plancherait sur un projet de loi pour obliger les sociétés étrangères à stocker les données personnelles des utilisateurs sur son territoire. Le but : reprendre le contrôle des données de ses citoyens et favoriser l'écosystème local pour faire émerger ses propres mastodontes du numérique.

L'Inde sort ses griffes. Le gouvernement plancherait sur un projet de loi afin de compliquer l'expansion des géants américains de la tech sur son territoire. L'objectif : reprendre le contrôle des données de ses citoyens et favoriser l'écosystème local pour faire émerger ses propres mastodontes du numérique. Le projet de loi propose notamment de rendre obligatoire, pour les sociétés étrangères, le stockage des données personnelles des utilisateurs indiens - issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce - sur son sol. Les données devront également être rendues accessibles aux autorités locales en cas d'enquête.

Ce projet "est sans précédent et doit être pris très au sérieux", a déclaré auprès du Wall Street Journal Vinay Kesari, avocat basé à Bangalore, et spécialisé dans les questions de réglementation, ayant travaillé avec des entreprises technologiques américaines. "Cela pourrait avoir d'énormes implications."

Un marché potentiel de 390 millions d'internautes

Dans le viseur de l'Inde : les géants américains qui opèrent sur son territoire, comme Google, Apple, Facebook ou encore Amazon. À défaut de pénétrer le marché chinois, où la plupart des acteurs étrangers sont censurés au nom de la politique de contrôle de l'Internet, connue sous le nom de "Great Firewall of China" (en français, Grande Muraille électronique de Chine), les entreprises américaines ont redoublé d'efforts ces dernières années pour séduire le marché indien. À commencer par Amazon.

Suite aux difficultés rencontrées par l'ogre du commerce en ligne pour s'imposer en Chine face au géant Alibaba, le Pdg et fondateur Jeff Bezos a revu sa stratégie d'implantation en Asie pour miser sur l'Inde. En juin 2016, en visite dans le pays, l'homme d'affaires avait annoncé un plan d'investissement de 3 milliards de dollars, qui venait s'ajouter à celui de 2 milliards déjà mis sur la table en 2014. Car le marché indien a de quoi faire saliver le leader mondial de l'e-commerce. D'après RedSeer Consulting, les ventes annuelles des sites d'e-commerce en Inde représenteront entre 80 et 100 milliards de dollars d'ici 2020, contre 13 milliards en 2016. Et ce n'est pas tout. L'Inde est désormais le deuxième marché mondial des smartphones et recense 390 millions d'internautes, se classant ainsi derrière la Chine mais devant les États-Unis. De quoi faire saliver les sociétés de la Silicon Valley...
L'Inde imite la Chine

L'Inde marche ainsi dans les pas de son voisin chinois, qui, en rendant son marché difficile d'accès, a favorisé l'émergence des géants Alibaba et Tencent. La deuxième économie mondiale a notamment adopté une législation similaire en novembre 2016, forçant les entreprises étrangères à stocker sur son territoire les données des internautes chinois. Ainsi, Apple a construit son premier data center en Chine, et a confié la gestion des données de ses utilisateurs à un partenaire local.

Ce projet de loi arrive au moment où le régulateur indien des télécoms menace d'interdire l'accès au réseau mobile national aux iPhone. Depuis deux ans, Apple refuse de rendre disponible au téléchargement une application anti-spam, développée sous l'égide du gouvernement indien. Cette application a officiellement été créée pour lutter contre le démarchage téléphonique abusif - très répandu dans le pays - en filtrant les messages et les appels indésirables. De son côté, le fabricant d'iPhone suspecte l'appli de siphonner massivement les données personnelles des utilisateurs... Apple dispose de six mois pour se conformer aux exigences du régulateur, avant de se voir couper l'accès au réseau, rendant ses téléphones inutilisables.
Yves Pellemans's insight:

Le projet de loi propose de rendre obligatoire le stockage des données personnelles issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce, sur son sol !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cloud décentralisé : l'utilisateur devient fournisseur... et les prix chutent

Cloud décentralisé : l'utilisateur devient fournisseur... et les prix chutent | Cloudnews | Scoop.it
Plusieurs start-up ont commencé à dessiner les contours d'offres cloud décentralisées. Face aux Alibaba Cloud, AWS, IBM Cloud, Google Cloud Platform et Microsoft Azure, ces jeunes pousses, parmi lesquelles figurent les Américains Dfinity et Otoy, le Polonais Golem ou le Français iExec, proposent une alternative. Un modèle distribué, souvent à base de blockchain, permettant à toute entreprise ou particulier de vendre de la ressource informatique (SaaS, IaaS, PaaS). Le concept a émergé en 2017 (lire notre article : Demain, vers une bourse du cloud computing). Mais désormais, la tendance s'accélère.

Comme souvent, les premiers frémissements viennent de Chine. Xunlei a annoncé en janvier dernier vouloir se positionner sur le créneau. Et le groupe Internet chinois ne part pas de rien. Il compte en effet tirer parti du million de serveurs multimédia déjà déployés chez ses clients particuliers. Des boîtiers, baptisés OneThing Cloud, qui leur permettent de stocker données et fichiers personnels. Cette base représenterait une manne de 1000 petabytes de stockage (pour environ 10 terabytes de bande passante). Et ce ne serait là qu'un début. Xunlei affirme avoir reçu des commandes pour 20 millions de boîtiers supplémentaires (selon Forbes). Pour l'heure limitée à la Chine, la commercialisation de OneThing Cloud devrait être étendue à terme à l'Asie du Sud, à l'Inde et aux Etats-Unis.

Au premier trimestre, Xunlei a lancé un premier service cloud décentralisé tirant parti de l'infrastructure OneThing Cloud : un réseau de diffusion de contenu web (CDN). Une brique que l'entreprise de Shenzhen compte enrichir dans les prochains mois avec d'autres solutions d'IaaS (centrées sur le calcul, le stockage). Pour inciter ses clients à donner accès à leurs ressources inutilisées, Xunlei offre des crédits gratuits à ses services (VOD, accélération réseau, stockage de fichiers…), et ce via sa propre crypto-monnaie, le LinkToken.
100 millions de dollars de R&D

Reste qu'un cloud distribué, à travers lequel les ressources IT sont réparties sur des milliers voire des millions de terminaisons réseau, se révèle par définition nettement plus complexe à opérer qu'un cloud centralisé. Face à ce défi technique, Xunlei indique avoir dépensé plus de 100 millions de dollars de R&D depuis 2014. "Il faut dire également que tous les traitements ne sont pas aussi facilement applicables à une infrastructure informatique décentralisée", prévient Gilles Fedak, chercheur à l'Inria et fondateur d'iExec. "Globalement, il vaut mieux être en présence d'une application déterministe, et éviter les systèmes aléatoires. De même, certains environnements type site web seront plus difficiles à distribuer."

A l'instar de Xunlei, iExec n'en est plus à l'étape de la preuve de concept. Après une ICO de 12,5 millions de dollars bouclée en mai 2017, cette spin-off de l'INRIA a lancé sa plateforme en novembre. Centrée pour l'heure sur le SaaS, elle s'articule autour d'une place de marché (Dapp Store) où les éditeurs peuvent venir vendre leurs applications cloud. Sous le capot, la blockchain Ethereum et ses smart contracts orchestrent la logique commerciale : les conditions de mise à disposition des apps et les transactions financières sous-jacentes opérées via l'échange de tokens. Un kit de développement est mis à la disposition des éditeurs pour créer des applications.

"Notre objectif est de proposer une solution cloud similaire à celle d'Amazon Web Services, mais beaucoup moins chère"

Pour l'heure, la plateforme d'iExec compte une quinzaine de logiciels. "Ils recouvrent des workloads éligibles à une architecture de calcul réparti. On en trouve dans le rendu graphique, l'IA d'apprentissage, avec une déclinaison cloud de Tensorflow par exemple, ou encore dans la prédiction financière", égraine Gilles Fedak. En janvier, iExec a lancé un hackathon avec à la clé 150 000 dollars à gagner. Objectif : attirer de nouvelles applications. "Sur 50 candidats, nous en avons sélectionné 15. Notre objectif est dès lors de hisser notre app store à 30 à 40 applications d'ici la fin du premier semestre", précise Gilles Fedak.

En parallèle, iExec planche sur l'extension de son offre au IaaS. Pour doter sa place de marché d'un premier pool de fournisseurs de capacité de calcul, la jeune pousse a commencé à signer des alliances. Parmi ses premiers partenaires figurent le spécialiste du cloud mining Genesis Mining (qui entend faire appel à elle pour commercialiser les ressources inutilisées de sa ferme de calcul). Mais également Stimergy, un spécialiste des chaudières connectées, Cloud&Heat, un fournisseur de systèmes de cloud privé, ou encore Qarnot Computing, qui commercialise des serveurs-radiateurs.
Objectif sécurité

"Notre objectif est de proposer une solution cloud similaire à celle d'Amazon Web Services, mais beaucoup moins chère", explique de son côté Chen Lei, PDG de Xunlei. Le modèle est imparable : le groupe chinois fait reposer l'investissement matériel sur les épaules de ses abonnés. Chez iExec, on met aussi en avant des coûts censés être plus faibles, mais pas pour les mêmes raisons. "A terme, les services cloud distribués via notre plateforme devraient afficher des prix plus faibles que le marché du fait de la dynamique de concurrence qui va s'instaurer entre les éditeurs impliqués", commente Gilles Fedak.

Autre point fort mis en avant par iExec : son infrastructure de sécurité. La société lyonnaise a mis au point un algorithme, baptisé Proof of Contribution, qui, en fonction de la capacité d'un éditeur à livrer correctement un service cloud lui attribue un score de réputation. "Sachant qu'en amont chaque fournisseur doit verser une caution. Si l'exécution du service est réalisée avec succès pour le compte d'un client, la caution lui est reversée, dans le cas contraire, il la perd", ajoute Gilles Fedak. Dans la même logique, iExec a optimisé sa plateforme pour permettre aux applications qui y sont exécutées de tirer parti des processeurs Intel SGX, et de leur mécanisme d'enclave sécurisé. Un dispositif qui garantit (via un système de signature) qu'un logiciel a été correctement exécuté sur une machine, et ce sans que quiconque ait pu y avoir accès ou le falsifier, y compris le propriétaire de cette dernière.

Pour réaliser ce tour de passe-passe, iExec s'est notamment rapproché d'Intel, mais aussi d'IBM. La start-up a commencé à tester le principe des enclaves sur le cloud public de Big Blue, qui implémente justement la technologie SGX (lire le post sur le site d'iExec). "Mais il ne s'agit pas du seul grand fournisseur de cloud avec lequel nous discutons. Nous espérons bien qu'ils seront au moins deux à rallier notre réseau au moment de l'extension de notre plateforme au IaaS", confie Gilles Fedak. Une nouvelle étape dont le coup d'envoi devrait être donné d'ici fin mai.
Yves Pellemans's insight:

De jeunes pousses proposent une alternative. Un modèle distribué, souvent à base de blockchain, permettant à toute entreprise ou particulier de vendre de la ressource informatique (SaaS, IaaS, PaaS). Le concept entre cloud et Edge computing a émergé en 2017 et la tendance s'accélère. A suivre ....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Uber multiplie les partenariats pour que ses taxis volants puissent décoller en 2023

Uber multiplie les partenariats pour que ses taxis volants puissent décoller en 2023 | Cloudnews | Scoop.it

L’Université du Texas à Austin rejoint la longue liste des partenaires rassemblés par Uber afin de l'aider à concevoir les moteurs de ses futurs taxis volants, a annoncé l'institution le 9 août. Il faut dire qu'il ne reste plus que deux ans à la société de VTC pour respecter le calendrier de son programme Uber Elevate, qui fixe les premiers tests en 2020. La commercialisation du service est quant à elle prévue à Dallas-Forth Worth, Los Angeles et Dubai en 2023.


L’équipe d’ingénieurs de l'Université du Texas doit évaluer l'efficacité du nouveau système de motorisation intégré aux taxis volants. Le concept consiste en deux moteurs empilés l’un sur l’autre et tournant dans le même sens. L’armée américaine, dont Uber s’est également attaché les services, y travaille encore. Mais selon les premiers essais, il constituerait à ce jour l'approche la plus efficiente pour ce type de transport. Les ingénieurs de l'Université du Texas doivent également mesurer le niveau sonore de ces nouveaux moteurs afin qu'ils ne soient pas un frein à l'autorisation de voler en milieu urbain. Uber collabore aussi avec la Nasa et d’autres entreprises du secteur aérospatial pour s'assurer que ces moteurs soient suffisamment puissants.



185 000 DOLLARS VERSÉS À L’UNIVERSITÉ DU TEXAS

Le projet sera-t-il prêt à temps ? Difficile à dire car il s’avère ambitieux. Les futurs taxis volants devront pouvoir transporter jusqu’à quatre passagers à une vitesse comprise entre 240 et 320 kilomètres/heure et une altitude de 300 et 600 mètres. Ils décolleront et atterriront via des hubs verticaux nichés sur les toits des immeubles. Ceux-ci leur permettront de recharger leurs batteries en cinq minutes chrono. Juste le temps de débarquer et de reprendre de nouveaux passagers. Plus de 1000 décollages par heure sont prévus sur certains hubs aux heures d'affluence.

Dans ce projet, Uber établit un cahier des charges pour ses partenaires, mais le groupe n'endosse pas le rôle de constructeur ni d'acheteur. Il veut conserver son rôle de plateforme, le même que celui qu'il joue aujourd'hui auprès des VTC, souligne Le Monde. Cela ne l'empêche pas de mettre la main à la poche. La société aurait ainsi versé pas moins de 185 000 dollars à l’Université du Texas pour les 18 mois de labeur à venir, rapporte l'Austin Business Journal. Mais cela sera-t-il suffisant ? Car même si son taxi voyait le jour dans les temps, sans l’aval des autorités américaines, il risquerait fort de ne jamais décoller.

Yves Pellemans's insight:

Le projet sera-t-il prêt à temps ? Difficile à dire car il s’avère ambitieux. Les futurs taxis sont des aéronefs à décollage et atterrissage verticaux totalement électriques qui tiennent autant de l’hélicoptère que du drone ...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Sécurité cloud : AWS expose des données d'infrastructure de GoDaddy

Amazon Web Services (AWS) a exposé par accident options de tarification et configurations détaillées de 31 000 serveurs utilisés par GoDaddy.

AWS, référence mondiale du cloud public, et GoDaddy, poids lourd de l’enregistrement de noms de domaine et de l’hébergement web, se seraient bien passés de cette exposition.

Des documents détaillant l’infrastructure et des ressources utilisées par GoDaddy dans le cloud d’Amazon (AWS) ont été accessibles publiquement sur Internet. C’est ce qu’indique un rapport de la société de cybersécurité UpGuard, dont Engadget s’est fait l’écho.

Le 19 juin 2018, un chercheur de l’équipe UpGuard Cyber Risk a découvert un « bucket » (seau) du service de stockage Amazon S3 (Simple Storage Service) publiquement lisible, nommé abbottgodaddy. S’y trouvaient des feuilles de calcul appartenant à GoDaddy, dont un fichier Excel de 17 Mo.

Dans son analyse mise en ligne le 9 août, UpGuard indique que les fichiers en accès public contenaient « des informations de configuration de haut niveau pour des dizaines de milliers de systèmes et des options de tarification pour l’exécution de ces systèmes dans le cloud d’AWS ».

Ce sont ainsi 31 000 serveurs dont les détails ont été exposés (noms d’hôtes, systèmes d’exploitation, CPU, ressources mémoire, charges de travail, régions AWS, etc.).

« Les remises offertes en fonction de différents scénarios » étaient également disponibles. En fait, « ces données permettaient de cartographier un déploiement à très grande échelle d’une infrastructure basée sur le cloud AWS », a expliqué l’entreprise de cybersécurité.

Comme pour d’autres expositions de données sensibles répérées par ses soins, UpGuard a rapidement alerté les sociétés concernées par sa découverte. Des dispositions ont été prises dans la foulée pour colmater la brèche, selon la firme californienne.
Les « meilleures pratiques » négligées ?

AWS a confirmé l’information. En revanche, ni un tiers, ni le client n’ont été mis en cause. « Le bucket en question a été créé par un commercial AWS pour stocker des scénarios de tarification AWS prospectifs », a expliqué un(e) porte-parole à Engadget. Mais ce commercial n’aurait « pas suivi les meilleures pratiques » d’AWS en la matière. Lampiste ?

Normalement, les buckets d’Amazon S3 sont privés par défaut (accessibles au titulaire du compte et à l’administrateur root). Mais, ils peuvent être configurés de manière à permettre un accès public. Que ce soit par erreur ou à dessein. Dans ce cas, toute personne qui visite l’URL du seau concerné peut accéder à son contenu et le télécharger…

Au risque de tomber entre de mauvaises mains et d’impacter les finances et l’activité des organisations ciblées. AWS a donc tenté d’apaiser. « Aucune information de clients GoDaddy n’était dans le bucket exposé », a indiqué le fournisseur cloud. De quoi rassurer les 18 millions de clients revendiqués dans le monde par le registrar américain GoDaddy ?
Yves Pellemans's insight:

Ce sont ainsi 31 000 serveurs dont les détails ont été exposés (noms d’hôtes, systèmes d’exploitation, CPU, ressources mémoire, charges de travail, régions AWS, etc.).

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Black Hat 2018 : 5 tendances clés de cybersécurité

L’édition 2018, la 21e, de la conférence Black Hat USA a lieu cette semaine à Las Vegas (Nevada). Plus de 17 000 professionnels de la sécurité informatique et du renseignement échangent entre eux et testent de nouveaux produits et services.

Automatisation, intelligence artificielle, protection des données et des infrastructures critiques à l’heure de la mutiplication des terminaux et objets connectés sont au coeur des débats, rapporte CRN. Voici 5 grandes tendances mises en exergue :
SOAR, IA, Data, logistique, IOT

1. Vers une prochaine génération de solutions d’orchestration et d’automatisation de gestion des incidents de sécurité (SOAR – Security Orchestration and Automation Response).

2. Montée en puissance de l’intelligence artificielle (IA) et des capacités d’analyse du comportement des utilisateurs et des entités (UEBA – User and Entity Behavior Analytics) basée sur l’apprentissage automatique (Machine Learning).

3. Investissements en hausse des entreprises dans la protection des données et la gestion des accès. L’évolution du cadre réglementaire (RGPD – Règlement général sur la protection des données, directive e-Privacy…) explique la tendance.

4. La chaîne d’approvisionnement et la logistique sont fortement menacées (attaques par rançongiciels (ransomwares) et malwares destructeurs, menaces persistantes…). Et les tierces parties de la chaîne peuvent également être des cibles.

5. La surface d’attaque augmente encore avec l’internet des objets (IoT).
Yves Pellemans's insight:

Orchestration de sécurité, analyse, data, logistique et infrastructure à l’heure du tout connecté sont au coeur de la conférence Black Hat.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

BI & Big Data : Qlik rachète Podium dans sa stratégie de diversification et de reconquête

Qlik vient de racheter la startup Podium Data. L'acquisition donne au fournisseur de Data Visualisation et de BI en libre-service une nouvelle brique de gestion des données pour renforcer sa stratégie en entreprise et muscler sa capacité à concurrencer son grand rival Tableau.

Selon les termes de l'accord, Podium Data transférera ses 30 employés - y compris les co-fondateurs et l'équipe de direction - de son siège social de Lowell au bureau régional de Qlik à Newton. Les conditions financières n'ont pas été divulguées.

Podium sera une filiale à 100 % de Qlik. Elle fonctionnera comme une unité commerciale distincte, mais avec des connexions plus étroites avec la plate-forme de Qlik pour fournir des « capacités étendues de gestion BI des données », dixit Drew Clarke, vice-président senior en charge de la stratégie chez Qlik.

La technologie de Podium automatise l'ingestion, la validation, la curation et la préparation des données. Elle restera ouverte et pourra s'intégrer aux plateformes de BI et d'analyse d'autres fournisseurs, assure néanmoins Paul Barth, PDG de Podium.

Qlik sur le retour ?

Stratégiquement, cette acquisition s'inscrit dans le cadre des efforts de Qlik pour se remettre des problèmes commerciaux qui l'ont conduit à être racheté par la société de capital-investissement Thoma Bravo en 2016. Il s'en est suivi de multiples licenciements et un changement de direction. Entre temps, Qlik a pris du retard en marketing et en développement de produits sur Tableau et sur le nouveau venu en plein boom Power BI de Microsoft.

« Cela fait partie d'une accélération dans la concrétisation de notre vision », a déclaré Drew Clarke lors d'une co-conférence de presse avec Paul Barth au bureau de Newton. « Lorsque nous avons examiné ce qui se passait dans les mégadonnées (Big Data) en termes de volumétrie et de gestion de ces données pour les rendre accessibles et prêtes pour l'analyse, nous avons estimé que la solution de Podium était parfaitement adaptée [à notre stratégie de développement] ».

Bien que Drew Clarke soutienne que Qlik est depuis longtemps « adapté au niveau d’exigence des entreprises » plutôt qu’adapté à leurs départements et à leurs services, il a également admis que la technologie de Podium donnait à Qlik la capacité de mieux monter en charge et de gérer de plus gros volumes de données.

Yves Pellemans's insight:

Avec l'acquisition de Podium Data, Qlik amplifie ses capacités de préparation et d’ingestion des données.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Nutanix entre sur le marché du DaaS multicloud en rachetant Frame

Nutanix entre sur le marché du DaaS multicloud en rachetant Frame | Cloudnews | Scoop.it

Nutanix a annoncé son intention d’acquérir le spécialiste de la fourniture d’infrastructures et d’applications de bureau virtualisées Frame. Frame permettra à Nutanix de fournir une solution de desktop sous forme de service (DaaS) dans son offre Cloud Nutanix Xi, qui prendra en charge l’instanciation de bureaux virtuels en un clic sur Amazon Web Services et Microsoft Azure. La solution DaaS de Frame est nativement multi-cloud et permet aux directions informatiques de fournir des bureaux virtuels indifféremment à partir de clouds publics ou de leurs propres datacenters. Frame intègre des fonctionnalités de mise à l’échelle automatique qui garantissent des performances élevées à toutes les échelles, tout en étant capable de prendre en charge plusieurs clients en isolant complètement les utilisateurs, les postes de travail et les données.

Yves Pellemans's insight:

Avec le rachat de Frame, Nutanix prendra en charge l’instanciation de bureaux virtuels sur Amazon Web Services et Microsoft Azure

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Le fabricant de puces TSMC, fournisseur de l'iPhone, victime d'une cyberattaque qui a perturbé sa production

Le fabricant de puces TSMC, fournisseur de l'iPhone, victime d'une cyberattaque qui a perturbé sa production | Cloudnews | Scoop.it

L'entreprise taïwanaise TSMC, l'une des plus importantes fonderies d'électronique au monde, a vu ses usines perturbées par une cyberattaque le 3 août. Une partie de ses lignes de production ont été arrêtées durant le week-end afin de rétablir les équipements atteints. En tant que fournisseur d'Apple, AMD, Nvidia et Qualcomm, TSMC joue un rôle clé dans la production d'appareils électroniques grand public.

Yves Pellemans's insight:

TSMC, l'une des plus importantes fonderies d'électronique au monde, a vu ses usines perturbées par une cyberattaque le 3 août

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Puce IA haute performance : Baidu dévoile Kunlun

Baptisée Kunlun, la puce a été est conçue pour gérer les modèles AI pour l’edge computing sur les périphériques et dans le cloud via des data centers.
260 TOPS

Kunlun est en fait décliné en deux moutures : la version 818-300 sera utilisée pour l’entraînement des agents IA et la 818-100 pour l’inférence.

La puce Kunlun ne constitue pas le premier pas du géant chinois dans le développement de puces pour l’IA.

Dès 2011, Baidu avait en effet commencé à mettre au point un accélérateur matériel pour l’IA basé sur une puce de type FPGA (Field-Programmable Gate Array) et destiné à l’apprentissage en profondeur (deep learning). Parallèlement, le groupe avait aussi commencé à exploiter des GPU pour les centres de données.

Mais, Kunlun permet à Baidu de faire un bond en termes de performances. La puce est en effet près de 30 fois plus véloce que son accélérateur FPGA. A noter que pour son projet Brainwave, Microsoft exploite également des puces de type FPGA pour le traitement rapide de l’IA dans le cloud.

Gravée dans une technologie Samsung de 14 nm (nanomètres), sa bande passante mémoire est de 512 Go / s et ses performances de 260 TOPS (Tera Operations Per Second), le tout avec une consommation de 100 watts.
D’autres annonces

En plus de supporter les algorithmes communs d’apprentissage en profondeur, la puce Kunlun peut également prendre en charge une grande variété d’applications IA, telles que la reconnaissance vocale, le classement par recherche, le traitement du langage naturel, la conduite autonome et les recommandations à grande échelle.

Baidu a également annoncé une mise à jour de sa suite de services IA, avec le lancement de Baidu Brain 3.0. La plate-forme peut désormais fournir une simple formation des modèles IA par glisser-déposer. Elle offre actuellement 110 services IA, allant de la vision par ordinateur au traitement du langage naturel en passant par le logiciel de reconnaissance faciale.

Parallèlement, le groupe dirigé par Robin Li a également accéléré la production de son bus entièrement autonome Apolong, développé en partenariat avec le fabricant local King Long. Les premiers mini-bus de 14 places devraient être livrés au Japon d’ici début 2019 en partenariat avec une filiale de SoftBank.

La Chine est à l’avant garde en matière d’IA. Plus globalement, le gouvernement a fait du développement de puces en interne une priorité.

Avec son plan «Made in China 2025», ce dernier escompte que les puces « domestiques » représentent 40 % de ses besoins.

Yves Pellemans's insight:

La première puce IA chinoise est gravée en 14 nm (nanomètres), la bande passante mémoire est de 512 Go / s et ses performances sont de 260 TOPS (Tera Operations Per Second) pour une consommation de 100 watts. 

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

HPE conserve la tête du marché européen des serveurs devant des concurrents en forte croissance

HPE conserve la tête du marché européen des serveurs devant des concurrents en forte croissance | Cloudnews | Scoop.it

Selon IDC, le marché des serveurs dans la zone Europe, Moyen-Orient et Afrique a bondi de 35 % au premier trimestre 2018 par rapport au premier trimestre 2017, un chiffre à comparer aux 38,6 % de croissance enregistrés au niveau mondial.

 

En un an, les ventes de serveurs en unités dans la zone EMEA n’ont toutefois progressé que de 2 % contre 20,7 % au niveau mondial.

Comme le confirme IDC, le bond des ventes en revenus est largement lié à l’évolution de la parité entre l’euro et le dollar (IDC produit ses statistiques en dollars) et à la pénurie de mémoire flash et de mémoire vive, qui continuent à doper artificiellement le prix des serveurs.

Un autre motif d’inflation est l’adoption croissante des formats de serveurs denses de type 2U/4noeuds, typiquement utilisés pour la mise en œuvre d’architectures hyperconvergées. Les ventes en valeur de ces machines ont ainsi augmenté de 107,3 % par rapport à l’année précédente. 

 

HPE reste en tête en Europe, mais Dell se rapproche

Du côté des fournisseurs, HPE conserve clairement la tête avec 32,1 % des ventes en revenus (1,24 Md$), mais Dell continue de gagner du terrain. Alors que les ventes d’HPE ont progressé de 37 % sur un an, celles de Dell ont bondi de 57 % pour atteindre 886 M$.

Lenovo opère quant à lui un redressement spectaculaire avec des ventes en hausse de 70,4 % à 312,5 M$. Cisco n’est pas en reste avec des ventes en hausse de 40,5 % à 278,9 M$, mais il repasse derrière Lenovo dans le classement européen des ventes de serveurs d’IDC.

Fournisseur CA
T1 2017 PDM CA
T1 2018 PDM Evolution
HPE 907.0 32 % 1,242.2 32 % 37 %
Dell EMC 564.4 20 % 886.6 23 % 57 %
ODM Direct 373.7 13 % 378.3 10 % 1 %
Lenovo 183.4 6 % 312.5 8 % 70 %
Cisco 198.5 7 % 278.9 7 % 41 %
Others 636.5 22 % 766.8 20 % 21 %
Total 2,864.0 100 % 3,865.7 100 % 35 %

Le marché des serveurs dans la zone EMEA (source : IDC)

Les ventes des fournisseurs en marque blanche (ODM) n’ont progressé que de 1,4 % sur le trimestre, mais leur croissance devrait s’accélérer vers la fin 2018 et en 2019 avec le lancement de nouveaux datacenters par Apple, AWS et Google.
Le Royaume-Uni passe devant l’Allemagne

Selon IDC, les ventes au Royaume-Uni et aux Pays-Bas ont tiré le marché. De l’autre côté de la Manche, les livraisons de serveurs ont atteint 733 M$ soit une hausse de 65,3 % des ventes. Le Royaume-Uni est désormais le premier marché européen des serveurs devant l’Allemagne.

Aux Pays-Bas, les ventes ont quant à elles progressé de 120,2 % pour atteindre 322 M$, une croissance notamment dopée par les investissements des acteurs hyperscale. La Suisse s’est aussi démarquée au cours du trimestre avec un bond de 64,4 % des ventes de serveurs (largement du fait de ventes solides de grands systèmes IBM). En Europe de l’Ouest, seule la Finlande a connu un recul des ventes.

En Europe centrale et de l’Est, les ventes ont progressé de 24,3 % sur un an pour atteindre 302,2 M$, tandis que dans la zone Moyen-Orient/Afrique, les ventes augmentaient de 31,9 % à 386,09 M$ (notamment du fait des bonnes performances de la Turquie et de l’Arabie Saoudite).

Yves Pellemans's insight:

Les ventes de serveurs dans la zone EMEA n’ont progressé que de 2 % contre 20,7 % au niveau mondial.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Clouds Kubernetes : Docker promet une plateforme pour les gouverner tous

Clouds Kubernetes : Docker promet une plateforme pour les gouverner tous | Cloudnews | Scoop.it
En avril dernier, Docker annonçait l'intégration de l'orchestrateur Kubernetes à sa plateforme Docker EE aux côtés de son orchestrateur historique (Swarm). Cette réorientation était très attendue tant l'infrastructure open source fait désormais l'unanimité chez les entreprises comme les développeurs. Lors de son événement mondial 2018, qui se tient du 11 au 15 juin à San Francisco (la DockerCon), Docker a présenté "la prochaine grande échéance de sa feuille de route" : faire que Docker EE soit capable, à terme, de piloter des applications hébergées et opérées par de multiples offres de Kubernetes as a Service. Pour l'heure, aucune information précise n'a été communiquée quant au timing de ce chantier. "L'objectif est de proposer une solution qui gère de manière fédérée des applications sur les grands services cloud de Kurbenetes managés", explique Patrick Chanezon, membre de l'équipe technique de Docker, en évoquant Amazon EKS, Google GKE et Microsoft AKS (voir la slide ci-dessous).

Le nouvel édifice aura pour mission d'unifier les pipelines de déploiement, les règles de sécurité et la gestion des droits d'accès mis en musique par chaque service Kubernetes évoqué. "Le management applicatif sera consolidé au sein d'une interface graphique unique pour une vision précise de la supply chain logicielle, quel que soit le cloud. La solution bénéficiera en parallèle de l'environnement d'intégration et de développement continu de Docker EE", ajoute Patrick Chanezon.
Docker compte parvenir à terme à fédérer les services de Kubernetes managés d'Amazon, Google et Microsoft au sein d’une même plateforme de management d’applications. © Docker

Docker EE (avec les applications Kubernetes qu'elle embarque) peut déjà venir se nicher sur différents clouds d'infrastructure (IaaS) qu'ils soient privés (Oracle Linux, Red Hat, Suse Linux, Ubuntu) ou publics (Alibaba Cloud, AWS, Google Cloud Platform, IBM Cloud, Microsoft Azure). Mais la compatibilité promise avec les offres de Kubernetes as a Service d'Amazon, Google et Microsoft évitera d'avoir à installer et maintenir la plateforme sur chaque cloud ciblé. La possibilité d'opérer des systèmes Kubernetes en mode multicloud (avec la capacité de les migrer et synchroniser d'un cloud à l'autre) s'en trouverait facilité. D'autant que, toujours via Docker EE, ces systèmes deviendraient interopérables avec les environnements Kubernetes déployés en interne.
Vers de nouveaux services Azure ?

Toujours lors de cette DockerCon, Docker a annoncé travailler avec Microsoft au portage de l'infrastructure Kubernetes sur Windows Server (un projet actuellement en beta). L'enjeu pour Docker est d'introduire la possibilité de manager une telle architecture depuis Docker EE. "Sachant que c'est déjà possible avec les applications Swarm", précise Patrick Chanezon.

L'évolution en question laisse par ailleurs présager le lancement de nouvelles offres cloud bénéficiant de cette avancée technologique par Microsoft . On pourrait notamment imaginer que le service Azure Service Fabric de Redmond (conçu pour déployer des architectures de microservices sous forme de containers Linux ou Windows) soit équipé d'un orchestrateur Kubernetes, en complément de l'orchestrateur propriétaire (et signé Microsoft) qu'il utilise.
Docker planche sur le portage des futures architectures Kubernetes pour Windows Server dans Docker EE. © Docker

Enfin, Docker entend équiper son outil de gestion de containers ciblant les développeurs (Docker Desktop) d'une fonction de personnalisation graphique. Aux côtés de son interface en ligne de commande, "l'idée est de donner la possibilité d'enrichir Docker Desktop d'interfaces graphiques ad hoc, sous forme de gabarits, pour le rendre abordable pour un nombre encore plus grand de développeurs", détaille Patrick Chanezon. Des templates qui auront également pour but d'intégrer le produit à des environnements de développement tiers. La fonctionnalité devrait d'abord être proposée en bêta privée le temps de sonder la communauté Docker.
Yves Pellemans's insight:

Docker veut proposer une solution qui gère de manière fédérée des applications sur les grands services cloud de Kurbenetes managé. Windows Server de Microsoft est lui-aussi concerné.

more...
No comment yet.