Cloudnews
50.4K views | +0 today
Follow
Cloudnews
Toute les news sur la transformation digitale, l'hybride Cloud, le data analytic, l'IA et l'Automation
Curated by Yves Pellemans
Your new post is loading...
Your new post is loading...
Scooped by Yves Pellemans
Scoop.it!

Les codes sources de trois antivirus sont en vente sur le Dark Web

Les codes sources de trois antivirus sont en vente sur le Dark Web | Cloudnews | Scoop.it

Un groupe de hackers aurait réussi à pirater les infrastructures de trois éditeurs américains. Il a récupéré 30 To de données confidentielles qu'il revend maintenant pour 300 000 dollars.

 

Et si, derrière votre bel antivirus, se planquait en réalité un groupe de pirates ? L’idée est loin d’être absurde, car les codes sources de trois antivirus américains sont actuellement en vente sur le Dark Web.
Selon les analystes de la société AdvIntel, un groupe de pirates baptisé Fxmsp propose 30 To de données volées auprès de trois éditeurs antivirus majeurs, basés aux Etats-Unis.

Parmi ces données, il y aurait non seulement les codes sources des logiciels et des plugins Web, mais aussi leurs modèles d’intelligence artificielle. Les pirates revendent également les accès qu’ils ont réussi à établir en douce sur les réseaux de ces éditeurs. L’offre globale, données et accès réseaux, est proposée pour 300 000 dollars.

AdvIntel - Les données proposées par Fxmsp

De telles informations sont évidemment une mine d’or. Elles permettent de trouver des failles dans les logiciels de sécurité et, ainsi, de les contourner ou de les utiliser comme une porte dérobée.
Ce dernier cas d’usage est d’autant plus intéressant qu’un logiciel antivirus dispose de droits d’accès très élevés. C’est donc un outil idéal pour effectuer de l’espionnage. AdvIntel n’a pas précisé de quels antivirus il s’agissait, mais a alerté les forces de l’ordre américaines sur le sujet.

Un groupe actif depuis au moins 2017

Fxmsp n’est un acteur nouveau. Les chercheurs de FireEye l’avait déjà identifié en 2018 comme un fournisseur de portes dérobées à des réseaux d’organisations privées et publiques.
Le groupe opère depuis au moins 2017 dans des forums underground russophones et anglophones. Généralement, il propose des accès à distance RDP (Remote Desktop Protocol) et des accès administrateurs aux annuaires Active Directory.
Cette activité, qui se fait de manière directe ou à travers de revendeurs, lui aurait d’ores et déjà rapporté plus d’un million de dollars. Récemment, le groupe s’est par ailleurs doté d’un botnet spécialisé dans le vol d’identifiants.

AdvIntel - Zoom sur les opérations de Fxmsp

Apparemment, pirater l’infrastructure de ces trois éditeurs de solutions de sécurité et récupérer toutes ces données n’a pas été une chose facile. Selon AdvIntel, les pirates disent que c’était leur « principal projet » durant les six derniers mois. Ce qui expliquerait pourquoi ce groupe n’a presque plus donné signe de vie sur les forums entre octobre 2018 et avril 2019.

Yves Pellemans's insight:

De telles informations sont une mine d’or pour des hackers. Elles permettent de trouver des failles dans les logiciels de sécurité et, ainsi, de les contourner ou de les utiliser comme une porte dérobée....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cisco dégaine une offre SD-WAN cloud-to-branch - Le Monde Informatique

Cisco dégaine une offre SD-WAN cloud-to-branch - Le Monde Informatique | Cloudnews | Scoop.it
Afin de relier des applications multicloud distribuées à une succursale locale ou à un datacenter privé local, Cisco lance son offre réseau SD-WAN Cloud onRamp for CoLocation. Des bénéfices en termes de temps de connexions et de sécurité sont attendus.
« L'exécution du SD-WAN virtualisé de Cisco dans des centres de colocation régionaux permet au personnel de la succursale d'accéder en toute transparence et en toute sécurité aux applications et aux données résidant sur les plates-formes AWS, Azure et Google, ainsi qu'à des fournisseurs SaaS comme Microsoft 365 et Salesforce », a encore déclaré Anand Oswal, vice-président senior de l'ingénierie, Business Cisco Enterprise Networking. (crédit : D.R.)
« L'exécution du SD-WAN virtualisé de Cisco dans des centres de colocation régionaux permet au personnel de la succursale d'accéder en toute transparence et en toute sécurité aux applications et aux données résidant sur les plates-formes AWS, Azure et Google, ainsi qu'à des fournisseurs SaaS comme Microsoft 365 et Salesforce », a encore déclaré Anand Oswal, vice-président senior de l'ingénierie, Business Cisco Enterprise Networking. (crédit : D.R.)

Cisco veut donner aux utilisateurs de réseaux étendus traditionnels ou hérités une raison supplémentaire de passer au WAN défini par logiciel. Le pack matériel/logiciel intégré SD-WAN Cloud onRamp for CoLocation déployé par l'équipementier permet aux clients de relier des applications multicloud distribuées à une succursale locale ou à un datacenter privé local. Le système repose sur l'idée qu'une liaison cloud à succursale - ou cloud-to-branch - serait plus courte, plus rapide et peut-être plus sûre qu'une liaison directe entre les applications cloud et le datacenter. « Parce que le SD-WAN Cloud onRamp for CoLocation de Cisco fonctionne à l'échelle régionale, les connexions entre les installations de colocation et les succursales sont établies et configurées en fonction des SLA (exigences de faible latence/stabilité) des charges de trafic (vidéo, navigation Web ou messagerie), et de la qualité de l'expérience pour optimiser les performances des applications cloud », a écrit dans un blog sur le nouveau service Anand Oswal, vice-président senior de l'ingénierie, Business Cisco Enterprise Networking.

« Selon M. Oswal, chaque succursale ou datacenter privé est équipé d'une interface réseau qui fournit un canal sécurisé vers le centre de colocation régional. En retour, Cloud onRamp for CoLocation établit des canaux sécurisés vers les plates-formes d'applications SaaS, les services de plates-formes multi-cloud et les datacenters d'entreprise », a-t-il déclaré. « Le trafic est acheminé de manière sécurisée à travers la pile Cloud onRamp for CoLocation, laquelle inclut des fonctions de sécurité comme des pare-feu compatibles avec les applications, le filtrage URL, la détection/prévention des intrusions, la sécurité de la couche DNS et une grille de menace Advanced Malware Protection (AMP), ainsi que d'autres services réseau comme l'équilibrage de charge et des services d'application de réseau étendus », a encore écrit Anand Oswal.
Relever le défi de l'acheminement dynamique du trafic applicatif

Le cas d'usage typique de ce pack pourrait être celui d'une entreprise ayant des douzaines de succursales distribuées, regroupées autour de grandes villes, réparties dans plusieurs pays. « L'objectif est de relier chaque branche aux bases de données des datacenters d'entreprise, aux applications SaaS et aux services multi-cloud tout en respectant les accords de niveau de service et la qualité d'expérience des applications », a déclaré M. Oswal. « L'exécution du SD-WAN virtualisé de Cisco dans des centres de colocation régionaux permet au personnel de la succursale d'accéder en toute transparence et en toute sécurité aux applications et aux données résidant sur les plates-formes AWS, Azure et Google, ainsi qu'à des fournisseurs SaaS comme Microsoft 365 et Salesforce », a encore déclaré Anand Oswal. « La distribution des fonctions SD-WAN sur une architecture régionale rapproche également les capacités de traitement du lieu où les données sont générées, c'est-à-dire à la périphérie du cloud », a-t-il ajouté. « L'objectif est de surveiller en permanence la performance des chemins d'accès aux applications SaaS désignées et d'acheminer dynamiquement le trafic applicatif par le chemin le plus performant, sans intervention humaine », a encore expliqué M. Oswal.

Une configuration typique, avec une région couvrant une ville cible qui utilise un fournisseur IaaS en colocation hébergeant Cisco Cloud onRamp for CoLocation, inclut :

- Le logiciel Cisco vManage : il permet aux clients de gérer les applications et l'approvisionnement, de surveiller et de dépanner le WAN.

- Cisco Cloud Services Platform (CSP) 5000 : ces systèmes sont basés sur des plates-formes matérielles et logiciels x86 Linux Kernel-based Virtual Machine (KVM) pour datacenter, hub régional, et une virtualisation des fonctions réseau (Network Functions Virtualization) en colocation. Les plates-formes permettent aux équipes IT de l'entreprise ou aux fournisseurs de services de déployer n'importe quel service de réseau virtuel de Cisco ou d'un tiers avec le Network Services Orchestrator (NSO) de Cisco ou tout autre système de gestion et d'orchestration.

- Les commutateurs d'agrégation Cisco Catalyst des séries 9500. Basée sur un CPU x86, la série Catalyst 9500 est la principale plate-forme de commutation d'entreprise de Cisco. Elle a été spécialement conçue pour la sécurité, l'IoT et le cloud. Les commutateurs sont équipés d'un processeur x86 Quad-core de 2,4 GHz, de 16 Go de mémoire DDR4 et de 16 Go de stockage interne.
Des économies dans la mise en oeuvre des processus

Si les caractéristiques de ce pack semblent familières, c'est que Cloud onRamp for CoLocation n'est autre que la seconde génération d'un pack SD-WAN similaire proposé par Viptela, une entreprise rachetée par Cisco en 2017.

Le principe du SD-WAN est de simplifier la création de nouvelles liaisons entre les grandes entreprises et leurs succursales, de mieux gérer l'usage de ces liaisons - pour les données, la voix ou la vidéo - et de faire des économies dans la mise en oeuvre des processus. Ce marché, très actif, compte énormément d'acteurs, dont Cisco, VMware, Silver Peak, Riverbed, Aryaka, Fortinet, Nokia et Versa. Selon IDC, le marché de l'infrastructure SD-WAN atteindra 4,5 milliards de dollars d'ici 2022, avec une croissance annuelle de plus de 40 % d'ici là.

Le SD-WAN permet aux réseaux d'acheminer le trafic sur la base de rôles et de règles gérés de manière centralisée, quels que soient les points d'entrée et de sortie du trafic, et en toute sécurité. Par exemple, si un utilisateur d'une succursale travaille dans Office365, le SD-WAN peut acheminer son trafic directement vers le datacenter cloud le plus proche pour cette application, améliorant ainsi la réactivité du réseau pour l'utilisateur et réduisant les coûts de bande passante pour l'entreprise. « Cela fait des années que le SD-WAN est une technologie pleine de promesses, mais en 2019, elle jouera un rôle majeur dans la construction et la reconstruction des réseaux », avait déclaré plus tôt cette année Anand Oswal.
Yves Pellemans's insight:

SD-WAN Cloud onRamp for CoLocation permet aux clients de relier des applications multicloud distribuées à une succursale ou à un datacenter privé local

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

OpenStack n’est plus un produit, mais des pièces d’infrastructure

OpenStack n’est plus un produit, mais des pièces d’infrastructure | Cloudnews | Scoop.it
La fondation OpenStack n’a plus l’ambition d’imposer un concurrent Open Source à VMware dans le cloud privé et à AWS dans le cloud public. Désormais, elle œuvre pour fournir aux entreprises des composants d’infrastructure ouverts, afin qu’elles ne tombent pas dans le piège des fournisseurs hégémoniques. Tel est le message qu’auront martelé les dirigeants de la fondation durant leur dernier sommet semestriel, qui se tenait cette semaine à Denver, aux USA. Joignant l’action marketing à la parole, cette nouvelle édition de l’OpenStack Forum a définitivement été rebaptisée Open Infrastructure Summit.

« Historiquement, nous étions très orientés sur le produit. Mais nous nous sommes rendus compte qu’avec cette logique, nous ignorions les utilisateurs qui déploient Kubernetes avec OpenStack. Nous avons donc pris un virage. Notre mission est à présent de faciliter les déploiements d’infrastructures Open Source », explique au MagIT Thierry Carrez, le responsable de l’ingénierie au sein de la fondation.

« Il faut comprendre que notre ennemi n’est plus AWS ou VMware. C’est l’entreprise qui essaie de verrouiller l’utilisateur sur ses technologies. Et dans ce cadre, AWS devient un partenaire en mettant en Open source son hyperviseur Firecracker », ajoute-t-il.

La fondation a d’ailleurs présenté lors de son sommet une nouvelle version 1.6 de Kata Containers compatible avec Firecracker, non seulement pour mieux fonctionner sur EC2, le cloud IaaS d’AWS, mais aussi depuis des serveurs physiques. Précisons toutefois que si AWS s’ouvre bien au monde Open Source en permettant de réutiliser gratuitement ses technologies ailleurs que sur son cloud, il s’agit encore d’un Open Source limité : le code est consultable mais personne n’a le droit de le modifier.
D’une « stack » complète à de l’infrastructure ouverte en pièces détachées

Thierry Carrez illustre aussi son propos avec l’exemple d’OpenShift chez Red Hat, que plus personne ne devrait considérer comme un concurrent à OpenStack : « Red Hat a cherché dans son logiciel des moyens de déployer directement des applications, sans passer par les projets de la fondation. Néanmoins, lorsqu’OpenShift doit provisionner des ressources matérielles, il passe par Ironic, le module Bare Metal d’OpenStack. Et c’est l’idée : OpenStack est juste le moyen d’avoir de nombreuses options dans son cloud, comme par exemple mixer des VM, des containers et du Bare Metal. »

« Nous ne voulons plus proposer une ‘stack’ complète, nous voulons fournir des composants à tous les niveaux, pour tous les cas d’usage. Nous permettons aux utilisateurs de n’utiliser qu’un seul module le cas échant, s’il leur besoin est juste de lancer une seule application. », ajoute-t-il.

Mathieu Poujol, en charge du pôle Security, Cloud & Infrastructure au sein du cabinet de conseil Technology Group, a un avis mitigé sur cette nouvelle stratégie : « bien entendu, le grand avantage d’OpenStack est que l’entreprise n’a pas besoin de tout reconstruire à chaque nouveau projet ; elle peut ajouter des composants au fur et à mesure de ses besoins. »
« Après... la volonté marquée de fournir une infrastructure ouverte en pièces détachées ne va pas résoudre le principal problème : quoiqu’ils en disent, cela reste très compliqué à installer. Leur promesse est de proposer des couches standard, mais les utilisateurs ne voient que de l’entropie. »

Il note par ailleurs le difficile exercice d’équilibriste auquel se prête la fondation dans sa volonté d’être le partenaire de tout le monde : « L’une des principales actualités de ce salon est l’intégration officielle à la fondation du projet Zuul, un module de mise en production continue. Néanmoins, à aucun moment ils ne disent que c’est un outil DevOps, pour ne pas fâcher CloudFoundry. »
Le vrai atout d’OpenStack : transformer les grands industriels

Selon Mathieu Poujol, le vrai nouveau visage d’OpenStack est moins à chercher dans les déclarations officielles, que dans ses usages inattendus sur le terrain. « Grâce à OpenStack, l’équipementier Schneider Electric fournit aujourd’hui à ses clients pour 1 milliard d’euros d’IT par an ! C’est-à-dire que Schneider Electric a pu, grâce à OpenStack, mais aussi grâce à l’Open Source en général, se transformer pour devenir le No 2 des fournisseurs français d’informatique ! »

Et d’enfoncer le clou : le numéro 1 français de l’informatique serait Thalès. Et pour exactement les mêmes raisons.

« De par la complexité de déploiement, les projets OpenStack sont longs, ce qui n’est pas génial pour la rapidité de mise sur le marché. En revanche, OpenStack adresse la problématique fondamentale de la chaîne de valeur. Grâce à lui, les industriels peuvent faire des économies sur la partie informatique de leurs équipements, alors que cela est très difficile sur les systèmes mécaniques et électriques. »

Mathieu Poujol met également dans cette chaîne de valeur deux arguments récurrents en Open Source : l’avantage d’être indépendant de la technologie, des brevets et des royalties d’un autre, d’abord, et celui de pouvoir soulever le capot pour montrer qu’il n’y a pas d’espion caché dans le code, ensuite.

« Aujourd’hui, dans l’armement, on trouve des robots qui embarquent de véritables datacenters. Et ces datacenters sont bâtis sur OpenStack car c’est le seul moyen de les vendre à une puissance étrangère », témoigne Mathieu Poujol.
Un rôle qui reste à clarifier

Reste que l’on se demande quel rôle joue exactement la fondation dans ces contrats. « Aussi étonnant que cela puisse paraître, ces grands acteurs industriels, mais aussi les grands intégrateurs comme Athos ne sont pas dans la fondation. Et que dire des géants de l’informatique qui étaient des forces vives au démarrage de la fondation, comme IBM et HPE, et que l’on ne voit plus à présent », questionne Mathieu Poujol ?

Selon Thierry Carrez, la fondation ne force personne à la rejoindre. « Un module comme le stockage Ceph, qui est beaucoup utilisé conjointement avec d’autres modules d’OpenStack n’y est pas non plus. Les projets Open Source qui postulent pour entrer dans la fondation, par exemple les Kata Containers d’Intel et Hyper, sont ceux qui veulent bénéficier de notre support logistique en amont, pour fédérer plus de développeurs, et en aval, pour intégrer un écosystème. De plus, être dans la fondation est la garantie pour un projet qu’il sera interopérable avec toutes les autres couches », dit-il.

« A mon avis, ce dont la fondation OpenStack a surtout besoin pour se repositionner, c’est d’embaucher un bon directeur marketing », conclut Mathieu Poujol.
Yves Pellemans's insight:

C'est un peu un constat d'échec ?!?  ...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Nouveau CEO chez Snowflake : Frank Slootman, ex ServiceNow, remplace Bob Muglia

Nouveau CEO chez Snowflake : Frank Slootman, ex ServiceNow, remplace Bob Muglia | Cloudnews | Scoop.it
Ce changement à la tête d’une société à très forte croissance comme Snowflake a d’abord de quoi surprendre. Bob Muglia, un ex cadre historique et réputé de la division Server and Tools de Microsoft, a placé la société sur les rails de la croissance, la positionnant sur un secteur en plein bouillonnement. En affirmant une dimension purement cloud, tant techniquement qu’économiquement, Snowflake a contribué à rebattre les cartes d’un secteur historique où trônent des ténors comme IBM, Oracle ou Teradata. Dans le cloud, Snowflake rivalise avec Microsoft Azure (via SQL Datawarehouse), AWS RedShift ou encore Google BigQuery.

Après 5 ans passés à la tête opérationnelle de la société, Bog Muglia a permis à Snowflake de changer de dimension en multipliant les implantations à l’étranger - la société est présente en France depuis 2 ans - , en récoltant de fortes référence (Kiloutou et Camaïeu en France par exemple), et en assurant une croissance du chiffre d’affaires. Pour son exercice 2019, la société a indiqué avoir triplé son CA (+257 %), tout comme son effectif dans le monde.

Côté financement, Snowflake est parvenu à lever plus de 900 millions de dollars pour atteindre une valorisation de presque 4 milliards de dollars.

Si Bob Muglia a su installer Snowflake commercialement, et lui donner une visibilité sur le marché, il a également contribué à mettre en place un réseau de partenaires clé ainsi qu’un socle technologique stable. Il a notamment poussé Snowflake, à l’origine très imbriqué dans les composants cloud d’AWS, vers une stratégie multi-cloud. Snowflake exploite désormais Microsoft Azure et travaille à rendre également opérationnel son socle sur Google Cloud.

Mais alors pourquoi un tel changement ? « Nous sommes extrêmement reconnaissants pour la contribution que Bob Muglia a apporté à Snowflake. Sans lui, nous ne serions jamais arrivés là où nous sommes aujourd’hui », explique Thibaut Ceyrolles, General Vice President de Snowflake en Europe dans un mail à la rédaction, reprenant les propos positifs publiés par le Conseil d’administration de la société.

« Bob a donné à ce produit une vision et une stratégie de marché qui, nous le voyons aujourd’hui, a porté ses fruits », ajoute le responsable.

Mais désormais Snowflake a inscrit autre chose sur sa feuille de route : l’entrée en bourse. « Aujourd’hui, les attentes sont extrêmement fortes, notamment en termes d’IPO », explique encore Thibaut Ceyrolles.

Là entre en scène Frank Slootman.
Bienvenue dans l’ère Frank Slootman

Frank Slootman dispose justement d’un pédigrée impressionnant en la matière. Avant sa nomination chez Snowflake, il occupait le poste de CEO de ServiceNow, un spécialiste du SaaS à très forte croissance, qu’il a mené jusqu’à la cotation boursière. Il avait également dirigé l’entrée en bourse de Data Domain en tant que CEO et président du conseil d’administration, avant sa revente à EMC.

« Il va aider Snowflake à s’opérationnaliser et à se structurer encore plus avec une cadence très élevée. Nous ne changeons pas parce que les choses vont mal. Bien au contraire, c’est parce qu’il faut qu’elles aillent encore mieux », rassure Thibault Ceyrolles. Et d’ajouter : « C’est un tout autre chapitre qui s’ouvre pour Snowflake et nous devions structurer et opérationnaliser notre organisation en conséquence pour avancer vers cet objectif dans un contexte d’hypercroissance soutenue. »

Frank Slootman aura l’occasion de détailler sa stratégie de conquête en juin prochain alors que Snowflake organise sa première conférence à San Francisco, Snowflake Summit. A suivr
Yves Pellemans's insight:

Snowflake qui commercialise un entrepôt de données 100 % cloud a officiellement annoncé le remplacement de Bob Muglia par Frank Slootman au poste de CEO. A suivre ...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Microsoft lance Azure Blockchain Service

Microsoft lance Azure Blockchain Service | Cloudnews | Scoop.it

A la veille de sa conférence Build, Redmond renforce son offre dédiée à la technologie blockchain en annonçant Azure Blockchain Service, un service entièrement managé permettant de développer, de gérer et d’administrer un réseau de chaînes de blocs. Premier partenaire, la banque JP Morgan.

 

Si la folie Blockchain s’est largement calmée, les usages se multiplient, cette fois-ci de façon plus pragmatique. Ainsi les géants du cloud travaillent tous sur des solutions de Blockchain as a Service. A quelques jours de l’ouverture de sa conférence Build (qui se tiendra les 6, 7 et 8 mai), Microsoft annonce Azure Blockchain Service.

Il s’agit d’un service entièrement managé, lancé en préversion, permettant le déploiement, la gestion et l’administration de réseaux blockchain, et facilitant le développement d’applications blockchain. A noter que le service est intégré à Active Directory pour sa dimension gestion des utilisateurs et des autorisations, et comprend une partie no-code pour la gouvernance de la blockchain.

Quorum

Si Azure Blockchain Service est tout juste disponible, Microsoft annonce déjà un certain nombre de clients. Xbox, évidemment, pour la gestion de son système de redevance, mais aussi Singapore Airlines et Starbucks explorent l’outil. Plus avancée, la banque JP Morgan devient un partenaire privilégié. « Quorum, développé par J.P. Morgan, deviendra la première plate-forme de registre distribué disponible via Azure Blockchain Service, ce qui permettra aux clients de J.P. Morgan et Microsoft de créer et de redimensionner des réseaux blockchain dans le cloud » écrit Microsoft dans un communiqué.

Quorum est une version Entreprise d’Ethereum mise au point par JP Morgan. Le partenariat avec Azure renforcera encore Quorum en tant que plate-forme et suite d'applications blockchain entièrement intégrée.

.

Yves Pellemans's insight:

Microsoft se base sur Quorum :  une version Entreprise d’Ethereum mise au point par JP Morgan. Le partenariat avec Azure renforcera donc Quorum en tant que plate-forme et suite d'applications blockchain !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Open Data : Bercy publie l’intégralité des données foncières

Open Data : Bercy publie l’intégralité des données foncières | Cloudnews | Scoop.it
Les données foncières des 5 dernières années sont accessible en open data. Objectif : améliorer la connaissance des prix sur le marché immobilier, selon Bercy.
Yves Pellemans's insight:

La France continue d’ouvrir ses données publiques et les mettre à disposition en open data.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Conteneurs : Docker et Arm scellent une alliance stratégique

Conteneurs : Docker et Arm scellent une alliance stratégique | Cloudnews | Scoop.it
Les développeurs Docker peuvent désormais construire des conteneurs Arm sur leurs postes de travail x86.

Docker et Arm ont annoncé un partenariat stratégique dans le but de créer une passerelle entre leurs plateformes respectives. L’objectif est de permettre aux développeurs utilisant Docker Desktop de créer leurs applications ARM puis de les déployer directement sur le cloud, les terminaux edge et IoT.

Pour le moment, les développeurs doivent concevoir les conteneurs Arm à partir d’un terminal Arm. Grâce à cette alliance, Docker émule une puce Arm sur un PC x86.
Rapprocher les développeurs Docker et Arm


Les développeurs pourront construire leurs conteneurs pour Arm comme ils le font aujourd’hui, sans avoir besoin de compilation croisée. Ils pourront notamment travailler sur des instances Docker Enterprise Engine Arm pour Amazon EC2 A1.

La fonctionnalité sera disponible en pré-version à partir de début mai suite à la conférence annuelle, DockerCon, qui tient à San Francisco (États-Unis).

Elle pourra servir pour les applications écrites en JavaScript/Node.js, Python, Java, C++, Ruby,.NET core, Go, Rust et PHP.

« Du jour au lendemain, les 2 millions de développeurs Docker peuvent utiliser les commandes de Docker qu’ils connaissent déjà et devenir des développeurs Arm”, résume David Messina, directeur des partenariats chez Docker.
Yves Pellemans's insight:

Les développeurs Docker pourront créer leurs applications pour Arm avec leurs outils habituels et les déployer dans le cloud, le edge et l’IoT. @axiansfrance

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Trop chère, invendable, la voiture autonome refroidit les constructeurs

Trop chère, invendable, la voiture autonome refroidit les constructeurs | Cloudnews | Scoop.it
Plus ils avancent, plus les projets de voiture autonome des constructeurs se rapprochent du mur de la réalité. Pendant des années, le marketing des groupes automobiles a promis l'arrivée sur le marché de véhicules individuels autonomes de niveau 5 (autonomie totale en toutes conditions), débarrassés de volants et de pédales. Mais le discours qu'ils tiennent a évolué. Plusieurs reconnaissent aujourd'hui publiquement que le chemin sera bien plus long et compliqué qu'attendu. Et son issue très incertaine…

C'est le cas de PSA qui a officialisé, fin mars, l'abandon de tous ses projets de véhicules autonomes personnels au-delà du niveau 3 (autonomie partielle, reprise en main par le conducteur fréquente). Tout en assurant vouloir poursuivre ses recherches pour développer des services de transport sans chauffeur. "Le véhicule qui viendra devant chez moi et amènera mes enfants à l'école, c'est du rêve. Nous n'en sommes pas là, même à moyen terme", assume Vincent Abadie, qui pilote le programme de conduite autonome du groupe français.

"Le véhicule qui viendra devant chez moi et amènera mes enfants à l'école, c'est du rêve"

Début avril, le PDG de Ford, Jim Hackett, a lui aussi tempéré les attentes du public. Si son entreprise promet toujours l'arrivée de sa première voiture autonome pour 2021, elle précise que cette dernière se fera avec "des applications limitées dans des zones prédéfinies". "Nous avons surestimé la date d'arrivée des véhicules autonomes", a-t-il reconnu. Même son de cloche chez son homologue de Volvo, Cars Hakan Samuelsson, qui affirmait récemment qu'il serait "irresponsable" de lancer prématurément des véhicules autonomes sur les routes, alors même qu'ils ne seraient pas sûrs.

Cet impératif de sécurité revient souvent. Aucun constructeur ne veut prendre le risque de causer un accident mortel qui pourrait ralentir le développement du secteur. "Toute l'industrie réalise qu'il faut beaucoup plus de temps que nous l'espérions il y a quelques années pour passer de la preuve de concept à un système avec une fiabilité industrielle," explique au JDN Noah Zych, directeur des systèmes de sécurité chez Uber Advanced Technologies Group. Le numéro deux du programme de voiture autonome d'Uber en sait quelque chose : après un accident qui a coûté la vie à une passante l'année dernière en Arizona, le VTC a perdu plusieurs autorisations d'expérimentation et mis en pause le reste de ses tests publics pendant plus d'un an, avant de recommencer à une bien plus petite échelle en 2019.

"Si vous n'avez pas plusieurs milliards à mettre sur la table, ce n'est même pas la peine de vous y asseoir"

Mais ce retour à la raison des constructeurs s'explique aussi, voire surtout, par des considérations financières. Conscients que le premier acteur capable de proposer une technologie industrialisable et commercialisable disposera d'un indéniable avantage, les acteurs de la voiture autonome se sont lancés dans une course effrénée dont le leader s'appelle Waymo (filiale voiture autonome de la maison-mère de Google, Alphabet). "Développer une voiture autonome de niveau 5, c'est un budget qui se chiffre en milliards d'euros, en plus des investissements déjà consentis dans les systèmes semi-autonomes. Si vous n'avez pas plusieurs milliards à mettre sur la table, ce n'est même pas la peine de vous y asseoir", lâche une source chez un grand équipementier auto bien informé. "Un certain nombre de constructeurs sont en difficulté car ils comprennent qu'ils n'ont pas les moyens d'aller jusqu'au niveau 5", ajoute-t-elle.

D'autant que les débouchés commerciaux sont plus qu'incertains. C'est ce qui a motivé la décision de PSA de ne pas aller au-delà du niveau 3 dans le véhicule particulier, explique Vincent Abadie. "Le prix de revient des équipements et les frais de développements inhérents à un véhicule de niveau 4 (conduite autonome totale dans un environnement balisé, ndlr), le rendent d'emblée deux fois plus cher à la commercialisation qu'une voiture très haut de gamme." A titre d'exemple, six lidars, qui ne sont qu'une partie du dispositif de capteurs nécessaire à la conduite autonome, coûtent à eux seuls plusieurs dizaines de milliers d'euros. La seule façon pour les constructeurs de rentabiliser un tel investissement est donc de s'orienter vers un service de transport partagé, estime Vincent Abadie.
Services plutôt que produits

Un choix d'autant plus séduisant que les véhicules évoluent, dans ce cadre-là, dans une zone bien délimitée et bardée de capteurs, ce qui raréfie les situations inhabituelles. En cas d'imprévu, des systèmes de contrôle à distance peuvent même permettre de les sortir de l'ornière. On est donc loin du niveau de responsabilité qu'implique le développement d'un véhicule personnel de niveau 4 : "A ce niveau, on ne compte plus sur un conducteur qui pourrait reprendre la main, précise Vincent Abadie. Il faut gérer la mobilité dans 100% des cas, même dans des situations complexes comme de l'orage, de la grêle, une zone de travaux ou d'accident non déclarée."

Pour des constructeurs qui génèrent la quasi-totalité de leurs bénéfices par la vente de biens (leurs voitures) plutôt que par la fourniture de services, l'intérêt de tels investissements pour un service de transport autonome pose question. Même s'ils se plaisent à évoquer leur transformation en "opérateurs de mobilités", réaliser une véritable transition vers ce modèle serviciel est une toute autre affaire.
Alliances entre concurrents

En attendant, et pour tenter de rationnaliser ces coûts exorbitants, les constructeurs ont décidé de se regrouper alors que les alliances dans la voiture autonome se faisaient jusqu'ici entre des entreprises complémentaires dans la chaîne de valeur (constructeurs, équipementiers, entreprises tech, télécoms…). Après avoir fusionné leurs services et investi un milliard d'euros dans une co-entreprise de mobilités (parking, VTC et taxi, autopartage, trottinettes…), BMW et Daimler ont annoncé fin février qu'ils unissaient également leurs forces dans la voiture autonome pour développer une technologie commune de conduite autonome sur autoroute. Tandis qu'au Japon, Honda a rejoint fin mars la co-entreprise de Toyota et Softbank, qui vise à développer des services basés sur les navettes et voitures autonomes dans l'archipel.

Même les constructeurs qui ont racheté des start-up de conduite autonome, comme GM (Cruise) et Ford (Argo AI), se rendent compte qu'ils ont besoin de fonds additionnels et ne pourront garder leur technologie pour eux. Honda s'est par exemple engagé à investir 2,8 milliards de dollars dans Cruise sur les douze prochaines années et Ford discute avec Volkswagen d'une prise de participation dans Argo Ai qui pourrait aller jusqu'à 1,7 milliard de dollars, selon le Wall Street Journal. Ce devrait aussi être la fin de l'aventure en solitaire pour PSA, qui cherche en ce moment des partenaires avec lesquels mutualiser ses efforts. Les voitures seront peut-être autonomes, leurs constructeurs sans doute pas.
Yves Pellemans's insight:

Le défi technologique des véhicules autonomes est à la hauteur des coûts qu'il engendre : immense. Or les constructeurs automobiles n'ont pas les moyens des Gafa. Seul issue : les alliances.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IoT : 6 problèmes importants que résout l’Edge Computing

En rapprochant le traitement de la source première des données, l’Edge Computing peut faire office de pilule miracle pour l’IoT, notamment en matière de latence, sécurité et bande passante.
Yves Pellemans's insight:

IoT et EDGE, un binôme indissociable @axiansfrance

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

ACI débarque sur AWS

ACI débarque sur AWS | Cloudnews | Scoop.it
Disponible sur site depuis 2014, ACI, la plateforme SDN de Cisco est étendue au cloud Amazon au travers de Cisco Cloud ACI pour AWS. Cette extension s’inscrit dans le cadre du programme ACI Anywhere annoncé à Barcelone fin janvier à l’occasion de Cisco Live. « L’architecture ACI peut désormais prendre en charge n’importe quel cloud, n’importe quelle application, sur n’importe quelle plateforme, n’importe où », annonçait alors le vice-président en charge de l’ingénierie d’ACI, Ronak Desai, sur le blog de l’équipementier. Conçu à l’origine pour fonctionner sur des commutateurs de la série Nexus 9000, ACI peut définir des règles communes, permettre la reprise après sinistre et surveiller le bon état de l’infrastructure réseau. Il intègre dans un cadre de règles uniques des serveurs, des machines virtuelles et des conteneurs sans système d’exploitation.

L’extension au cloud AWS est réalisée au travers du contrôleur cloud Cloud ACI Controller et de l’orchestrateur multisite ACI MSO. Le premier convertit les règles d’ACI en structures natives pour créer une politique simple et cohérente pour plusieurs instances de cloud sur site et publiques. Le second considère le cloud public comme l’un des sites ACI et le gère de la même manière qu’un site on-premise.

Cette annonce intervient quelques jours après celle de la prise en charge par Cisco de la plateforme de cloud hybride Anthos de Google, laquelle prévoit dans un futur proche l’intégration d’ACI, mais aussi d’autres technologies Cisco telles qu’HyperFlex et HyperFlex Edge, Stealthwatch Cloud, SD-WAN et Intersight.

Toujours dans le cadre d’ACI Anywhere, la firme de San Jose prévoit bien entendu d’intégrer prochainement sa plateforme ACI à Microsoft Azure.
Yves Pellemans's insight:

ACI est étendue au cloud Amazon au travers de Cisco Cloud ACI et de l’orchestrateur multisite ACI MSO. Le 1er convertit les règles d’ACI en structures natives pour créer une politique simple et cohérente et le second considère le cloud public comme l’un des sites ACI et le gère de la même manière qu’un site on-premise. @axiansfrance

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IA : la Commission européenne expérimente sa vision éthique

IA : la Commission européenne expérimente sa vision éthique | Cloudnews | Scoop.it

Bruxelles enclenche une phase de mise en pratique de ses nouvelles lignes directrices visant à accompagner le développement des systèmes d’IA.

Le développement de l’intelligence artificielle ne peut s’envisager sans confiance.

La Commission européenne vient de publier des lignes directrices construites sur ce postulat. Elles sont le fruit des travaux d’un groupe d’expertise constitué en juin dernier et qui compte, parmi ses 52 membres, une dizaine de Français.

Les principes en question sont au nombre de quatre. L’explicabilité est l’un d’entre eux. Elle suppose une transparence quant aux capacités et aux finalités des systèmes d’intelligence artificielle. Mais aussi – autant que possible – eu égard aux résultats qu’ils produisent.

Le degré d’explicabilité nécessaire dépend essentiellement de la gravité des conséquences qu’aurait la production de résultats inexacts ou imprécis.

Dans la pratique, il peut être compliqué d’atteindre le degré souhaitable. Le groupe d’expertise en veut pour preuve les réseaux de neurones artificiels : les valeurs que prennent certains paramètres sont difficiles à corréler aux données en sortie. Il souligne par ailleurs le risque d’incompatibilité entre la notion d’explicabilité et la recherche de la performance.
La preuve par sept

Les principes éthiques – au rang desquels figurent aussi l’équité, le respect de l’autonomie humaine et la prévention du préjudice – devront être transposés sous la forme d’exigences concrètes pour les parties prenantes.

La Commission européenne en liste sept. Aux côtés de la transparence figurent, entre autres, la supervision humaine, l’impact social et environnemental, la vie privée et la diversité.

ia-exigences

Pour mettre en œuvre ces exigences, une phase pilote est lancée. Entreprises, organisations et institutions sont invitées à y participer. Le retour d’expérience devra permettra d’actualiser les lignes directrices d’ici à début 2020.

Yves Pellemans's insight:

Trois grands axes ont été retenus : la conformité de l’IA aux lois, sa robustesse (des points de vue technique et social) et son respect des principes d’éthique.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Un Français sur deux souhaiterait déléguer une partie de son travail à des robots

Un Français sur deux souhaiterait déléguer une partie de son travail à des robots | Cloudnews | Scoop.it
Saisie et traitement de données, relecture de longs documents, participation aux réunions… Autant de tâches dont une majorité de Françaises et de Français aimerait se délester.
Yves Pellemans's insight:
Avec le manque croissant de ressources IT, l’automatisation est indispensable à nos organisations
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Pure Storage fait l’acquisition de Compuverde

Pure Storage fait l’acquisition de Compuverde | Cloudnews | Scoop.it

Il y a tout juste un an, Pure Storage levait 500 millions de dollars pour financer des acquisitions.

Créé en 2008 par Stefan Bernbo, Christian Melander et Roger Persson, et basé à Karlskrona dans le sud-est de la Suède, Compuverde est l’éditeur de vNAS, une solution logicielle de stockage prenant en charge les plateformes hyperconvergées et le cloud hybride, ce qui semble particulièrement intéresser Pure Storage. La firme de Moiuntain View indique en effet dans un communiqué que ces fonctionnalités « renforcent sa stratégie visant à permettre aux clients d’implémenter de véritables architectures hybrides, qu’ils choisissent de tirer parti des données sur site, dans le cloud ou de plus en plus, d’une combinaison des deux ».

Pure Storage indique encore que Compuverde lui apporte un solide écosystème de partenariats technologiques et une solution logicielle hautement évolutive déployée dans des entreprises mondiales des secteurs des télécommunications, des services financiers et des médias.

« Nous sommes ravis des opportunités offertes par l’équipe et la technologie de Compuverde au portefeuille existant de Pure », commente dans le communiqué Charles Giancarlo, président et CEO de la société. « À mesure que les stratégies informatiques évoluent, les entreprises cherchent à exploiter les innovations du cloud public conjointement avec leurs solutions sur site. Grâce à notre suite étendue de solutions de données hybrides telles que Cloud Data Services, nous continuons d’aider nos clients à tirer le meilleur parti de leurs actifs de données. »

Yves Pellemans's insight:

Après avoir mis la main sur le spécialiste de la déduplication dans le cloud StorReduce l’été dernier, Pure Storage rachète cette fois l’éditeur Compuverde specialise du vNAS pour l'Hybrid cloud...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

GHT : ne loupons pas le coche !

GHT : ne loupons pas le coche ! | Cloudnews | Scoop.it

Déserts médicaux, moyens financiers et humains insuffisants dans les hôpitaux, dysfonctionnements du parcours de soins… le système de santé français est en souffrance. Aussi, pour enrayer ce phénomène le gouvernement a, dans le cadre de la loi de santé 2016, mis en place un vaste programme de regroupement des établissements publics de santé à l’échelle d’un territoire. Baptisé GHT, ce dispositif de coopération entre les établissements de santé d’une région vise trois objectifs : assurer une égalité et une meilleure prise en charge des patients sur l’ensemble du territoire, mutualiser les fonctions supports des établissements (Départements de l’information médicale, SI, achats,) et développer l’innovation autour de la télémédecine, de la chirurgie ambulatoire et des objets connectés. Un ambitieux projet complexe dont l’un des socles fondateurs est la convergence des systèmes d’information de tous les établissements pour partager et gérer les données médicales quel que soit leur format (PDF, Word, imagerie médicale, vidéo, bases de données). Les établissements ont jusqu’à 2021 pour réaliser cette convergence. 

Dans un environnement où chaque établissement possède son propre SI et ses applicatifs, partager la donnée relève de l’exploit. Là où historiquement le dossier patient était hébergé uniquement sur le data center ou le cloud privé de l’hôpital, le GHT impose aux établissements de santé de mettre en place l’infrastructure technique permettant de consulter et d’enrichir le dossier médical. Mais en ouvrant la donnée patient à tous les hôpitaux et à l’extérieur – médecins de villes, établissements sanitaire et social, centres médicaux... –, le GHT soulève la problématique de la gestion de l’hybrid data, et accroît celles des droits d’accès, de la sécurité, la sauvegarde et du stockage de la donnée.  

Les challenges de l’hybrid data 

Ainsi, le premier challenge de l’hybrid data est donc la gestion de l’interopérabilité des identités des professionnels de santé. Chacun d’eux doit pouvoir accéder à l’ensemble des systèmes et des applicatifs dont il a besoin sans devoir s’identifier à chaque fois. La première étape consiste donc à centraliser les annuaires professionnels de tous les établissements en créant un référentiel d’identité centralisé (Identity and access management) et à déployer une solution d’identifiant unique (SSO - Single sign-on) pour autoriser leur accès aux différents systèmes sur un simple login et mot de passe. 

Le deuxième challenge de l’hybrid data est le partage de la donnée. Aujourd’hui chaque établissement possède son SI et ses propres applicatifs. Or l’incompatibilité de ces systèmes rend difficile, voire impossible, l’échange des données. Face à cette situation deux options se dessinent selon les territoires : certains font le choix de migrer leurs solutions sur une infrastructure commune, d’autres préfèrent préserver leurs SI et applicatifs et déployer un système chapeau permettant de répliquer les informations des établissements. Si l’option de migration est complexe et onéreuse, elle remplit néanmoins les objectifs de partage et de gestion du DMP par l’ensemble des établissements de santé sur le territoire. Moins coûteuse, la seconde solution n’autorise en revanche que la consultation du dossier médical. Une solution qui ne peut être que transitoire puisqu’en 2021 tous les professionnels devront pouvoir intervenir sur les dossiers médicaux. 

Le troisième challenge porte sur la protection et la sécurisation de la donnée. En ouvrant les infrastructures, les risques de piratage sont encore plus importants. Or en 2017 – 2018, plusieurs hôpitaux ont déjà été la cible de cyberattaques via des virus bloquant l’accès à des milliers de fichiers patients (CryptoLocker). La réplication des dossiers stockés sur des infrastructures indépendantes du réseau peut prévenir  ce genre de désagrément.   

Dernier challenge enfin : la sauvegarde et l’archivage des dossiers dans des conditions fiables, c’est à dire sur des supports impossibles à modifier et inaltérables au temps. 

Parcours patient facilité et personnalisé 

Une fois les aspects techniques réglés, le GHT facilitera le parcours patient en permettant une prise en charge commune et partagée des soins par l’ensemble des professionnels. Fini le calvaire de la prise des rendez-vous et des examens réalisés deux, trois voire quatre fois. Grâce au GHT, les agendas de l’ensemble des établissements de santé du territoire sont connectés et accessibles via un portail permettant aux patients de gérer leurs prises de rendez vous et tous les examens sont centralisés dans le dossier disponible en ligne. 

Grâce au GHT, la pratique médicale s’inscrit dans une démarche personnalisée et collaborative. Véritable révolution du système de santé français, cette organisation se structure peu à peu. Aujourd’hui, l’ensemble des territoires déploient les plateformes pour partager et consolider la donnée patient. En 2020, les premiers projets d’intégration d’outils d’analyses de la donnée et d’intelligence artificielle seront lancés. En permettant aux professionnels d’analyser plus finement les données, ces technologies viendront affiner le diagnostic des médecins qui pourront alors mieux identifier les pathologies, préconiser les thérapies les plus efficaces et développer une pratique médicale plus préventive. 

Même si le GHT reste complexe à mettre en œuvre, les technologies et les bonnes pratiques existent et répondent aux challenges et à l’évolution de la pratique médicale. Ne loupons pas le coche ! 

Yves Pellemans's insight:

La mise en place des Groupements hospitaliers de territoire (GHT) contraint les établissements de santé à ouvrir, échanger et enrichir les données médicales des patients. Et refondre leurs infrastructures informatiques.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Microsoft va mettre un noyau Linux dans Windows 10

Microsoft va mettre un noyau Linux dans Windows 10 | Cloudnews | Scoop.it

Personne n’aurait imaginé cela il y a encore quelques années…

En marge de la Build 2019, Microsoft a annoncé qu’il avait créé un noyau Linux personnalisé sur mesure qui sera inclus dans Windows 10, et disponible dès cet été dans les versions pour les abonnés à Windows Insiders. Ce noyau fournira les fondements de la fonctionnalité WSL 2.0 de Microsoft, et ce sera la première fois que Linux sera inclus en tant que composant dans Windows.

Développée sur le blog Microsoft par le chef produit Jack Hammons, cette annonce va plus loin que celle de février quand Microsoft avait annoncé que la mise à jour de Windows 10 (build 1903) permettrait d’accéder, de déplacer et de copier des fichiers présents dans un sous-système Windows pour Linux (WSL) directement depuis l’Explorateur des fichiers.

Une intégration via une mise à jour Windows 10 estampillée 19H2

L’intégration de Linux dans Windows 10 par Microsoft sera disponible depuis l’espace utilisateur après une installation via le Windows Store. Une intégration proposée au cours de l’année via une mise à jour Windows 10 estampillée 19H2.

Pour les développeurs, cela devrait considérablement améliorer les performances du sous-système Linux de Microsoft sous Windows, et Microsoft promet également de mettre à jour ce noyau par le biais de Windows Update, tout en garantissant qu’il sera open source pour permettre aux développeurs de créer leur propre noyau WSL et d’apporter des modifications. 

Yves Pellemans's insight:

Mini-révolution chez Microsoft. La prochaine mise à jour de Windows 10 intégrera un authentique kernel Linux open source et personnalisable.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Docker : une plateforme 3.0 pour lier toujours plus les développeurs aux containers… et à Kubernetes

Docker : une plateforme 3.0 pour lier toujours plus les développeurs aux containers… et à Kubernetes | Cloudnews | Scoop.it
A l’occasion de la DockerCon 2019, qui se tient cette semaine aux Etats-Unis, la société Docker a montré comment elle comptait davantage industrialiser le développement d’applications containerisées et surtout leurs déploiements via Kubernetes. Mais pour cela, Docker a avant tout fait le choix de simplifier la tâche des développeurs, qu’ils soient experts en containers Docker…ou pas. Vous avez dit DevOps ?

Ces outils sont au cœur de la version 3 de la plateforme Docker Entreprise, présentée en version beta lors de l’événement. Dans cette prochaine mouture, Docker Desktop Entreprise, qui permet de disposer d’un environnement de développement d’application en container sur son poste de travail – à destination des développeurs donc – intègre officiellement la plateforme globale de Docker. L’argument clé de Docker est ici de proposer une expérience unifiée, du développement au déploiement multi-plateforme, avec pour orchestrer cela, une série de fonctions automatisées. Là est l’idée de simplification notamment. La solution propose d’intégrer directement les containers Docker dans des cycles de développements, via un système de templates pré-définis et validés par l’IT, qui permet de rapidement composer et déployer des containers. Les fonctions de management sont ici directement portées sur le desktop en reproduisant un environnement de production et des capacités de synchronisation avec la plateforme de déploiement.

Dans ce même esprit, Docker a également présenté Docker Application dont l’ambition est de prémâcher le packaging d’applications multi-composants et bâties donc sur plusieurs containers. Pour cela, Docker a implémenté le standard CNAB (Cloud Native Application Bundle), un format standard de packaging d’application multi-containers dont la vocation est d’en faciliter la portabilité et le déploiement multi-cloud. Avec Docker Application, les déploiements peuvent être aussi bien sur Kubernetes ou Swarn, l’orchestrateur maison – l’outil automatise les fichiers de configuration pour Docker Compose, Kubernetes ou Helm.
Un service Kubernetes « dockérisé »

Enfin, comme les outils précédents le montrent, Kubernetes est au cœur de la nouvelle plateforme de Docker. Pour mémoire, Docker n'a intégré le support de l’orchestrateur open source que récemment. A l’origine, la société développe son propre orchestrateur de containers Swarm, mais face à la montée du standard open source, Docker avait décidé de l’ajouter à sa plateforme, positionnant alors Docker Enterprise comme la plateforme centrale pour gérer les deux solutions.

Mais aujourd’hui Docker va plus loin. La version 3 de la plateforme du groupe renfermera Docker Kubernetes Service (DKS) qui consiste en fait à intégrer l’orchestrateur open source au plus près des cycles de développements des containers Docker. DKS repose sur la version 1.14 de Kubernetes et apporte un support complet, selon Docker, du standard CSI (Container Storage Interface).

DKS permet donc aux utilisateurs de Docker d’avoir accès à Kubernetes depuis leur poste de travail via Docker Desktop, d’y reposer leurs applications, et de les déployer par la suite. Le principe est ainsi de fondre Kubernetes dans l’expérience Docker afin de le rendre plus facilement accessible, explique en substance la société, à la cible première de Docker. Par exemple, DKS est compatible avec le format YAML utilisé par Docker Compose pour gérer les configurations multi-containers.
Yves Pellemans's insight:

Docker rassemble dans la version 3.0 de sa plateforme entreprise une série d’outils pour simplifier le développement et le déploiement d’applications multi-containers. Et Kubernetes est intégré à cette expérience pour les développeurs, via le nouveau Docker Kubernetes Service (DKS).

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Kata Containers, l’étonnant rapprochement entre OpenStack et AWS

OpenStack se transforme en fournisseur de pièces détachées pour les infrastructures ouvertes et entend le prouver avec Kata Containers. Ce projet Open source, concurrent sécurisé de Docker, compatible avec le nouvel hyperviseur d’Amazon, a été à la fois officiellement intégré au catalogue d’OpenStack et subitement intronisé « projet top-prioritaire », lors de l’événement Open Infrastructure Summit qui se déroulait cette semaine à Denver. Ce projet permet surtout à AWS de rattraper son retard sur Google.

Yves Pellemans's insight:

Kata Container est un projet Open source, concurrent de Docker, compatible avec le nouvel hyperviseur d’Amazon ...  

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Trimestriels : Microsoft dépasse les attentes, le titre flambe

Trimestriels : Microsoft dépasse les attentes, le titre flambe | Cloudnews | Scoop.it
Au cours de son troisième trimestre clos le 31 mars, Microsoft a annoncé des résultats supérieurs aux attentes de Wall Street. En progression de 14% sur un an, le chiffre d’affaires s’établit à 30,6 milliards de dollars, soit 15,5 milliards de dollars générés par les produits et 15,1 milliards de dollars provenant des services. Le bénéfice net grimpe de 19% à 8,8 milliards de dollars tandis que le bénéfice dilué par action bondit de 20% à 1,14 dollar. Les analystes s’attendaient à des revenus de 29,84 milliards de dollars et à un bénéfice par action de 1,0 dollar.
Yves Pellemans's insight:

Microsoft s'envole dopés par la croissance de 30% d’Office 365, par la progression de 43% de Dynamics 365 et par la hausse de 27% des résultats de Linkedin

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Dell EMC et Cisco renouvellent de leur alliance dans les systèmes convergés

Dell EMC et Cisco renouvellent de leur alliance dans les systèmes convergés | Cloudnews | Scoop.it
Dix ans après le lancement de VBlock au travers de leur entreprise commune VCE (désormais absorbée par Dell pour former la division Converged Platform), Dell EMC et Cisco renouvellent leur alliance pour une durée indéterminée dans le domaine des infrastructures convergées. Actuellement, l’accord porte principalement sur les systèmes VxBlock 1000 qui regroupent des serveurs UCS et commutateurs Nexus de Cisco, le stockage de Dell EMC, la virtualisation de VMware ; la maintenance et le support étant assuré par Dell.

D’après IDC, Dell EMC détient une part de marché de 48% dans le segment des systèmes de référence certifiés avec infrastructure intégrée, soit près de 1,5 fois celui de tout autre fournisseur. La firme texane occupe la première place du segment depuis six ans.

« Cisco s’est engagé dans le partenariat avec Dell EMC et dans la fourniture conjointe de solutions innovantes à ses clients VxBlock. En prolongeant cet accord, nous continuons à fournir des technologies puissantes et intégrées avec Cisco UCS, Nexus et MDS et respectons notre engagement en matière d’innovation pour VxBlock », explique dans un communiqué commun Frank Palumbo, senior vice-président, Global Data Center Sales de Cisco.

« Le nouvel accord signé implique l’alignement de la société sur plusieurs secteurs comme la direction, le développement de produit, le marketing et les ventes », écrit de son côté le vice-président de Dell, Pete Manca. « Cela signifie que nous allons continuer à partager les feuilles de route des produits et à collaborer sur les activités de développement stratégique. Cisco investissant dans des d’initiatives de vente, de marketing et de formation de Dell EMC pour prendre en charge VxBlock 1000. »

Récemment, ce développement conjoint a introduit la prise en charge de l’interconnexion de matrice Cisco UCS 6454 améliorant la capacité, les performance et le débit dans VxBlock 1000, ainsi qu’une gamme plus étendue d’options du serveur Cisco M5, notamment le nouveau UCS C480 M5 à performances optimisées. « Avec autant de fonctionnalités prêtes pour le cloud dans VxBlock 1000, nous rapprochons de manière transparente nos clients CI du nouveau paysage multi-cloud », estime Pete Manca.

Pas sûr toutefois que les systèmes de référence certifiés avec infrastructure intégrée aient encore le vent en poupe. Comme le rappellent nos confrères de The Register, dans l’ édition d’avril du Converged Systems Tracker d’ IDC, ce segment représentait moins de la moitié (1,6 milliard de dollars) du marché global des systèmes convergés ( 4,1 milliards de dollars) au dernier trimestre de 2018. Selon le cabinet d’analyse, le segment a diminué de 6,4% sur un an, tandis que celui des infrastructures hyperconvergées a augmenté de 57,2% pour atteindre 1,9 milliard de dollars.
Yves Pellemans's insight:

Actuellement, l’accord porte sur les systèmes VxBlock 1000  :
Serveurs UCS  et commutateurs Nexus de Cisco, stockage de Dell EMC, et virtualisation de VMware. @axiansfrance 

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

1 000 Md$ ont été générés dans les services IT en 2018.

1 000 Md$ ont été générés dans les services IT en 2018. | Cloudnews | Scoop.it

Plus de mille milliards de dollars. En 2018, et pour la première fois, le chiffre d'affaires mondial des sociétés de services informatiques a franchi ce montant astronomique. Il en résulte une hausse de 4,3% du marché par rapport à 2017, selon IDC. Au second semestre, les revenus ont atteint 513 Md$, dont 158,6 Md$ ont été générés dans la région EMEA (266 Md$ en 2018 pour la seule Europe de l'ouest). Mais ce sont bien les Etats-Unis qui enregistrent la demande est la plus forte. Outre-Atlantique, les entreprises ont consommé pour 233 Md$ de services au second semestre 2018 et 459 Md$ sur l'ensemble de l'année. Malgré les incertitudes politiques, conjuguées à des augmentations modérées mais constantes des dépenses publiques, la forte croissance économique aux États-Unis a permis aux entreprises et aux gouvernements de maintenir la vigueur de leurs dépenses IT, explique IDC.

Belle croissance pour les services orientés projets

Sur le plan mondial, les facturations liées aux services orientés projets ont progressé de 6,4 % au second semestre, atteignant ainsi 194 Md$ (380 Md$ sur l'ensemble de l'exercice). Des résultats poussés notamment par l'essor du conseil aux entreprises (+ 9,1 % au S2) et du développement d'applications (+ 8,3 %). Dans le domaine des services managés, les revenus semestriels ont augmenté de 3,8 % à 240 Md$, et de 3,6 % à 473 Md$ sur 12 mois (dont 80 Md$ dédiés à la gestion des applications hébergées et sur site). De son côté, le segment de l'externalisation IT (ITO) a poursuivi son recul de chiffre d'affaires, en raison d'une croissance nulle ou négative dans les territoires les plus importants. Cette situation a été quelque peu compensée par une croissance modérée des revenus issus de la sous-traitance des processus d'affaires (IPA). IDC s'attend à ce que les services managés liés aux applications continuent de surclasser les autres segments à l'avenir.

Yves Pellemans's insight:

Colossale : Selon 'IDC, l'industrie des services informatiques BtoB a enregistré un CA de 1000Md$ et une croissance de 4,3 % en 2018.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Intel :  vPro de 8ème génération avec des Core i5/i7

Pour sa gamme vPro de 8ème génération, Intel met en avant le support du Wi-Fi 6, une consommation électrique minimale et un renforcement de la sécurité.

La course au GHz est de l’histoire ancienne et celle du nombre de cœurs semble toucher à sa fin. Aujourd’hui les arguments sont déportés sur d’autres caractéristiques.

C’est en tout cas, ce qui ressort de la nouvelle gamme mobile Intel Core vPro de 8ème génération tout juste dévoilée avec les puces i7-8665U (de 1,9 à 4,8 GHz, 4 cœurs/8 threads, mémoire cache de 8 Mo) et i5-8365U (de 1,6 GHz à 4,1 GHz, 4 cœurs/8 threads, cache 6 Mo).

Ce ne sont pas les performances globales supérieures de 65% par rapport à un PC datant de trois ans qui sont particulièrement mises en avant par Intel, mais la gestion optimisée du Wi-Fi, de l’autonomie et de la sécurité.
Wi-Fi 6 (Gig +) : 40 % de débit plus élevé


Ainsi, les puces sont compatibles avec le Wi-Fi 6 (Gig +). Avec lui, le débit de pointe devrait être jusqu’à 40% plus élevé qu’actuellement et le débit moyen en environnement saturé multiplié par quatre.

Pour la mobilité, Intel affirme que ces processeurs économes peuvent permettre d’utiliser l’ordinateur durant 11 heures sur sa seule batterie.

Enfin, la nouvelle technologie Hardware Shield d’Intel renforce à la fois la sécurité en temps réel et peut générer des rapports de sécurité à la fois sur l’OS et le BIOS.

Yves Pellemans's insight:
Le monde change : ce ne sont plus les performances globales (+ 65% en 3 ans)  par  qui sont particulièrement mises en avant par Intel, mais la gestion optimisée du Wi-Fi (+40% de débit), de l’autonomie (11h) et de la sécurité (Hardware Shield). @axiansfrance

 
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Infrastructure cloud : OpenStack Stein conforte ses liens avec Kubernetes

Après Rocky, OpenStack Stein est la 19ème version de la plateforme open source de déploiement et gestion d’infrastructures cloud lancée en 2010 par la NASA et Rackspace.

Cette mise à niveau inclut des dizaines d’améliorations, a indiqué la Fondation OpenStack mercredi 10 avril. Ces avancées visent essentiellement à :

– Renforcer la prise en charge de conteneurs et de clusters Kubernetes, le framework d’orchestration le plus utilisé sous OpenStack. En fournissant des fonctions clés de gestion via différents outils (OpenStack Magnum, Cloud provider, Neutron, Ironic…).

– Améliorer la mise en réseau pour adapter l’offre aux cas d’usage émergents ou en croissance (5G, Edge computing et virtualisation des fonctions réseau ou NFV) avec Neutron (module Network Segment Range Management) et Nova (calcul).

– Optimiser la gestion d’une infrastructure cloud sur matériel nu (bare metal) et consolider le suivi des ressources avec : Blazar (réservation), Placement (un outil de planification issu du projet Nova) et Sahara (approvisionnement de clusters Hadoop).

OpenStack est une initiative multi-acteurs, parmi lesquels des éditeurs et promoteurs de l’open source, dont Red Hat, Suse et Canonical. Mais c’est Vexxhost, fournisseur canadien de services cloud, qui a été le premier à déployer OpenStack Stein en production.
Yves Pellemans's insight:

La 19e version d’OpenStack renforce la prise en charge des conteneurs et s’adapte aux usages réseau à venir : 5G, Edge computing, NFV. @axiansfrance 

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

VMware prépare une refonte complète de son programme partenaires

VMware prépare une refonte complète de son programme partenaires | Cloudnews | Scoop.it

VMware lancera début 2020 un programme partenaires entièrement repensé. Les contours en ont été dévoilés à une poignée de privilégiés – parmi lesquels Metanext, Axians, Soluceo, Sopra Steria, SCC, OVH, Mobinergy, Insight, Computacenter – lors du Partner Leadership Summit qui s’est déroulé du 1er au 4 avril dernier à San Diego (Californie). Baptisé VMware Partner Connect, ce nouveau programme succédera à l’actuel VMware Partner Network, dont la création remonte à 2010.

« Plus qu’un toilettage, c’est toute la philosophie du programme qui évolue », commente Jean d’Ornano, directeur du channel et des alliances de VMware France. « On passe d’un programme principalement orienté transactionnel à un programme qui met l’accent sur l’expertise ». Les niveaux de partenariat, les prérequis pour les atteindre et les bénéfices associés ont été réécrits à partir d’une feuille blanche. Seules les compétences solutions – plutôt orientées vente – ainsi que les compétences services master – orientée expertise et mise en œuvre – demeureront.

Mais la principale innovation, c’est sans doute la mise en place d’un contrat unique qui régira les relations entre VMware et ses partenaires quel que soit leur profil (revendeur, cloud provider, managed services provider…), les solutions sur lesquelles ils investissent et leur modèle d’engagement (vente de licences, fourniture de services cloud, mise en œuvre de projets…). Dans le programme actuel, les partenaires qui sont à la fois revendeurs de licences VMware, qui opèrent des services motorisés par VMware et qui déploient des projets embarquant du VMware, doivent signer plusieurs contrats différents. Des partenaires multifacettes que le système actuel a du mal à gérer. L’impact des partenaires sur les clients finaux, leurs choix de solutions, leur modèle seront mieux pris en compte, poursuit Jean d’Ornano.

Pratiquement parlant, les niveaux de partenariats actuels (« Professional », « Enterprise » et « Premier ») vont s’effacer au profit des niveaux » Partner », « Advanced Partner » et « Principal Partner », qui sera le niveau le plus élevé. La pierre angulaire de ce niveau Principal sera les compétences services master. Elles matérialiseront les priorités stratégiques de VMware. Ces dernières sont désormais au nombre de cinq avec la disponibilité depuis quelques jours de la compétence VMware Cloud on AWS. Elle rejoint les compétences Management & automatisation du Cloud, Virtualisation du datacenter, Virtualisation des réseaux, ainsi que Poste de travail & mobilité existantes. Les partenaires devront justifier de cinq VMware Certified professionals (VCP) sur la (ou les) compétence(s) choisie(s) dont deux VMware Certified Advanced Professionals (VCAP).

Les deux niveaux de partenariats inférieurs impliqueront pour les partenaires de détenir des compétences solutions – il en existe actuellement quatorze et ne nécessitent qu’un ou deux VCP, un VSP (commercial) et un VTSP (avant-vente) – et, pour les Advanced Partners, d’atteindre un seuil minimum de chiffre d’affaires ou de fourniture de services cloud ou de déploiement de projets.

Aujourd’hui les partenaires Premier sont limités à une quinzaine. Demain les partenaires Principaux devraient dépasser les 25, dont 5 sont d’ores et déjà certifiés (et une vingtaine en cours). Plus de 200 partenaires détiennent au moins une compétence solution. VMware revendique actuellement près de 1.000 partenaires certifiés, dont 150 « Enterprise »

Yves Pellemans's insight:

VMware fait évoluer son programme avec plus de spécialisation et c'est une bonne chose. Mais pourquoi passer de 5 à 25 Principal Partner ?!? @axiansfrance

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Face à la menace Dell-VMware, Nutanix réagit en nouant un partenariat avec HPE

Face à la menace Dell-VMware, Nutanix réagit en nouant un partenariat avec HPE | Cloudnews | Scoop.it
Nutanix et HPE ont annoncé hier un partenariat mondial prévoyant la mise sur le marché d’appliances intégrées HPE et de plateformes HPE GreenLake
Yves Pellemans's insight:

Est-ce HPE ou Nutanix qui avait le plus besoin de ce partenariat ?

Quid de Simplivity ? @axiansfrance

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

iSCSI : des centaines de systèmes de stockage français exposés sur Internet

iSCSI : des centaines de systèmes de stockage français exposés sur Internet | Cloudnews | Scoop.it
D’importantes fuites de données en attente de survenir ? Peut-être bien. "A Shadow", qui se décrit comme hacker « grey hat » ou encore praticien du test d’intrusion, a sonné l’alerte le week-end dernier : de très nombreux systèmes de stockage iSCSI sont exposés à tous les vents sur Internet, laissant n’importe qui s’y connecter pour accéder à leur contenu, sans la moindre authentification.

Celui qui répond sur Twitter à l’identifiant de @arealshadow assure que la plupart de ces systèmes de stockage « contiennent des disques de grande capacité, avec des données sensibles et de fichiers de sauvegardes d’entreprises » qu’il imagine bien utilisés dans le cadre de tentatives d’extorsion. Et de présenter ainsi en illustration ce qui pourrait n’être autre que la représentation d’un volume de 16 To dans le gestionnaire de stockage de Windows, après montage par l’initiateur iSCSI.

Sans trop de surprise, sa découverte est partie du moteur de recherche spécialisé Shodan. Ce dernier recense ainsi près de 13 600 adresses IP exposant des services iSCSI accessibles sans authentification. Pour la France, le nombre est bien plus modeste, mais s’élève tout de même à près de 760 adresses IP.

Certaines de ces adresses exposent également un service SMB, mais lui, nécessitant authentification. Ce qui ne manque pas d’une certaine ironie.
Yves Pellemans's insight:

Plus de 760 systèmes de stockage français exposent en ligne un service iSCSI sans authentification, laissant leur contenu accessible à tous !

more...
No comment yet.