Cloudnews
48.5K views | +0 today
Follow
 
Scooped by Yves Pellemans
onto Cloudnews
Scoop.it!

Menu démarrer ou écran de démarrage, Microsoft devient prudent

Menu démarrer ou écran de démarrage, Microsoft devient prudent | Cloudnews | Scoop.it

Après plus de deux ans de polémiques autour de la disparition du menu Démarrer dans Windows 8 et 8.1, Microsoft fait machine arrière. Windows 10 Technical Preview lui redonne sa place avec au passage des évolutions. Il s’inspire de ce qui est proposé sous Windows 7. Il n’oublie pas de s’enrichir des possibilités offertes par « Metro » où tuiles dynamiques accompagnent de nouveaux outils de personnalisation. 


Microsoft a mis du temps à comprendre que la disparation du Menu Démarrer était un véritable problème pour les PCistes. Les choix proposés avec Windows 8 et 8.1 ont été radicaux. Leurs interfaces ont mis en vedette l’écran de démarrage dédié au tactile.  Depuis la mise en ligne des premières « builds » de Windows 10 Technical Preview, la firme montre qu’elle a décidé de répondre aux reproches.

Étonnamment avec le temps, un certains nombres d’utilisateurs se sont adaptés à ce nouvel environnement si bien qu’il n’est pas rare d’entendre que le menu Démarrer n’est plus une nécessité sachant que l’écran de démarrage peut, avec de nouvelles possibilités, répondre aux besoins.  Microsoft est devant un dilemme puisque chacune de ces deux caractéristiques propose son propre ensemble de caractéristiques.

Les attaques très virulentes après la publication de Windows 8 ont rapidement fait réagir la firme qui a alors donné naissance à Windows 8.1, espérant que l’arrivée d’un « semblant » de menu démarrer et quelques nouvelles options pour l’usage de la souris sous Metro (écran de démarrage) allait calmer les esprits. Windows 8.1 a été mieux accueilli sans toutefois rencontrer un grand succès. Son adoption s’accélère depuis quelques semaines mais le contexte lui est très favorable. Windows 7 n’est plus disponible pour le grand public et Windows XP est abandonné. Sans choix, il n’y a qu’une seule possibilité…

Windows 10 va devoir répondre aux adeptes de Windows 8.1 qui n’a pas de menu Démarrer mais aussi redonner confiances aux utilisateurs de Windows 7 attachés à ce dernier. Tout ceci va devoir se faire sans choix avantagé pour les uns ou les autres.

more...
No comment yet.
Cloudnews
Toute les news sur la transformation digitale, l'hybride Cloud, le data analytic, l'IA et l'Automation
Curated by Yves Pellemans
Your new post is loading...
Your new post is loading...
Scooped by Yves Pellemans
Scoop.it!

HPE conserve la tête du marché européen des serveurs devant des concurrents en forte croissance

HPE conserve la tête du marché européen des serveurs devant des concurrents en forte croissance | Cloudnews | Scoop.it

Selon IDC, le marché des serveurs dans la zone Europe, Moyen-Orient et Afrique a bondi de 35 % au premier trimestre 2018 par rapport au premier trimestre 2017, un chiffre à comparer aux 38,6 % de croissance enregistrés au niveau mondial.

 

En un an, les ventes de serveurs en unités dans la zone EMEA n’ont toutefois progressé que de 2 % contre 20,7 % au niveau mondial.

Comme le confirme IDC, le bond des ventes en revenus est largement lié à l’évolution de la parité entre l’euro et le dollar (IDC produit ses statistiques en dollars) et à la pénurie de mémoire flash et de mémoire vive, qui continuent à doper artificiellement le prix des serveurs.

Un autre motif d’inflation est l’adoption croissante des formats de serveurs denses de type 2U/4noeuds, typiquement utilisés pour la mise en œuvre d’architectures hyperconvergées. Les ventes en valeur de ces machines ont ainsi augmenté de 107,3 % par rapport à l’année précédente. 

 

HPE reste en tête en Europe, mais Dell se rapproche

Du côté des fournisseurs, HPE conserve clairement la tête avec 32,1 % des ventes en revenus (1,24 Md$), mais Dell continue de gagner du terrain. Alors que les ventes d’HPE ont progressé de 37 % sur un an, celles de Dell ont bondi de 57 % pour atteindre 886 M$.

Lenovo opère quant à lui un redressement spectaculaire avec des ventes en hausse de 70,4 % à 312,5 M$. Cisco n’est pas en reste avec des ventes en hausse de 40,5 % à 278,9 M$, mais il repasse derrière Lenovo dans le classement européen des ventes de serveurs d’IDC.

Fournisseur CA
T1 2017 PDM CA
T1 2018 PDM Evolution
HPE 907.0 32 % 1,242.2 32 % 37 %
Dell EMC 564.4 20 % 886.6 23 % 57 %
ODM Direct 373.7 13 % 378.3 10 % 1 %
Lenovo 183.4 6 % 312.5 8 % 70 %
Cisco 198.5 7 % 278.9 7 % 41 %
Others 636.5 22 % 766.8 20 % 21 %
Total 2,864.0 100 % 3,865.7 100 % 35 %

Le marché des serveurs dans la zone EMEA (source : IDC)

Les ventes des fournisseurs en marque blanche (ODM) n’ont progressé que de 1,4 % sur le trimestre, mais leur croissance devrait s’accélérer vers la fin 2018 et en 2019 avec le lancement de nouveaux datacenters par Apple, AWS et Google.
Le Royaume-Uni passe devant l’Allemagne

Selon IDC, les ventes au Royaume-Uni et aux Pays-Bas ont tiré le marché. De l’autre côté de la Manche, les livraisons de serveurs ont atteint 733 M$ soit une hausse de 65,3 % des ventes. Le Royaume-Uni est désormais le premier marché européen des serveurs devant l’Allemagne.

Aux Pays-Bas, les ventes ont quant à elles progressé de 120,2 % pour atteindre 322 M$, une croissance notamment dopée par les investissements des acteurs hyperscale. La Suisse s’est aussi démarquée au cours du trimestre avec un bond de 64,4 % des ventes de serveurs (largement du fait de ventes solides de grands systèmes IBM). En Europe de l’Ouest, seule la Finlande a connu un recul des ventes.

En Europe centrale et de l’Est, les ventes ont progressé de 24,3 % sur un an pour atteindre 302,2 M$, tandis que dans la zone Moyen-Orient/Afrique, les ventes augmentaient de 31,9 % à 386,09 M$ (notamment du fait des bonnes performances de la Turquie et de l’Arabie Saoudite).

Yves Pellemans's insight:

Les ventes de serveurs dans la zone EMEA n’ont progressé que de 2 % contre 20,7 % au niveau mondial.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Clouds Kubernetes : Docker promet une plateforme pour les gouverner tous

Clouds Kubernetes : Docker promet une plateforme pour les gouverner tous | Cloudnews | Scoop.it
En avril dernier, Docker annonçait l'intégration de l'orchestrateur Kubernetes à sa plateforme Docker EE aux côtés de son orchestrateur historique (Swarm). Cette réorientation était très attendue tant l'infrastructure open source fait désormais l'unanimité chez les entreprises comme les développeurs. Lors de son événement mondial 2018, qui se tient du 11 au 15 juin à San Francisco (la DockerCon), Docker a présenté "la prochaine grande échéance de sa feuille de route" : faire que Docker EE soit capable, à terme, de piloter des applications hébergées et opérées par de multiples offres de Kubernetes as a Service. Pour l'heure, aucune information précise n'a été communiquée quant au timing de ce chantier. "L'objectif est de proposer une solution qui gère de manière fédérée des applications sur les grands services cloud de Kurbenetes managés", explique Patrick Chanezon, membre de l'équipe technique de Docker, en évoquant Amazon EKS, Google GKE et Microsoft AKS (voir la slide ci-dessous).

Le nouvel édifice aura pour mission d'unifier les pipelines de déploiement, les règles de sécurité et la gestion des droits d'accès mis en musique par chaque service Kubernetes évoqué. "Le management applicatif sera consolidé au sein d'une interface graphique unique pour une vision précise de la supply chain logicielle, quel que soit le cloud. La solution bénéficiera en parallèle de l'environnement d'intégration et de développement continu de Docker EE", ajoute Patrick Chanezon.
Docker compte parvenir à terme à fédérer les services de Kubernetes managés d'Amazon, Google et Microsoft au sein d’une même plateforme de management d’applications. © Docker

Docker EE (avec les applications Kubernetes qu'elle embarque) peut déjà venir se nicher sur différents clouds d'infrastructure (IaaS) qu'ils soient privés (Oracle Linux, Red Hat, Suse Linux, Ubuntu) ou publics (Alibaba Cloud, AWS, Google Cloud Platform, IBM Cloud, Microsoft Azure). Mais la compatibilité promise avec les offres de Kubernetes as a Service d'Amazon, Google et Microsoft évitera d'avoir à installer et maintenir la plateforme sur chaque cloud ciblé. La possibilité d'opérer des systèmes Kubernetes en mode multicloud (avec la capacité de les migrer et synchroniser d'un cloud à l'autre) s'en trouverait facilité. D'autant que, toujours via Docker EE, ces systèmes deviendraient interopérables avec les environnements Kubernetes déployés en interne.
Vers de nouveaux services Azure ?

Toujours lors de cette DockerCon, Docker a annoncé travailler avec Microsoft au portage de l'infrastructure Kubernetes sur Windows Server (un projet actuellement en beta). L'enjeu pour Docker est d'introduire la possibilité de manager une telle architecture depuis Docker EE. "Sachant que c'est déjà possible avec les applications Swarm", précise Patrick Chanezon.

L'évolution en question laisse par ailleurs présager le lancement de nouvelles offres cloud bénéficiant de cette avancée technologique par Microsoft . On pourrait notamment imaginer que le service Azure Service Fabric de Redmond (conçu pour déployer des architectures de microservices sous forme de containers Linux ou Windows) soit équipé d'un orchestrateur Kubernetes, en complément de l'orchestrateur propriétaire (et signé Microsoft) qu'il utilise.
Docker planche sur le portage des futures architectures Kubernetes pour Windows Server dans Docker EE. © Docker

Enfin, Docker entend équiper son outil de gestion de containers ciblant les développeurs (Docker Desktop) d'une fonction de personnalisation graphique. Aux côtés de son interface en ligne de commande, "l'idée est de donner la possibilité d'enrichir Docker Desktop d'interfaces graphiques ad hoc, sous forme de gabarits, pour le rendre abordable pour un nombre encore plus grand de développeurs", détaille Patrick Chanezon. Des templates qui auront également pour but d'intégrer le produit à des environnements de développement tiers. La fonctionnalité devrait d'abord être proposée en bêta privée le temps de sonder la communauté Docker.
Yves Pellemans's insight:

Docker veut proposer une solution qui gère de manière fédérée des applications sur les grands services cloud de Kurbenetes managé. Windows Server de Microsoft est lui-aussi concerné.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Quel est le coût d’une panne Cloud ?

Quel est le coût d’une panne Cloud ? | Cloudnews | Scoop.it

Votre entreprise a-t-elle évalué le coût d’une interruption du Cloud et est-elle préparée à faire face aux impacts d’une panne ?

 

Migrer et évaluer

L’engouement est là et les indicateurs sont précis : 98% des responsables informatiques déclarent que leur entreprise adoptera le cloud dans les 12 à 24 prochains mois et 26% externaliseraient leur infrastructure sur site dans un cloud public.

Quel est l’impact d’un dysfonctionnement cloud sur l’activité ?

  • 41% estiment à moins de 15 minutes par mois la durée des interruptions de service
  • 20% ont déjà fait face à des durées deux fois plus importantes (31 minutes ou plus par mois)

Il faut évaluer les options en matière de protection des données et de continuité d’activité afin de s’assurer qu’elles sont « toujours » dans le cloud.

 

Qui est responsable ?

Les entreprises françaises n’ont pas conscience qu’elles sont tout autant responsables que les fournisseurs de services cloud, en matière de protection de leurs applications critiques en cas de panne.

  • 60% pensent que les fournisseurs de services cloud en France sont les principaux responsables en cas d’interruption de service
  • 82% considèrent que le fournisseur de services cloud doit s’assurer que les charges de travail et données dans le cloud sont protégées des pannes

L’engagement des fournisseurs portent sur des niveaux de services et la responsabilité de restaurer l’infrastructure en cas de panne.

 

La complexité des interdépendances

La durée de restauration de l’application peut être supérieure à celle du traitement de la remise en état de l’infrastructure. La  restauration devient une responsabilité commune tant du côté du fournisseur que du côté de l’entreprise.

« La récupération immédiate suite à un incident est sous le contrôle et la responsabilité immédiate de l’entreprise si elle adopte une position proactive sur la disponibilité des applications dans le cloud » commente Jean-Pierre Boushira, Directeur des ventes Europe du Sud de Veritas.

Toutefois, il convient de choisir la meilleure approche pour éviter

  • De longs temps d’arrêt
  • Les conséquences financières
  • L’impact sur la confiance des clients et la réputation de la marque

Il s’agit donc de prendre en compte l’ampleur que pourrait avoir une panne sur le business. Pour réduire les risques et tirer parti des environnements multi-cloud, la mise en place de stratégies de résilience peut être la voie.

Yves Pellemans's insight:

65% des organisations n’auraient, tout simplement, pas pleinement évalué ce coût…

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cloud militaire : partenariat entre Thalès et Microsoft

Thales et Microsoft ont annoncé un partenariat pour le développement d'un Cloud dédié aux forces armées. La future solution reposera sur la plateforme Azure Stack, le cloud privé hyperconvergé de Microsoft, qui sera livrée en tant que système intégré. De son côté, Thalès apportera ses solutions de connectivité - pour que les systèmes soient autonomes et capables de fonctionner hors ligne (sur un champ de bataille par exemple). L'expert français sera également en charge de la cyber-sécurité.
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cohesity Raises $250 Million, Highest Round Since 2015 Among Storage Start-Ups

Cohesity Raises $250 Million, Highest Round Since 2015 Among Storage Start-Ups | Cloudnews | Scoop.it
Cohesity, Inc. raised $250 million in an oversubscribed Series D funding round led by the SoftBank Vision Fund with strong participation from strategic investors Cisco Investments, Hewlett Packard Enterprise, and Morgan Stanley Expansion Capital, along with early investor Sequoia Capital and others. The investment is a testament to Cohesity's leadership in transforming data center and cloud operations with web-scale simplicity for secondary data. This round brings total equity raised to $410 million, outpacing all other series D enterprise software investments in the United States over the last 18 months. This is only the second time SoftBank Investment Advisers has invested in an enterprise software company. Cohesity is using the investment to power large-scale global expansion by attacking a problem that enterprises currently spend an estimated $60 billion each year to address using separate point solutions.
Yves Pellemans's insight:
HPE et CISCO participe à la levée de fond de Cohesity
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Deep reinforcement learning, l'IA capable de surpasser l'humain

Deep reinforcement learning, l'IA capable de surpasser l'humain | Cloudnews | Scoop.it

L'apprentissage par renforcement profond reproduit le mécanisme "naturel" d'acquisition des connaissances. Robot, chatbot, voiture autonome, ses applications sont multiples.

 

Le deep reinforcement learning (DRL) est une méthode d'intelligence artificielle encore peu popularisée qui ouvre de toutes nouvelles perspectives en matière d'automatisation. Souvent présenté comme l'IA ultime, le DRL permet de créer des logiciels capables d'atteindre voire de surpasser l'intelligence humaine dans plusieurs domaines. Le système le plus célèbre tirant parti de la méthode n'est autre que DeepMind, la plateforme d'IA de Google (issue du rachat de l'entreprise britannique du même nom en 2014). C'est sur elle que le géant américain s'est basé pour développer AlphaGo, le supercalculateur connu pour avoir battu en 2017 le champion du monde de go, le Chinois Ke Jie.

 

Le DRL fait appel aux algorithmes d'apprentissage dits par renforcement, dont les deux plus illustres sont le TD learning (pour temporal difference learning) et le Q-learning. Des modèles de learning qui s'inspirent du processus humain (et animal) d'acquisition des connaissances par essais-erreurs.

 

En résumé, l'idée est de tirer les leçons d'expériences répétées. Pour orienter les choix dans la direction voulue, ces algorithmes valident les décisions prises par la machine via un mécanisme de récompense. On pourrait comparer la démarche à du dressage. Se classant dans la catégorie du machine learning automatique (ou non-supervisé), le DRL combine l'apprentissage par renforcement aux réseaux de neurones dans le but d'estimer efficacement la validité d'une stratégie "complexe", avec à la clé un grand nombre de critères de choix à prendre en compte. Le principal enjeu étant d'aboutir à un système qui encourage les comportements souhaités, et sans effets secondaires indésirables.

"Pour programmer un robot, plus besoin d'un long et fastidieux travail de développement"

L'avantage du DRL est de taille : pour programmer un robot par exemple, plus besoin d'un long et fastidieux travail de développement. L'ordinateur apprendra à opérer, à réagir à tel ou tel événement ou requête par lui-même. Que le robot soit physique ou virtuel, la phase de learning sera exécutée sous forme de simulation numérique. Un mode opératoire qui permet d'optimiser le temps d'apprentissage.

L'industrie est l'un des tout premiers terrains de jeu de l'apprentissage par renforcement profond. Outre-Atlantique, plusieurs start-up avancent des solutions de DRL taillées pour ce secteur. C'est notamment le cas de Covariant.ai et Osaro dans la robotisation des usines et entrepôts de marchandises. Ou encore de Bonsai dans la calibration et le contrôle qualité des systèmes industriels (qu'ils soient centrés sur la fabrication, la supply chain ou la production d'énergie). Un terrain qu'investit aussi l'Allemand Micropsi. Sur tous ces segments, le deep reinforcement learning revêt un avantage clé : il permet à aux systèmes informatiques d'auto-adapter leur logique en vue de faire face rapidement à d'éventuels changements de contexte. Grâce au DRL, un robot d'une chaîne de montage automobile peut ainsi apprendre par lui-même à poser un modèle de pièce différent (rétroviseur, essuie-glace…) de celui qu'il avait l'habitude d'installer jusque-là, et donc sans programmation préalable.

Pour l'heure, toutes ces start-up en sont au stade de la preuve de concept, et n'affichent pas encore (ou rarement) de références clients. Parmi elles, Bonsai semble la plus avancée. La jeune pousse californienne est parvenue à convaincre Siemens. Le groupe industriel allemand expérimente sa technologie en vue d'automatiser la calibration de ses machines-outils à commande numérique. Résultat : le modèle de DRL de Bonsai lui a déjà permis de réaliser ce type d'opération 30 fois plus vite qu'un opérateur humain.

Aux côtés de la robotique industrielle, l'apprentissage par renforcement profond monte en puissance sur d'autres créneaux. Par exemple dans le monde financier, pour optimiser le trading automatisé ou la gestion des risques de marché (cf. la start-up américaine Prowler.io). Ou encore dans les chatbots et autres systèmes conversationnels intelligents. Un champ d'application qui est lui-aussi investi par des jeunes pousses (par exemple Semantic Machines), mais pas seulement. Les géants du numérique sont là également. Apple et Microsoft par exemple y voient un levier pour booster leurs assistants vocaux. Le premier a acquis en 2016 la technologie de DRL britannique VocalIQ qu'il a depuis intégrée à Siri. Quant à Microsoft, il a racheté fin 2017 le Canadien Maluuba, autre spécialiste du domaine. Ce dernier a rejoint sa R&D centrée sur l'IA (comptant 5 000 ingénieurs), une activité qui collabore désormais à toutes ses gammes de produits (Windows, Office, Cortana, Bing…).

Les applications possibles ? Chatbot, voiture autonome, optimisation énergétique, IA automatisée…

Autre géant IT américain engagé, Salesforce expérimente le DRL pour automatiser la synthèse de texte. "Grâce à son mécanisme de scoring, le DRL permet à la machine d'estimer la qualité globale d'un résumé en s'extrayant d'une logique de mot à mot", explique l'éditeur de San Francisco. Chez Facebook également des recherches sont en cours. Elles sont menées au sein de son laboratoire parisien spécialisé en IA. "Nous planchons sur un bot expérimental conçu pour jouer à StarCraft via l'apprentissage par renforcement profond. L'idée est de concevoir une technologie capable de développer des stratégies en environnement incertain", confie Antoine Bordes, responsable de l'AI Research Paris Lab de Facebook (le réseau social a d'ailleurs publié en open source le data set du projet).

Aux côtés d'Apple, Microsoft, Salesforce et Facebook, Google n'est pas en reste. Depuis qu'il a acquis DeepMind, Mountain View en a largement déployé la technologie chez lui. Et ce, pour des problématiques variées, par exemple pour optimiser la consommation énergétique de ses data centers ou encore pour motoriser son service cloud d'IA automatisée (AutoML).

Beaucoup d'autres champs d'expérimentation restent à explorer. Et dans des domaines variés, autour de la personnalisation des contenus de formation, l'optimisation de prescriptions médicales... Ou la voiture autonome. Tesla s'intéresse ainsi de près au DRL dans l'optique d'améliorer la capacité de ses voitures autonomes à réagir à tel ou tel événement de circulation. En 2017, l'entreprise d'Elon Musk a recruté Andrej Karpathy, l'un des meilleurs spécialistes mondiaux du domaine.

Et ce n'est que le début. En parallèle, la recherche en matière de DRL avance. Aux Etats-Unis, le MIT et l'Université de Californie, notamment, investissent le sujet. En France, c'est le cas l'INRIA et l'ISIR.

 

 

Yves Pellemans's insight:

Le deep reinforcement learning (DRL) est une méthode d'intelligence artificielle encore peu popularisée qui ouvre de toutes nouvelles perspectives en matière d'automatisation.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Le marché du stockage en forte hausse au premier trimestre

Le marché du stockage en forte hausse au premier trimestre | Cloudnews | Scoop.it

Le chiffre d’affaires enregistré par les fournisseurs ODM qui fournissent les datacenters hyperscale a grimpé de 80,4% à 3,1 milliards de dollars. Cela représente 23,9% des investissements en matériel de stockage réalisés par les entreprises. Les ventes de serveurs de stockage ont bondi de 34,2% à 3,6 milliards de dollars., soit 28,0% des investissements des entreprises en matière de stockage. « Ce fut un trimestre de croissance exceptionnelle qui doit être attribué à plusieurs facteurs », explique dans un communiqué Eric Sheppard, vice-président en charge des serveurs et des infrastructures de stockage au cabinet d’analyse. « La demande pour du cloud public ainsi qu’un rafraîchissement général de leurs infrastructures ont été deux moteurs importants des nouveaux investissements réalisés par les entreprises dans le monde. Aujourd’hui les solutions de stockage les plus recherchées sont celles qui permettent qui permettent d’atteindre dans les datacenters de nouveaux degrés d’efficacité, une simplicité opérationnelle ainsi qu’un soutien complet des nouvelles charges de travail. »

Du côté des constructeurs, Dell se classe en tête des fournisseurs avec une part de marché de 21,6% grâce à une croissance annuelle de ses ventes de 43,0%. On trouve à la deuxième place HPE/New H3C Group avec une part de marché de 17,7%, soit une croissance de 18,3% comparé au premier trimestre 2017. Enregistrant une croissance de 21,7%, NetApp a quant à lui généré 6,8% du chiffre d’affaires total du secteur, ce qui le place sur la troisième marche du podium. Les quatrième et cinquième places du Top 5 sont occupées respectivement par Hitachi (3,6% de PM) et IBM (3,0% de PM), ce dernier affichant toutefois une baisse de 15% de ses revenus. Les fournisseurs ODM quant à eux enregistrés une croissance de 80,4% sur un an s’attribuant ainsi collectivement une part de marché de 17,8%.

Top 5 Vendor Groups, Worldwide Total Enterprise Storage Systems Market, First Quarter of 2018 (Revenues are in US$ millions) Company 1Q18 Revenue 1Q18 Market Share 1Q17 Revenue 1Q17 Market Share 1Q18/1Q17 Growth 1. Dell Inc a $2,815.0 21.6% $1,968.2 20.3% 43.0% 2. HPE/New H3C Group b c $2,307.2 17.7% $1,950.1 20.1% 18.3% 3. NetApp $890.1 6.8% $731.6 7.6% 21.7% T4. Hitachi* $464.4 3.6% $460.1 4.8% 0.9% T4. IBM* $387.0 3.0% $455.3 4.7% -15.0% ODM Direct $3,111.5 23.9% $1,725.0 17.8% 80.4% Others $3,035.7 23.3% $2,392.0 24.7% 26.9% All Vendors $13,010.9 100.0% $9,682.4 100.0% 34.4% Source: IDC Worldwide Quarterly Enterprise Storage Systems Tracker, June 5, 2018

Notes:

a – Dell Inc represents the combined revenues for Dell and EMC.

b – Due to the existing joint venture between HPE and the New H3C Group, IDC will be reporting market share on a global level for HPE as « HPE/New H3C Group » starting from 2Q 2016 and going forward.

– HPE/New H3C Group includes the acquisition of Nimble, completed in April 2017.

* – IDC declares a statistical tie in the worldwide enterprise storage systems market when there is one percent difference or less in the revenue share of two or more vendors.

Systèmes de stockage externe

Si l’on s’en tient aux systèmes de stockage externe, on trouve toujours Dell à la première place, avec 32,9% du chiffre d’affaires du secteur, devant NetApp avec 14,2% du chiffre d’affaires et HPE/New H3C Group avec 10,4% de part de marché. Suivent ensuite Hitachi (7,3%) et IBM (5,8%), ce dernier enregistrant une baisse de revenus de 17,3%, la seule du classement.

Top 5 Vendor Groups, Worldwide External Enterprise Storage Systems Market, First Quarter of 2018 (Revenues are in Millions) Company 1Q18 Revenue 1Q18 Market Share 1Q17 Revenue 1Q17 Market Share 1Q18/1Q17 Growth 1. Dell Inc a $2,060.1 32.9% $1,424.3 27.2% 44.6% 2. NetApp $890.1 14.2% $731.6 14.0% 21.7% 3. HPE/New H3C Group b c $652.2 10.4% $596.1 11.4% 9.4% 4. Hitachi $457.9 7.3% $449.1 8.6% 2.0% 5. IBM $364.2 5.8% $440.6 8.4% -17.3% Others $1,830.7 29.3% $1,599.9 30.5% 14.4% All Vendors $6,255.0 100.0% $5,241.6 100.0% 19.3% Source: IDC Worldwide Quarterly Enterprise Storage Systems Tracker, June 5, 2018

Notes:

a – Dell Inc represents the combined revenues for Dell and EMC.

b – Due to the existing joint venture between HPE and the New H3C Group, IDC will be reporting external market share on a global level for HPE as « HPE/New H3C Group » starting from 2Q 2016 and going forward.

– HPE/New H3C Group includes the acquisition of Nimble, completed in April 2017

Yves Pellemans's insight:

Sur Q1, les vente de stockage ont généré 13,0 milliards$, soit une croissance de 34,4% sur un an. Les capacités livrées ont bondi de 79,1% à 98,8 exaoctets.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Transformation digitale : les 8 tendances à retenir

Transformation digitale : les 8 tendances à retenir | Cloudnews | Scoop.it
La révolution numérique pousse les entreprises à expérimenter de nouvelles technologies, défier les nouveaux environnements IT et redéfinir les usages. Internet des Objets, Blockchain, réalité digitale, Intelligence Artificielle, réalité augmentée bouleversent les règles et la frontière entre les métiers et le Système d’Information. L’étude Deloitte Tech Trends 2018 pose les bases d’une entreprise innovante voire symphonique qui va créer « une harmonie entre stratégie, technologies et opérations »

 

Deloitte a identifié 8 tendances majeures qui révèlent une réelle et profonde interdépendance entre les technologies et les projets de transformation. Le management doit songer à une organisation « centrée sur la créativité et la contribution sociale des salariés ». Les collaborateurs doivent être à l’aise avec la technologie. « Enfin, il sera primordial que les RH et la DSI s’accordent sur la gestion des talents. ” souligne Eric Delgove, Associé Conseil Technology Strategy & Architecture chez Deloitte.

 

  1. Un système d’information avec de nouveaux modèles de prestations et de gouvernance 

 

Face à l’accélération du rythme des ruptures technologiques, les DSI se concentrent sur la création d’un nouvel environnement, l’infrastructure y est évolutive et dynamique et l’architecture, ouverte et extensible. En ce sens, les DSI doivent

  • automatiser des opérations
  • adresser la dette technique
  • moderniser les services d’infrastructure.

 

Les DSI proposent aussi un nouveau modèle de fonctionnement, réorganisent les compétences dans un modèle transverse, l’objectif étant

  • d’apporter plus de souplesse dans l’allocation des ressources
  • d’assumer une part d’incertitude dans le portefeuille d’investissement

 

  1. La main d’œuvre virtuelle : des modes de collaboration hommes/machines   

 

Les humains et les machines travailleront ensemble dans un flux continu, chacun complétant les efforts de l’autre. Les solutions d’automatisation intelligente augmenteront la performance humaine en automatisant certaines tâches au sein d’une activité.

Elles libéreront du temps humain pour le réaffecter à la résolution de problèmes qui nécessitent

  • de l’empathie
  • des qualités relationnelles
  • de l’intelligence émotionnelle

 

  1. La valorisation et la souveraineté des données     

 

Les agents conversationnels, la vision par ordinateur, la compréhension du langage naturel, les agents virtuels sont des technologies d’intelligence artificielle. Certaines technologies IA sont en passe d’être remplacées par de nouvelles technologies plus robustes :

  • le Machine Learning
  • le Deep Learning.

En 2020-2025, l’utilisation d’applications IA comme les chatbots, la vision par ordinateur et les robots intelligents devrait connaître un essor considérable.

 

  1. Le potentiel du digital au cœur des opérations métiers

 

L’Internet des Objets, la Robotic Process Automation (RPA), la blockchain et l’intelligence artificielle redéfinissent la chaîne logistique et les moyens de production.

La blockchain assure la traçabilité des produits et certifie les transactions entre les acteurs de la chaîne logistique.

 

  1. La réalité digitale : vers l’industrialisation

 

La révolution induite par la réalité virtuelle et la réalité augmentée entame une étape charnière de son développement.

Le temps des ” Proof Of Concepts ”  s’achève, les entreprises mettent en place des stratégies ” globales ” en s’appuyant

  • sur des cas d’usage innovants
  • des prototypes industriels

 

  1. La généralisation de la blockchain

 

Entre grands groupes et start-ups, expérimentations internes et développement des places de marché, blockchain privée et blockchain publique, rien n’est encore joué pour une utilisation à grande échelle de la blockchain.

Différentes technologies de blockchain existent et doivent être rendues interopérables. Ainsi, les entreprises pourraient

  • partager plus facilement des solutions blockchain
  • collaborer à leur développement en continu

 

  1. Les API : un levier stratégique pour la DSI et les métiers

 

L’heure est au développement des approches d’interfaces de programmation d’application (API) facilement interopérables et réutilisables.

Avec les API, les entreprises peuvent

  • améliorer le retour sur investissement de leurs actifs IT
  • libérer leur potentiel d’innovation pour mieux se différencier sur leurs marchés

 

  1. L’intelligence artificielle globale et l’informatique quantique

 

La technologie va atteindre les capacités intellectuelles sociales et émotionnelles de l’être humain. Sous le nom Intelligence Artificielle Générale (IAG), la version avancée de l’IA aurait des capacités correspondant à l’instinct, on s’oriente vers la possibilité de

  • raisonner dans l’incertitude
  • prendre des décisions
  • sentir
  • communiquer naturellement

 

L’informatique quantique (stade expérimental) est déjà une menace pour la cybersécurité. Sa puissance de calcul permettrait de déchiffrer n’importe quel système de cryptage classique en quelques secondes.

Yves Pellemans's insight:

Article intéressant sur la transformation SI incluant l'automatisation des opérations, la dette technique et la modernisation des services d’infrastructure.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cloud hybride : comment arbitrer entre Cloud public et Cloud privé ?

Cloud hybride : comment arbitrer entre Cloud public et Cloud privé ? | Cloudnews | Scoop.it

Le Cloud public continue de séduire les entreprises en France. Mais avec le maintien de nombreuses solutions “on premise”, le Cloud privé conserve ses adeptes. Quels choix se présentent ? Comment les arbitrer ?

 La migration vers le Cloud computing s’intensifie en France. Pour de nombreuses DSI, il est de plus en plus question d’une démarche « Cloud first », c’est à dire que toute nouvelle application ou nouveau projet logiciel est conçu sur le Cloud, qu’il soit privé ou public.

 

Vers l’hybridation Cloud

La tendance  est aux architectures hybrides, c’est à dire que certaines s données  sont hébergées sur un Cloud privé (en interne)  et d’autres sur un ou plusieurs Clouds publics comme Amazon AWS, Google ou Microsoft Azure.

Aujourd’hui, les déploiements de nouvelles applications de type RH, CRM ou ERM (Enterprise Resosurce Management) passent, essentiellement, par des solutions SaaS sur un Cloud public (cf. Salesforce, Office 365, ou G Suite).

En France, la croissance du Cloud, privé et public confondus, va rester très élevée : +27%, alors que le marché de l’ensemble des logiciels et services IT ne progresse que de 3%, selon le cabinet  Markess. En 2017, le marché français était estimé à 8,5 milliards d’euros. « La part des applications SaaS, sur des Clouds publics, avec 54%, reste prédominante sur le marché des solutions Cloud en France »,  observe Emmanuelle Olivié-Paul, directrice associée de Markess. « Mais les solutions IaaS et PaaS évoluent à un rythme plus soutenu. En 2019, ces dernières auront rattrapé la part du SaaS ».

Le segment des infrastructures IaaS est tiré par les besoins en ressources à la demande, par la dynamique du marché du SaaS et par de nouveaux projets digitaux gourmands en ressources: Big data, calcul haute performance, intelligence artificielle et programmatique.

Dans ce domaine, la part « des clouds publics », va se renforcer : de 36% en 2017, elle devrait atteindre 41% du marché des solutions IaaS en 2019, soit une croissance de +31%. Selon Markess,  « le segment du PaaS et iPaaS est tiré par l’avènement des environnements Cloud hybrides et multi-clouds, ainsi que par l’IoT et les écosystèmes connectés ».

Les 6 priorités du Cloud en France d’ici 2020

Frein juridique

L’enquête Markess révèle également que le principal frein au Cloud reste le cadre juridique. La protection des données, la sécurité, les engagements contractuels posent problème pour 72% des interviewés, plus que la pénurie des compétences (pour 45%) et plus que la migration des systèmes existants (pour 45%).

Pour 56% des répondants, le nouveau règlement RGPD ( lire notre dossier) sur les données personnelles, applicable au 25 mai 2018, a « certainement une incidence » sur les prestataires Cloud, et pour 20% « peut-être ».

Cloud public vs Cloud privé : avis partagés sur le ROI

L’avantage financier se confirme avec la rapidité de la mise en œuvre. Sur le terrain, l’intérêt du cloud public se vérifie lorsqu’il s’agit de déployer la même application simultanément, surtout avec des accès mobiles universels via Internet dans plusieurs pays ou plusieurs sites.
 De même, pour le stockage de très gros volumes de données, accessibles via le web (cf. les podcasts de Radio France), la solution Cloud public présente de réels avantages.

En revanche, de nombreuses entreprises, avec fortes capacités pour des investissements en immobilisation (capex), continuent de privilégier l’approche Cloud privé.

Beaucoup soutiennent, chiffre à l’appui, que leur Cloud privé ne revient pas plus cher, voire moins cher que des prestations de Cloud public dont les montants peuvent fortement fluctuer à la hausse, dès qu’elles y rajoutent de la qualité de service (SLA avec temps de réponse). Sans parler, tout simplement, des risques de hausses tarifaires qui peuvent survenir sans avertissement.

De solides arguments pour le Cloud privé

En conséquence, la plupart des entreprises choisissent de s’orienter vers des architectures hybrides mêlant  Cloud privé et Cloud public.

Pour certaines activités, le Cloud privé ne manque pas d’arguments. Outre le secteur de la santé, soumis à des contraintes réglementaires spécifiques pour l’hébergement externe des données, beaucoup d’entreprises ne sont pas prêtes à confier leurs données à l’extérieur. Elles invoquent des raisons de sécurité, de propriété intellectuelle, de brevets stratégiques.

Autres arguments évoqués contre le Cloud public, la haute disponibilité des applications et leurs temps de réponse. L’indisponibilité est rare sur le Cloud public dédié aux entreprises, il faut le reconnaître. Mais les temps de réponse peuvent être très inégaux. Or, les outils de monitoring, à moins d’y mettre le prix, sont souvent minimalistes par rapport à ceux dont disposent les administrateurs d’applications supportées en interne.

Les tableaux de bord fournis par les “cloud providers” permettent, avant tout, de reconstituer le détail de la facturation, laquelle peut être très assez complexe à décrypter. Y vérifier la qualité de service ou le suivi des SLA n’est pas gratuit et pas toujours fourni dans des formats compatibles avec les outils internes de l’entreprise.

En outre, les déceptions en matière de performances du Cloud public sont souvent liées au réseau. Alors quitte à investir lourdement dans le réseau, autant le faire aussi en interne.

Avantage pour les architectures hybrides

Dans ce contexte, les architectures hybrides s’affirment. Beaucoup d’analyses prévoient que 2018 est l’année de l’adoption du Cloud hybride. Il est vrai que les offres deviennent plus lisibles. Ainsi, Microsoft, après des propositions marketing autour d’Office 365 et Azure, propose désormais Azure Stack, une plate-forme IaaS de Cloud privé permettant de répliquer son offre Cloud public Azure.

De même, AWS (Amazon Web Services) s’est associé à VMware sur son offre Cloud hybride AWS. Google fait de même avec sa Cloud Platform, supportant VMware et les serveurs
«hyperconvergents » de Nutanix. IBM et Oracle disposent également d’offres de cloud hybride internes.

«L’hybridation c’est une étape intermédiaire pour basculer une partie dans le cloud. Car on fait rarement un big bang : c’est un moyen de faire de façon  bien ordonnancé dans le temps, avec une montée en puissance progressive » explique Sébastien Moriceau DSI de Linkbynet.

Ainsi, on devient “multi cloud” soit par nécessité (avec les interfaces programmatiques API indispensables), soit pour des raisons de proximité géographique (par exemple, une présence en Asie, à travers un opérateur local).

OpenStack et conteneurisation type Docker

La pile logicielle “OpenStack” (en Open source) est souvent la référence pour les projets d’hybridation. En parallèle l’approche de conteneurisation du type Docker gagne également du terrain.

Réticentes aux solutions « propriétaires » qui tendent à « verrouiller », beaucoup d’entreprises choisissent les conteneurs logiciels et les micro-services au nom d’une réelle indépendance, acquise grâce aux systèmes ouverts. Cette orientation vers la « conteneurisation » participe d’un compromis : elle est souvent choisie alors même qu’on sait qu’elle peut restreindre les mises à jour technologiques récurrentes et automatiques, inhérentes au Cloud public.

La DSI convertie en “Cloud broker” ?

 

De même, beaucoup de solutions facilitent aujourd’hui la migration vers le Cloud, par exemple “Cloud Fast Path”,  “Moover” ou encore “Cloud AvePoint”. L’éditeur Veeam dispose également d’outils de réplication – migration.

Chez Lagardère Group, Cyril Bartolo, “Corporate Head of Applications” considère que l’objectif du multi-cloud, reste de pouvoir se libérer de l’emprise de certains fournisseurs. « Et même dans le Cloud public, on voit que les prix de certains peuvent grimper de 30% du jour au lendemain. D’où l’importance critique des clauses de réversibilité dans les contrats Cloud », souligne-t-il.

Jean-Marie Simonin, responsable de l’activité Numérique chez Radio-France, estime qu’il faut se mettre en situation de « pouvoir basculer tout ou partie chez l’un ou chez l’autre acteur du Cloud public, en constituant le plus de lots possibles, en gros volumes, afin d’avoir des arguments pour négocier ». En migrant de l’un à l’autre, la récupération des données a pu être testée, validée : « Cela a pris quelques heures, mais pas une journée, donc pas plus que pour un ‘job’ de réplication de bases ou une sauvegarde en ‘batch’ ».

De là à s’organiser pour que la DSI pratique le “cloud brokering”,  il n’y a qu’un pas que ces grands comptes sont en train de franchir: « Le choix est large aujourd’hui entre AWS, Azure, Google, IBM et même peut-être, pourquoi pas demain, un Chinois comme Alibaba », constate Cyril Bartolo.

Yves Pellemans's insight:

On retient que beaucoup d’entreprises ne sont pas prêtes à confier leurs données à l’extérieur pour des raisons de sécurité, de propriété intellectuelle, de brevets stratégiques.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

2ème rapport Sysdig sur l’usage des containers

2ème rapport Sysdig sur l’usage des containers | Cloudnews | Scoop.it
L’éditeur d’outils de supervision des environnements en containers sort la 2ème édition de son rapport sur l’usage des containers dans les entreprises. Il montre une progression importante au cours de l’année écoulée de l’écosystème autour de Docker.

L’échantillon de l’étude a doublé depuis l’année dernière, date de la première édition de cette étude réalisée à partir des métriques issues des containers des clients de Sysdig, soit une base actuelle de 90000 containers.

La première utilisation des containers reste le déploiement de machines virtuelles JAVA. Suivent les bases de données comme PostGre ou Mongo DB. La densité du nombre de containers par serveur hôte augmente en moyenne de 50 % avec 15 containers par hôte. C’est loin des utilisateurs extrêmes de cette technologie. Un client a déployé 154 containers sur le même hôte, le maximum observé cette année. L’année dernière ce maximum était de 95 containers sur un même serveur.

Pour les Run Time, Docker domine toujours largement mais sa prééminence s’effrite un peu après le rachat de CoreOs par Red Hat et l’émergence d’OCI (Open Container Initiative). Ainsi de 99 % d’utilisation, Docker tombe à 83 % au profit de CoreOS Rkt qui monte à 12 %. Mesos représente 4 % et Lxc, la version Linux du container a une présence symbolique de 1 %. Les containers restent cependant employés pour des usages assez éphémères. 11 % ont une durée de vie de moins de 10 secondes. 27 % sont utilisés de 5 à 10 minutes. 69 % des images de containers sont mises à jour dans la semaine.


Kubernetes super star !

Pour les orchestrateurs, Kubernetes règne sans partage avec 51 % devant Docker qui grignote quelques pour cent avec 11 % d’utilisation. Mesos s’effondre et passe à 4 %. Ce dernier est cependant le plus utilisé lorsque les clusters sont de grande taille. Ainsi les clusters orchestrés par Mesos hébergent 50 % de containers de plus que ceux dirigés par Kubernetes. Les clusters sous la férule de Docker ont en moyenne 30 % moins de containers que ceux sous Kubernetes. Ce dernier connaît différentes variantes. Celle de Google domine à 82 % mais OpenShift détient une honorable position avec 14 % et Rancher 4 %.

Dans les registres pour containers, GCR (le registre de Google) est en tête avec 25 % devant Quay (20 %) et Docker (17 %). Le registre d’AWS, ACR, ne recueille que 4 % des suffrages des utilisateurs de Sysdig. Dans ce domaine aucun leader n’est véritablement bien établi.

Au bilan, cette étude confirme le dynamisme des environnements en containers et démontre une maturité plus forte qu’attendue dans un paysage qui change rapidement.
Yves Pellemans's insight:

Docker domine  mais sa prééminence s’effrite un peu après le rachat de CoreOs par Red Hat et l’émergence d’OCI (Open Container Initiative).

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Le manque de visibilité pénalise le Cloud public

Le manque de visibilité pénalise le Cloud public | Cloudnews | Scoop.it
Selon Gartner, le chiffre d'affaires du marché mondial des services de cloud public a augmenté de 18,5 % en 2017 pour atteindre 260,2 milliards de dollars, contre 219,6 milliards en 2016. La gestion des services en environnement Cloud inquiètent les entreprises. Si 99 % confirment que l'évolutivité et la visibilité agile sont essentielles pour la supervision du Cloud, l’heure est à la réactivité !
Yves Pellemans's insight:

Plus de 90 % des entreprises sont préoccupées par la sécurité des données et des applications dans le Cloud public.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IoT : nouvelles générations de capteurs et nouvelles opportunités

La micro-électronique a fait un bond spectaculaire car le marché a besoin de pouvoir placer les nœuds de capteurs n’importe où, à un coût global minimal (lié à la valeur des données utiles) et dans des conditions souvent hostiles (forte amplitude de température, humidité, absence d’énergie…). Et leur durée de vie doit être la plus longue possible – on parle désormais d’une décennie.

La puissance des micro-contrôleurs et des batteries, telles que les cellules primaires LiSOCl2, a fortement progressé. Les processeurs de nouvelle génération peuvent être alimentés pendant au moins 10 ans.
Récupération ou captage d’énergie

Un nœud de capteurs sans fil doit consommer le minimum de puissance mais il doit également fournir des courants de crête élevés pour les transmissions occasionnelles de données par radio. On parvient à combiner des courants en mode dormant très faibles dans les capteurs (1,5 V, 850 nA ) et une capacité d’amplification de forte puissance lors de la transmission.

D’où l’intérêt des systèmes récupérateurs d’énergie, comme les micro-contrôleurs de la start-up belge e-Peas, par exemple, ou encore EnOcean et ST Microelectronics.

Ces récupérateurs ou récolteurs d’énergie (‘harvester’) s’alimentent en mode photo-voltaïque, thermoélectrique ou par vibration (cinétique, par exemple le long de rails de chemin de fer). Multimodes (au moins deux sources), de préférence, ils doivent s’auto-réguler car ces sources d’énergie sont intermittentes.

Avec ces solutions, des centaines ou milliers de capteurs et processeurs peuvent être déployés et maillés sur de vastes étendues ou sur des kilomètres avec une maintenance très réduite. Le relevé des données (comme des compteurs d’eau) peut se faire à partir d’un véhicule passant auprès d’un seul point de collecte.
Le « edge » à la rescousse

La rapidité de ces progrès de la micro-électronique tranchent avec la relative inertie des architectures Cloud.
Aujourd’hui, les données collectées à partir d’entrées multiples (deux sources de capteurs de qualité de l’air – gaz et particules, par exemple) peuvent être fusionnées en un seul processeur ou noeud commun. Plutôt que de tout remonter séparément, il est possible de positionner des filtres intelligents et, avec une faible latence en local, de prendre des décisions à la périphérie sur les données pertinentes et utiles à remonter en central.

On constate qu’il y a relativement peu de besoin de transmission de données à forte consommation vers le cloud. Par exemple, quand un capteur détecte un impact dans une ville, les données sont traitées localement en temps réel et l’information peut être communiquée à un agrégateur pour alerter les premiers intervenants – services de voirie, secours, etc.

« Lorsque l’information est traitée au plus près des capteurs (sélection intelligente ), les informations significatives peuvent être produites plus rapidement que si elles sont envoyées en grande quantité de données vers le cloud – ce qui nécessite du temps pour trier, analyser et produire des résultats utiles », observe-t-on chez Analog Devices.
Yves Pellemans's insight:

Les nouveaux capteurs change la donne de l’IoT : ils sont désormais “plug & play”,  économiques et moins gourmands en énergie, voire auto-alimentés...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

RGPD : blocage inattendu de certains sites américains ...

RGPD : blocage inattendu de certains sites américains ... | Cloudnews | Scoop.it
Il fallait bien qu'il y ait des couacs. Depuis le 25 mai, on ne vous l'apprend pas, le RGPD est entré en vigueur dans l'Union Européenne. Tout service utilisé par des Européens doit demander un « consentement explicite et positif » pour recueillir des données personnelles collectées ou traitées dans l'Union européenne, que l'entreprise qui offre ce service soit européenne ou pas. Les sanctions peuvent monter jusqu'à 4% du chiffre d'affaires de l'entreprise en tort. Sauf que certaines sociétés américaines ne l'entendent pas de cette manière et ont choisi de bloquer l'accès à leur site web.

Le mouvement est parti de médias américains. Trois tendances ressortent : ceux qui bloquent purement et simplement, ceux qui demandent d'accepter leur politique de confidentialité pour entrer et les sites proposant des alternatives. Tous les médias du groupe Tronc – dont le Los Angeles Times ou le Chicago Tribune – font partie de la première catégorie. « Malheureusement, notre site web est actuellement indisponible dans la plupart des pays européens. Nous examinons les options qui soutiennent notre gamme complète d'offres numériques sur le marché de l'UE » peut-on lire lorsqu'on souhaite accéder à ces sites d'informations. Le groupe GateHouse Media, qui possédait plus d'une centaine de journaux locaux en 2017, ne s'est, lui-même pas donné la peine d'adresser un message aux lecteurs européens et ne fait apparaître qu'une fenêtre d'erreur. Cela ne touche cependant pas tous les sites d'informations du groupe bizarrement.

Certains sites du groupe GateHouse Media sont inaccessibles mais d'autres le sont, pour le moment... (Crédit : The Leader)

D'autres entreprises ont aussi décidé d'empêcher l'accès de leur plate-forme aux visiteurs européens. Comme Instapaper, service de mise en signets appartenant à Pinterest, « temporairement indisponible aux résidents européens ». Ou Unroll.me, service permettant de se désabonner plus rapidement des newsletters polluant les boîtes mails, qui avait déjà annoncé début mai que son service ne serait plus disponible aux Européens à partir du 25 mai. Mais là aussi, lorsqu'on répond non à la question « Vivez-vous dans l'UE ou dans la zone économique européenne ? », il est possible d'accéder au site d'Unroll.me.

Le Washington Post est le plus malin

Slate, Forbes, Politico, The Altantic, ainsi que les sites du groupe Meredith (People et le magazine Time pour ne citer que les plus connus) laissent, quant à eux, le choix aux visiteurs. Entrez mais « vous acceptez les conditions d'utilisation et la politique de confidentialité de X et l'utilisation de technologies telles que les cookies par X et [se]s partenaires pour diffuser des publicités pertinentes sur [son] site, dans des courriels et sur Internet, personnaliser le contenu et effectuer des analyses de site. » Sinon, tant pis.

Parmi ceux qui ont choisi cette méthode, le Washington Post a été le plus malin. En lieu et place d'une simple demande d'accord pour utiliser les données des utilisateurs européens, le site d'information leur propose d'accéder à la version gratuite en donnant son accord ou alors de souscrire à un abonnement « Premium EU » sans pub ni tracking, 3$ plus cher que l'abonnement basique...

Le Washington Post, lui, surfe sur la vague RGPD en proposant un abonnement spécial ressortissant de l'UE. (Crédit : Washington Post)
Certains prennent presque les gens pour des imbéciles

Enfin, d'autre média ont eu d'autres idées. USA Today a développé un site spécial UE, totalement épuré de toute publicité, où tous les articles restent lisibles mais sans possibilité de partage intégrée au site. Plutôt agréable à lire finalement, dans l'esprit des options de lecture zen sur les versions payantes de certains médias. D'autres ont poussé le vice un peu plus loin, prenant presque les gens pour des imbéciles. La Radio nationale publique (NPR) propose toujours au visiteur de donner son accord de ses conditions d'utilisation. S'il ne les accepte pas, il peut cliquer sur « Decline and visit plain text site » et accéder à la page de NPR... en HTML brut.

Sur le site de la NPR, radio publique américaine, le visiteur européens peut ne pas accepter les conditions d'utilisation du site mais devra le consulter de manière brute... (Crédit : NPR)

Un mur de la honte du RGPD a même été lancé, où tous les utilisateurs victimes de blocages liés au RGPD partagent leurs expériences. Dernière et vingtième en date, une notification concernant la politique de confidentialité du frigo Samsung Famil
Yves Pellemans's insight:

Conséquence inattendue de l'entrée en vigueur du RGPD, les Européens n'ont désormais plus accès à certains sites web américains....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IoT industriel : PTC, Hitachi et SAP « visionnaires », selon Gartner

L’intérêt des industriels pour l’internet des objets (IoT) et ses plateformes logicielles permettant de gérer, analyser et contrôler les données générées par des capteurs placés sur leurs équipements est bien réel. Toutefois, aucun fournisseur de l’IoT industriel (IIoT) ne peut encore prétendre au statut de « leader », selon l’analyse de Gartner.

La société d’études a récemment livré son premier Magic Quadrant (payant) des plateformes dédiées à l’IoT industriel. CRN s’en est fait l’écho. Les fournisseurs ont été évalués en fonction de l’étendue de leur vision et de leur capacité à la mettre en oeuvre.

Il n’y a ni « leader », ni « challenger » dans ce Carré. En revanche, trois plateformes sortent du lot :
ThingWorx, Lumada, Leonardo

1. PTC, l’un des trois « visionnaires » du Quadrant, séduit Gartner avec sa plateforme ThingWorx. Elle est proposée sur site (on-premise), dans le cloud ou en mode hybride.

Ses atouts : la place de marché (marketplace) associée à ThingWorx. Le fournisseur américain tire également parti de partenariats et d’investissements dans l’IIoT et le Cloud réalisés auprès d’acteurs tels que Microsoft, AWS et GE Digital (avec sa plateforme Predix).

Les défis : il manque encore à PTC une base installée de clients dans les secteurs des transports et des services publics, relève le cabinet d’études américain.

2. Hitachi. L’industriel japonais a développé la plateforme Lumada. Celle-ci peut être déployée sur site ou être hébergée dans le cloud (AWS, Google Cloud, Microsoft Azure).

Ses atouts : les capacités de calcul à la périphérie du réseau de la plateforme Lumada.

Les défis : l’absence de marketplace permettant l’accès à des applications tierces.

3. SAP a étendu les capacités de son système Leonardo au-delà de l’IoT.

Ses atouts : des capacités éprouvées permettant d’enrichir les technologies opérationnelles (OT), ou systèmes de contrôle industriel, de capacités IoT.

Les défis : une offre plus orientée vers les clients existants de l’éditeur allemand du fait de la forte intégration avec ses propres solutions middleware et d’entreprise.

Accenture (CPaaS), IBM (Watson pour l’IoT), Oracle et Software AG (Cumulocity), eux, sont considérés par Gartner comme des acteurs de niche de ce marché en devenir.

Atos (Codex IoT), Altizon (Datonis), QiO (Foresight), Flutera (Cerebra) le sont également. Et la marge de manoeuvre de ces fournisseurs reste importante.

En effet, selon Gartner, les plateformes IoT sur site (on-premise) dotées de capacités de calcul à la périphérie du réseau (edge computing) devraient représenter 60% du marché des solutions analytiques de l’IoT industriel à horizon 2020. Contre 10% aujourd’hui.
Yves Pellemans's insight:

Personne ne peut encore prétendre au « leadership » du Magic Quadrant de Gartner pour l’IoT industriel mais cela avance ....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Maintenance prédictive, réparations en ligne : quand la voiture devient garagiste

Maintenance prédictive, réparations en ligne : quand la voiture devient garagiste | Cloudnews | Scoop.it
Pourquoi attendre la panne ou un seuil théorique pour changer les pièces usées d'une voiture ? La question taraude depuis longtemps des constructeurs automobiles qui aimeraient fluidifier le processus de maintenance et de réparation de leurs véhicules. Car pour savoir quand changer une pièce, les conducteurs se fient pour l'instant à des recommandations basées sur la distance parcourue depuis le dernier remplacement. Ces recommandations correspondent à la distance moyenne à partir de laquelle la pièce commence à être endommagée. Sauf que son usure effective peut grandement varier selon l'agressivité de la conduite, la vitesse moyenne, la météo ou encore le type de routes empruntées.

Grâce à l'IoT embarqué dans les véhicules connectés, les constructeurs vont pouvoir, en vrac, analyser l'usure de chaque pièce, personnaliser leurs recommandations de maintenance, prévenir les conducteurs lorsque le temps est venu de passer au garage voire même effectuer certaines interventions à distance. De nombreux constructeurs, comme Renault, PSA, Ford ou Volkswagen se préparent déjà à intégrer ces méthodes, à mesure que le parc automobile se renouvelle et que la proportion de véhicules connectés grandit, pour les deux ou trois années à venir.
Données théoriques, usure pratique

Ils peuvent, pour ce faire, s'adjoindre les services de start-up comme le Français Drust, fondé par trois anciens de la R&D de PSA. Ce dernier peut analyser directement les données relatives à un véhicule connecté ou celles d'une voiture classique, après avoir installé son boitier connecté. L'entreprise se concentre pour l'instant sur l'usure des freins et des pneus. "Pour les pneus, nous utilisons les données d'un accéléromètre fixé sur le châssis pour détecter les virages et les accélérations", détaille le directeur opérationnel de Drust, Pascal Galacteros. "Nous combinons ensuite ces données effectives aux modèles physiques utilisés par les constructeurs de pneus pour voir combien de temps ils vont durer."

Vient ensuite une phase de pondération statistique à l'aide d'intelligence artificielle. Le profil du client entre bien évidemment en ligne de compte. Il s'agit, par exemple, de prendre en compte les mois pendant lesquels il roule plus que d'autres, s'il part en vacances en voiture chaque été. "Nous finissons par déterminer un mois durant lequel il faudra effectuer une intervention sur le véhicule", ajoute Pascal Galacteros. Drust compare également ses résultats avec ceux d'une base de données acquise auprès de sociétés qui valident la durée de vie des pièces automobiles pour le compte des constructeurs en Espagne. Elle recense plus de 25 millions de kilomètres effectués sur différents types de routes et de conditions météo.
Verrouiller la relation client

La maintenance prédictive permet au constructeur de prévenir les conducteurs dont le véhicule a besoin d'une révision, par exemple via une notification sur leur smartphone, puis de leur proposer un rendez-vous chez un concessionnaire partenaire. Pour le client, c'est la garantie d'intervenir avant qu'il ne soit trop tard… ou d'éviter d'alourdir la facture. "Les plaquettes de freins sont fixées sur un disque avec une épaisseur d'usure. Si on dépasse cette épaisseur, on attaque les pièces de fixation et on endommage le disque qu'il faudra aussi changer," prévient Pascal Galacteros. Pour les constructeurs, il s'agit de privilégier leur propre réseau de réparation. En étant les premiers à savoir qu'un véhicule a besoin de maintenance, ils peuvent aiguiller les conducteurs et éviter qu'ils se rendent chez des garagistes indépendants. Quant aux garagistes, ces prédictions d'usure leur permettront de mieux anticiper la demande et donc de s'assurer d'avoir les bonnes pièces en stock.

La plupart des voitures doivent être mises à jour localement. Un peu comme s'il fallait se rendre dans un Apple Store pour installer la dernière version d'iOS…

Reste un cas de figure où il est impossible de prévoir que le véhicule aura besoin d'une maintenance : lorsqu'il comporte un défaut de conception ou un bug. "L'enjeu est de taille pour des constructeurs qui veulent réduire les milliards de dollars qu'ils dépensent dans des rappels de véhicules défectueux," explique Julien Masson, directeur de la division voiture connectée d'Orange Business Services. "Au-delà du coût financier, c'est un processus chronophage : il faut prendre un rendez-vous en concession, faire intervenir un réparateur, démonter le véhicule… Alors que de nombreux problèmes matériels sont simplement liés à des soucis logiciels qui peuvent être réglés à distance". Ces mises à jour à distance, dites "OTA" (Over the air, ndlr), sont la norme dans l'univers des smartphones. Mais pas encore dans celui des voitures. A part Tesla, très en avance sur le sujet, la plupart des autres véhicules doivent être mis à jour en accédant localement à leur système informatique. Un peu comme s'il fallait se rendre dans un Apple Store pour installer la dernière version d'iOS…

Deux exemples récents illustrent bien la différence de traitement entre ces deux méthodes. Fiat-Chrysler a annoncé fin mai le rappel en Amérique du Nord d'environ 5 millions de véhicules dont le régulateur de vitesse était dans certains cas impossible à désactiver, afin de corriger le problème via une mise à jour logicielle. Quelques jours plus tard, Consumer Reports, l'UFC-Que Choisir américain, publiait un rapport déconseillant d'acheter la Tesla Model 3 après avoir détecté des anomalies dans le système de freinage d'urgence. Une semaine après la parution du rapport, Tesla mettait à jour tout son parc de véhicules via une mise à jour OTA. Consumer Reports recommande désormais l'achat de la Tesla Model 3. Pendant ce temps-là, les voitures défectueuses de Fiat Chrysler dorment toujours au garage…
Yves Pellemans's insight:

Grâce à un mélange d'IoT, de statistiques et d'intelligence artificielle, il est possible de personnaliser l'entretien d'un véhicule connecté en fonction de chaque conducteur et de chaque pièce

more...
Lydia Gracia's curator insight, June 19, 7:02 AM

IoT embarqué

Scooped by Yves Pellemans
Scoop.it!

Maîtriser les technologies Hadoop

Maîtriser les technologies Hadoop | Cloudnews | Scoop.it
Embarquez sereinement pour une initiation à Hadoop ! Le manuel d’apprentissage de référence, rédigé pour développer des compétences sur une ou plusieurs technologies de cet écosystème est officiellement sorti
Yves Pellemans's insight:

Les 18 technologies clés de l’écosystème Hadoop à connaitre :

Spark, Hive, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, Tez, Phoenix, YARN, ZooKeeper, Storm, Oozie et Sqoop

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Docker Hub : nouvel exemple des menaces sur la chaîne logistique du logiciel

Docker Hub : nouvel exemple des menaces sur la chaîne logistique du logiciel | Cloudnews | Scoop.it

Les chercheurs de Kromtech ont identifié 17 images stockées sur Docker Hub pendant un an. Des cyber-délinquants visaient ainsi à distribuer leurs mineurs de crypto-devises.

 

Des solutions de sécurité pour les conteneurs existent. Mais que ce soit celui tout juste annoncé par Qualys, ou le service Security Scanning de Docker, ils visent plus la recherche de vulnérabilités connues que celle de code malveillant, du moins avant exécution. Certes, des outils de surveillance de l’environnementsont susceptibles d’apporter la visibilité nécessaire à la détection de code de minage de crypto-deniers, mais encore faut-il assurer cette supervision.

En fait, la question soulevée par les équipes de Kromtech renvoie plus qu’autre chose à celle de la sécurité de la chaîne logistique du logicielle, comme lorsque des développeurs réutilisent du code partagé sur GitHub, par exemple.

Gartner recommande d’ailleurs d’analyser les conteneurs au cours de leur développement pour « détecter les problèmes de configuration et de vulnérabilité », avant le transfert dans l’environnement de production, ainsi que de contrôler les processus s’exécutant dans les conteneurs par des listes blanches.

Les observations des équipes de Kromtech laissent à penser que ce type de mesure n’a rien de superflu. Et cela d’autant plus que les attaques touchant à la chaîne logistique du logiciel n’ont cessé, récemment, de se multiplier.

Yves Pellemans's insight:

Une véritable rampe de lancement pour conteneurs cachant un maliciel de minage de crypto-deniers.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Avec +19,3% sur le première trimestre 2018 c'est un rebond spectaculaire du marché du stockage !

Avec +19,3% sur le première trimestre 2018 c'est un rebond spectaculaire du marché du stockage ! | Cloudnews | Scoop.it

Après une année 2017 en demi-teinte, le marché du stockage externe aurait connu un départ en fanfare au premier trimestre avec une hausse de 19,3%. Les acteurs émergents du stockage ont eux aussi poursuivi leur croissance.

 

elon les données d’IDC, le numéro un mondial du stockage SAN et NAS a vu ses ventes bondir de 635 M$ pour atteindre 2,06 milliards de dollars sur le trimestre, soit une croissance de 44,6 % sur un an. Dell EMC aurait ainsi regagné 5,7 points de parts de marché passant de 27,2 % l’année dernière à 32,9 % cette année.

Si le constructeur s’est récemment félicité du redressement de son activité de stockage lors de la présentation de ses résultats, il est toutefois resté prudent en indiquant que la performance réalisée sur le trimestre ne serait pas nécessairement répétée tous les trimestres.

Yves Pellemans's insight:

Ce rebond spectaculaire est largement lié à la performance de Dell EMC, dont les ventes ont bondi de +44,6% et de NetApp avec une croissance de +21,7%

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Sécurité IoT : Fortinet s'offre Bradford Networks

La multinationale Fortinet a racheté Bradford Networks pour faire converger le contrôle d’accès et la sécurité de l’internet des objets (IoT).

L’éditeur Fortinet conforte sa « fabrique de sécurité » (Security Fabric) en optant pour la croissance externe. L’entreprise de Sunnyvale (Californie) vient d’annoncer le rachat de Bradford Networks. Et ce pour renforcer la sécurité à la périphérie du réseau. Il s’agit surtout de faire converger le contrôle d’accès et la sécurité de l’internet des objets (IoT).

Bradford Networks fournit aux entreprises et administrations une solution de contrôle d’accès (visibilité, contrôle, réponse à incident). Elle permet, selon ses promoteurs, une évaluation « sans agent logiciel » des terminaux, dispositifs, utilisateurs et applications accédant au réseau d’une entreprise, notamment via les objets connectés.

La classification en temps réel des équipements, la segmentation d’objets connectés ou encore le confinement automatisé de dispositifs compromis. Toutes ces opérations sont gérées à partir d’une « simple » interface web, explique Bradford Networks.

Yves Pellemans's insight:

Les principaux produits concurrents de Bradford Networks sont : Cisco ISE (Identity Services Engine), Aruba ClearPass et ForeScout CounterACT.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Axians fait de Pure Storage et Rubrik des partenaires stratégiques et les associe à son tour 2018

Axians fait de Pure Storage et Rubrik des partenaires stratégiques et les associe à son tour 2018 | Cloudnews | Scoop.it
Axians annonce la signature d’un partenariat stratégique avec Pure Storage et Rubrik pour promouvoir leur solution conjointe de stockage et de sauvegarde de données de nouvelle génération. Les deux entreprises américaines ont en effet développé des interfaces de programmation applicative communes permettant
Yves Pellemans's insight:

Cette solution de cloud data management est parfaitement adaptée pour stocker, conserver et protéger le capital intellectuel des entreprises

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

La stratégie française sur l’Intelligence Artificielle

La stratégie française sur l’Intelligence Artificielle | Cloudnews | Scoop.it

Cédric Villani, mathématicien et député, a rendu public son rapport sur l’Intelligence Artificielle. « Donner du sens à l’Intelligence Artificielle », c’est un rapport qui ambitionne de faire de la France une championne en la matière pour revenir dans la course de l’IA  face aux Etats-Unis et la Chine …

 

  • Pour une IA française forte

    Plusieurs points concernent le renforcement et le développement de la recherche en France, le soutien aux chercheurs, la mise en application de l’IA sur quatre grands secteurs industriels (santé, environnement/écologie, transport/mobilités, défense et sécurité) et l’accès aux données et à l’expérimentation.

    L’objectif est donc de favoriser une plus grande circulation des données pour faciliter les expérimentations innovantes de l’IA.

    Le rapport s’articule autour de 6 parties :
    - une politique économique articulée autour de la donnée
    - pour une recherche agile et diffusante
    - anticiper et maîtriser les impacts sur le travail et l’emploi
    - l’IA au service d’une économie plus écologique
    - quelle éthique de l’IA ?
    - pour une IA inclusive et diverse

    Le rapport est disponible sur le site de la mission
Yves Pellemans's insight:

L’objectif de l'état est de favoriser une plus grande circulation des données pour faciliter les expérimentations innovantes de l’IA.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Microsoft rachète GitHub : un séisme pour les développeurs

Microsoft rachète GitHub : un séisme pour les développeurs | Cloudnews | Scoop.it

Le très réputé Business Insider a révélé vendredi que Microsoft et GitHub étaient engagés des discussions avancées concernant un éventuel rachat. Bloomberg, également connu pour sa fiabilité, enfonce le clou et annonce que Microsoft devrait dévoiler le rachat dès lundi aux États-Unis.

C’est quoi GitHub ?

Vous ne connaissez peut-être pas GitHub, mais vous utilisez sans doute des applications et des services hébergés chez GitHub. Très connu de la communauté open source, GitHub est un service d’hébergement de projet de programmation. Il sert également de réseau social et de CV pour les développeurs de tout horizon. Reposant sur le protocole git, GitHub a rapidement séduit les développeurs grâce à son interface simple permettant de relire facilement les changements apportés à un code source, publier des logiciels.

Pourquoi ce rachat est très important ?

Avec le rachat de GitHub, Microsoft n’acquiert pas une source de revenu direct : GitHub propose un hébergement gratuit des projets open source, et un service payant pour les projets privés et pour les entreprises.

Ce que la firme de Redmond rachète en réalité est tout simplement le plus gros écosystème de développeurs au monde. Ainsi, Microsoft n’a pas nécessairement besoin de revoir le fonctionnement de GitHub ou l’internaliser, tout juste la firme pourra l’intégrer encore mieux à ses propres produits comme Visual Studio.

Depuis deux ans, l’ambition de Microsoft est devenir la boite à outil incontournable pour les développeurs. Pour cela, la firme est allée jusqu’à intégrer plusieurs distributions Linux, souvent utilisées par les développeurs, à Windows 10 comme Ubuntu, OpenSuse, ou Fedora.

Les premières réactions

Les développeurs n’ont pas tardé à réagir aux informations publiées par Business Insider et Bloomberg.

Leland Richardson, un ingénieur de Google qui participe au développement d’Android, se dit excité par cette annonce, rassuré par le fait que Visual Studio Code de Microsoft soit l’un des projets les mieux maintenus sur GitHub.

Yves Pellemans's insight:

Ce que Microsoft rachète en réalité est tout simplement le plus gros écosystème de développeurs au monde !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

KKR avale BMC Software

KKR avale BMC Software | Cloudnews | Scoop.it

Après une longue histoire et une réussite indéniable, BMC Software tourne une nouvelle page de son histoire par sa reprise par KKR auprès de Bain Capital et Golden Gate Capital. Ces 2 fonds avaient acquis l’éditeur il y a 5 ans pour la somme coquette de 6,9 milliards de dollars. Citée par Reuters, une source proche du dossier souhaitant conserver l’anonymat estime que l’actuelle transaction s’est faite sous les 10 milliards de dollars et le chiffre de 8,5 milliards a été avancé sans être confirmé par les parties. La transaction devrait se conclure d’ici la fin du troisième trimestre de cette année.

Pour KKR, ce rachat est le plus gros effectué depuis celui d’Epicor (3,3 milliards de dollars) et montre un appétit renouvelé du fonds pour les valeurs technologiques. Des experts financiers américains estiment que ce rachat va servir à KKR de plate-forme pour d’autres acquisitions de moindre taille dans le secteur des technologies.

Si BMC s’est refait une santé depuis quelques trimestres, le prix semble tout de même élevé pour un éditeur en reconstruction et en transformation de son modèle. Si BMC revendique une forte base installée dont 92 des 100 premiers comptes mondiaux, l’éditeur est tout de même discret comparativement à d’autres acteurs de son secteur.

Yves Pellemans's insight:

Si BMC s’est refait une santé depuis quelques trimestres, le prix semble tout de même élevé pour un éditeur en reconstruction

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

HPE confirme le retour à la croissance de son activité stockage

HPE confirme le retour à la croissance de son activité stockage | Cloudnews | Scoop.it

Dopé par la performance de Nimble Storage, qu’il a racheté en avril 2017, Hewlett Packard Enterprise a vu ses ventes de systèmes de stockage progresser de 24 % sur un an lors de son second trimestre fiscal 2018, pour atteindre 912 M$. Sans l’intégration de Nimble, HPE aurait enregistré une croissance de 14 % de ses ventes de systèmes de stockage.

 

Le changement est saisissant par rapport à l’an passé. Avant le rachat de Nimble, la division stockage d’HPE était au plus bas. Elle avait enregistré un recul de ses ventes de 12 % au premier trimestre fiscal 2017 puis une baisse de 13 % au second trimestre. Le troisième trimestre, bien qu’en croissance du fait de l’intégration de Nimble, avait aussi vu les ventes de produits historiques d’HPE reculer sensiblement.

Un an plus tard, l’activité stockage d’HPE affiche un nouveau visage. Si sa croissance sur le marché des baies 100 % Flash reste inférieure à celle de plusieurs grands concurrents comme NetApp et Pure Storage, HPE gagne des parts de marché, profitant notamment des déboires de l’activité stockage de Dell EMC et de celle d’IBM.

Selon Antonio Neri, le PDG de HPE, sa société a gagné des parts de marché dans le stockage au cours de 10 des 12 derniers trimestres. Et en France, HPE gagne du terrain de façon régulière depuis le début de l’année 2017 face à un Dell EMC qui a abandonné près de 10 % de parts de marché en un peu plus de 12 mois sur le territoire hexagonal.

Après un passage à vide à la fin 2017, les ventes
de baies HPE 3Par sont reparties à la hausse

« Nous avons exécuté notre stratégie beaucoup mieux que l’an dernier », a déclaré M. Neri en commentant la performance du constructeur sur le marché mondial du stockage. « L’année dernière, nous avons connu quelques difficultés d’exécution, en particulier en Amérique du Nord. Nous pensons que nous avons réglé ces problèmes ». En particulier, HPE revendique une progression de 20 % de ses ventes de baies 100 % flash et se montre très optimiste face à l’accueil reçu chez les clients par InfoSight, la technologie analytique héritée du rachat de Nimble et qui permet d’optimiser le fonctionnement des baies HPE et des environnements rattachés.

Prudent, Antonio Neri a souligné qu’il est peu probable que le stockage HPE renouvelle sa performance au prochain trimestre car la base de comparaison sera moins favorable puisqu’elle intégrera un trimestre complet d’activité de Nimble. Mais s’il peut maintenir sa croissance organique à deux chiffres, notamment avec ses baies 3Par, HPE continuera presque certainement à prendre des parts de marché.

Selon le baromètre du stockage externe d’IDC, HPE était numéro deux mondial des systèmes NAS et SAN au dernier trimestre calendaire 2017 avec 803 M$ de revenus (incluant ceux de H3C en Chine), derrière Dell EMC et ses 1,74 Md$ de revenus, mais devant NetApp (735 M$). Dans un marché en croissance de 1,8 % au niveau mondial, HPE avait vu ses ventes progresser de 7,3 % et sa part de marché gagner 0,6 point. 

Les activités de stockage traditionnelles d’HPE ne sont pas les seules à bien se porter. Le chiffre d’affaires de sa plate-forme hyper convergente SimpliVity a ainsi plus que doublé sur un an et HPE entend bien continuer sur cette lancée. L’acquisition des solutions SDN de Plexxi devrait ainsi doper son offre d’infrastructure hyperconvergée et lui permettre de mieux affronter les offres de VMware et de Nutanix en la matière.

Yves Pellemans's insight:

L'activité stockage d'HPE a enregistré une belle progression . Une performance qui s'explique à la fois par l'offre historique 3Par et par la croissance des ventes de Nimble et de Simplivity.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Les robots, inventeurs de demain ?

En matière de dépôt de brevets aussi, le développement de l’Intelligence Artificielle ne fait aucun doute. Mais, malgré l’augmentation du nombre de demandes actuellement déposées sur des inventions d’Intelligence Artificielle (IA) — dont l’Office européen des brevets (OEB) rapporte une augmentation de 500 % en 5 ans[1] — les « programmes d’ordinateur en tant que tels » restent toujours officiellement exclus de la brevetabilité en Europe.

Complexe brevetabilité de l’IA en Europe

Aujourd’hui, pour obtenir un brevet sur une invention en Europe, celle-ci doit répondre aux critères de nouveauté stricte et d’activité inventive. Dans le cas des inventions d’IA s’ajoute le fait que l’OEB exclut de la brevetabilité les méthodes mathématiques, la présentation d’information et les programmes d’ordinateur en tant que tels. Ainsi, une invention consistant en un algorithme de machine learning[2], qui arrangerait automatiquement les icônes d’un smartphone en fonction de la fréquence d’utilisation pourrait, par exemple, recevoir une objection en lien avec l’exclusion des méthodes mathématiques (l’algorithme n’étant que l’utilisation de statistique d’utilisation) et en lien avec la présentation d’informations (réarrangement des icônes). Néanmoins, notre pratique quotidienne dans l’obtention de brevets européens montre que l’OEB n’émettra pas une telle objection si l’algorithme contient au moins une caractéristique technique. La frontière entre caractéristique technique et non technique étant très mince, elle dépendra pour beaucoup du domaine d’application de la technologie. Un domaine tel que l’ingénierie – où le machine learning est généralement appliqué sur des données correspondant à des propriétés physiques – est, par exemple, propice à une caractérisation technique, tout comme le sont la médecine et les biotechnologies, souvent basées sur des données provenant d’expérimentation ou d’imagerie[3] .
Penser que les inventions d’IA ne sont pas brevetables serait une erreur : de nombreux brevets sont délivrés tous les jours en Europe sur de telles inventions, dont des brevets sur des technologies « de base » en IA. Leurs titulaires obtiennent ainsi un monopole, les rendant difficilement contournables dans les prochaines années.

Il n’existe encore que peu de cas traitant de ces inventions dans les chambres de recours de l’OEB, mais l’augmentation des dépôts de demandes de brevets devrait faire émerger de nombreux litiges d’ici quelques années et aboutir à la naissance d’une jurisprudence européenne. Il convient donc de suivre attentivement ces cas pour établir, à date, les chances de délivrance d’un brevet portant sur une invention d’IA et pour le conseil en propriété industrielle d’adapter la rédaction des demandes de brevet en conséquence.

Quel droit pour les inventions créées par des Intelligences Artificielles ?

Les définitions existantes des systèmes d’Intelligence Artificielle sont nombreuses, mais la plus reconnue distingue les IA par sept critères : la Créativité, qui permet à une IA de créer de nouveaux éléments, les Résultats Imprédictibles, basés sur des algorithmes capables d’effectuer des mutations aléatoires, l’Intelligence Rationnelle, permettant au système de choisir les données à utiliser, la capacité d’Evolution, d’Apprendre, de Collecter, d’avoir Accès et de communiquer avec des données extérieures, l’Efficacité, la Précision et la Liberté de Choix.
Ces critères peuvent amener une IA à la création d’une nouvelle invention répondant au critère de nouveauté et d’activité inventive, sans l’intervention d’un être humain dans le process « créatif ». La question de la désignation des inventeurs interroge alors car le statut d’inventeur n’est prévu dans le droit européen que pour des personnes physiques. Pour le moment, l’absence de personnalité juridique pour les IA oblige à désigner comme inventeur un être humain à leur place, mais qui nommer ?

Complexe attribution de la titularité de l’invention

Outre la question de l’inventeur, la question de la propriété d’une invention faite par une IA et donc de la titularité du brevet s’apprête à devenir un enjeu juridique majeur, en raison de la multiplicité des acteurs souvent nécessaires pour arriver à une invention brevetable. Prenons le cas d’un programme utilisant de l’IA d’analyse d’images développé par la société X qui est envoyé dans un laboratoire A, où il va « apprendre » et s’améliorer grâce aux résultats d’IRM de ce laboratoire. Puis, ce programme amélioré est envoyé dans un laboratoire B où, à nouveau soumis aux images d’IRM du laboratoire B, va encore s’améliorer. Cette procédure peut être répétée un nombre incalculable de fois, jusqu’à ce que le programme soit capable de lire des images d’IRM et y détecter un cancer dans 90% des cas. Mais alors, qui a le droit d’être titulaire du brevet sur cette invention ? On pourrait dire qu’elle appartient à la société X qui l’a développée initialement, mais celle-ci n’aurait pas abouti à la version fonctionnelle du programme sans les données fournies par les laboratoires A, B et suivants.
Puisqu’il n’existe pas encore de jurisprudence sur ces questions, il est important de réfléchir en amont à la stratégie de partage de la propriété intellectuelle pour rémunérer chaque acteur à sa juste valeur et limiter de futurs conflits. L’idéal étant d’encadrer préalablement toutes les collaborations par des contrats répartissant à l’avance les droits sur les résultats et la titularité des brevets qui en seront issus.


Le nombre croissant de dépôts de brevets sur des inventions réalisées par des Intelligences Artificielles ou portant sur des IA est le signe que ce domaine ne relève plus du futur mais bien du présent. Il est impératif pour les acteurs du domaine de surveiller attentivement l’évolution des brevets accordés sur ces inventions et de réfléchir dès à présent à leurs implications tant sur la qualité d’inventeur d’une IA que sur la titularité des brevets qui en sont issus. Une piste pourrait être la mise en place d’un nouveau « Droit des robots »[4] qui décernerait une personnalité juridique à ces entités et permettrait la reconnaissance de leur statut d’inventeur, voire même une rémunération s’inspirant de l’invention de salarié et d’un patrimoine propre ?
Yves Pellemans's insight:

De plus en en plus confrontée à des contentieux portant sur la brevetabilité d’inventions créées par des Intelligences artificielles, la jurisprudence européenne en droit de la Propriété industrielle va connaître d’importants changements dans les années à venir.

more...
No comment yet.