Cloudnews
48.5K views | +4 today
Follow
Cloudnews
Toute les news sur la transformation digitale, l'hybride Cloud, le data analytic, l'IA et l'Automation
Curated by Yves Pellemans
Your new post is loading...
Your new post is loading...
Scooped by Yves Pellemans
Scoop.it!

Cloud militaire : partenariat entre Thalès et Microsoft

Thales et Microsoft ont annoncé un partenariat pour le développement d'un Cloud dédié aux forces armées. La future solution reposera sur la plateforme Azure Stack, le cloud privé hyperconvergé de Microsoft, qui sera livrée en tant que système intégré. De son côté, Thalès apportera ses solutions de connectivité - pour que les systèmes soient autonomes et capables de fonctionner hors ligne (sur un champ de bataille par exemple). L'expert français sera également en charge de la cyber-sécurité.
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cohesity Raises $250 Million, Highest Round Since 2015 Among Storage Start-Ups

Cohesity Raises $250 Million, Highest Round Since 2015 Among Storage Start-Ups | Cloudnews | Scoop.it
Cohesity, Inc. raised $250 million in an oversubscribed Series D funding round led by the SoftBank Vision Fund with strong participation from strategic investors Cisco Investments, Hewlett Packard Enterprise, and Morgan Stanley Expansion Capital, along with early investor Sequoia Capital and others. The investment is a testament to Cohesity's leadership in transforming data center and cloud operations with web-scale simplicity for secondary data. This round brings total equity raised to $410 million, outpacing all other series D enterprise software investments in the United States over the last 18 months. This is only the second time SoftBank Investment Advisers has invested in an enterprise software company. Cohesity is using the investment to power large-scale global expansion by attacking a problem that enterprises currently spend an estimated $60 billion each year to address using separate point solutions.
Yves Pellemans's insight:
HPE et CISCO participe à la levée de fond de Cohesity
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Deep reinforcement learning, l'IA capable de surpasser l'humain

Deep reinforcement learning, l'IA capable de surpasser l'humain | Cloudnews | Scoop.it

L'apprentissage par renforcement profond reproduit le mécanisme "naturel" d'acquisition des connaissances. Robot, chatbot, voiture autonome, ses applications sont multiples.

 

Le deep reinforcement learning (DRL) est une méthode d'intelligence artificielle encore peu popularisée qui ouvre de toutes nouvelles perspectives en matière d'automatisation. Souvent présenté comme l'IA ultime, le DRL permet de créer des logiciels capables d'atteindre voire de surpasser l'intelligence humaine dans plusieurs domaines. Le système le plus célèbre tirant parti de la méthode n'est autre que DeepMind, la plateforme d'IA de Google (issue du rachat de l'entreprise britannique du même nom en 2014). C'est sur elle que le géant américain s'est basé pour développer AlphaGo, le supercalculateur connu pour avoir battu en 2017 le champion du monde de go, le Chinois Ke Jie.

 

Le DRL fait appel aux algorithmes d'apprentissage dits par renforcement, dont les deux plus illustres sont le TD learning (pour temporal difference learning) et le Q-learning. Des modèles de learning qui s'inspirent du processus humain (et animal) d'acquisition des connaissances par essais-erreurs.

 

En résumé, l'idée est de tirer les leçons d'expériences répétées. Pour orienter les choix dans la direction voulue, ces algorithmes valident les décisions prises par la machine via un mécanisme de récompense. On pourrait comparer la démarche à du dressage. Se classant dans la catégorie du machine learning automatique (ou non-supervisé), le DRL combine l'apprentissage par renforcement aux réseaux de neurones dans le but d'estimer efficacement la validité d'une stratégie "complexe", avec à la clé un grand nombre de critères de choix à prendre en compte. Le principal enjeu étant d'aboutir à un système qui encourage les comportements souhaités, et sans effets secondaires indésirables.

"Pour programmer un robot, plus besoin d'un long et fastidieux travail de développement"

L'avantage du DRL est de taille : pour programmer un robot par exemple, plus besoin d'un long et fastidieux travail de développement. L'ordinateur apprendra à opérer, à réagir à tel ou tel événement ou requête par lui-même. Que le robot soit physique ou virtuel, la phase de learning sera exécutée sous forme de simulation numérique. Un mode opératoire qui permet d'optimiser le temps d'apprentissage.

L'industrie est l'un des tout premiers terrains de jeu de l'apprentissage par renforcement profond. Outre-Atlantique, plusieurs start-up avancent des solutions de DRL taillées pour ce secteur. C'est notamment le cas de Covariant.ai et Osaro dans la robotisation des usines et entrepôts de marchandises. Ou encore de Bonsai dans la calibration et le contrôle qualité des systèmes industriels (qu'ils soient centrés sur la fabrication, la supply chain ou la production d'énergie). Un terrain qu'investit aussi l'Allemand Micropsi. Sur tous ces segments, le deep reinforcement learning revêt un avantage clé : il permet à aux systèmes informatiques d'auto-adapter leur logique en vue de faire face rapidement à d'éventuels changements de contexte. Grâce au DRL, un robot d'une chaîne de montage automobile peut ainsi apprendre par lui-même à poser un modèle de pièce différent (rétroviseur, essuie-glace…) de celui qu'il avait l'habitude d'installer jusque-là, et donc sans programmation préalable.

Pour l'heure, toutes ces start-up en sont au stade de la preuve de concept, et n'affichent pas encore (ou rarement) de références clients. Parmi elles, Bonsai semble la plus avancée. La jeune pousse californienne est parvenue à convaincre Siemens. Le groupe industriel allemand expérimente sa technologie en vue d'automatiser la calibration de ses machines-outils à commande numérique. Résultat : le modèle de DRL de Bonsai lui a déjà permis de réaliser ce type d'opération 30 fois plus vite qu'un opérateur humain.

Aux côtés de la robotique industrielle, l'apprentissage par renforcement profond monte en puissance sur d'autres créneaux. Par exemple dans le monde financier, pour optimiser le trading automatisé ou la gestion des risques de marché (cf. la start-up américaine Prowler.io). Ou encore dans les chatbots et autres systèmes conversationnels intelligents. Un champ d'application qui est lui-aussi investi par des jeunes pousses (par exemple Semantic Machines), mais pas seulement. Les géants du numérique sont là également. Apple et Microsoft par exemple y voient un levier pour booster leurs assistants vocaux. Le premier a acquis en 2016 la technologie de DRL britannique VocalIQ qu'il a depuis intégrée à Siri. Quant à Microsoft, il a racheté fin 2017 le Canadien Maluuba, autre spécialiste du domaine. Ce dernier a rejoint sa R&D centrée sur l'IA (comptant 5 000 ingénieurs), une activité qui collabore désormais à toutes ses gammes de produits (Windows, Office, Cortana, Bing…).

Les applications possibles ? Chatbot, voiture autonome, optimisation énergétique, IA automatisée…

Autre géant IT américain engagé, Salesforce expérimente le DRL pour automatiser la synthèse de texte. "Grâce à son mécanisme de scoring, le DRL permet à la machine d'estimer la qualité globale d'un résumé en s'extrayant d'une logique de mot à mot", explique l'éditeur de San Francisco. Chez Facebook également des recherches sont en cours. Elles sont menées au sein de son laboratoire parisien spécialisé en IA. "Nous planchons sur un bot expérimental conçu pour jouer à StarCraft via l'apprentissage par renforcement profond. L'idée est de concevoir une technologie capable de développer des stratégies en environnement incertain", confie Antoine Bordes, responsable de l'AI Research Paris Lab de Facebook (le réseau social a d'ailleurs publié en open source le data set du projet).

Aux côtés d'Apple, Microsoft, Salesforce et Facebook, Google n'est pas en reste. Depuis qu'il a acquis DeepMind, Mountain View en a largement déployé la technologie chez lui. Et ce, pour des problématiques variées, par exemple pour optimiser la consommation énergétique de ses data centers ou encore pour motoriser son service cloud d'IA automatisée (AutoML).

Beaucoup d'autres champs d'expérimentation restent à explorer. Et dans des domaines variés, autour de la personnalisation des contenus de formation, l'optimisation de prescriptions médicales... Ou la voiture autonome. Tesla s'intéresse ainsi de près au DRL dans l'optique d'améliorer la capacité de ses voitures autonomes à réagir à tel ou tel événement de circulation. En 2017, l'entreprise d'Elon Musk a recruté Andrej Karpathy, l'un des meilleurs spécialistes mondiaux du domaine.

Et ce n'est que le début. En parallèle, la recherche en matière de DRL avance. Aux Etats-Unis, le MIT et l'Université de Californie, notamment, investissent le sujet. En France, c'est le cas l'INRIA et l'ISIR.

 

 

Yves Pellemans's insight:

Le deep reinforcement learning (DRL) est une méthode d'intelligence artificielle encore peu popularisée qui ouvre de toutes nouvelles perspectives en matière d'automatisation.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Le marché du stockage en forte hausse au premier trimestre

Le marché du stockage en forte hausse au premier trimestre | Cloudnews | Scoop.it

Le chiffre d’affaires enregistré par les fournisseurs ODM qui fournissent les datacenters hyperscale a grimpé de 80,4% à 3,1 milliards de dollars. Cela représente 23,9% des investissements en matériel de stockage réalisés par les entreprises. Les ventes de serveurs de stockage ont bondi de 34,2% à 3,6 milliards de dollars., soit 28,0% des investissements des entreprises en matière de stockage. « Ce fut un trimestre de croissance exceptionnelle qui doit être attribué à plusieurs facteurs », explique dans un communiqué Eric Sheppard, vice-président en charge des serveurs et des infrastructures de stockage au cabinet d’analyse. « La demande pour du cloud public ainsi qu’un rafraîchissement général de leurs infrastructures ont été deux moteurs importants des nouveaux investissements réalisés par les entreprises dans le monde. Aujourd’hui les solutions de stockage les plus recherchées sont celles qui permettent qui permettent d’atteindre dans les datacenters de nouveaux degrés d’efficacité, une simplicité opérationnelle ainsi qu’un soutien complet des nouvelles charges de travail. »

Du côté des constructeurs, Dell se classe en tête des fournisseurs avec une part de marché de 21,6% grâce à une croissance annuelle de ses ventes de 43,0%. On trouve à la deuxième place HPE/New H3C Group avec une part de marché de 17,7%, soit une croissance de 18,3% comparé au premier trimestre 2017. Enregistrant une croissance de 21,7%, NetApp a quant à lui généré 6,8% du chiffre d’affaires total du secteur, ce qui le place sur la troisième marche du podium. Les quatrième et cinquième places du Top 5 sont occupées respectivement par Hitachi (3,6% de PM) et IBM (3,0% de PM), ce dernier affichant toutefois une baisse de 15% de ses revenus. Les fournisseurs ODM quant à eux enregistrés une croissance de 80,4% sur un an s’attribuant ainsi collectivement une part de marché de 17,8%.

Top 5 Vendor Groups, Worldwide Total Enterprise Storage Systems Market, First Quarter of 2018 (Revenues are in US$ millions) Company 1Q18 Revenue 1Q18 Market Share 1Q17 Revenue 1Q17 Market Share 1Q18/1Q17 Growth 1. Dell Inc a $2,815.0 21.6% $1,968.2 20.3% 43.0% 2. HPE/New H3C Group b c $2,307.2 17.7% $1,950.1 20.1% 18.3% 3. NetApp $890.1 6.8% $731.6 7.6% 21.7% T4. Hitachi* $464.4 3.6% $460.1 4.8% 0.9% T4. IBM* $387.0 3.0% $455.3 4.7% -15.0% ODM Direct $3,111.5 23.9% $1,725.0 17.8% 80.4% Others $3,035.7 23.3% $2,392.0 24.7% 26.9% All Vendors $13,010.9 100.0% $9,682.4 100.0% 34.4% Source: IDC Worldwide Quarterly Enterprise Storage Systems Tracker, June 5, 2018

Notes:

a – Dell Inc represents the combined revenues for Dell and EMC.

b – Due to the existing joint venture between HPE and the New H3C Group, IDC will be reporting market share on a global level for HPE as « HPE/New H3C Group » starting from 2Q 2016 and going forward.

– HPE/New H3C Group includes the acquisition of Nimble, completed in April 2017.

* – IDC declares a statistical tie in the worldwide enterprise storage systems market when there is one percent difference or less in the revenue share of two or more vendors.

Systèmes de stockage externe

Si l’on s’en tient aux systèmes de stockage externe, on trouve toujours Dell à la première place, avec 32,9% du chiffre d’affaires du secteur, devant NetApp avec 14,2% du chiffre d’affaires et HPE/New H3C Group avec 10,4% de part de marché. Suivent ensuite Hitachi (7,3%) et IBM (5,8%), ce dernier enregistrant une baisse de revenus de 17,3%, la seule du classement.

Top 5 Vendor Groups, Worldwide External Enterprise Storage Systems Market, First Quarter of 2018 (Revenues are in Millions) Company 1Q18 Revenue 1Q18 Market Share 1Q17 Revenue 1Q17 Market Share 1Q18/1Q17 Growth 1. Dell Inc a $2,060.1 32.9% $1,424.3 27.2% 44.6% 2. NetApp $890.1 14.2% $731.6 14.0% 21.7% 3. HPE/New H3C Group b c $652.2 10.4% $596.1 11.4% 9.4% 4. Hitachi $457.9 7.3% $449.1 8.6% 2.0% 5. IBM $364.2 5.8% $440.6 8.4% -17.3% Others $1,830.7 29.3% $1,599.9 30.5% 14.4% All Vendors $6,255.0 100.0% $5,241.6 100.0% 19.3% Source: IDC Worldwide Quarterly Enterprise Storage Systems Tracker, June 5, 2018

Notes:

a – Dell Inc represents the combined revenues for Dell and EMC.

b – Due to the existing joint venture between HPE and the New H3C Group, IDC will be reporting external market share on a global level for HPE as « HPE/New H3C Group » starting from 2Q 2016 and going forward.

– HPE/New H3C Group includes the acquisition of Nimble, completed in April 2017

Yves Pellemans's insight:

Sur Q1, les vente de stockage ont généré 13,0 milliards$, soit une croissance de 34,4% sur un an. Les capacités livrées ont bondi de 79,1% à 98,8 exaoctets.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Transformation digitale : les 8 tendances à retenir

Transformation digitale : les 8 tendances à retenir | Cloudnews | Scoop.it
La révolution numérique pousse les entreprises à expérimenter de nouvelles technologies, défier les nouveaux environnements IT et redéfinir les usages. Internet des Objets, Blockchain, réalité digitale, Intelligence Artificielle, réalité augmentée bouleversent les règles et la frontière entre les métiers et le Système d’Information. L’étude Deloitte Tech Trends 2018 pose les bases d’une entreprise innovante voire symphonique qui va créer « une harmonie entre stratégie, technologies et opérations »

 

Deloitte a identifié 8 tendances majeures qui révèlent une réelle et profonde interdépendance entre les technologies et les projets de transformation. Le management doit songer à une organisation « centrée sur la créativité et la contribution sociale des salariés ». Les collaborateurs doivent être à l’aise avec la technologie. « Enfin, il sera primordial que les RH et la DSI s’accordent sur la gestion des talents. ” souligne Eric Delgove, Associé Conseil Technology Strategy & Architecture chez Deloitte.

 

  1. Un système d’information avec de nouveaux modèles de prestations et de gouvernance 

 

Face à l’accélération du rythme des ruptures technologiques, les DSI se concentrent sur la création d’un nouvel environnement, l’infrastructure y est évolutive et dynamique et l’architecture, ouverte et extensible. En ce sens, les DSI doivent

  • automatiser des opérations
  • adresser la dette technique
  • moderniser les services d’infrastructure.

 

Les DSI proposent aussi un nouveau modèle de fonctionnement, réorganisent les compétences dans un modèle transverse, l’objectif étant

  • d’apporter plus de souplesse dans l’allocation des ressources
  • d’assumer une part d’incertitude dans le portefeuille d’investissement

 

  1. La main d’œuvre virtuelle : des modes de collaboration hommes/machines   

 

Les humains et les machines travailleront ensemble dans un flux continu, chacun complétant les efforts de l’autre. Les solutions d’automatisation intelligente augmenteront la performance humaine en automatisant certaines tâches au sein d’une activité.

Elles libéreront du temps humain pour le réaffecter à la résolution de problèmes qui nécessitent

  • de l’empathie
  • des qualités relationnelles
  • de l’intelligence émotionnelle

 

  1. La valorisation et la souveraineté des données     

 

Les agents conversationnels, la vision par ordinateur, la compréhension du langage naturel, les agents virtuels sont des technologies d’intelligence artificielle. Certaines technologies IA sont en passe d’être remplacées par de nouvelles technologies plus robustes :

  • le Machine Learning
  • le Deep Learning.

En 2020-2025, l’utilisation d’applications IA comme les chatbots, la vision par ordinateur et les robots intelligents devrait connaître un essor considérable.

 

  1. Le potentiel du digital au cœur des opérations métiers

 

L’Internet des Objets, la Robotic Process Automation (RPA), la blockchain et l’intelligence artificielle redéfinissent la chaîne logistique et les moyens de production.

La blockchain assure la traçabilité des produits et certifie les transactions entre les acteurs de la chaîne logistique.

 

  1. La réalité digitale : vers l’industrialisation

 

La révolution induite par la réalité virtuelle et la réalité augmentée entame une étape charnière de son développement.

Le temps des ” Proof Of Concepts ”  s’achève, les entreprises mettent en place des stratégies ” globales ” en s’appuyant

  • sur des cas d’usage innovants
  • des prototypes industriels

 

  1. La généralisation de la blockchain

 

Entre grands groupes et start-ups, expérimentations internes et développement des places de marché, blockchain privée et blockchain publique, rien n’est encore joué pour une utilisation à grande échelle de la blockchain.

Différentes technologies de blockchain existent et doivent être rendues interopérables. Ainsi, les entreprises pourraient

  • partager plus facilement des solutions blockchain
  • collaborer à leur développement en continu

 

  1. Les API : un levier stratégique pour la DSI et les métiers

 

L’heure est au développement des approches d’interfaces de programmation d’application (API) facilement interopérables et réutilisables.

Avec les API, les entreprises peuvent

  • améliorer le retour sur investissement de leurs actifs IT
  • libérer leur potentiel d’innovation pour mieux se différencier sur leurs marchés

 

  1. L’intelligence artificielle globale et l’informatique quantique

 

La technologie va atteindre les capacités intellectuelles sociales et émotionnelles de l’être humain. Sous le nom Intelligence Artificielle Générale (IAG), la version avancée de l’IA aurait des capacités correspondant à l’instinct, on s’oriente vers la possibilité de

  • raisonner dans l’incertitude
  • prendre des décisions
  • sentir
  • communiquer naturellement

 

L’informatique quantique (stade expérimental) est déjà une menace pour la cybersécurité. Sa puissance de calcul permettrait de déchiffrer n’importe quel système de cryptage classique en quelques secondes.

Yves Pellemans's insight:

Article intéressant sur la transformation SI incluant l'automatisation des opérations, la dette technique et la modernisation des services d’infrastructure.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cloud hybride : comment arbitrer entre Cloud public et Cloud privé ?

Cloud hybride : comment arbitrer entre Cloud public et Cloud privé ? | Cloudnews | Scoop.it

Le Cloud public continue de séduire les entreprises en France. Mais avec le maintien de nombreuses solutions “on premise”, le Cloud privé conserve ses adeptes. Quels choix se présentent ? Comment les arbitrer ?

 La migration vers le Cloud computing s’intensifie en France. Pour de nombreuses DSI, il est de plus en plus question d’une démarche « Cloud first », c’est à dire que toute nouvelle application ou nouveau projet logiciel est conçu sur le Cloud, qu’il soit privé ou public.

 

Vers l’hybridation Cloud

La tendance  est aux architectures hybrides, c’est à dire que certaines s données  sont hébergées sur un Cloud privé (en interne)  et d’autres sur un ou plusieurs Clouds publics comme Amazon AWS, Google ou Microsoft Azure.

Aujourd’hui, les déploiements de nouvelles applications de type RH, CRM ou ERM (Enterprise Resosurce Management) passent, essentiellement, par des solutions SaaS sur un Cloud public (cf. Salesforce, Office 365, ou G Suite).

En France, la croissance du Cloud, privé et public confondus, va rester très élevée : +27%, alors que le marché de l’ensemble des logiciels et services IT ne progresse que de 3%, selon le cabinet  Markess. En 2017, le marché français était estimé à 8,5 milliards d’euros. « La part des applications SaaS, sur des Clouds publics, avec 54%, reste prédominante sur le marché des solutions Cloud en France »,  observe Emmanuelle Olivié-Paul, directrice associée de Markess. « Mais les solutions IaaS et PaaS évoluent à un rythme plus soutenu. En 2019, ces dernières auront rattrapé la part du SaaS ».

Le segment des infrastructures IaaS est tiré par les besoins en ressources à la demande, par la dynamique du marché du SaaS et par de nouveaux projets digitaux gourmands en ressources: Big data, calcul haute performance, intelligence artificielle et programmatique.

Dans ce domaine, la part « des clouds publics », va se renforcer : de 36% en 2017, elle devrait atteindre 41% du marché des solutions IaaS en 2019, soit une croissance de +31%. Selon Markess,  « le segment du PaaS et iPaaS est tiré par l’avènement des environnements Cloud hybrides et multi-clouds, ainsi que par l’IoT et les écosystèmes connectés ».

Les 6 priorités du Cloud en France d’ici 2020

Frein juridique

L’enquête Markess révèle également que le principal frein au Cloud reste le cadre juridique. La protection des données, la sécurité, les engagements contractuels posent problème pour 72% des interviewés, plus que la pénurie des compétences (pour 45%) et plus que la migration des systèmes existants (pour 45%).

Pour 56% des répondants, le nouveau règlement RGPD ( lire notre dossier) sur les données personnelles, applicable au 25 mai 2018, a « certainement une incidence » sur les prestataires Cloud, et pour 20% « peut-être ».

Cloud public vs Cloud privé : avis partagés sur le ROI

L’avantage financier se confirme avec la rapidité de la mise en œuvre. Sur le terrain, l’intérêt du cloud public se vérifie lorsqu’il s’agit de déployer la même application simultanément, surtout avec des accès mobiles universels via Internet dans plusieurs pays ou plusieurs sites.
 De même, pour le stockage de très gros volumes de données, accessibles via le web (cf. les podcasts de Radio France), la solution Cloud public présente de réels avantages.

En revanche, de nombreuses entreprises, avec fortes capacités pour des investissements en immobilisation (capex), continuent de privilégier l’approche Cloud privé.

Beaucoup soutiennent, chiffre à l’appui, que leur Cloud privé ne revient pas plus cher, voire moins cher que des prestations de Cloud public dont les montants peuvent fortement fluctuer à la hausse, dès qu’elles y rajoutent de la qualité de service (SLA avec temps de réponse). Sans parler, tout simplement, des risques de hausses tarifaires qui peuvent survenir sans avertissement.

De solides arguments pour le Cloud privé

En conséquence, la plupart des entreprises choisissent de s’orienter vers des architectures hybrides mêlant  Cloud privé et Cloud public.

Pour certaines activités, le Cloud privé ne manque pas d’arguments. Outre le secteur de la santé, soumis à des contraintes réglementaires spécifiques pour l’hébergement externe des données, beaucoup d’entreprises ne sont pas prêtes à confier leurs données à l’extérieur. Elles invoquent des raisons de sécurité, de propriété intellectuelle, de brevets stratégiques.

Autres arguments évoqués contre le Cloud public, la haute disponibilité des applications et leurs temps de réponse. L’indisponibilité est rare sur le Cloud public dédié aux entreprises, il faut le reconnaître. Mais les temps de réponse peuvent être très inégaux. Or, les outils de monitoring, à moins d’y mettre le prix, sont souvent minimalistes par rapport à ceux dont disposent les administrateurs d’applications supportées en interne.

Les tableaux de bord fournis par les “cloud providers” permettent, avant tout, de reconstituer le détail de la facturation, laquelle peut être très assez complexe à décrypter. Y vérifier la qualité de service ou le suivi des SLA n’est pas gratuit et pas toujours fourni dans des formats compatibles avec les outils internes de l’entreprise.

En outre, les déceptions en matière de performances du Cloud public sont souvent liées au réseau. Alors quitte à investir lourdement dans le réseau, autant le faire aussi en interne.

Avantage pour les architectures hybrides

Dans ce contexte, les architectures hybrides s’affirment. Beaucoup d’analyses prévoient que 2018 est l’année de l’adoption du Cloud hybride. Il est vrai que les offres deviennent plus lisibles. Ainsi, Microsoft, après des propositions marketing autour d’Office 365 et Azure, propose désormais Azure Stack, une plate-forme IaaS de Cloud privé permettant de répliquer son offre Cloud public Azure.

De même, AWS (Amazon Web Services) s’est associé à VMware sur son offre Cloud hybride AWS. Google fait de même avec sa Cloud Platform, supportant VMware et les serveurs
«hyperconvergents » de Nutanix. IBM et Oracle disposent également d’offres de cloud hybride internes.

«L’hybridation c’est une étape intermédiaire pour basculer une partie dans le cloud. Car on fait rarement un big bang : c’est un moyen de faire de façon  bien ordonnancé dans le temps, avec une montée en puissance progressive » explique Sébastien Moriceau DSI de Linkbynet.

Ainsi, on devient “multi cloud” soit par nécessité (avec les interfaces programmatiques API indispensables), soit pour des raisons de proximité géographique (par exemple, une présence en Asie, à travers un opérateur local).

OpenStack et conteneurisation type Docker

La pile logicielle “OpenStack” (en Open source) est souvent la référence pour les projets d’hybridation. En parallèle l’approche de conteneurisation du type Docker gagne également du terrain.

Réticentes aux solutions « propriétaires » qui tendent à « verrouiller », beaucoup d’entreprises choisissent les conteneurs logiciels et les micro-services au nom d’une réelle indépendance, acquise grâce aux systèmes ouverts. Cette orientation vers la « conteneurisation » participe d’un compromis : elle est souvent choisie alors même qu’on sait qu’elle peut restreindre les mises à jour technologiques récurrentes et automatiques, inhérentes au Cloud public.

La DSI convertie en “Cloud broker” ?

 

De même, beaucoup de solutions facilitent aujourd’hui la migration vers le Cloud, par exemple “Cloud Fast Path”,  “Moover” ou encore “Cloud AvePoint”. L’éditeur Veeam dispose également d’outils de réplication – migration.

Chez Lagardère Group, Cyril Bartolo, “Corporate Head of Applications” considère que l’objectif du multi-cloud, reste de pouvoir se libérer de l’emprise de certains fournisseurs. « Et même dans le Cloud public, on voit que les prix de certains peuvent grimper de 30% du jour au lendemain. D’où l’importance critique des clauses de réversibilité dans les contrats Cloud », souligne-t-il.

Jean-Marie Simonin, responsable de l’activité Numérique chez Radio-France, estime qu’il faut se mettre en situation de « pouvoir basculer tout ou partie chez l’un ou chez l’autre acteur du Cloud public, en constituant le plus de lots possibles, en gros volumes, afin d’avoir des arguments pour négocier ». En migrant de l’un à l’autre, la récupération des données a pu être testée, validée : « Cela a pris quelques heures, mais pas une journée, donc pas plus que pour un ‘job’ de réplication de bases ou une sauvegarde en ‘batch’ ».

De là à s’organiser pour que la DSI pratique le “cloud brokering”,  il n’y a qu’un pas que ces grands comptes sont en train de franchir: « Le choix est large aujourd’hui entre AWS, Azure, Google, IBM et même peut-être, pourquoi pas demain, un Chinois comme Alibaba », constate Cyril Bartolo.

Yves Pellemans's insight:

On retient que beaucoup d’entreprises ne sont pas prêtes à confier leurs données à l’extérieur pour des raisons de sécurité, de propriété intellectuelle, de brevets stratégiques.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

2ème rapport Sysdig sur l’usage des containers

2ème rapport Sysdig sur l’usage des containers | Cloudnews | Scoop.it
L’éditeur d’outils de supervision des environnements en containers sort la 2ème édition de son rapport sur l’usage des containers dans les entreprises. Il montre une progression importante au cours de l’année écoulée de l’écosystème autour de Docker.

L’échantillon de l’étude a doublé depuis l’année dernière, date de la première édition de cette étude réalisée à partir des métriques issues des containers des clients de Sysdig, soit une base actuelle de 90000 containers.

La première utilisation des containers reste le déploiement de machines virtuelles JAVA. Suivent les bases de données comme PostGre ou Mongo DB. La densité du nombre de containers par serveur hôte augmente en moyenne de 50 % avec 15 containers par hôte. C’est loin des utilisateurs extrêmes de cette technologie. Un client a déployé 154 containers sur le même hôte, le maximum observé cette année. L’année dernière ce maximum était de 95 containers sur un même serveur.

Pour les Run Time, Docker domine toujours largement mais sa prééminence s’effrite un peu après le rachat de CoreOs par Red Hat et l’émergence d’OCI (Open Container Initiative). Ainsi de 99 % d’utilisation, Docker tombe à 83 % au profit de CoreOS Rkt qui monte à 12 %. Mesos représente 4 % et Lxc, la version Linux du container a une présence symbolique de 1 %. Les containers restent cependant employés pour des usages assez éphémères. 11 % ont une durée de vie de moins de 10 secondes. 27 % sont utilisés de 5 à 10 minutes. 69 % des images de containers sont mises à jour dans la semaine.


Kubernetes super star !

Pour les orchestrateurs, Kubernetes règne sans partage avec 51 % devant Docker qui grignote quelques pour cent avec 11 % d’utilisation. Mesos s’effondre et passe à 4 %. Ce dernier est cependant le plus utilisé lorsque les clusters sont de grande taille. Ainsi les clusters orchestrés par Mesos hébergent 50 % de containers de plus que ceux dirigés par Kubernetes. Les clusters sous la férule de Docker ont en moyenne 30 % moins de containers que ceux sous Kubernetes. Ce dernier connaît différentes variantes. Celle de Google domine à 82 % mais OpenShift détient une honorable position avec 14 % et Rancher 4 %.

Dans les registres pour containers, GCR (le registre de Google) est en tête avec 25 % devant Quay (20 %) et Docker (17 %). Le registre d’AWS, ACR, ne recueille que 4 % des suffrages des utilisateurs de Sysdig. Dans ce domaine aucun leader n’est véritablement bien établi.

Au bilan, cette étude confirme le dynamisme des environnements en containers et démontre une maturité plus forte qu’attendue dans un paysage qui change rapidement.
Yves Pellemans's insight:

Docker domine  mais sa prééminence s’effrite un peu après le rachat de CoreOs par Red Hat et l’émergence d’OCI (Open Container Initiative).

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Le manque de visibilité pénalise le Cloud public

Le manque de visibilité pénalise le Cloud public | Cloudnews | Scoop.it
Selon Gartner, le chiffre d'affaires du marché mondial des services de cloud public a augmenté de 18,5 % en 2017 pour atteindre 260,2 milliards de dollars, contre 219,6 milliards en 2016. La gestion des services en environnement Cloud inquiètent les entreprises. Si 99 % confirment que l'évolutivité et la visibilité agile sont essentielles pour la supervision du Cloud, l’heure est à la réactivité !
Yves Pellemans's insight:

Plus de 90 % des entreprises sont préoccupées par la sécurité des données et des applications dans le Cloud public.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IoT : nouvelles générations de capteurs et nouvelles opportunités

La micro-électronique a fait un bond spectaculaire car le marché a besoin de pouvoir placer les nœuds de capteurs n’importe où, à un coût global minimal (lié à la valeur des données utiles) et dans des conditions souvent hostiles (forte amplitude de température, humidité, absence d’énergie…). Et leur durée de vie doit être la plus longue possible – on parle désormais d’une décennie.

La puissance des micro-contrôleurs et des batteries, telles que les cellules primaires LiSOCl2, a fortement progressé. Les processeurs de nouvelle génération peuvent être alimentés pendant au moins 10 ans.
Récupération ou captage d’énergie

Un nœud de capteurs sans fil doit consommer le minimum de puissance mais il doit également fournir des courants de crête élevés pour les transmissions occasionnelles de données par radio. On parvient à combiner des courants en mode dormant très faibles dans les capteurs (1,5 V, 850 nA ) et une capacité d’amplification de forte puissance lors de la transmission.

D’où l’intérêt des systèmes récupérateurs d’énergie, comme les micro-contrôleurs de la start-up belge e-Peas, par exemple, ou encore EnOcean et ST Microelectronics.

Ces récupérateurs ou récolteurs d’énergie (‘harvester’) s’alimentent en mode photo-voltaïque, thermoélectrique ou par vibration (cinétique, par exemple le long de rails de chemin de fer). Multimodes (au moins deux sources), de préférence, ils doivent s’auto-réguler car ces sources d’énergie sont intermittentes.

Avec ces solutions, des centaines ou milliers de capteurs et processeurs peuvent être déployés et maillés sur de vastes étendues ou sur des kilomètres avec une maintenance très réduite. Le relevé des données (comme des compteurs d’eau) peut se faire à partir d’un véhicule passant auprès d’un seul point de collecte.
Le « edge » à la rescousse

La rapidité de ces progrès de la micro-électronique tranchent avec la relative inertie des architectures Cloud.
Aujourd’hui, les données collectées à partir d’entrées multiples (deux sources de capteurs de qualité de l’air – gaz et particules, par exemple) peuvent être fusionnées en un seul processeur ou noeud commun. Plutôt que de tout remonter séparément, il est possible de positionner des filtres intelligents et, avec une faible latence en local, de prendre des décisions à la périphérie sur les données pertinentes et utiles à remonter en central.

On constate qu’il y a relativement peu de besoin de transmission de données à forte consommation vers le cloud. Par exemple, quand un capteur détecte un impact dans une ville, les données sont traitées localement en temps réel et l’information peut être communiquée à un agrégateur pour alerter les premiers intervenants – services de voirie, secours, etc.

« Lorsque l’information est traitée au plus près des capteurs (sélection intelligente ), les informations significatives peuvent être produites plus rapidement que si elles sont envoyées en grande quantité de données vers le cloud – ce qui nécessite du temps pour trier, analyser et produire des résultats utiles », observe-t-on chez Analog Devices.
Yves Pellemans's insight:

Les nouveaux capteurs change la donne de l’IoT : ils sont désormais “plug & play”,  économiques et moins gourmands en énergie, voire auto-alimentés...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

RGPD : blocage inattendu de certains sites américains ...

RGPD : blocage inattendu de certains sites américains ... | Cloudnews | Scoop.it
Il fallait bien qu'il y ait des couacs. Depuis le 25 mai, on ne vous l'apprend pas, le RGPD est entré en vigueur dans l'Union Européenne. Tout service utilisé par des Européens doit demander un « consentement explicite et positif » pour recueillir des données personnelles collectées ou traitées dans l'Union européenne, que l'entreprise qui offre ce service soit européenne ou pas. Les sanctions peuvent monter jusqu'à 4% du chiffre d'affaires de l'entreprise en tort. Sauf que certaines sociétés américaines ne l'entendent pas de cette manière et ont choisi de bloquer l'accès à leur site web.

Le mouvement est parti de médias américains. Trois tendances ressortent : ceux qui bloquent purement et simplement, ceux qui demandent d'accepter leur politique de confidentialité pour entrer et les sites proposant des alternatives. Tous les médias du groupe Tronc – dont le Los Angeles Times ou le Chicago Tribune – font partie de la première catégorie. « Malheureusement, notre site web est actuellement indisponible dans la plupart des pays européens. Nous examinons les options qui soutiennent notre gamme complète d'offres numériques sur le marché de l'UE » peut-on lire lorsqu'on souhaite accéder à ces sites d'informations. Le groupe GateHouse Media, qui possédait plus d'une centaine de journaux locaux en 2017, ne s'est, lui-même pas donné la peine d'adresser un message aux lecteurs européens et ne fait apparaître qu'une fenêtre d'erreur. Cela ne touche cependant pas tous les sites d'informations du groupe bizarrement.

Certains sites du groupe GateHouse Media sont inaccessibles mais d'autres le sont, pour le moment... (Crédit : The Leader)

D'autres entreprises ont aussi décidé d'empêcher l'accès de leur plate-forme aux visiteurs européens. Comme Instapaper, service de mise en signets appartenant à Pinterest, « temporairement indisponible aux résidents européens ». Ou Unroll.me, service permettant de se désabonner plus rapidement des newsletters polluant les boîtes mails, qui avait déjà annoncé début mai que son service ne serait plus disponible aux Européens à partir du 25 mai. Mais là aussi, lorsqu'on répond non à la question « Vivez-vous dans l'UE ou dans la zone économique européenne ? », il est possible d'accéder au site d'Unroll.me.

Le Washington Post est le plus malin

Slate, Forbes, Politico, The Altantic, ainsi que les sites du groupe Meredith (People et le magazine Time pour ne citer que les plus connus) laissent, quant à eux, le choix aux visiteurs. Entrez mais « vous acceptez les conditions d'utilisation et la politique de confidentialité de X et l'utilisation de technologies telles que les cookies par X et [se]s partenaires pour diffuser des publicités pertinentes sur [son] site, dans des courriels et sur Internet, personnaliser le contenu et effectuer des analyses de site. » Sinon, tant pis.

Parmi ceux qui ont choisi cette méthode, le Washington Post a été le plus malin. En lieu et place d'une simple demande d'accord pour utiliser les données des utilisateurs européens, le site d'information leur propose d'accéder à la version gratuite en donnant son accord ou alors de souscrire à un abonnement « Premium EU » sans pub ni tracking, 3$ plus cher que l'abonnement basique...

Le Washington Post, lui, surfe sur la vague RGPD en proposant un abonnement spécial ressortissant de l'UE. (Crédit : Washington Post)
Certains prennent presque les gens pour des imbéciles

Enfin, d'autre média ont eu d'autres idées. USA Today a développé un site spécial UE, totalement épuré de toute publicité, où tous les articles restent lisibles mais sans possibilité de partage intégrée au site. Plutôt agréable à lire finalement, dans l'esprit des options de lecture zen sur les versions payantes de certains médias. D'autres ont poussé le vice un peu plus loin, prenant presque les gens pour des imbéciles. La Radio nationale publique (NPR) propose toujours au visiteur de donner son accord de ses conditions d'utilisation. S'il ne les accepte pas, il peut cliquer sur « Decline and visit plain text site » et accéder à la page de NPR... en HTML brut.

Sur le site de la NPR, radio publique américaine, le visiteur européens peut ne pas accepter les conditions d'utilisation du site mais devra le consulter de manière brute... (Crédit : NPR)

Un mur de la honte du RGPD a même été lancé, où tous les utilisateurs victimes de blocages liés au RGPD partagent leurs expériences. Dernière et vingtième en date, une notification concernant la politique de confidentialité du frigo Samsung Famil
Yves Pellemans's insight:

Conséquence inattendue de l'entrée en vigueur du RGPD, les Européens n'ont désormais plus accès à certains sites web américains....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Avec Scoop, PSA et Renault préparent un Waze automatisé

Avec Scoop, PSA et Renault préparent un Waze automatisé | Cloudnews | Scoop.it

Les constructeurs ont commencé à déployer un standard technologique de communication entre les voitures et les routes connectées. Objectif : alerter d'un danger sans intervention humaine.

 

Le projet Scoop rassemble constructeurs auto (Renault, PSA), pouvoirs publics, gestionnaires  de routes, télécoms, et universitaires autour d'un objectif : développer puis déployer un standard technologique dit "V2X", permettant à n'importe quelle voiture connectée de communiquer avec l'infrastructure, mais aussi  avec d'autres véhicules, afin d'anticiper des dangers à venir sur la route.

 

Le projet est entré dans le concret  en avril, depuis que Renault et PSA ont commencé à commercialiser quelques milliers de véhicules connectés (Renault Mégane,  Citroën C4 et DS4) ayant subi des modifications (pose d'une antenne Wi-Fi, boitier connecté spécifique, logiciel de génération d'alertes…) par rapport aux modèles classiques. Les constructeurs ont également installé des boîtiers connectés en seconde monte sur des véhicules traditionnels.

 

De l'autoroute aux cols de montagne

Côté infrastructure, des bornes Wi-Fi utilisant une fréquence (5,9GHz) dédiée aux applications de sécurité routière ont été disposées à intervalles réguliers sur les cinq zones pilotes du projet : Ile-de-France (hors périphérique), l'axe autoroutier Strasbourg – Metz – Reims – Paris, la Bretagne (Nantes– St-Malo, Rennes – St-Bieuc), la rocade bordelaise ainsi que les routes montagneuses d'Isère. Un cocktail de territoires permettant d'expérimenter sur différents types de routes. Ce début d'infrastructure connectée n'est pas expérimental : il s'agit de déploiements pérennes correspondant aux technologies qui seront ensuite installées dans le reste du pays.

Sur ces axes, les véhicules connectés à Internet via Wi-Fi peuvent recevoir des informations de deux manières. Elles peuvent soit venir du gestionnaire de la route, vers lequel remontent tous les incidents de sécurité routière, soit des voitures elles-mêmes, qui peuvent détecter un danger grâce à leurs capteurs et systèmes d'aide à la conduite (ADAS). Cette communication entre véhicules sera cependant plus difficile à expérimenter, pour des raisons de masse critique. Avec seulement quelques milliers de voitures connectées impliquées, les chances pour que plusieurs d'entre elles se trouvent au même moment sur la route et à une distance proche est faible, reconnaissent les constructeurs.  

Le véhicule donne l'alerte

Contrairement aux services communautaires comme Waze, le conducteur n'a rien à faire. "L'objectif est d'automatiser la remontée d'événements afin de ne pas distraire le conducteur", explique Delphine Duperret, responsable du projet Scoop chez PSA.  Si l'envoi d'informations est automatisé, la prise de décision ne l'est pas. "Techniquement, il serait par exemple possible de déclencher automatiquement un freinage d'urgence sur plusieurs voitures se trouvant derrière un véhicule qui a pilé, mais nous nous intéressons plutôt aux échanges véhicules-infrastructure", ajoute Christine Tissot, en charge de Scoop chez Renault. Le conducteur reçoit donc une alerte sur son tableau de bord. A lui d'agir en conséquence.

On peut déduire un danger potentiel si un véhicule se gare sur la bande d'arrêt d'urgence et que ses portes s'ouvrent : un piéton pourrait se trouver sur la route

Les constructeurs et leurs partenaires ont développé une quinzaine d'alertes standardisées pour des évènements détectés par leurs véhicules. "Si la route est glissante, mon véhicule le sait grâce à son ESP (correcteur électronique de trajectoire, Ndlr) et va propager l'information", illustre Delphine Duperret. De la même manière, on peut déduire un danger potentiel si un véhicule se gare sur la bande d'arrêt d'urgence et que ses portes s'ouvrent : un piéton pourrait se trouver sur la route. Un freinage brusque, voire un déclenchement d'airbag, indiquent au mieux un soudain ralentissement de la circulation, au pire un accident.

Préparer la voiture autonome

Les constructeurs ont désormais un an pour valider les technologies développées avec leurs partenaires. Les résultats seront ensuite remontés à la Commission européenne, avant que ne débute Scoop 2, qui permettra d'expérimenter d'autres méthodes de connectivité comme la 4G. En participant à ce projet, Renault et PSA espèrent prendre de l'avance sur leurs concurrents dans plusieurs procédés qui, anticipent-ils, deviendront la norme à terme. D'abord dans la relation avec les gestionnaires d'infrastructures, jusqu'ici inexistante pour des constructeurs qui n'avaient aucune raison de se soucier de l'information routière. "C'est la première fois que nous travaillons avec eux," relève Christine Tissot. "Il fallait qu'ils comprennent nos exigences, notamment dans les cycles de validation qualitative." Ensuite, parce que les constructeurs s'attendent à ce que ces systèmes (les ADAS et les alertes qu'ils envoient) deviennent à terme une obligation légale. Et de toute façon, ils seront rendus inévitables par la prochaine phase de transformation de l'automobile, celle des véhicules sans chauffeur aux prises de décision automatisées.

Yves Pellemans's insight:

Après quatre ans de développement, la France est prête à déployer les premiers éléments de ce qui doit devenir une vaste infrastructure routière connectée. C'est l'ambition du projet Scoop, cofinancé par la Commission européenne

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Promod, Décathlon, Etam… Comment ils digitalisent le ticket de caisse

Promod, Décathlon, Etam… Comment ils digitalisent le ticket de caisse | Cloudnews | Scoop.it

Il encombre les portefeuilles, se perd dans les sacs et s'efface avec le temps… Difficile de trouver des qualités au ticket de caisse papier. Certaines marques l'ont bien compris et enclenchent sa digitalisation, notamment via e-mail. Promod, Izac, Décathlon, Etam… Interrogées par le JDN, ces enseignes ont franchi le pas, avec des niveaux d'avancements variables.

 

Dématérialiser le ticket de caisse a un premier effet bénéfique immédiat : augmenter la base clients. Lors du passage en caisse, l'employé demande en effet le mail de l'acheteur pour lui envoyer son ticket. "Depuis que nous avons généralisé ce process en France et en Europe début 2017, cela nous a rapporté 800 000 mails de clients supplémentaires en un an", résume Frédéric Lefebvre, directeur multicanal et marketing chez Promod, une des enseignes pionnières sur le sujet, qui a développé sa solution en interne. Même son de cloche chez Etam qui s'est lancé dans l'e-ticket en 2015. "Un ticket de caisse anonyme est un ticket de caisse qui n'a pas de valeurs. Voilà pourquoi nous le proposons à nos clients par mail", renchérit Jonathan Attali, directeur digital de l'enseigne de lingerie et de mode.

 

Dès lors, la digitalisation du ticket de caisse améliore la connaissance du client. "Grâce à l'email, nous pouvons relier ce ticket à une personne. L'enjeu est alors de relier les data qu'il contient à d'autres données, comme celles de la navigation en ligne", illustre Frédéric Lefebvre. Le ticket de caisse indique les habitudes de consommation du client : ses préférences, ses goûts ou encore ses achats récurrents. Ce qui permet ensuite de mieux cibler l'envoie de newsletter et la publicité en conséquence. "Nous pratiquons aussi le stop retargeting. Un client surfe et cherche en ligne une robe rouge. Une fois qu'il a acheté ce produit en magasin, le ticket de caisse nous l'indique. Nous pouvons alors cesser de le cibler avec des publicités de robes rouges", continue Frédéric Lefebvre.

Ce n'est pas tout. "Le taux d'ouverture de ces tickets de caisse demeure élevé : entre 70 et 80%. Ils sont donc une occasion rêvée de glisser des offres promotionnelles personnalisées, des produits utiles ou encore un questionnaire de satisfaction client. 10% de ces mails conduisent même à un commentaire du client", ajoute Charlie Chelli, directeur général de Mangoo ID, une solution dédiée qui compte une trentaine de clients dont Ba&sh.

 

Un autre objectif est d'améliorer la gestion des retours en magasin. Depuis fin 2017, Décathlon expérimente en ce sens l'envoi de tickets de caisse par mail dans quatre magasins à Lille, Marseille et Paris. "Parmi les différentes attentes de nos sportifs, notre équipe dédiée aux études avait relevé le besoin de retrouver ses achats à tout moment. Envoyer le ticket de caisse par mail est une solution : la preuve est plus facilement conservée et nous pouvons mieux gérer les retours et échanges de produits", met en perspective Guillaume Webre, responsable du programme fidélité chez Décathlon.

Yves Pellemans's insight:

Le taux d'acceptation des clients dépasse les 50% chez Décathlon

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Envie de changement ? Rejoignez la Team Axians !

Envie de changement ? Rejoignez la Team Axians ! | Cloudnews | Scoop.it

Axians recrute des profils dans toutes la France.

Vous souhaitez participer à la transformation digitale des entreprises, des collectivités, des hôpitaux, de l'industrie ? 

Rejoignez nous !

Yves Pellemans's insight:

Nous recherchons des talents sur l'automation, le Cloud, le HCI, l’infogérance, l’intégration, que vous soyez Commercial,  Ingénieur, Consultant, Exploitant, Administrateur... Rejoignez la Team Axians !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Docker Hub : nouvel exemple des menaces sur la chaîne logistique du logiciel

Docker Hub : nouvel exemple des menaces sur la chaîne logistique du logiciel | Cloudnews | Scoop.it

Les chercheurs de Kromtech ont identifié 17 images stockées sur Docker Hub pendant un an. Des cyber-délinquants visaient ainsi à distribuer leurs mineurs de crypto-devises.

 

Des solutions de sécurité pour les conteneurs existent. Mais que ce soit celui tout juste annoncé par Qualys, ou le service Security Scanning de Docker, ils visent plus la recherche de vulnérabilités connues que celle de code malveillant, du moins avant exécution. Certes, des outils de surveillance de l’environnementsont susceptibles d’apporter la visibilité nécessaire à la détection de code de minage de crypto-deniers, mais encore faut-il assurer cette supervision.

En fait, la question soulevée par les équipes de Kromtech renvoie plus qu’autre chose à celle de la sécurité de la chaîne logistique du logicielle, comme lorsque des développeurs réutilisent du code partagé sur GitHub, par exemple.

Gartner recommande d’ailleurs d’analyser les conteneurs au cours de leur développement pour « détecter les problèmes de configuration et de vulnérabilité », avant le transfert dans l’environnement de production, ainsi que de contrôler les processus s’exécutant dans les conteneurs par des listes blanches.

Les observations des équipes de Kromtech laissent à penser que ce type de mesure n’a rien de superflu. Et cela d’autant plus que les attaques touchant à la chaîne logistique du logiciel n’ont cessé, récemment, de se multiplier.

Yves Pellemans's insight:

Une véritable rampe de lancement pour conteneurs cachant un maliciel de minage de crypto-deniers.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Avec +19,3% sur le première trimestre 2018 c'est un rebond spectaculaire du marché du stockage !

Avec +19,3% sur le première trimestre 2018 c'est un rebond spectaculaire du marché du stockage ! | Cloudnews | Scoop.it

Après une année 2017 en demi-teinte, le marché du stockage externe aurait connu un départ en fanfare au premier trimestre avec une hausse de 19,3%. Les acteurs émergents du stockage ont eux aussi poursuivi leur croissance.

 

elon les données d’IDC, le numéro un mondial du stockage SAN et NAS a vu ses ventes bondir de 635 M$ pour atteindre 2,06 milliards de dollars sur le trimestre, soit une croissance de 44,6 % sur un an. Dell EMC aurait ainsi regagné 5,7 points de parts de marché passant de 27,2 % l’année dernière à 32,9 % cette année.

Si le constructeur s’est récemment félicité du redressement de son activité de stockage lors de la présentation de ses résultats, il est toutefois resté prudent en indiquant que la performance réalisée sur le trimestre ne serait pas nécessairement répétée tous les trimestres.

Yves Pellemans's insight:

Ce rebond spectaculaire est largement lié à la performance de Dell EMC, dont les ventes ont bondi de +44,6% et de NetApp avec une croissance de +21,7%

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Sécurité IoT : Fortinet s'offre Bradford Networks

La multinationale Fortinet a racheté Bradford Networks pour faire converger le contrôle d’accès et la sécurité de l’internet des objets (IoT).

L’éditeur Fortinet conforte sa « fabrique de sécurité » (Security Fabric) en optant pour la croissance externe. L’entreprise de Sunnyvale (Californie) vient d’annoncer le rachat de Bradford Networks. Et ce pour renforcer la sécurité à la périphérie du réseau. Il s’agit surtout de faire converger le contrôle d’accès et la sécurité de l’internet des objets (IoT).

Bradford Networks fournit aux entreprises et administrations une solution de contrôle d’accès (visibilité, contrôle, réponse à incident). Elle permet, selon ses promoteurs, une évaluation « sans agent logiciel » des terminaux, dispositifs, utilisateurs et applications accédant au réseau d’une entreprise, notamment via les objets connectés.

La classification en temps réel des équipements, la segmentation d’objets connectés ou encore le confinement automatisé de dispositifs compromis. Toutes ces opérations sont gérées à partir d’une « simple » interface web, explique Bradford Networks.

Yves Pellemans's insight:

Les principaux produits concurrents de Bradford Networks sont : Cisco ISE (Identity Services Engine), Aruba ClearPass et ForeScout CounterACT.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Axians fait de Pure Storage et Rubrik des partenaires stratégiques et les associe à son tour 2018

Axians fait de Pure Storage et Rubrik des partenaires stratégiques et les associe à son tour 2018 | Cloudnews | Scoop.it
Axians annonce la signature d’un partenariat stratégique avec Pure Storage et Rubrik pour promouvoir leur solution conjointe de stockage et de sauvegarde de données de nouvelle génération. Les deux entreprises américaines ont en effet développé des interfaces de programmation applicative communes permettant
Yves Pellemans's insight:

Cette solution de cloud data management est parfaitement adaptée pour stocker, conserver et protéger le capital intellectuel des entreprises

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

La stratégie française sur l’Intelligence Artificielle

La stratégie française sur l’Intelligence Artificielle | Cloudnews | Scoop.it

Cédric Villani, mathématicien et député, a rendu public son rapport sur l’Intelligence Artificielle. « Donner du sens à l’Intelligence Artificielle », c’est un rapport qui ambitionne de faire de la France une championne en la matière pour revenir dans la course de l’IA  face aux Etats-Unis et la Chine …

 

  • Pour une IA française forte

    Plusieurs points concernent le renforcement et le développement de la recherche en France, le soutien aux chercheurs, la mise en application de l’IA sur quatre grands secteurs industriels (santé, environnement/écologie, transport/mobilités, défense et sécurité) et l’accès aux données et à l’expérimentation.

    L’objectif est donc de favoriser une plus grande circulation des données pour faciliter les expérimentations innovantes de l’IA.

    Le rapport s’articule autour de 6 parties :
    - une politique économique articulée autour de la donnée
    - pour une recherche agile et diffusante
    - anticiper et maîtriser les impacts sur le travail et l’emploi
    - l’IA au service d’une économie plus écologique
    - quelle éthique de l’IA ?
    - pour une IA inclusive et diverse

    Le rapport est disponible sur le site de la mission
Yves Pellemans's insight:

L’objectif de l'état est de favoriser une plus grande circulation des données pour faciliter les expérimentations innovantes de l’IA.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Microsoft rachète GitHub : un séisme pour les développeurs

Microsoft rachète GitHub : un séisme pour les développeurs | Cloudnews | Scoop.it

Le très réputé Business Insider a révélé vendredi que Microsoft et GitHub étaient engagés des discussions avancées concernant un éventuel rachat. Bloomberg, également connu pour sa fiabilité, enfonce le clou et annonce que Microsoft devrait dévoiler le rachat dès lundi aux États-Unis.

C’est quoi GitHub ?

Vous ne connaissez peut-être pas GitHub, mais vous utilisez sans doute des applications et des services hébergés chez GitHub. Très connu de la communauté open source, GitHub est un service d’hébergement de projet de programmation. Il sert également de réseau social et de CV pour les développeurs de tout horizon. Reposant sur le protocole git, GitHub a rapidement séduit les développeurs grâce à son interface simple permettant de relire facilement les changements apportés à un code source, publier des logiciels.

Pourquoi ce rachat est très important ?

Avec le rachat de GitHub, Microsoft n’acquiert pas une source de revenu direct : GitHub propose un hébergement gratuit des projets open source, et un service payant pour les projets privés et pour les entreprises.

Ce que la firme de Redmond rachète en réalité est tout simplement le plus gros écosystème de développeurs au monde. Ainsi, Microsoft n’a pas nécessairement besoin de revoir le fonctionnement de GitHub ou l’internaliser, tout juste la firme pourra l’intégrer encore mieux à ses propres produits comme Visual Studio.

Depuis deux ans, l’ambition de Microsoft est devenir la boite à outil incontournable pour les développeurs. Pour cela, la firme est allée jusqu’à intégrer plusieurs distributions Linux, souvent utilisées par les développeurs, à Windows 10 comme Ubuntu, OpenSuse, ou Fedora.

Les premières réactions

Les développeurs n’ont pas tardé à réagir aux informations publiées par Business Insider et Bloomberg.

Leland Richardson, un ingénieur de Google qui participe au développement d’Android, se dit excité par cette annonce, rassuré par le fait que Visual Studio Code de Microsoft soit l’un des projets les mieux maintenus sur GitHub.

Yves Pellemans's insight:

Ce que Microsoft rachète en réalité est tout simplement le plus gros écosystème de développeurs au monde !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

KKR avale BMC Software

KKR avale BMC Software | Cloudnews | Scoop.it

Après une longue histoire et une réussite indéniable, BMC Software tourne une nouvelle page de son histoire par sa reprise par KKR auprès de Bain Capital et Golden Gate Capital. Ces 2 fonds avaient acquis l’éditeur il y a 5 ans pour la somme coquette de 6,9 milliards de dollars. Citée par Reuters, une source proche du dossier souhaitant conserver l’anonymat estime que l’actuelle transaction s’est faite sous les 10 milliards de dollars et le chiffre de 8,5 milliards a été avancé sans être confirmé par les parties. La transaction devrait se conclure d’ici la fin du troisième trimestre de cette année.

Pour KKR, ce rachat est le plus gros effectué depuis celui d’Epicor (3,3 milliards de dollars) et montre un appétit renouvelé du fonds pour les valeurs technologiques. Des experts financiers américains estiment que ce rachat va servir à KKR de plate-forme pour d’autres acquisitions de moindre taille dans le secteur des technologies.

Si BMC s’est refait une santé depuis quelques trimestres, le prix semble tout de même élevé pour un éditeur en reconstruction et en transformation de son modèle. Si BMC revendique une forte base installée dont 92 des 100 premiers comptes mondiaux, l’éditeur est tout de même discret comparativement à d’autres acteurs de son secteur.

Yves Pellemans's insight:

Si BMC s’est refait une santé depuis quelques trimestres, le prix semble tout de même élevé pour un éditeur en reconstruction

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

HPE confirme le retour à la croissance de son activité stockage

HPE confirme le retour à la croissance de son activité stockage | Cloudnews | Scoop.it

Dopé par la performance de Nimble Storage, qu’il a racheté en avril 2017, Hewlett Packard Enterprise a vu ses ventes de systèmes de stockage progresser de 24 % sur un an lors de son second trimestre fiscal 2018, pour atteindre 912 M$. Sans l’intégration de Nimble, HPE aurait enregistré une croissance de 14 % de ses ventes de systèmes de stockage.

 

Le changement est saisissant par rapport à l’an passé. Avant le rachat de Nimble, la division stockage d’HPE était au plus bas. Elle avait enregistré un recul de ses ventes de 12 % au premier trimestre fiscal 2017 puis une baisse de 13 % au second trimestre. Le troisième trimestre, bien qu’en croissance du fait de l’intégration de Nimble, avait aussi vu les ventes de produits historiques d’HPE reculer sensiblement.

Un an plus tard, l’activité stockage d’HPE affiche un nouveau visage. Si sa croissance sur le marché des baies 100 % Flash reste inférieure à celle de plusieurs grands concurrents comme NetApp et Pure Storage, HPE gagne des parts de marché, profitant notamment des déboires de l’activité stockage de Dell EMC et de celle d’IBM.

Selon Antonio Neri, le PDG de HPE, sa société a gagné des parts de marché dans le stockage au cours de 10 des 12 derniers trimestres. Et en France, HPE gagne du terrain de façon régulière depuis le début de l’année 2017 face à un Dell EMC qui a abandonné près de 10 % de parts de marché en un peu plus de 12 mois sur le territoire hexagonal.

Après un passage à vide à la fin 2017, les ventes
de baies HPE 3Par sont reparties à la hausse

« Nous avons exécuté notre stratégie beaucoup mieux que l’an dernier », a déclaré M. Neri en commentant la performance du constructeur sur le marché mondial du stockage. « L’année dernière, nous avons connu quelques difficultés d’exécution, en particulier en Amérique du Nord. Nous pensons que nous avons réglé ces problèmes ». En particulier, HPE revendique une progression de 20 % de ses ventes de baies 100 % flash et se montre très optimiste face à l’accueil reçu chez les clients par InfoSight, la technologie analytique héritée du rachat de Nimble et qui permet d’optimiser le fonctionnement des baies HPE et des environnements rattachés.

Prudent, Antonio Neri a souligné qu’il est peu probable que le stockage HPE renouvelle sa performance au prochain trimestre car la base de comparaison sera moins favorable puisqu’elle intégrera un trimestre complet d’activité de Nimble. Mais s’il peut maintenir sa croissance organique à deux chiffres, notamment avec ses baies 3Par, HPE continuera presque certainement à prendre des parts de marché.

Selon le baromètre du stockage externe d’IDC, HPE était numéro deux mondial des systèmes NAS et SAN au dernier trimestre calendaire 2017 avec 803 M$ de revenus (incluant ceux de H3C en Chine), derrière Dell EMC et ses 1,74 Md$ de revenus, mais devant NetApp (735 M$). Dans un marché en croissance de 1,8 % au niveau mondial, HPE avait vu ses ventes progresser de 7,3 % et sa part de marché gagner 0,6 point. 

Les activités de stockage traditionnelles d’HPE ne sont pas les seules à bien se porter. Le chiffre d’affaires de sa plate-forme hyper convergente SimpliVity a ainsi plus que doublé sur un an et HPE entend bien continuer sur cette lancée. L’acquisition des solutions SDN de Plexxi devrait ainsi doper son offre d’infrastructure hyperconvergée et lui permettre de mieux affronter les offres de VMware et de Nutanix en la matière.

Yves Pellemans's insight:

L'activité stockage d'HPE a enregistré une belle progression . Une performance qui s'explique à la fois par l'offre historique 3Par et par la croissance des ventes de Nimble et de Simplivity.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Les robots, inventeurs de demain ?

En matière de dépôt de brevets aussi, le développement de l’Intelligence Artificielle ne fait aucun doute. Mais, malgré l’augmentation du nombre de demandes actuellement déposées sur des inventions d’Intelligence Artificielle (IA) — dont l’Office européen des brevets (OEB) rapporte une augmentation de 500 % en 5 ans[1] — les « programmes d’ordinateur en tant que tels » restent toujours officiellement exclus de la brevetabilité en Europe.

Complexe brevetabilité de l’IA en Europe

Aujourd’hui, pour obtenir un brevet sur une invention en Europe, celle-ci doit répondre aux critères de nouveauté stricte et d’activité inventive. Dans le cas des inventions d’IA s’ajoute le fait que l’OEB exclut de la brevetabilité les méthodes mathématiques, la présentation d’information et les programmes d’ordinateur en tant que tels. Ainsi, une invention consistant en un algorithme de machine learning[2], qui arrangerait automatiquement les icônes d’un smartphone en fonction de la fréquence d’utilisation pourrait, par exemple, recevoir une objection en lien avec l’exclusion des méthodes mathématiques (l’algorithme n’étant que l’utilisation de statistique d’utilisation) et en lien avec la présentation d’informations (réarrangement des icônes). Néanmoins, notre pratique quotidienne dans l’obtention de brevets européens montre que l’OEB n’émettra pas une telle objection si l’algorithme contient au moins une caractéristique technique. La frontière entre caractéristique technique et non technique étant très mince, elle dépendra pour beaucoup du domaine d’application de la technologie. Un domaine tel que l’ingénierie – où le machine learning est généralement appliqué sur des données correspondant à des propriétés physiques – est, par exemple, propice à une caractérisation technique, tout comme le sont la médecine et les biotechnologies, souvent basées sur des données provenant d’expérimentation ou d’imagerie[3] .
Penser que les inventions d’IA ne sont pas brevetables serait une erreur : de nombreux brevets sont délivrés tous les jours en Europe sur de telles inventions, dont des brevets sur des technologies « de base » en IA. Leurs titulaires obtiennent ainsi un monopole, les rendant difficilement contournables dans les prochaines années.

Il n’existe encore que peu de cas traitant de ces inventions dans les chambres de recours de l’OEB, mais l’augmentation des dépôts de demandes de brevets devrait faire émerger de nombreux litiges d’ici quelques années et aboutir à la naissance d’une jurisprudence européenne. Il convient donc de suivre attentivement ces cas pour établir, à date, les chances de délivrance d’un brevet portant sur une invention d’IA et pour le conseil en propriété industrielle d’adapter la rédaction des demandes de brevet en conséquence.

Quel droit pour les inventions créées par des Intelligences Artificielles ?

Les définitions existantes des systèmes d’Intelligence Artificielle sont nombreuses, mais la plus reconnue distingue les IA par sept critères : la Créativité, qui permet à une IA de créer de nouveaux éléments, les Résultats Imprédictibles, basés sur des algorithmes capables d’effectuer des mutations aléatoires, l’Intelligence Rationnelle, permettant au système de choisir les données à utiliser, la capacité d’Evolution, d’Apprendre, de Collecter, d’avoir Accès et de communiquer avec des données extérieures, l’Efficacité, la Précision et la Liberté de Choix.
Ces critères peuvent amener une IA à la création d’une nouvelle invention répondant au critère de nouveauté et d’activité inventive, sans l’intervention d’un être humain dans le process « créatif ». La question de la désignation des inventeurs interroge alors car le statut d’inventeur n’est prévu dans le droit européen que pour des personnes physiques. Pour le moment, l’absence de personnalité juridique pour les IA oblige à désigner comme inventeur un être humain à leur place, mais qui nommer ?

Complexe attribution de la titularité de l’invention

Outre la question de l’inventeur, la question de la propriété d’une invention faite par une IA et donc de la titularité du brevet s’apprête à devenir un enjeu juridique majeur, en raison de la multiplicité des acteurs souvent nécessaires pour arriver à une invention brevetable. Prenons le cas d’un programme utilisant de l’IA d’analyse d’images développé par la société X qui est envoyé dans un laboratoire A, où il va « apprendre » et s’améliorer grâce aux résultats d’IRM de ce laboratoire. Puis, ce programme amélioré est envoyé dans un laboratoire B où, à nouveau soumis aux images d’IRM du laboratoire B, va encore s’améliorer. Cette procédure peut être répétée un nombre incalculable de fois, jusqu’à ce que le programme soit capable de lire des images d’IRM et y détecter un cancer dans 90% des cas. Mais alors, qui a le droit d’être titulaire du brevet sur cette invention ? On pourrait dire qu’elle appartient à la société X qui l’a développée initialement, mais celle-ci n’aurait pas abouti à la version fonctionnelle du programme sans les données fournies par les laboratoires A, B et suivants.
Puisqu’il n’existe pas encore de jurisprudence sur ces questions, il est important de réfléchir en amont à la stratégie de partage de la propriété intellectuelle pour rémunérer chaque acteur à sa juste valeur et limiter de futurs conflits. L’idéal étant d’encadrer préalablement toutes les collaborations par des contrats répartissant à l’avance les droits sur les résultats et la titularité des brevets qui en seront issus.


Le nombre croissant de dépôts de brevets sur des inventions réalisées par des Intelligences Artificielles ou portant sur des IA est le signe que ce domaine ne relève plus du futur mais bien du présent. Il est impératif pour les acteurs du domaine de surveiller attentivement l’évolution des brevets accordés sur ces inventions et de réfléchir dès à présent à leurs implications tant sur la qualité d’inventeur d’une IA que sur la titularité des brevets qui en sont issus. Une piste pourrait être la mise en place d’un nouveau « Droit des robots »[4] qui décernerait une personnalité juridique à ces entités et permettrait la reconnaissance de leur statut d’inventeur, voire même une rémunération s’inspirant de l’invention de salarié et d’un patrimoine propre ?
Yves Pellemans's insight:

De plus en en plus confrontée à des contentieux portant sur la brevetabilité d’inventions créées par des Intelligences artificielles, la jurisprudence européenne en droit de la Propriété industrielle va connaître d’importants changements dans les années à venir.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

L'IoT pèse encore peu dans l'activité des opérateurs télécoms

L'IoT pèse encore peu dans l'activité des opérateurs télécoms | Cloudnews | Scoop.it
Le rapport annuel de l'Arcep dénote le faible poids de l'IoT comparativement à la valeur dégagée sur le marché global des services mobiles en France.

Le nombre ne fait pas forcément la valeur… tout du moins pour les cartes M2M. C’est l’un des enseignements du dernier observatoire annuel de l’Arcep.

Le régulateur des télécoms dénombrait, à fin 2017, près de 15 millions de ces cartes dédiées à l’Internet des objets (+ 3,2 millions en un an). Il estime qu’elles ont représenté, au cours de l’année, des revenus de 112 millions d’euros HT (+ 7,5 % par rapport à 2016) pour les opérateurs. Soit une moyenne de 70 centimes par SIM.

Yves Pellemans's insight:

Le nombre ne fait pas forcément la valeur… tout du moins pour les cartes M2M. C’est l’un des enseignements du dernier observatoire annuel de l’Arcep.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Services cloud, stabilité de la direction : les clés du futur de Citrix

Services cloud, stabilité de la direction : les clés du futur de Citrix | Cloudnews | Scoop.it
Citrix est aujourd'hui une entreprise très différente de ce qu'elle était il y a quelques années. Bien qu’il soit encore connu principalement pour ses technologies de livraison de postes de travail et d’applications virtualisés, l’éditeur a traversé une importante transformation en se repositionnant autour des services et de la sécurité de Citrix Cloud. Celle-ci s’est traduit par des licenciements conséquents et des changements non négligeables à la tête de Citrix. Son actuel Pdg, David Henshall, a ainsi pris ses fonctions en juillet dernier ; il est la quatrième personne à occuper ce poste depuis 2015.
Yves Pellemans's insight:

L'approche centrée sur le Cloud de Citrix a suscité des réactions mitigées de la part des participants à sa conférence annuelle Synergy. Certains sont particulièrement préoccupés par les coûts et les licences.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

SD-WAN : évolution, révolution, disruption ? Yves Pellemans, Axians France

SD-WAN : évolution, révolution, disruption ? Yves Pellemans, Axians France | Cloudnews | Scoop.it
Durant des décennies, les entreprises ont utilisé le MPLS comme réseau privé de communication. Mais aujourd’hui le SD-WAN pourrait bien rebattre les cartes. Reposant sur l’agrégation de liens Internet et privé, administré depuis un portail web, commercialisé as-a–service, le SD-WAN permet aux entreprises de reprendre
Yves Pellemans's insight:

Le marché du SD-WAN devrait atteindre, selon IDC, six milliards de dollars au niveau mondial en 2020.

more...
No comment yet.