Cloudnews
48.8K views | +3 today
Follow
 
Scooped by Yves Pellemans
onto Cloudnews
Scoop.it!

Le Big Data : une révolution aussi importante que celle d'Internet !

Le Big Data : une révolution aussi importante que celle d'Internet ! | Cloudnews | Scoop.it

Pour 90% des décideurs d'entreprise le traitement massif de données va engendrer un bouleversement au moins aussi important que celui d'Internet. Dixit une étude d'Accenture. 


Ciblage marketing personnalisé en masse, maintenance prédictive des équipements industriels et urbains, mais aussi capacité à personnaliser les produits... Le Big Data permet l'émergence de services numériques de nouvelle génération qui viennent bouleverser parfois totalement les stratégies et organisations d'entreprise. Le cabinet de conseil Accenture publie une étude sur la question, réalisée auprès de 1000 responsables (directeurs financiers, marketing, DSI...) de grandes entreprises basées dans 19 pays à travers le monde.

Pour 89% des répondants, le Big Data va même révolutionner la manière de concevoir le business autant que l'avènement d'Internet dans les années 1990. Les premiers projets déployés tendent à prouver l'ampleur du phénomène. 92% des dirigeants consultés engagés dans un projet de traitement massif de données (et 60% des répondants sont dans ce cas) se disent "satisfaits des résultats obtenus". 

L'identification de nouvelles sources de revenu en tête des apports du Big Data

Une vaste majorité (90% en France) considère les mégadonnées, puisque c'est comme ça qu'on doit l'écrire en bon français désormais, comme "très importantes" ou "extrêmement importantes" pour leur chantier de transformation numérique.

Les principaux apports du Big Data pour les répondants français ? Ils concernent d'abord l'identification de nouvelles sources de revenus (c'est ce qu'indiquent 70% des dirigeants français consultés, contre 56% pour l'ensemble du panel). L'optimisation de l'expérience client (60%), la conquête et la fidélisation client (59%), et le développement de nouveaux produits et services (50%) arrivent ensuite.

more...
No comment yet.
Cloudnews
Toute les news sur la transformation digitale, l'hybride Cloud, le data analytic, l'IA et l'Automation
Curated by Yves Pellemans
Your new post is loading...
Your new post is loading...
Scooped by Yves Pellemans
Scoop.it!

Pure Storage acquiert StorReduce et voit son chiffre d’affaires s’envoler

Pure Storage acquiert StorReduce et voit son chiffre d’affaires s’envoler | Cloudnews | Scoop.it
Après la fusion de Drobo et Nexan au sein de StorCentric, la consolidation se poursuit dans le secteur du stockage. Le spécialiste du stockage all flash Pure Storage annonce en effet l’acquisition de StorReduce, un éditeur de solutions SDN de déduplication dans le cloud de données non structurées. Les conditions financières de l’opération ne sont pas divulguées. Basée à Sunnyvale en Californie StorReduce a été récemment désigné par Gartner « Cool Vendor in Storage ». Dans son rapport, le cabinet d’analyse rappelle que le développement d’une stratégie de cloud privé, hybride et/ou public est la principale préoccupation des entreprises actuellement.

« Grâce à la combinaison des capacités de réduction des données de StorReduce et des technologies de stockage flash et objet de Pure Storage, nous pouvons à présent optimiser de nombreuses applications actuelles cloud-native ainsi que de nombreuses charges de travail non structurées existantes, en particulier la récupération rapide, à un rythme plus soutenu », explique dans un communiqué Vanessa Wilson, CEO de StorReduce. « L’équipe de StorReduce a bâti une technologie incroyablement prometteuse qui devrait avoir un impact sur les architectures de stockage de nouvelle génération », affirme de son côté Charles Giancarlo, CEO de PureStorage. « Ensemble, nous allons aider les clients à travailler sur des architectures centrées sur les données qui relient sans couture l’on-premise et le cloud. »

Celui qui a pris il y a tout juste un an la direction de la société peut par ailleurs se montrer satisfait des résultats financiers, supérieurs aux attentes, de Pure Storage. Au cours du deuxième trimestre 2019, qui s’est clôturé le 31 juillet dernier, le chiffre d’affaires a bondi de 37% à 308,9 millions de dollars. La perte s’établit à 60,1 millions d’euros contre 58,4 millions d’euros un an plus tôt.

Pour le trimestre en cours, la firme de Mountain View table sur un chiffre d’affaires compris entre 361 et 369 millions de dollars. Pour l’année complète elle prévoit des revenus compris entre 1,35 et 1,38 milliard de dollars.
Yves Pellemans's insight:

Pure Storage fait sa première acquisition avec StorReduce, une solution de déduplication de données dans le Cloud.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Sécurité informatique : 12% de croissance attendue en 2018

Sécurité informatique : 12% de croissance attendue en 2018 | Cloudnews | Scoop.it

Porté par les investissements des entreprises et administrations dans la protection des données et la détection/réponse aux incidents, le marché des solutions et services de sécurité informatique affiche une forte dynamique.

Ainsi, les dépenses mondiales en produits et services de sécurité IT devraient franchir les 114 milliards de dollars en 2018. Un chiffre en hausse de 12,4% par rapport à l’année précédente, prévoit le cabinet Gartner.

Le rythme de croissance du marché mondial des services et solutions de securité serait moins marqué en 2019 (+8,7%). Mais il permettrait tout de même de dépasser les 124 milliards de dollars dépensés (B2B et B2C).
Protection des données et gouvernance des accès

« Le déficit persistant de compétences et les changements réglementaires, comme le Règlement sur la protection des données (RGPD) de l’UE [Ndlr : entré en vigueur le 25 mai 2018] conduisent à une croissance continue du marché des services de sécurité », a déclaré Sid Deshpande, directeur de recherche chez Gartner.
Dépenses mondiales sécurité IT par segments en M$
Source : Gartner (août 2018)

Les segments les plus larges du marché restent ceux de la protection des infrastructures et des équipements réseau.

Mais la gestion des identités et des accès (IAM) monte encore en puissance. Entraînant dans son sillage la hausse de la demande pour les solutions et services de gouvernance et administration des identités (IGA) et de prévention des pertes de données (DLP).

Yves Pellemans's insight:

Le marché est porté par la protection des données et la gouvernance des accès

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Zippin teste un magasin sans caisse qui pourrait faire de l'ombre à Amazon Go

Zippin teste un magasin sans caisse qui pourrait faire de l'ombre à Amazon Go | Cloudnews | Scoop.it

Zippin a annoncé l'ouverture d'un prototype de magasin sans caisse mi-septembre 2018 à San Francisco. Avec ce système, qui s'appuie sur une technologie de reconnaissance visuelle développée en interne, la start-up américaine entend séduire les concurrents d'Amazon Go.
Yves Pellemans's insight:

Les magasins sans caisses semblent avoir le vent en poupe. Bourrés de technologie (Capteurs de poids, camera 4K, RFID ...) ils proposent une expérience sans contrainte pour le client.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cisco : une stratégie payante sur l'exercice 2018

Cisco : une stratégie payante sur l'exercice 2018 | Cloudnews | Scoop.it
Pour Chuck Robbins, CEO de Cisco, ces résultats témoignent de la pertinence d’une stratégie orientée logiciels et services du « tout connecté » (acquisitions incluses). En revanche, celui-ci ne revient pas sur les coupes claires réalisées sur deux ans…

En 2018, le constat financier est le suivant : les revenus « applications » du groupe ont progressé de 10% sur le trimestre et sur l’ensemble de l’exercice fiscal. Et ses revenus « sécurité » IT ont gagné 12% sur le trimestre et 9% sur l’année.

Le dernier rachat en date, celui de Duo Security, devrait conforter la tendance.

Certes, la croissance de l’activité plateforme « infrastructure », métier historique de Cisco, est moins marquée (+7% sur le trimestre, +2% sur l’ensemble de l’exercice). Mais ce domaine représente encore 55% du chiffre d’affaires total de la multinationale.

Fort de ces résultats, le groupe prévoit d’augmenter de 5% à 7% ses revenus sur le trimestre en cours (le T1 de son exercice 2019 décalé).

La perspective satisfait Wall Street. Aussi, l’action Cisco a gagné plus de 3% lors des échanges après-bourse au soir du 15 août, à la suite de l’annonce de ces résultats.
Yves Pellemans's insight:

Sur le trimestre, Cisco a dégagé un bénéfice net en progression de 57% à 3,80 milliards de dollars. Son CA trimestriel de 12,84 milliards de dollars a gagné 6% par rapport à l’an dernier.

Par ailleurs, sur l’ensemble de l’exercice, les revenus ont augmenté de 3% à 49,33 milliards de dollars.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

IA : Intel révise ses ambitions à la hausse

IA : Intel révise ses ambitions à la hausse | Cloudnews | Scoop.it

Intel a fait plusieurs annonces clés lors de son Data-Centric Innovation Summit organisé la semaine dernière à Santa Clara (Californie).

 

La multinationale a notamment déclaré avoir généré plus de 1 milliard de dollars en 2017 grâce aux ventes de ses processeurs Xeon. Ces derniers sont utilisés pour des traitements d’intelligence artificielle (IA) dans les centres de données.

 

Par ailleurs, avec la génération Cascade Lake, les prochains Xeon Scalable de l’entreprise américaine supporteront la mémoire persistante Intel Optane DC. Et de nouvelles fonctionnalités d’IA (Intel DL Boost), comme l’a indiqué Silicon.fr.

 

En conséquence, Intel a révisé à la hausse le marché adressable total (TAM) pour son activité orientée data. Le fondeur parle désormais d’un TAM de 200 milliards de dollars en 2022, contre 160 milliards de dollars initialement.

 

Pour Navin Shenoy, vice-président exécutif et directeur général du groupe datacenter d’Intel, l’industrie doit appréhender la data de manière holistique.

 

« La réalisation d’un tel objectif exige une combinaison de technologies fonctionnant de concert – parmi lesquelles la vision par ordinateur, le calcul à la périphérie (edge computing), la cartographie, le cloud et l’intelligence artificielle », a-t-il déclaré.

Intel se positionne ainsi comme un acteur technique incontournable de ce marché.

Yves Pellemans's insight:

200 milliards de dollars à horizon 2022. C’est la valeur du marché que veut adresser le fondeur pour son activité orientée intelligence artificielle et datacenters.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Trimestriels : les revenus de Netapp en hausse de 12%

Trimestriels : les revenus de Netapp en hausse de 12% | Cloudnews | Scoop.it

Netapp a publié ses résultats financiers pour son premier trimestre fiscal 2019 qui s’est achevé fin juillet. George Kurian, directeur général explique d’emblée que le chiffre d’affaires, la marge brute, la marge opérationnelle et le bénéfice par action ont tous dépassé ses prévisions.

Le chiffre d’affaires a ainsi atteint 1,47 milliard de dollars, en hausse de 12% par rapport au 1,32 milliard de dollars du premier trimestre de l’exercice 2018. Le fournisseur de solutions de stockage affiche un bénéfice net (GAAP) de 283 millions de dollars, contre un bénéfice net de 131 millions de dollars sur la même période de l’an dernier.

« Les entreprises voient la valeur de notre stratégie Data Fabric et affichent une forte confiance en NetApp en effectuant des investissements à long terme dans notre logiciel IP pour activer le Data Fabric dans toute l’entreprise », a déclaré George Kurian lors de sa communication avec les analystes.

Netapp indique que sa gamme de produits 100% flash, y compris les produits et services FAS, EF et SolidFire 100% Flash, a progressé de 50% en glissement annuel pour atteindre 2,2 milliards de dollars en chiffre d’affaires annualisé.

« La transition du marché vers le Flash, qui en est encore à ses débuts, nous offre une énorme opportunité, car nous consolidons et déplaçons les équipements existants des concurrents et nous participons à de nouveaux déploiements de charges de travail et solutions », a poursuivi George Kurian.

Netapp prévoit que les revenus de son deuxième trimestre fiscal se situeront entre 1,45 milliard et 1,55 milliard de dollars, ce qui, à mi-parcours, représente une augmentation de 6% d’une année sur l’autre. Netapp précise également avoir relevé ses prévisions annuelles pour tenir compte de sa performance du premier trimestre.

Yves Pellemans's insight:
Netapp : +12% de CA et doublement du bénéfice Net (GAAP) 
more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Les systèmes de fichiers sont bien plus en danger qu’on ne le pense

Les systèmes de fichiers sont bien plus en danger qu’on ne le pense | Cloudnews | Scoop.it

Ces informations en libre-service sont la plupart du temps des données obsolètes mais sensibles, qui relèvent aujourd’hui de diverses réglementations, comme la loi de Sécurité Financière (LSF), le RGPD ou encore la norme de sécurité des données pour le secteur des cartes de paiement (PCI). Toute personne divulguant ou même consultant ces données sans autorisation adéquate s’expose à des sanctions. Quant à l’entreprise qui laisse fuiter de telles informations, les conséquences sur son activité ou à minima sur son image de marque seront désastreuses.

Savez-vous où sont stockées vos données sensibles ? Les pirates, eux, le savent

Le rapport Data Risk Report met l’accent sur les raisons d’élaborer des règles pour protéger des données, et sur la nécessaire prise en compte de ces questions par les conseils d’administration. Sans cela, les pirates, qu’ils soient à l’intérieur ou à l’extérieur de l’entreprise, ont pour ainsi dire le champ libre pour consulter et dérober des données critiques. Lors des attaques internes, ils n’ont qu’à fureter pour identifier les fichiers sensibles laissés sans protection. Quant aux attaques externes, force est de constater que les cyber-malfaiteurs continuent de franchir sans difficulté les barrières de sécurité.

L’hameçonnage reste une des techniques privilégiées par les attaquants extérieurs : un e-mail, provenant apparemment d’une source légitime, contient un lien ou tout simplement une pièce jointe. Lorsqu’un employé clique sur le lien ou la pièce jointe, un programme malveillant est installé sur l’ordinateur de l’utilisateur. Piloté depuis un site distant, ce programme permet aux pirates d’accéder aux ressources internes de l’entreprise, tout comme s’ils étaient eux-mêmes employés de l’entreprise.

En plus de l’hameçonnage, les pirates ont su tirer profit de la faiblesse des mots de passe, des failles de sécurité connues mais non corrigées, ou encore d’un afflux constant de nouvelles vulnérabilités qu’ils savent exploiter. Avec toutes ces techniques à leur disposition, rien n’est plus aisé pour ces pirates de devenir des « employés fictifs » et d’accéder à toutes les données qui n’ont pas été protégées.

Pourquoi les attaques ne sont-elles pas détectées plus tôt ?

Malheureusement, la plupart des entreprises ne savent pas vraiment ce qui se passe au sein de leurs infrastructures. Quand nous échangeons avec les responsables des systèmes d’information et de la sécurité informatique, nous posons souvent une question toute simple : « comment savez-vous si vos 10 000 fichiers contenant des informations sensibles ont été corrompus, effacés ou consultés ? »

La réponse pourra surprendre ceux qui n’ont jamais travaillé dans l’informatique : la plupart des organisations ne surveillent pas l’utilisation de ces fichiers. Et si l’on ne surveille pas l’utilisation qui en est faite des fichiers, il semble très difficile de détecter quand ceux-ci font l’objet d’une malveillance. Imaginons qu’une société de cartes de paiement cherche à identifier des transactions frauduleuses alors qu’elle n’est pas capable de contrôler les débits — une véritable gageure.

Investissez là où sont concentrés les risques

Si votre entreprise envisage d’investir dans la sécurité, les quelques conseils suivants vous aideront à bénéficier pleinement du potentiel de ces investissements :

> Tout d’abord, évaluez les risques en faisant l’inventaire de ce qu’il vous faut protéger.Identifiez les données importantes, sensibles et réglementées aux endroits qui vous semblent évidents et, plus important encore, là où vous ne vous attendez pas à en trouver.
Ne vous arrêtez pas là : vous devez encore identifier les personnes qui y ont accès, vérifier si ces données sont utilisées et si oui, par qui. Vous avez besoin de ces différentes informations pour décider si les données en question sont nécessaires (plus de la moitié sont probablement obsolètes), pour identifier les endroits où elles sont les plus exposées et donc pour repérer les utilisations frauduleuses.

> Ensuite, traitez ces risques. Verrouillez les données sensibles qui sont exposées. Efforcez-vous de compliquer les choses pour les attaquants, à l’intérieur et à l’extérieur de la structure, qui souhaitent utiliser les identifiants de connexion d’un employé lambda pour accéder aux précieux numéros de carte de crédit ou de sécurité sociale. Archivez, supprimez ou mettez en quarantaine les données obsolètes qui ne sont pas vraiment nécessaires et qui, en définitive, ont moins d’utilité pour vous que pour les pirates.

> Enfin, pour minimiser votre exposition au risque, vous devez désigner un coordonnateur qui prendra des décisions concernant vos données importantes. Parmi celles-ci : à qui l’accès doit-il être accordé ou enlevé, comment définir une utilisation acceptable, quand les données doivent-elles être effacées ? Aidez les coordonnateurs à prendre des décisions éclairées avec un minimum d’intervention de leur part, et vous pourriez même diminuer vos risques tout en augmentant votre efficacité.

Le flux de données est exponentiel. Nous devons donc nous attendre à davantage d’attaques. Les dirigeants des entreprises ont reçu le message et commencent à mettre en place des mesures de protection, sous la pression des nouvelles réglementations.
Rester dans l’ombre en espérant passer inaperçu est inutile : les organisations qui investissent intelligemment, en s’appuyant sur une analyse hiérarchisée des risques, seront bien mieux préparées pour faire face à la prochaine vague de cybercriminalité.

Yves Pellemans's insight:

Dans une entreprise, un dossier sur cinq est lisible par n’importe lequel des collaborateurs.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

5G : Samsung se place en pole position avec le modem Exynos 5100

Samsung a annoncé son modem 5G Exynos 5100 qui sera disponible d’ici la fin 2018.

Samsung pousse dans le domaine très en vogue de la 5G. La firme sud-coréenne a ainsi développé son propre modem 5G compatible avec la spécification standard la plus récente 5G New Radio (5GNR) – Release 15 – de l’organisme de normalisation mondial 3GPP.

Ce dernier n’a approuvé la version 15 qu’en juin dernier et l’a publiée en juillet.

 

Baptisé Exynos 5100, il est gravé en classe 10 nm (nanomètres).

Il porte en germe la promesse de débits allant jusqu’à 6 Gbit/s pour les ondes millimétriques, jusqu’à 2 Gbits/s pour les fréquences sub-6 GHz et 1,6 Gbps pour la 4G LTE Advanced.

Il supporte aussi les réseaux GSM et CDMA (2G), WCDMA (3G), TD-SCDMA et HSPA, permettant d’utiliser un seul téléphone dans de nombreuses régions, notamment aux États-Unis et en Corée du Sud.

Yves Pellemans's insight:

La puce Samsung Exynos 5100, supporte la 5G et la pré-5G, mais également le 2G, 3G et 4G. Elle sera disponible dès Décembre 2018.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Face aux Gafa, l'Inde veut reprendre le contrôle de ses données

Face aux Gafa, l'Inde veut reprendre le contrôle de ses données | Cloudnews | Scoop.it
À l'instar de la Chine, le gouvernement indien plancherait sur un projet de loi pour obliger les sociétés étrangères à stocker les données personnelles des utilisateurs sur son territoire. Le but : reprendre le contrôle des données de ses citoyens et favoriser l'écosystème local pour faire émerger ses propres mastodontes du numérique.

L'Inde sort ses griffes. Le gouvernement plancherait sur un projet de loi afin de compliquer l'expansion des géants américains de la tech sur son territoire. L'objectif : reprendre le contrôle des données de ses citoyens et favoriser l'écosystème local pour faire émerger ses propres mastodontes du numérique. Le projet de loi propose notamment de rendre obligatoire, pour les sociétés étrangères, le stockage des données personnelles des utilisateurs indiens - issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce - sur son sol. Les données devront également être rendues accessibles aux autorités locales en cas d'enquête.

Ce projet "est sans précédent et doit être pris très au sérieux", a déclaré auprès du Wall Street Journal Vinay Kesari, avocat basé à Bangalore, et spécialisé dans les questions de réglementation, ayant travaillé avec des entreprises technologiques américaines. "Cela pourrait avoir d'énormes implications."

Un marché potentiel de 390 millions d'internautes

Dans le viseur de l'Inde : les géants américains qui opèrent sur son territoire, comme Google, Apple, Facebook ou encore Amazon. À défaut de pénétrer le marché chinois, où la plupart des acteurs étrangers sont censurés au nom de la politique de contrôle de l'Internet, connue sous le nom de "Great Firewall of China" (en français, Grande Muraille électronique de Chine), les entreprises américaines ont redoublé d'efforts ces dernières années pour séduire le marché indien. À commencer par Amazon.

Suite aux difficultés rencontrées par l'ogre du commerce en ligne pour s'imposer en Chine face au géant Alibaba, le Pdg et fondateur Jeff Bezos a revu sa stratégie d'implantation en Asie pour miser sur l'Inde. En juin 2016, en visite dans le pays, l'homme d'affaires avait annoncé un plan d'investissement de 3 milliards de dollars, qui venait s'ajouter à celui de 2 milliards déjà mis sur la table en 2014. Car le marché indien a de quoi faire saliver le leader mondial de l'e-commerce. D'après RedSeer Consulting, les ventes annuelles des sites d'e-commerce en Inde représenteront entre 80 et 100 milliards de dollars d'ici 2020, contre 13 milliards en 2016. Et ce n'est pas tout. L'Inde est désormais le deuxième marché mondial des smartphones et recense 390 millions d'internautes, se classant ainsi derrière la Chine mais devant les États-Unis. De quoi faire saliver les sociétés de la Silicon Valley...
L'Inde imite la Chine

L'Inde marche ainsi dans les pas de son voisin chinois, qui, en rendant son marché difficile d'accès, a favorisé l'émergence des géants Alibaba et Tencent. La deuxième économie mondiale a notamment adopté une législation similaire en novembre 2016, forçant les entreprises étrangères à stocker sur son territoire les données des internautes chinois. Ainsi, Apple a construit son premier data center en Chine, et a confié la gestion des données de ses utilisateurs à un partenaire local.

Ce projet de loi arrive au moment où le régulateur indien des télécoms menace d'interdire l'accès au réseau mobile national aux iPhone. Depuis deux ans, Apple refuse de rendre disponible au téléchargement une application anti-spam, développée sous l'égide du gouvernement indien. Cette application a officiellement été créée pour lutter contre le démarchage téléphonique abusif - très répandu dans le pays - en filtrant les messages et les appels indésirables. De son côté, le fabricant d'iPhone suspecte l'appli de siphonner massivement les données personnelles des utilisateurs... Apple dispose de six mois pour se conformer aux exigences du régulateur, avant de se voir couper l'accès au réseau, rendant ses téléphones inutilisables.
Yves Pellemans's insight:

Le projet de loi propose de rendre obligatoire le stockage des données personnelles issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce, sur son sol !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Cloud décentralisé : l'utilisateur devient fournisseur... et les prix chutent

Cloud décentralisé : l'utilisateur devient fournisseur... et les prix chutent | Cloudnews | Scoop.it
Plusieurs start-up ont commencé à dessiner les contours d'offres cloud décentralisées. Face aux Alibaba Cloud, AWS, IBM Cloud, Google Cloud Platform et Microsoft Azure, ces jeunes pousses, parmi lesquelles figurent les Américains Dfinity et Otoy, le Polonais Golem ou le Français iExec, proposent une alternative. Un modèle distribué, souvent à base de blockchain, permettant à toute entreprise ou particulier de vendre de la ressource informatique (SaaS, IaaS, PaaS). Le concept a émergé en 2017 (lire notre article : Demain, vers une bourse du cloud computing). Mais désormais, la tendance s'accélère.

Comme souvent, les premiers frémissements viennent de Chine. Xunlei a annoncé en janvier dernier vouloir se positionner sur le créneau. Et le groupe Internet chinois ne part pas de rien. Il compte en effet tirer parti du million de serveurs multimédia déjà déployés chez ses clients particuliers. Des boîtiers, baptisés OneThing Cloud, qui leur permettent de stocker données et fichiers personnels. Cette base représenterait une manne de 1000 petabytes de stockage (pour environ 10 terabytes de bande passante). Et ce ne serait là qu'un début. Xunlei affirme avoir reçu des commandes pour 20 millions de boîtiers supplémentaires (selon Forbes). Pour l'heure limitée à la Chine, la commercialisation de OneThing Cloud devrait être étendue à terme à l'Asie du Sud, à l'Inde et aux Etats-Unis.

Au premier trimestre, Xunlei a lancé un premier service cloud décentralisé tirant parti de l'infrastructure OneThing Cloud : un réseau de diffusion de contenu web (CDN). Une brique que l'entreprise de Shenzhen compte enrichir dans les prochains mois avec d'autres solutions d'IaaS (centrées sur le calcul, le stockage). Pour inciter ses clients à donner accès à leurs ressources inutilisées, Xunlei offre des crédits gratuits à ses services (VOD, accélération réseau, stockage de fichiers…), et ce via sa propre crypto-monnaie, le LinkToken.
100 millions de dollars de R&D

Reste qu'un cloud distribué, à travers lequel les ressources IT sont réparties sur des milliers voire des millions de terminaisons réseau, se révèle par définition nettement plus complexe à opérer qu'un cloud centralisé. Face à ce défi technique, Xunlei indique avoir dépensé plus de 100 millions de dollars de R&D depuis 2014. "Il faut dire également que tous les traitements ne sont pas aussi facilement applicables à une infrastructure informatique décentralisée", prévient Gilles Fedak, chercheur à l'Inria et fondateur d'iExec. "Globalement, il vaut mieux être en présence d'une application déterministe, et éviter les systèmes aléatoires. De même, certains environnements type site web seront plus difficiles à distribuer."

A l'instar de Xunlei, iExec n'en est plus à l'étape de la preuve de concept. Après une ICO de 12,5 millions de dollars bouclée en mai 2017, cette spin-off de l'INRIA a lancé sa plateforme en novembre. Centrée pour l'heure sur le SaaS, elle s'articule autour d'une place de marché (Dapp Store) où les éditeurs peuvent venir vendre leurs applications cloud. Sous le capot, la blockchain Ethereum et ses smart contracts orchestrent la logique commerciale : les conditions de mise à disposition des apps et les transactions financières sous-jacentes opérées via l'échange de tokens. Un kit de développement est mis à la disposition des éditeurs pour créer des applications.

"Notre objectif est de proposer une solution cloud similaire à celle d'Amazon Web Services, mais beaucoup moins chère"

Pour l'heure, la plateforme d'iExec compte une quinzaine de logiciels. "Ils recouvrent des workloads éligibles à une architecture de calcul réparti. On en trouve dans le rendu graphique, l'IA d'apprentissage, avec une déclinaison cloud de Tensorflow par exemple, ou encore dans la prédiction financière", égraine Gilles Fedak. En janvier, iExec a lancé un hackathon avec à la clé 150 000 dollars à gagner. Objectif : attirer de nouvelles applications. "Sur 50 candidats, nous en avons sélectionné 15. Notre objectif est dès lors de hisser notre app store à 30 à 40 applications d'ici la fin du premier semestre", précise Gilles Fedak.

En parallèle, iExec planche sur l'extension de son offre au IaaS. Pour doter sa place de marché d'un premier pool de fournisseurs de capacité de calcul, la jeune pousse a commencé à signer des alliances. Parmi ses premiers partenaires figurent le spécialiste du cloud mining Genesis Mining (qui entend faire appel à elle pour commercialiser les ressources inutilisées de sa ferme de calcul). Mais également Stimergy, un spécialiste des chaudières connectées, Cloud&Heat, un fournisseur de systèmes de cloud privé, ou encore Qarnot Computing, qui commercialise des serveurs-radiateurs.
Objectif sécurité

"Notre objectif est de proposer une solution cloud similaire à celle d'Amazon Web Services, mais beaucoup moins chère", explique de son côté Chen Lei, PDG de Xunlei. Le modèle est imparable : le groupe chinois fait reposer l'investissement matériel sur les épaules de ses abonnés. Chez iExec, on met aussi en avant des coûts censés être plus faibles, mais pas pour les mêmes raisons. "A terme, les services cloud distribués via notre plateforme devraient afficher des prix plus faibles que le marché du fait de la dynamique de concurrence qui va s'instaurer entre les éditeurs impliqués", commente Gilles Fedak.

Autre point fort mis en avant par iExec : son infrastructure de sécurité. La société lyonnaise a mis au point un algorithme, baptisé Proof of Contribution, qui, en fonction de la capacité d'un éditeur à livrer correctement un service cloud lui attribue un score de réputation. "Sachant qu'en amont chaque fournisseur doit verser une caution. Si l'exécution du service est réalisée avec succès pour le compte d'un client, la caution lui est reversée, dans le cas contraire, il la perd", ajoute Gilles Fedak. Dans la même logique, iExec a optimisé sa plateforme pour permettre aux applications qui y sont exécutées de tirer parti des processeurs Intel SGX, et de leur mécanisme d'enclave sécurisé. Un dispositif qui garantit (via un système de signature) qu'un logiciel a été correctement exécuté sur une machine, et ce sans que quiconque ait pu y avoir accès ou le falsifier, y compris le propriétaire de cette dernière.

Pour réaliser ce tour de passe-passe, iExec s'est notamment rapproché d'Intel, mais aussi d'IBM. La start-up a commencé à tester le principe des enclaves sur le cloud public de Big Blue, qui implémente justement la technologie SGX (lire le post sur le site d'iExec). "Mais il ne s'agit pas du seul grand fournisseur de cloud avec lequel nous discutons. Nous espérons bien qu'ils seront au moins deux à rallier notre réseau au moment de l'extension de notre plateforme au IaaS", confie Gilles Fedak. Une nouvelle étape dont le coup d'envoi devrait être donné d'ici fin mai.
Yves Pellemans's insight:

De jeunes pousses proposent une alternative. Un modèle distribué, souvent à base de blockchain, permettant à toute entreprise ou particulier de vendre de la ressource informatique (SaaS, IaaS, PaaS). Le concept entre cloud et Edge computing a émergé en 2017 et la tendance s'accélère. A suivre ....

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Uber multiplie les partenariats pour que ses taxis volants puissent décoller en 2023

Uber multiplie les partenariats pour que ses taxis volants puissent décoller en 2023 | Cloudnews | Scoop.it

L’Université du Texas à Austin rejoint la longue liste des partenaires rassemblés par Uber afin de l'aider à concevoir les moteurs de ses futurs taxis volants, a annoncé l'institution le 9 août. Il faut dire qu'il ne reste plus que deux ans à la société de VTC pour respecter le calendrier de son programme Uber Elevate, qui fixe les premiers tests en 2020. La commercialisation du service est quant à elle prévue à Dallas-Forth Worth, Los Angeles et Dubai en 2023.


L’équipe d’ingénieurs de l'Université du Texas doit évaluer l'efficacité du nouveau système de motorisation intégré aux taxis volants. Le concept consiste en deux moteurs empilés l’un sur l’autre et tournant dans le même sens. L’armée américaine, dont Uber s’est également attaché les services, y travaille encore. Mais selon les premiers essais, il constituerait à ce jour l'approche la plus efficiente pour ce type de transport. Les ingénieurs de l'Université du Texas doivent également mesurer le niveau sonore de ces nouveaux moteurs afin qu'ils ne soient pas un frein à l'autorisation de voler en milieu urbain. Uber collabore aussi avec la Nasa et d’autres entreprises du secteur aérospatial pour s'assurer que ces moteurs soient suffisamment puissants.



185 000 DOLLARS VERSÉS À L’UNIVERSITÉ DU TEXAS

Le projet sera-t-il prêt à temps ? Difficile à dire car il s’avère ambitieux. Les futurs taxis volants devront pouvoir transporter jusqu’à quatre passagers à une vitesse comprise entre 240 et 320 kilomètres/heure et une altitude de 300 et 600 mètres. Ils décolleront et atterriront via des hubs verticaux nichés sur les toits des immeubles. Ceux-ci leur permettront de recharger leurs batteries en cinq minutes chrono. Juste le temps de débarquer et de reprendre de nouveaux passagers. Plus de 1000 décollages par heure sont prévus sur certains hubs aux heures d'affluence.

Dans ce projet, Uber établit un cahier des charges pour ses partenaires, mais le groupe n'endosse pas le rôle de constructeur ni d'acheteur. Il veut conserver son rôle de plateforme, le même que celui qu'il joue aujourd'hui auprès des VTC, souligne Le Monde. Cela ne l'empêche pas de mettre la main à la poche. La société aurait ainsi versé pas moins de 185 000 dollars à l’Université du Texas pour les 18 mois de labeur à venir, rapporte l'Austin Business Journal. Mais cela sera-t-il suffisant ? Car même si son taxi voyait le jour dans les temps, sans l’aval des autorités américaines, il risquerait fort de ne jamais décoller.

Yves Pellemans's insight:

Le projet sera-t-il prêt à temps ? Difficile à dire car il s’avère ambitieux. Les futurs taxis sont des aéronefs à décollage et atterrissage verticaux totalement électriques qui tiennent autant de l’hélicoptère que du drone ...

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Sécurité cloud : AWS expose des données d'infrastructure de GoDaddy

Amazon Web Services (AWS) a exposé par accident options de tarification et configurations détaillées de 31 000 serveurs utilisés par GoDaddy.

AWS, référence mondiale du cloud public, et GoDaddy, poids lourd de l’enregistrement de noms de domaine et de l’hébergement web, se seraient bien passés de cette exposition.

Des documents détaillant l’infrastructure et des ressources utilisées par GoDaddy dans le cloud d’Amazon (AWS) ont été accessibles publiquement sur Internet. C’est ce qu’indique un rapport de la société de cybersécurité UpGuard, dont Engadget s’est fait l’écho.

Le 19 juin 2018, un chercheur de l’équipe UpGuard Cyber Risk a découvert un « bucket » (seau) du service de stockage Amazon S3 (Simple Storage Service) publiquement lisible, nommé abbottgodaddy. S’y trouvaient des feuilles de calcul appartenant à GoDaddy, dont un fichier Excel de 17 Mo.

Dans son analyse mise en ligne le 9 août, UpGuard indique que les fichiers en accès public contenaient « des informations de configuration de haut niveau pour des dizaines de milliers de systèmes et des options de tarification pour l’exécution de ces systèmes dans le cloud d’AWS ».

Ce sont ainsi 31 000 serveurs dont les détails ont été exposés (noms d’hôtes, systèmes d’exploitation, CPU, ressources mémoire, charges de travail, régions AWS, etc.).

« Les remises offertes en fonction de différents scénarios » étaient également disponibles. En fait, « ces données permettaient de cartographier un déploiement à très grande échelle d’une infrastructure basée sur le cloud AWS », a expliqué l’entreprise de cybersécurité.

Comme pour d’autres expositions de données sensibles répérées par ses soins, UpGuard a rapidement alerté les sociétés concernées par sa découverte. Des dispositions ont été prises dans la foulée pour colmater la brèche, selon la firme californienne.
Les « meilleures pratiques » négligées ?

AWS a confirmé l’information. En revanche, ni un tiers, ni le client n’ont été mis en cause. « Le bucket en question a été créé par un commercial AWS pour stocker des scénarios de tarification AWS prospectifs », a expliqué un(e) porte-parole à Engadget. Mais ce commercial n’aurait « pas suivi les meilleures pratiques » d’AWS en la matière. Lampiste ?

Normalement, les buckets d’Amazon S3 sont privés par défaut (accessibles au titulaire du compte et à l’administrateur root). Mais, ils peuvent être configurés de manière à permettre un accès public. Que ce soit par erreur ou à dessein. Dans ce cas, toute personne qui visite l’URL du seau concerné peut accéder à son contenu et le télécharger…

Au risque de tomber entre de mauvaises mains et d’impacter les finances et l’activité des organisations ciblées. AWS a donc tenté d’apaiser. « Aucune information de clients GoDaddy n’était dans le bucket exposé », a indiqué le fournisseur cloud. De quoi rassurer les 18 millions de clients revendiqués dans le monde par le registrar américain GoDaddy ?
Yves Pellemans's insight:

Ce sont ainsi 31 000 serveurs dont les détails ont été exposés (noms d’hôtes, systèmes d’exploitation, CPU, ressources mémoire, charges de travail, régions AWS, etc.).

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Black Hat 2018 : 5 tendances clés de cybersécurité

L’édition 2018, la 21e, de la conférence Black Hat USA a lieu cette semaine à Las Vegas (Nevada). Plus de 17 000 professionnels de la sécurité informatique et du renseignement échangent entre eux et testent de nouveaux produits et services.

Automatisation, intelligence artificielle, protection des données et des infrastructures critiques à l’heure de la mutiplication des terminaux et objets connectés sont au coeur des débats, rapporte CRN. Voici 5 grandes tendances mises en exergue :
SOAR, IA, Data, logistique, IOT

1. Vers une prochaine génération de solutions d’orchestration et d’automatisation de gestion des incidents de sécurité (SOAR – Security Orchestration and Automation Response).

2. Montée en puissance de l’intelligence artificielle (IA) et des capacités d’analyse du comportement des utilisateurs et des entités (UEBA – User and Entity Behavior Analytics) basée sur l’apprentissage automatique (Machine Learning).

3. Investissements en hausse des entreprises dans la protection des données et la gestion des accès. L’évolution du cadre réglementaire (RGPD – Règlement général sur la protection des données, directive e-Privacy…) explique la tendance.

4. La chaîne d’approvisionnement et la logistique sont fortement menacées (attaques par rançongiciels (ransomwares) et malwares destructeurs, menaces persistantes…). Et les tierces parties de la chaîne peuvent également être des cibles.

5. La surface d’attaque augmente encore avec l’internet des objets (IoT).
Yves Pellemans's insight:

Orchestration de sécurité, analyse, data, logistique et infrastructure à l’heure du tout connecté sont au coeur de la conférence Black Hat.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

HPC : Fujitsu donne les détails de son CPU A64FX

Conférence Hot Chips 2018 : Fujitsu a divulgué des détails techniques sur son processeur A64FX à technologie ARM. Il est prévu qu’il fasse ses débuts dans le supercalculateur Post-K censé être opérationnel en 2021.
Au coeur du supercalculateur Post-K en 2021

Le groupe japonais avait déjà pu tester un prototype de son CPU en juin dernier.

Le projet de supercalculateur exascale Post-K avait été lancé par Fujitsu de concert avec l’institut de recherche japonais Riken en octobre 201. Il s’agissait alors de développer un successeur au projet de supercalculateur K de 10,5-petaflop lancé en 2006.

Post-K doit permettre d’atteindre une performance d’exécution des applications jusqu’à 100 fois supérieure à celle du supercalculateur K.

A cet effet, le CPU de Post-K est composé de pas moins de 8 786 millions de transistors. Il est prévu qu’il soit gravé dans une technologie avancée FinFET de 7 nm (nanomètres) de finesse de gravure.
2,7 téraflops

Selon Fujistu, il s’agira du premier processeur ARM à tirer parti du jeu d’instructions Scalable Vector Extensions (SVE) prévu pour le calcul haute performance (HPC). Il devrait pouvoir également être exploité pour des applications d’IA (Intelligence Artificielle).

L’A64FX embarque 48 coeurs et 4 autres dédiés à des tâches telles que la gestion des entrées /sorties, la réduction du jitter sur les horloges…

Côté performances, pour les calculs en virgule flottante, Fujitsu affirme que l’A64FX peut atteindre 2,7 téraflops pour les opérations 64 bits (FP64), plus de 5,4 téraflops pour les opérations 32 bits (FP32) et plus de 10,8 téraflops pour les opérations 16 bits (FP16) opérations.

Le CPU de Fujitsu devrait être environ 2,5 fois plus rapide que le Sparc64 XIfx, l’ancien processeur haute performance de Fujitsu. Ce ne devrait toutefois pas être au niveau des 10 superordinateurs les plus puissants en 2021, selon Top500.
Yves Pellemans's insight:

Fujitsu a dévoilé les spécifications de son A64FX. Ce processeur équipera le premier supercalculateur exascale japonais répondant au nom de “Post-K”

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Interactions humain-machine : 5 technologies émergentes clés

Interactions humain-machine : 5 technologies émergentes clés | Cloudnews | Scoop.it
Dans l’édition 2018 de son Hype Cycle des technologies émergentes, le cabinet Gartner a identifié 5 grandes tendances qui, selon la société d’études, brouillent les frontières entre l’humain et la machine.

L’intelligence artificielle et ses applications sont le moteur d’une dynamique de long terme. Dans ce contexte, Gartner met en exergue les 5 grandes tendances suivantes :
1. L’IA démocratisée

Les technologies d’intelligence artificielle (IA) seront partout dans les 10 prochaines années, prévoit Gartner. « Les mouvements et les tendances comme le cloud computing, la communauté des ‘markers’ (créateurs) et l’open source vont finalement propulser l’IA dans les mains de chacun », souligne la société d’études.

Cette diffusion massive de l’IA sera portée par différents segments technologiques, à savoir : l’IA plateforme en tant que service (PaaS), l’intelligence artificielle générale (capable de réaliser différentes actions humaines). Mais aussi la conduite autonome, les robots mobiles autonomes et les plateformes conversationnelles basées sur l’IA.

Sans oublier : les réseaux de neurones profonds, les véhicules volants autonomes, les robots intelligents et les assistants virtuels.
2. Les écosystèmes numériques

Ils entrent rapidement et en force dans le Hype Cycle de Gartner.

Une tendance forte portée par la blockchain (le protocole décentralisé de gestion des transactions, utilisé, entre autres, par les cryptomonnaies) et ses déclinaisons, dont la blockchain pour la sécurité des données.

Mais aussi : les jumeaux numériques (digital twins) d’infrastructures physiques, l’internet des objets (IoT) et ses plateformes. Et encore les graphiques et la modélisation des connaissances.
3. Biohacking à faire soi-même

La biologie peut-être piratée ou bricolée à domicile dans le but d’augmenter les capacités des êtres (humain augmenté, transhumanisme). Et ce à l’aide de technologies : biopuces, biotech, tissus artificiels, interface cerveau-machine, réalité augmentée, réalité mixte…

Et le phénomène va prendre de l’ampleur ces prochaines années. « Cependant, des interrogations demeurent quant à savoir à quel point la société est prête à accepter ce genre d’applications. Et quelles questions éthiques elles posent », prévient le cabinet Gartner.
4. Expériences immersives transparentes

Des technologies centrées sur l’humain rendront les expériences plus immersives entre les êtres, les espaces et les objets.

Dans cette catégorie, Gartner inclut notamment : l’impression 4D, le domicile connecté, les espaces de travail intelligents et la périphérie intelligente (Edge IA).
5. Infrastructure ubiquitaire

Les technologies soutenant l’infrastructure uniquitaire (dont les nanotubes de carbone, les composants neuromorphiques et l’informatique quantique) montent en puissance.

C’est plus particulièrement le cas, observe Gartner, de la 5G et des réseaux de neurones profonds. Ils devraient atteindre des sommets dans les deux à cinq ans.
Yves Pellemans's insight:

IA, blockchain, biohacking, immersion, informatique ubiquitaire sont au coeur du Hype Cycle 2018 des technologies émergentes identifiées par Gartner.

more...
Synaltic's curator insight, August 31, 8:34 AM
Share your insight
Scooped by Yves Pellemans
Scoop.it!

Quelles différences entre CLOUD Act et PATRIOT Act ?

Quelles différences entre CLOUD Act et PATRIOT Act (et quels impacts sur les entreprises françaises)

 


Les deux lois sont bien distinctes. Mais elles s'appliquent aux entreprises françaises dès qu'elles mettent leurs données chez un prestataire d'origine américaine - ou localisé aux Etats-Unis. Voici tous les éléments pour expliquer ces « Acts » à son COMEX. Et deux pistes pour se protéger de « l'extraterritorialité » du droit américain.

Plus le cloud se démocratise, plus les questions juridiques s'invitent dans les problématiques IT. En confiant des données à des prestataires souvent américains (Salesforce, AWS, Workday, Dropbox, NetSuite, Google ou Microsoft pour n'en citer que quelques uns dans le IaaS, le PaaS et le SaaS), les entreprises françaises se retrouvent concernées par les lois des Etats-Unis (la fameuse « extraterritorialité du droit américain »).

 

 

 

 

Yves Pellemans's insight:

Les métiers, tout comme les DSI et les Comex des entreprises, ont tous intérêt à bien comprendre les subtilités du PATRIOT Act et du plus récent CLOUD Act pour s'en préserver !

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

VMware vRealize, la star des cloud management platform explose en France

VMware vRealize, la star des cloud management platform explose en France | Cloudnews | Scoop.it

Avec sa CMP, VMware revient sur le devant de la scène dans les chantiers de cloud hybride dans l'Hexagone. Auchan, le CNRS, Thales et EDF ont sauté le pas.

 

Un DSI doit souvent concilier des injonctions parfois contradictoires. La direction générale et les métiers le somment de basculer plus vite vers le cloud public. Ses équipes se plaignent de devoir attendre des semaines voire des mois pour obtenir des environnements de développement, de test ou de production. Dans le même temps, le DAF lui demande de faire des économies en réduisant ses coûts opérationnels. Enfin de son côté, le DSI doit composer avec un existant informatique qu'il se doit de moderniser avant de penser à l'étape suivante. Tous les DSI n'ont pas la chance de pouvoir conduire comme celui de Veolia une stratégie data center-less. 

 

Dans ce contexte, les offres dites de cloud management platform (CMP) connaissent un joli succès. Une CMP se présente comme une couche de pilotage qui vient se poser sur les différentes infrastructures cloud (privées et/ou publiques) pour les interfacer et manager les applications qu'elles mettent en musique. Une CMP se charge d'orchestrer le provisioning des logiciels, répartir les charges serveur, mesurer la consommation des ressources informatiques, gérer leur refacturation en interne... Via cette brique, le DSI met ainsi à disposition des métiers de l'entreprise un catalogue de services multicloud.

 

Spécialiste de la gestion des infrastructures informatiques virtualisées, le groupe américain affiche nombre de clients très investis dans le cloud privé. Ce qui lui confère un avantage clé dans cette nouvelle bataille. Ils ont déjà souvent déployé des usines de virtualisation de serveurs (avec vSphere), du stockage (avec vSAN), voire du réseau (avec NSX). Certains se sont même essayés au cloud hybride avec vCloud et VMware Cloud sur AWS qui jette un pont entre la plateforme de l'éditeur et les services de cloud public d'AWS.

Tenir la charge dans le multicloud

Baptisée vRealize, l'offre de CMP de VMware se présente sous la forme d'une suite logicielle intégrant les principaux modules d'une solution digne de ce nom. Sa brique la plus visible, vRealize Automation (VRA), n'est autre qu'un portail en self-service à partir duquel le développeur fait sa demande en ressources IT. Si cette demande est approuvée, VRA provisionnera les machines virtuelles en mettant en œuvre éventuellement des modèles applicatifs standardisés. "Si une application tourne sur Windows Server, elle fera automatiquement l'objet de règles ad hoc en termes de sécurité, de correctifs... Ce qui contribuera à limiter les erreurs humaines", souligne Frédéric Grange, directeur technique France chez VMware.

vRealize Operations permet, lui, de gérer l'infrastructure virtuelle sous-jacente afin de répartir les charges de travail sur les serveurs, résoudre les problèmes et, in fine, optimiser la disponibilité des applications hébergées. "Sur les volets de la sécurité et de la conformité, l'administrateur définit ce que les profils utilisateurs ont le droit de faire", poursuit Frédéric Grange. "La plateforme doit également faire preuve de résilience et tenir la charge dans des environnements variés voire en mode multicloud."

"Demain, un développeur d'EDF pourra commander des ressources IT directement depuis la plateforme, en self-service"

Autre module de la suite, vRealize Log Insight collecte les logs et les analyse en temps réel. Enfin, vRealize Business teste les scénarios de déploiement et évalue leur impact en termes de coûts. "Le client renseigne ses coûts par CPU, Go de RAM... Il sait ainsi que telle application lui revient à X euros par mois. Sachant qu'il dépassera par exemple dans trois mois son budget prévisionnel, il pourra décider de remettre au pot ou bien de décommissionner le système en question s'il est pas ou peu utilisé", analyse Frédéric Grange. Dans une optique de brokering, une entreprise peut aussi décider de placer ou non une application dans le cloud en comparant via la CMP les coûts d'un hébergement interne, avec ceux d'Amazon Web Services (AWS), Google Cloud Platform (GCP) ou Microsoft Azure.

Autour de sa CMP, VMware affiche déjà plusieurs références en France. Auchan Retail France s'est appuyé sur vRealize pour mettre en œuvre un cloud privé reposant sur le cloud dédié d'OVH, Dedicated Cloud (lui-même à base de technologies VMware). La DSI du distributeur entend ainsi évoluer vers un rôle de broker de clouds en délivrant des services refacturés aux différentes entités du groupe. Le temps de déploiement d'une application a été fortement réduit, passant de 8 semaines minimum auparavant à moins de 48 heures aujourd'hui. Dans le même temps, les coûts d'exploitation et d'intégration ont baissé de 5%. Pour la suite, Auchan Retail France prévoit de construire un cloud Kubernetes adossé à AWS et Google Cloud Platform.

Réduire le temps de déploiement

Scénario identique pour le CNRS qui n'arrivait plus à faire face aux demandes de ses équipes IT en matière d'environnements de développement logiciel, risquant de les voir contourner sa plateforme. Grâce à la CMP de VMware, l'institut de recherche public français a pu réduire le délai de mis à disposition de ces derniers de deux semaines à quelques minutes. Sa DSI faisait par ailleurs face à un problème de consolidation de data centers. Elle a fait le choix de vCloud Foundation, "une sorte de mini data center clé en main" selon les termes de Frédéric Grange, comprenant entre autres les solutions VMware SDDC Manager, vSAN, NSX, vSphere et vRealize. Thales souhaitait, lui, permettre à des partenaires de consommer ses applications internes tout en traçant leurs interactions. D'où la encore le choix de la CMP de VMware.

Mais en France, le projet vRealize le plus important est en cours de mise en production. Il est signé EDF. L'énergéticien dispose d'un data center d'environ dix mille serveurs (en majorité basés sur la technologie x86) pour ses besoins et celui de ses filiales. Un centre de données dans lequel il a déployé un cloud privé. En parallèle, le groupe français envisage d'évoluer vers le cloud hybride. Dans cette optique, il a contractualisé avec deux fournisseurs de cloud public : Amazon Web Services et Microsoft.

Pour EDF, l'objectif est aussi d'uniformiser et standardiser le pilotage de ces différents clouds, en passant de trois portails d'accès à un seul. Un portail unifié, hébergé sur une infrastructure vRealize Automation 7.3. "Il s'agit de simplifier les modalités de demande de ressources IT de nos clients internes", explique Fulvio Michelis, responsable du projet de CMP chez EDF. "Aujourd'hui, c'est un process lourd, impliquant de nombreux interlocuteurs. Demain, un développeur pourra commander des ressources directement depuis la plateforme, en self-service."

En termes de ressources cloud, EDF ne se limite pas au IaaS et au PaaS. Il exploite aussi des composants cloud d'architecture (frontaux, bases de données, flux de données...), des containers logiciels, des infrastructures big data...  Pour autant, EDF n'entend pas laisser tous ces services IT en open bar. Sa DSI posera des règles d'aiguillage et proposera, en fonction notamment de la criticité des données et de l'environnement souhaité (développement, test, production…), de limiter l'application au cloud privé, ou de la rendre éligible au cloud public. Le formulaire de demande de provisioning de ressources a été développé en interne, EDF jugeant celui proposé par VMware trop technique pour être accessible à tous les profils. De même, Fulvio Michelis juge l'interface de vRealize peu intuitive. "Les futures versions 7.4 et 7.5 prévoient néanmoins des améliorations en matière ergonomique et de personnalisation", note-t-il. Il déplore également les lenteurs d'affichage de la solution pour obtenir une machine virtuelle.

Chez EDF, VMware doit aussi faire face à une organisation complexe. Le géant français de l'électricité compte 150 000 utilisateurs et autant de groupes (affiliés à un service, une direction...) dans son annuaire Active Directory. Pour ce projet ambitieux, les équipes de l'éditeur américain ont travaillé pendant un an et demi aux côtés de celles d'EDF.

Yves Pellemans's insight:

Selon IDC, le marché du CMP s’élèverait à 3,5 milliards $ en hausse de 24,2% d'une année sur l'autre. VMware arrive en tête du segment avec plus de 21% de parts de marché, devant Microsoft, IBM, BMC et HPE

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Troisième trimestre de croissance d’affilée pour Cisco qui termine son exercice 2018 en beauté

Troisième trimestre de croissance d’affilée pour Cisco qui termine son exercice 2018 en beauté | Cloudnews | Scoop.it
Cisco a publié ses résultats pour l’exercice qui s’est achevé fin juillet. À 12,8 milliards de dollars, son chiffre d’affaires trimestriel progresse de 6%. Une croissance tirée par les produits, qui progressent de 7%, contre 3% pour les services (un tiers de son CA total), qui profitent néanmoins de la traction pour les services avancés.

Les plates-formes d’infrastructure, qui représentent toujours plus de 50% de son chiffre d’affaires, croissent de 7%. La commutation enregistre un bon trimestre avec une forte croissance sur les produits de campus, tirée par la montée en puissance des Catalyst 9000 et par la croissance des produits datacenter de la famille Nexus 9000, selon Kelly Kramer, directeur financier de la société.

Cisco revendique également « une bonne croissance du sans-fil » grâce notamment à Meraki et aux offres Wave 2. L’activité datacenter enregistre une croissance à deux chiffres grâce aux serveurs et à HyperFlex. Le routage a légèrement diminué en raison de la faiblesse du routage SP, constate Cisco.

Les applications progressent de 10% au total. Cisco constate notamment une croissance très solide dans les communications unifiées, la téléprésence, les conférences et sur AppDynamics. La sécurité a augmenté de 12%, avec de bonnes performances dans la sécurité réseau, la prévention de menaces unifiée, les solutions d’accès et la sécurité Web.

Le résultat opérationnel (non-GAAP) s’établit à 4,0 milliards de dollars, en hausse de 4%, avec une marge d’exploitation de 30,9%. Le résultat net s’élève à 3,3 milliards de dollars, en hausse de 8%.

Sur l’ensemble de l’exercice, les revenus de Cisco ont atteint 49,3 milliards de dollars, en hausse de 3%. Le bénéfice net s’élève à 12,7 milliards de dollars, en hausse de 5% par rapport à l’exercice 2017.

« 2018 a été une excellente année, a déclaré Chuck Robbins, CEO de Cisco au cours de la conférence téléphonique dédiée aux analystes transcrite par seeking Alpha. Nous avons renoué avec la croissance en investissant dans nos principales filiales, en offrant de nouvelles plates-formes innovantes et en continuant d’orienter nos activités vers davantage de logiciels et d’abonnements. Nos résultats records démontrent la solidité de notre entreprise ainsi que la pertinence de notre orientation stratégique et et notre exécution au cours des douze derniers mois. »
Yves Pellemans's insight:

Les plates-formes d’infrastructure, représentent toujours plus de 50% du CA (+7%). La commutation enregistre une croissance sur les produits de campus par la montée en puissance des Catalyst 9000 et par la croissance des produits DC de la famille Nexus 9000.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Oracle : les crédits cloud sur la sellette

Oracle : les crédits cloud sur la sellette | Cloudnews | Scoop.it

En juin dernier, lors de la présentation de ses résultats trimestriels, Safra Catz assurait que le changement dans la comptabilisation des revenus Cloud de l’éditeur n’avait pas pour objectif de dissimuler de mauvaises nouvelles. Aujourd’hui, il semble que si.

En ce mois d’août 2018, Oracle doit fait face à une sérieuse remise en question de ses méthodes de ventes se rapportant à ses offres Cloud qui pourrait bien avoir de lourdes conséquences financières pour l’entreprise.

La première salve a été tirée le 10 août avec l’annonce d’un recours collectif du fonds de pension City of Sunrise Firefighters qui accuse Oracle d’avoir entre le 10 mai 2017 et le 19 mars 2018 « présenté de manière inexacte dans ses communiqués de presse, ses documents boursiers et ses déclarations les véritables moteurs de la croissance de ses revenus cloud ».

Récusant l’argumentaire officiel de l’éditeur mettant en avant les bénéfices supposés de ses produits en termes d’automatisation et de réduction des coûts, et l’intimité de son partenariat avec ses clients, le fonds de pension accuse Oracle d’user en réalité « de menaces et de tactiques d’extorsion pour conduire ses ventes cloud ».

Ces procédés n’auraient d’autre fin que de « dissimuler le manque de demande réelle pour ses services cloud, rendant la croissance insoutenable et conduisant à terme les clients à fuir ». City of Sunrise Firefighters cite notamment le fameux « audits » que l’éditeur diligente chez ses clients pour vérifier la bonne utilisation de ses produits.

La deuxième salve est venue de la publication le 12 août par Business Insider de la confession d’un ancien membre de l’équipe commerciale d’Oracle qui décrit par le menu les ficelles qui permettaient aux équipes de ventes de stimuler les ventes cloud et donc leurs commissions.

Selon lui, « tous les revenus du cloud ne provenaient pas [jusqu’à une date récente] de clients qui utilisaient réellement le Cloud d’Oracle ». L’une de ces ficelles consistait à conditionner l’attribution de remises sur les produits que les clients souhaitaient acheter à l’acceptation de crédits cloud qu’ils ne souhaitaient pas acheter. Peu importait que ces crédits cloud soient utilisés ou non.

Autre ficelle : la technique du « Annuler et remplacer » consistant à convertir des contrats de support dont les clients ne veulent pas – mais qu’Oracle les oblige à souscrire là encore via des remises ciblées – en crédits cloud.

L’avantage de cette formule pour les clients, c’est qu’ils n’étaient obligés de renouveler les contrats des produits qu’ils n’utilisaient pas à leur échéance (généralement au bout de trois ans). Les équipes de ventes d’Oracle ont largement recouru à ce système qui leur permettait de comptabiliser du chiffre d’affaires Cloud et de toucher les commissions afférentes.

Le problème, c’est que si les clients n’utilisent pas leurs crédits cloud, à l’issue des contrats le chiffre d’affaires cloud s’effondre. City of Sunrise Firefighters a la conviction que c’est ce qui est arrivé à Oracle cette année. Cela expliquerait qu’Oracle ait décidé de modifier le reporting de ses ventes cloud lors de la dernière publication de ses résultats trimestriels de sorte qu’on ne puisse plus distinguer leur évolution.

En mars dernier, lorsque la société avait révélé que la croissance de ses revenus cloud avait stagné et qu’elle prévoyait un ralentissement significatif de sa croissance cloud par rapport à celle de ses concurrents, le titre avait fortement chuté (-9%). Il n’était donc pas question de prendre le risque d’une nouvelle chute en juin.

Oracle a apparemment pris conscience tardivement des conséquences potentiellement néfastes de cette politique. En août 2017, un courrier électronique a été envoyé aux 35.000 employés travaillant au sein des équipes de vente pour leur enjoindre de ne vendre que des produits et services que les clients utiliseront vraiment, selon Business Insider. C’est aussi à cette époque qu’Oracle a mis en place sa stratégie Bring your own licence (BYOL) qui permet aux clients de transférer leurs licences sur sites existantes vers le Cloud.

Yves Pellemans's insight:

Le fonds de pension "City of Sunrise Firefighters" accuse Oracle d’user en réalité « de menaces et de tactiques d’extorsion pour conduire ses ventes cloud ».

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

La fin de la pénurie de flash NAND pourrait entraîner une chute spectaculaire des prix des SSD

La fin de la pénurie de flash NAND pourrait entraîner une chute spectaculaire des prix des SSD | Cloudnews | Scoop.it

SANTA CLARA, Californie - La pénurie de mémoire flash NAND qui a commencé à la fin de 2016 touche à sa fin et le marché se dirige tout droit vers une offre excédentaire qui devrait se traduire par un effondrement spectaculaire des prix.

 

C’est le message que Jim Handy, directeur général et analyste en semi-conducteurs chez Objective Analysis, a livré la semaine dernière lors du Flash Memory Summit, qui se tenait à Santa Clara. Handy estime que le prix des modules de mémoire flash NAND pourrait chuter de 80 % en deux trimestres. Selon lui, la baisse devrait ensuite se poursuivre à un rythme plus modéré de 30 % par an jusqu’à ce que la prochaine pénurie se produise.

Selon Handy, les pénuries et les périodes de surproduction sont de nature cyclique, et chacune dure généralement environ deux ans. Les prix montent en flèche en période de pénurie, ce qui stimule les profits des fabricants qui sont très motivés à réinvestir dans leur entreprise pour éviter de payer des impôts sur ces revenus. Ces investissements finissent par conduire à une offre excédentaire qui fait chuter les profits des fournisseurs jusqu’à ce que la demande rattrape le niveau de l’offre.

Le cycle typique de deux ans entre pénurie et surproduction pourrait se trouver rompu dans les années à venir. L’émergence de Yangtze Memory Technologies, un nouvel acteur chinois de la mémoire NAND - lourdement soutenu par le gouvernement chinois -, devrait entraîner une période d’offre excédentaire de trois ans au lieu des deux années habituelles.

Quadruplement de la capacité SSD pour le même prix 

Mais, même si Handy pense que les prix des puces flash NAND vont s’effondrer, il ne s’attend pas à ce que les prix des SSD chutent en proportion. Handy pense plutôt qu’un client qui obtient aujourd’hui un SSD d’une certaine capacité pour 1 000 $ obtiendra quatre fois plus de capacité au même prix à l’avenir.

« Les prix des SSD resteront les mêmes. Les capacités vont tout simplement exploser », indique Handy. « Un téraoctet pourrait être la plus petite capacité de SSD d’entreprise que vous pourrez acheter dans un an. »

Les prévisions varient en ce qui concerne le moment précis où la surcapacité se traduira par une chute des prix. Les services IT devraient toutefois remarquer une évolution dans les mois à venir.

« Au début, il y aura une énorme chute des prix, et ensuite, il y aura une baisse beaucoup plus modérée de 30 % par an jusqu’à la prochaine pénurie. Et puis la courbe redeviendra plate », a dit Handy.

Les modules flash fabriqués en 3D NAND 64 couches coûtent environ 8 cents par Go, alors que la NAND planaire en 16 nanomètres revient à environ 21 cents par Go, selon Handy. La récente pénurie est largement liée aux difficultés rencontrées par les fabricants à passer de la technologie planaire à la 3D NAND, plus dense.

« Ce qui a causé la pénurie, c’est que la fabrication n’a pas été aussi efficace qu’elle était censée l’être. Ce problème est en passe d’être résolu et c’est l’une des raisons pour lesquelles nous nous retrouvons dans cette offre excédentaire », a dit M. Handy.

La surcapacité de Flash pourrait avoir des effets en cascade sur l'industrie microélectronique

Handy prédit que les fabricants de modules flashes devraient réagir à la surproduction en fermant une partie de leurs usines de NAND planaire ou en les convertissant en usine de DRAM, une conversion, qui, à son tour, entraînera une baisse significative des prix de la mémoire vive.

« Nous aurons d’abord un effondrement du NAND. Ensuite, il y aura un effondrement subséquent des prix de la DRAM à mesure que la capacité excédentaire des usines NAND sera mise entre les mains des divisions mémoire. Il y aura alors une surcapacité et les fabricants de DRAM finiront par convertir leur capacité DRAM en capacité de fab générant alors un excédent de capacité de fab », indique Handy. « Tout le marché des semi-conducteurs court le risque d’une surcapacité parce que le domino NAND est sur le point de tomber. »

Yves Pellemans's insight:

Le prix des modules de mémoire flash NAND pourrait chuter de 80 % en deux trimestres. Tout le marché des semi-conducteurs court le risque d’une surcapacité parce que le domino NAND est sur le point de tomber.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Deep Learning : Intel jette son dévolu sur Vertex.AI

Intel a mis la main sur Vetex.AI, du nom d’une start-up spécialisée dans le deep learning, une branche de l’intelligence artificielle.

Si le montant de la transaction n’a pas été divulgué, on sait que l’équipe de la start-up composée de 7 personnes va rejoindre l’unité Movidius d’Intel (du nom de la start-up acquise par le fabricant de puces en 2016).

Fondée en 2015, Vertex.AI a développé la plate-forme open source PlaidML. Lancé en octobre dernier, elle consiste en un “moteur d’apprentissage profond portable“, qui permet aux développeurs de déployer des modèles IA sur tout type d’appareil, tournant sous Windows, Linux ou macOS.

PlaidML sera utilisé pour prendre en charge “divers matériels”. En outre, Intel a annoncé son intention d’intégrer sa bibliothèque nGraph de Vertex-.AI afin de développer des frameworks d’apprentissage en profondeur avec la plate-forme. Le développement de PlaidML va également être poursuivi et restera open source sous licence Apache 2.0.
Une véritable poussée d’Intel dans l’IA

Dans une contribution de blog, la start-up basée à Seattle se dit « ravie de faire progresser le deep learning flexible pour l’informatique de pointe avec Intel » et ajoute que « si vous souhaitez nous rejoindre, Intel recrute des experts d’IA, y compris ici à Seattle ».

Co-fondée par Choong Ng, Jeremy Bruestle et Brian Retford, Vetex.AI a reçu un soutien financier d’investisseurs tels que Curious Capital et Creative Destruction Lab, un accélérateur axé sur les start-ups spécialisées dans l’apprentissage automatique.

Durant les dernières années, Intel n’a cessé d’acquérir des start-ups spécialisées dans l’IA. Le groupe a ainsi jeté son dévolu sur Altera, Nervana (puces IA), Movidius et eASIC cette année.

Intel a également été occupé à développer son propre logiciel d’IA, avec notamment la boîte à outils OpenVINO.

Yves Pellemans's insight:

Intel met clairement le cap sur l'IA. Intel prévoit ainsi de futurs processeurs Xeon dotés de prédispositions pour les calculs IA.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

"Arrêtons de résumer l’IA aux algorithmes, il faut aussi innover dans le hardware !"

"Arrêtons de résumer l’IA aux algorithmes, il faut aussi innover dans le hardware !" | Cloudnews | Scoop.it
Quelle est la place du hardware dans la stratégie nationale de la France en IA ?

Igor Carron : Le hardware est quasi-inexistant dans la stratégie française en IA. Le rapport Villani n’y consacre qu’une ou deux pages et le mot ne figure pas une seule fois dans le discours prononcé par le président Emmanuel Macron le 29 mars. Depuis, je ne perçois pas d’attention de l’Etat sur le sujet, ni même des scientifiques. Parmi les instituts dédiés à l’IA qui se montent, il semble qu’aucun n’ait de composante hardware. Cela montre que la communauté académique du hardware n’a pas une taille suffisante. Et pour cause : elle n’a pas été assez financée par le passé.

En quoi l’IA a-t-elle besoin de nouveaux types de processeurs ?

La consommation d’énergie des équipements numériques croît déjà à une vitesse inquiétante. L’essor de l’IA accentue dramatiquement cette tendance, car l’IA est extrêmement gourmande en calculs. Nous aurons donc besoin de hardware plus efficace énergétiquement. En outre, les calculs liés à l’IA sont spécifiques. Alors que le calcul intensif traditionnel cherche toujours plus de précision d’arrondi avec un encodage sur 64 voire 128 bits, le deep learning s’accommode très bien d’une moindre précision et peut parfois se contenter de 8 bits. C’est une inversion des priorités, qui demandera probablement de nouveaux processeurs.

Sans compter la fin prochaine de la loi de Moore…

La fin annoncée de la loi de Moore [loi empirique qui traduit la progression exponentielle de la puissance de calcul des microprocesseurs depuis des décennies, NDLR] impose de toute façon de penser de nouvelles architectures de calcul. La fin de ce dogme ouvre des opportunités inédites. Il nous faut les saisir ! On a tendance à résumer l’IA aux algorithmes, aux logiciels, mais si on veut tenir compte du facteur énergétique et du moindre besoin de précision, il faut aussi innover dans le hardware. Ce sera source d’innovation dans le logiciel. Regardez Snips et son assistant vocal qui tourne en local sur du hardware peu puissant pour assurer la protection des données personnelles : ils ont dû innover en matière d’algorithmes pour y arriver. Si on veut devenir un acteur important de l’IA, il faut y aller en tandem soft et hard.

D’autres pays ont-ils plus conscience de l’enjeu du hardware pour l’IA ?

C’est clairement le cas des Etats-Unis et de la Chine. Et ce depuis ce que j’appelle l’explosion cambrienne de mai 2016: quand Google annonce qu’il utilise depuis 18 mois une puce dédiée à l’IA, nommée TPU (tensor processor unit), que Nvidia, le spécialiste des processeurs graphiques (GPU) au cœur de l’essor du deep learning, voit son cours de Bourse décoller et qu’Intel rachète coup sur coup deux spécialistes du hardware IA, Movidius et Nervana, pour plus de 400 millions de dollars chacun. Nervana était alors une start-up de 50 personnes. Aujourd’hui, ils sont 800 et contribuent à la roadmap technologique d’Intel ! Il faut bien comprendre qu’un Google ou un Baidu offrent via le cloud des services d’IA utilisés chaque jour par des centaines de millions de personnes. Ils sont donc directement confrontés aux besoins massifs de calculs de l’IA.

Comment faire pour que la France ne reste pas à l’écart du mouvement ?

L’absence de grands acteurs du numérique fait que la prise de conscience du besoin de hardware dédié à l’IA est difficile. Il y a des start-ups françaises sur le sujet, LightOn bien sûr, mais aussi Kalray, Mipsology, AnotherBrain… Le problème est que le hardware est assez mal appréhendé par les capital-risqueurs et l’Etat et que les dispositifs de soutien à l’innovation ne sont pas adaptés. Pour ne pas être accusé par Bruxelles de subventionner des entreprises, tout concours d’innovation demande à la start-up de financer près de 50% de son projet. C’est compliqué pour du hardware car les sommes à mobiliser sont importantes. La seule solution, c’est la commande publique. C’est ce que font les Etats-Unis avec leur programme SBIR – Small Business Innovation Research – destiné à aider les petites entreprises innovantes. Il ne s’agit pas de subventionner une start-up mais de lui passer une commande qui lui permettra de mettre au point un prototype, par exemple. Il faut ce genre d’approche en France. La commande publique est essentielle.
Yves Pellemans's insight:

 L’IA accentue dramatiquement la consommation d’énergie des équipements, car l’IA est extrêmement gourmande en calculs. Nous aurons donc besoin de hardware plus efficace énergétiquement.

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Samsung investit 161 milliards de dollars, dont 22 milliards dans l'IA et la voiture autonome

Samsung investit 161 milliards de dollars, dont 22 milliards dans l'IA et la voiture autonome | Cloudnews | Scoop.it

Fragilisé par des ventes de smartphones plus faibles que prévues au premier trimestre, Samsung lance un vaste plan d’investissement de 161 milliards de dollars sur 3 ans pour se refaire une santé. Dans un communiqué paru ce mercredi 8 août, le groupe sud-coréen précise que les investissements seront principalement menés par sa filiale Samsung Electronics, fleuron du groupe et premier fabricant mondial de puces électroniques

25 milliards de dollars pour l'IA, la voiture autonome et la 5G

Afin de trouver des relais de croissance, l’enveloppe consacrera, outre l’investissement en capital, pas moins de 22 milliards de dollars à la recherche sur l'intelligence artificielle, la voiture autonome ou la 5G… "Samsung espère que les innovations permises par les technologies d’intelligence artificielle permettront de transformer le secteur, quand les technologies de communication 5G créeront de nouvelles opportunités sur les segments de la voiture autonome, de l’internet des objets et de la robotique”, avance le groupe dans son communiqué. Samsung projette notamment d'accroître significativement ses efforts concernant la recherche en IA en portant à un millier le nombre de ses chercheurs spécialisés sur le sujet.

Afin de conserver son leadership sur le marché des semi-conducteurs, le groupe concentrera une part de ses investissements dans l’équipement de ses usines, en vue d’accroître sa production. Environ 70% de l’enveloppe globale devraient être investis en Corée du Sud, ce qui devrait permettre de créer 40 000 emplois sur trois ans. Une requête qui avait été adressée au géant de l’électronique par le gouvernement sud-coréen, inquiet du taux de chômage des jeunes, lors d’une rencontre organisée 2 jours plus tôt entre le ministre des Finances et Lee Jae-Yong, le vice-président de l’empire Samsung

Yves Pellemans's insight:

Samsung consacrera, outre l’investissement en capital, pas moins de 22 milliards de dollars à la recherche sur l'intelligence artificielle, la voiture autonome ou la 5G…

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Dell optimiste sur son potentiel de croissance au cours des quatre prochaines années

Dell optimiste sur son potentiel de croissance au cours des quatre prochaines années | Cloudnews | Scoop.it

En prévision de sa prochaine opération de réintroduction en bourse, Dell vient de présenter ses prévisions de chiffre d’affaires à la commission des opérations de bourse américaine. On y apprend que Dell prévoit de réaliser entre 99,5 et 103,3 milliards de dollars à l’horizon 2022 (exercice fiscal qui s’achèvera fin janvier 2022). Cela représente une augmentation de près de 30% par rapport aux 79,9 milliards de dollars réalisés sur l’exercice 2018 clos le 2 février dernier, soit un peu moins de 7% de croissance moyenne annuelle.

Sur l’exercice en cours, Dell prévoit de générer 87,5 milliards de dollars, soit 9,5% de croissance par rapport à l’exercice 2018. Sa division solutions d’infrastructures (ISG), qui regroupe les serveurs, le stockage, la protection des données et le réseau devrait réaliser 34 milliards de dollars pour l’exercice 2019, soit +10,9%, et atteindront 38 milliards de dollars d’ici 2022.

Les ventes de sa division solutions clients (PC, ordinateurs portables et postes de travail) génèreront 42,5 milliards de dollars pour l’exercice 2019 (+7,7%). Dell prévoit 47 milliards de dollars à l’horizon 2022.

Yves Pellemans's insight:

Dell prévoit de réaliser entre 99,5 et 103,3 milliards de dollars à l’horizon 2022

more...
No comment yet.
Scooped by Yves Pellemans
Scoop.it!

Satellites : Washington veut sa « Force de l'espace » pour 2020

Satellites : Washington veut sa « Force de l'espace » pour 2020 | Cloudnews | Scoop.it

L'US Space Force promue par Donald Trump devra concevoir de nouvelles technologies et défendre les satellites mis en orbite par les États-Unis.

Le vice-président des États-Unis, Mike Pence, a annoncé lors d’une intervention au Pentagone, jeudi 9 août, la création d’une « Force de l’espace » à horizon 2020.

Voulue par Donald Trump, cette armée en devenir est présentée comme essentielle « pour défendre l’Amérique » face aux menaces potentielles que font peser d’autres puissances, la Chine et la Russie en particulier, sur les satellites américains.

Ils sont 100 aujourd’hui, dont 31 satellites GPS, actuellement contrôlés dans leur majorité par l’US Air force, a souligné le magazine Time. Mais cela ne suffit plus, selon Donald Trump. Le président des États-Unis a donc signé en juin dernier un décret en faveur de la création d’une force dédiée capable d’imposer une « domination américaine de l’espace ».

Mike Pence a donc dévoilé le programme envisagé pour sa mise en oeuvre, rapporte le Washington Post. Elle passerait, pour commencer, par la création d’une autorité de contrôle (US Space Command) dotée d’un budget dédié. Et se poursuivrait par une réorganisation des opérations spatiales et des personnels au sein du Pentagone.

La création d’une agence de développement chargée de concevoir de nouvelles technologies de défense spatiale est également au menu… Le gouvernement fédéral américain a donc appelé le Congrès à allouer 8 milliards de dollars supplémentaires pour les systèmes de sécurité spatiale au cours des cinq prochaines années.

Les critiques ne manquent pas, y compris dans les sphères du pouvoir. Lui-même sceptique au départ, le secrétaire à la Défense, Jim Mattis, ne voulait pas ajouter « une couche organisationnelle et administrative supplémentaire » au Pentagone, comme l’a rappelé le New York Times. Le ministre s’est finalement rangé parmi les soutiens du projet.

Il revient désormais au Congrès des États-Unis de se prononcer pour ou contre la création – et le financement – de cette Force de l’espace promue par Donald Trump.

 

Yves Pellemans's insight:

Cette « US Space Force » deviendrait la sixième branche des forces armées américaines. Les cinq branches existantes étant les armées : de terre (US Army), de l’air (Air Force), la marine (Navy), les corps des marines et les garde-côtes.

more...
No comment yet.