Toulouse networks
59.9K views | +0 today
Follow
Toulouse networks
Networking in Toulouse - Réseautage de la Ville Rose
Your new post is loading...
Your new post is loading...

Popular Tags

Scooped by Jacques Le Bris
January 10, 2020 5:36 AM
Scoop.it!

Elles délaissent leur smartphone pour un bon vieux portable

Elles délaissent leur smartphone pour un bon vieux portable | Toulouse networks | Scoop.it

Les applications, chronophages et multiples, finissent par saturer certaines personnes qui utilisent les téléphones intelligents.

 

Radiations, récupération des données personnelles et risques de troubles de la vision et du sommeil poussent certaines personnes à retourner vers des modèles de téléphone moins sophistiqués.

Avec son cabas géant en toile recyclée et ses sneakers colorées, Clara, étudiante en deuxième année de médecine de 19 ans, a tout d'une jeune fille de son époque. Pourtant, au bout de son bras, pas de téléphone dernier cri protégé par une coque en silicone, comme la majorité des gens de son âge, mais un petit rectangle noir et épais. L'objet en question: un Nokia 3310, téléphone emblématique des années 2000 développé par la multinationale de télécommunications éponyme.

Le Nokia 3310. | smial via Wikimedia

 

 

Un fait qui peut étonner, lorsque l'on sait qu'en France, 98% des 18-24 ans seraient actuellement équipés d'un smartphone, selon le Centre de recherche pour l'étude et l'observation des conditions de vie (Crédoc). De manière plus générale, en 2017, près de 75% de la population étaient munis d'un téléphone intelligent selon l'Autorité de régulation des télécoms (Arcep).

«Jusqu'à l'année dernière, j'avais un iPhone 7, explique Clara. Ce qui a changé le regard que je portais dessus, c'est de réaliser, au moment de la rentrée en première année de médecine, qu'il me serait impossible d'atteindre le niveau de concentration requis tout en ayant mon smartphone à portée de main, poursuit-elle. Même si je n'avais pas l'impression d'être sur mon téléphone, j'ai rapidement remarqué que je levais régulièrement la tête de mes cours afin de voir si j'avais des notifications, ce qui induisait des saccades dans mon rythme de travail.»

Au bout de quelques semaines, la jeune fille décide d'exhumer l'ancien téléphone de sa grande sœur, relégué au rang d'antiquité familiale, et de prendre congé de son iPhone. «Cela peut paraître bizarre, mais c'est comme si me séparer de mon smartphone m'avait soulagée d'un poids, confie-t-elle avant de conclure: C'est pour cette raison que j'ai décidé de ne pas reprendre mon iPhone, même après avoir validé ma première année.»

«Sollicitation permanente»

Cette impression décrite par Clara de pouvoir être contactée à tout moment correspond à ce que le chercheur Dominique Boullier appelle la «sollicitation permanente». «Avec l'arrivée des SMS au milieu des années 1990, il y avait déjà une forme de connexion ininterrompue qui s'imposait aux utilisateurs, remarque ce professeur en sociologie du numérique à Sciences Po. Toutefois, avec l'arrivée du smartphone, on a atteint un stade supérieur: désormais, celui qui détient un téléphone intelligent s'expose à la possibilité d'être en permanence sollicité et dérangé.»

Selon le Baromètre 2018 du Push pour Applications Mobiles calculé par le spécialiste du smartphone Accengage et basé sur plus de 50 milliards de notifications envoyées à travers le monde entre janvier et juin 2018, près de 68,4% des Français·es accepteraient de recevoir des notifications au moment d'installer une application.

«La multitude d'applications a pris le dessus sur les éléments fondamentaux et a entraîné une forme de pression.»
Dominique Boullier, sociologue

D'après l'étude, cela ferait même de la France le deuxième pays européen avec le plus gros taux d'opt-in, c'est-à-dire d'acceptation de notifications push.

«Aujourd'hui, avec le smartphone, l'idée d'un téléphone outil a totalement disparu, analyse Dominique Boullier. C'est pour cette raison que ces dernières années, on voit des usagers renoncer au smartphone. La multitude d'applications a finalement pris le dessus sur les éléments fondamentaux et a entraîné une forme de pression, dont on peut imaginer qu'il n'est possible de se détacher qu'en repassant à un modèle de mobile ancienne génération.»

Allô les maux

La sensation de sollicitation permanente n'est pas la seule raison pouvant pousser des individus à renoncer au smartphone. Jeremy, trentenaire travaillant dans un cabinet comptable, explique s'être séparé de son smartphone Samsung il y a quasiment deux ans pour cause de maux de tête. «En moyenne, je passais deux à trois heures par jour sur mon smartphone, se rappelle-t-il, en ajoutant qu'il était particulièrement féru d'Instagram. Hormis le fait que cette utilisation induisait une perte de temps, j'avais aussi l'impression d'avoir souvent mal aux yeux et à la tête en fin de journée», poursuit-il.

Après un tour chez l'ophtalmologue, qui suggère une forme de fatigue visuelle nécessitant de limiter le temps d'écran, Jeremy commande sur internet un Motorola Gleam et donne son Samsung à l'un de ses proches. Pour lui, pas de doute: il a l'impression d'être davantage reposé et moins sujet aux migraines depuis.

Six smartphones Apple et Samsung dépasseraient les seuils d'émission d'ondes électromagnétiques autorisés.

Pour Sylvie Chokron, neuropsychologue et autrice d'un rapport sur l'impact des écrans sur les processus cognitifs pour l'Observatoire de la santé visuelle et auditive, il est très probable que les smartphones mettent à l'épreuve les capacités visuelles ainsi que l'aptitude à se concentrer sur une tâche. «Les écrans des smartphones stimulent une toute petite partie du champ visuel car ils représentent une surface très limitée, détaille-t-elle. Par conséquent, avec les téléphones intelligents, notre attention est de moins en moins sollicitée dans sa globalité, ce qui diminue le dynamisme de notre vie mentale et peut même affecter le développement cognitif des plus jeunes», conclut-elle.

 

Autre inquiétude sanitaire relative aux téléphones intelligents, la question des radiations. En atteste le recours collectif déposé au mois d'octobre par le cabinet d'avocats américain Fregan Scott en réaction à une étude menée par le Chicago Tribune, révélant que six smartphones Apple et Samsung dépasseraient les seuils d'émission d'ondes électromagnétiques autorisés.

Données personnelles et écologie

Également souvent au centre de la démarche des personnes renonçant au smartphone, les polémiques se multipliant autour du risque de transmission des données personnelles. Selon une enquête publiée le 23 décembre dans le New York Times, une douzaine de sociétés, au total, enregistreraient l'intégralité des mouvements réalisés par les individus détenant des smartphones grâce aux applications installées dessus. D'après le quotidien américain, ces entreprises revendraient ensuite ces informations à d'autres compagnies. Une activité étant, comme rappelle le New York Times, totalement légale étant donné la faiblesse du cadre juridique en matière de protection des données et des smartphones.

«Il était déjà légitime de se poser la question de la récupération des données personnelles du temps des téléphones non-smartphones, puisqu'il était aussi possible d'en extraire des informations, commente Dominique Boullier. Toutefois, il faut reconnaître que le risque était moindre, car il y avait bien moins d'applications et d'informations sur les anciens mobiles. Aujourd'hui, si on ne veut vraiment pas courir le risque d'être sur écoute ou autre, la seule solution certaine consiste à acheter plusieurs puces et d'en changer tous les jours.»

Ainsi, pour le sociologue du numérique, la question des données personnelles, bien que capitale, est antérieure aux smartphones. «À mon avis, la menace qu'il faut lier à l'arrivée des smartphones est d'ordre écologique», pointe-t-il en soulignant l'importante proportion d'énergie consommée par les téléphones intelligents. «Dans les prochaines années, le grand défi sera d'arriver à créer des téléphones modernes composés de matériaux dont l'extraction est respectueuse de l'écologie, hyper sécurisés, cryptés du début à la fin, et consommant moins d'énergie… Sans ces innovations, on peut s'attendre à un recul de la consommation en matière de smartphone.»

Si on regarde les chiffres des dernières années, il semblerait même que ce déclin ait déjà commencé. Preuve en est, selon le cabinet Strategy Analytics, l'industrie des smartphones a connu pour la première fois depuis sa création une baisse annuelle en 2018. La Chine, qui concentre un tiers des ventes de smartphones au monde, aurait ainsi vu les ventes chuter de 11% au cours de l'année 2018. Plus récemment, d'après l'Institut international data corporation, le premier trimestre de l'année 2019 aurait pour sa part été marqué par un recul des livraisons de smartphones de 6,6% à travers le monde.

 

Anouk Helft

 

No comment yet.
Scooped by Jacques Le Bris
January 9, 2020 6:17 AM
Scoop.it!

Qwant va changer de tête et s'installer dans l'administration

Qwant va changer de tête et s'installer dans l'administration | Toulouse networks | Scoop.it

Selon nos informations, Eric Léandri, le président de l’entreprise, devrait quitter ses fonctions le 15 janvier, alors que le gouvernement vient de décider de faire du «Google français» le moteur de recherche par défaut des agents publics.

 

Changement de gouvernance en vue, et non des moindres, à la tête de Qwant, le moteur de recherche français qui se présente comme le champion de la protection de la vie privée. Fragilisé depuis cet été par la parution dans la presse de plusieurs enquêtes – notamment sur Mediapart et NextInpact –, le cofondateur de l’entreprise Eric Léandri devrait, selon nos informations, quitter ses fonctions de président le 15 janvier. Il prendra alors la tête d’un comité consultatif chargé de définir les grandes orientations stratégiques de l’entreprise. «Il reste actionnaire mais n’aura plus aucune fonction opérationnelle, ne pourra plus prendre de décision structurante», traduit-on de source gouvernementale. C’est Jean-Claude Ghinozzi, actuel directeur général adjoint de Qwant et ancien cadre de Microsoft, qui devrait prendre sa succession. Nommé directeur général il y a seulement trois mois, Tristan Nitot devrait pour sa part reprendre ses précédentes occupations de «chargé de plaidoyer» de la marque.

Coup de pouce politique

Ce chambardement annoncé à la tête de Qwant s’accompagne d’un nouveau (gros) coup de pouce politique de la part du gouvernement. Selon une note envoyée le 7 janvier par la direction interministérielle du numérique (Dinum) à l’ensemble des directeurs du numérique des ministères, que Libération s’est procurée, Qwant va en effet devenir le moteur de recherche par défaut de l’administration. Concrètement, il remplacera Google sur des millions de postes, à moins que l’utilisateur ne décide activement de changer les paramètres. Annoncée en mai par le secrétaire d’Etat au Numérique, Cédric O, cette mesure se concrétise après des audits réalisés entre juillet et septembre, afin de vérifier que Qwant correspondait bien aux critères que s’était fixé le gouvernement en matière de respect de la vie privée et de la protection des données. Qwant serait «le seul [moteur de recherche] capable de répondre aux attentes du gouvernement», expliquait Cédric O au printemps. La bascule devra être opérée d’ici le 30 avril.

 

Le champion de la souveraineté numérique devrait aussi obtenir de nouveaux deniers de l’Etat via son bras financier, la Caisse des dépôts et consignation (CDC). Selon une source gouvernementale, l’institution, qui détient 20% de l’entreprise et y a déjà investi près de 15 millions d’euros, compte s’associer à un autre actionnaire historique, le groupe de presse allemand Axel Springer, pour une nouvelle levée de fonds de près de 10 millions d’euros. Objectif : sortir l’entreprise du rouge dans lequel elle s’est enfoncée d’année en année – 11,2 millions d’euros de pertes en 2018 après 10 millions en 2017 et 4,7 millions en 2016, d’après le Figaro.

 

Elisa Braün

No comment yet.
Scooped by Jacques Le Bris
January 7, 2020 4:23 AM
Scoop.it!

Pour comprendre la France, j’ajoute des cons sur Facebook

Pour comprendre la France, j’ajoute des cons sur Facebook | Toulouse networks | Scoop.it

La meilleure étude sociologique d'aujourd'hui consiste à s'inscrire sur FB et lire les conneries que les gens y disent.

Il y a plusieurs moyens de faire de la sociologie en 2016. Vous pouvez faire des études dans ce segment, lire des livres ou des articles sur le sujet, aller au bureau et prendre des notes sur les gens autour de vous. Vous pouvez aussi, comme moi, simplement ajouter des gens que vous ne connaissez ni d'Ève, ni d'Adam, sur Facebook.

C'est comme cela que je suis peu à peu devenu un spécialiste des Français cons. Grâce à cette habitude transformée en passion, je connais désormais leurs mœurs, leurs habitudes. Je connais la musique qu'ils écoutent. Je sais quelles émissions ils regardent. Je sais ce qui les fait rire. Je vois à peu près pour qui ils votent. Je sais qui ils sont.

 

Depuis l'enfance, je m'efforce de comprendre le monde dans lequel je vis. Cette volonté d'entendement des choses et des êtres s'est pleinement révélée par mon obtention de nombreux diplômes, souvent inutiles, afin de bénéficier d'expériences professionnelles diverses. Mon désir de savoir est sans borne. J'aime connaître les gens. Et aujourd'hui, avec Internet, les connexions en réseaux et les télécommunications à grande échelle, il est tout à fait possible de savoir ce que fait son prochain sans trop d'efforts. Et ce, de manière étonnamment précise.

Je crois que mon intérêt pour les réseaux sociaux a commencé le jour où j'ai lu la timeline Twitter de Nadine Morano. Je ne sais pas si vous en avez fait l'expérience, mais au bout d'un moment, en théorie, vous vous sentez mal. Le deuxième effet – toujours en théorie –, c'est que vous avez l'impression de ne plus être si con que cela. Et étrangement, cette démarche m'a fait du bien. Au bout d'une demi-heure de scroll, j'étais même parfaitement détendu.

Jusque très récemment, je m'étais gardé de m'inscrire sur le plus grand réseau social du monde. Facebook en France, c'est 30 millions d'utilisateurs actifs, soit un Français sur deux. Hormis échanger des photos de nourrissons ou de mariages, Facebook est fort utile pour discuter en direct, savoir ce que sont devenus vos vieux potes du collège, Angèle du lycée et ce bon vieux « Max », rencontré en bossant au McDo. Facebook, c'est le lien pour organiser des réunions de groupe, des events. Ne pas y être constituait une sorte d'exclusion sociale volontaire. Au début de cet été, j'ai néanmoins dû m'y résoudre. Afin de faciliter les discussions au sein d'un groupe aux intérêts communs via la messagerie instantanée interne qui est, avouons-le, pratique, j'ai donc été amené à me créer un compte. En le faisant et en ajoutant plusieurs premiers amis, j'ai pu voir avec une certaine circonspection qu'ils jetaient devant moi les banalités de leurs vies, leurs réflexions sur bon nombre de sujets de société et même, des états d'âme parfois relativement profonds.

 

Vite, j'ai constaté que ces amis directs me ressemblaient ; de fait, peu, voire aucun ne se révélait aux antipodes de mes goûts ou de mes pensées. Mais cette homogamie, j'avais la possibilité de la faire disparaître. Pour ce faire, je devais simplement ajouter des groupes de personnes présélectionnés, connues (via leurs amis communs, leurs avis politiques plus ou moins gratinés et leurs likes divers) pour être à l'opposé de moi dans à peu près tous les sujets.

 

Photo via Flickr.

C'est comme cela que je me suis mis en quête d'une sorte de cartographie des comportements éloignés des miens. Toujours dans le même but, donc : comprendre comment une personne pouvait tenir telle ou telle position qui me semblait absurde. L'objectif n'était surtout pas de me moquer. Je tenais réellement et sincèrement à explorer le ressenti de ces personnes aux profils atypiques (pour moi) afin de définir, à une échelle réduite, le comportement et le ressenti des Français. Ainsi, en récupérant les positions de 500 candidats sur 50 faits de société, j'ai été à même de dresser un panel aussi complet que représentatif de ce que la France de Facebook pense.

Concrètement, j'ai mis au point un tableur Excel, divisé en 51 colonnes. La première reprenait l'identité des profils et les 50 autres, leurs positions sur divers choix de société. Ce travail me prit un mois complet. Au cas où vous en douteriez, récupérer les profils de 500 personnes qui affirment chacune leurs positions sur 50 réalités différentes n'est pas une mince affaire. Sans compter qu'il faut être précis et considérer très sérieusement les points les plus essentiels. Par exemple : l'INSEE estime que 54 % des Français sont contre la peine de mort ; il me fallait en conséquence 270 profils partageant ce point de vue sur les 500 sélectionnés.

 

Au bout d'un certain temps, je suis tombé sur des posts qui expliquaient, en toute sérénité, que Christiane Taubira était « une guenon ». Ou bien d'autres affirmant sans détour que les homosexuels n'étaient « pas des personnes à part entière ».

Environ trois mois après cette réalisation, j'ai ainsi pu voir sur mon mur Facebook l'activité et les réflexions de ces personnes dûment ajoutées. Dans leur état naturel, si l'on veut. Vous me direz, à juste titre, qu'un biais existe : ce n'est en effet pas parce qu'une personne pense quelque chose qu'elle l'affiche délibérément. J'ai essayé d'anticiper ça. Je n'ai ainsi sélectionné que des profils qui, intentionnellement, assumaient leurs choix et acceptaient de m'avoir en ami sans la moindre gêne. Des gens qui pouvaient dire des trucs tels que : « On n'a pas à accueillir les immigrés, ce sont des lâches. Sinon, ils seraient dans leurs pays, en train de faire la guerre » ou bien : « Ils sont bien contents de travailler et d'être payés à rien foutre. »

Les premiers débats auxquels j'ai assisté concernaient des sujets aussi vastes, complexes et polémiques que l'immigration, l'emploi ou la, je cite, « surreprésentation des Juifs à la télévision. »

Aussi, assister au fil des jours à la radicalisation d'une personne sur tel ou tel sujet de société est un spectacle impressionnant. Sinistre, mais impressionnant. J'en suis parvenu à la conclusion que seule une malheureuse succession d'événements disparates – et pas toujours interconnectés – pouvait expliquer ces choix. Au bout d'un certain temps, j'ai donc commencé à tomber sur des posts qui expliquaient, en toute sérénité, que Christiane Taubira était « une guenon ». Ou bien d'autres affirmant sans détour que les homosexuels n'étaient « pas des personnes à part entière », mais au contraire, « des pécheurs », lesquels n'avaient manifestement « pas encore trouvé la foi ».

 

Photo via Flickr.

Je rappelle que l'été dernier était politiquement chaud. À peine les résultats des élections départementales annoncés, la campagne pour les régionales débutait. Un trésor de phrases démagogiques s'apprêtait à fleurir sur le réseau social. Je me souviens d'un échange complètement fou à intervenants multiples portant sur une uchronie où la France aurait perdu la Seconde Guerre mondiale et serait encore sous le joug du Troisième Reich. Chacun y allait ainsi de son commentaire ou de son anecdote afin de dire en substance que « oui, ce serait le paradis. »

 

Même si ces faits sont graves et condamnables, ce fut loin d'être l'apothéose de mon étude. Des choix tels que le végétarisme, l'abstinence sexuelle ou même la volonté de ne porter que des vêtements de couleur noire sont des positions étranges ; mais elles ne présentent, de fait, qu'un intérêt limité. Néanmoins, en fouillant plus loin parmi ces scènes presque coupées du monde extérieur, j'ai pu remarquer que certaines personnes qui devenaient friends avec des gens plus extrémistes qu'eux encore, étaient amenées à se radicaliser d'autant plus – et beaucoup plus vite. Concernant le végétarisme par exemple, j'ai pu voir des personnes se mettre, peu à peu, à ne plus poster que des vidéos sur le sujet ; souvent, ces mêmes personnes répondaient ensuite aux commentaires de leurs amis extérieurs à la scène, lesquels critiquaient – à juste titre – l'inondation de leur mur par toutes ces vidéos orientées sur le végétarisme ; vite, mes friends, déchaînés, leur répondaient avec véhémence et en arrivaient, à la vue de tous, à un niveau de radicalisation définitif, à un manque de recul criant et plus globalement, à une fermeture d'esprit totale sur le sujet. Leur passion, le végétarisme, était aussi devenue leur folie.

Plusieurs comportements m'ont également ouvert l'esprit sur pas mal de points. Je me souviens notamment d'une discussion que j'avais engagée par chat avec l'une de mes nouveaux friends ; c'était au sujet du mariage pour tous. En lui demandant pourquoi celle-ci pensait que seuls, selon ses dires, les « hétérosexuels fertiles » avaient le droit d'accéder au mariage, j'ai découvert une personne qui, maladroitement, exprimait ses craintes vis-à-vis de la notion même de famille qu'elle pensait « en danger » à cause du vote de cette loi. Autrement dit, cette position extrême et absurde s'expliquait par une seule crainte, celle du simple changement.

 

Je sais bien que remettre en question son confort, idéologique comme moral, est chose ardue. C'est pourquoi je comprends que certaines personnes soient rebutées à l'idée de mettre sur la balance leurs habitudes de vie depuis 50 ans. J'ai ainsi le souvenir de ma mère gardant son Minitel dans le meuble du téléphone, même si ce dernier était devenu inutile depuis longtemps. « Oui Clément, mais j'y suis attaché », me répondait-elle.

Un autre point qui m'a marqué, c'est la relative aisance de nombreuses personnes à afficher sans ambages des positions très personnelles. Ou souvent, à dévoiler des détails intimes et embarrassants de leur vie. Balancer à tous ses amis Facebook que l'on a « envie de se suicider » ne me viendrait, par exemple, jamais à l'esprit. J'en ai pourtant été le témoin à de nombreuses reprises. Car en plus des 500 personnes nécessaires à mon étude, je me trimballais 300 vrais amis que je pensais connaître. Pensais, je dis bien.

Après trois mois de lecture de comportements et nombre d'épisodes gênants rendus visibles en direct sur ma timeline, je me pose à mon tour cette question : comment continuer à rester ouvert d'esprit ? Car les innombrables scissions parmi les hommes, toutes leurs différentes prises de position, m'amènent à me demander si moi aussi, je n'ai pas un jour pris le risque de m'enfermer dans tel ou tel schéma de pensée ; si moi aussi, je ne me suis pas volontairement voilé toute possibilité de réflexion sur un sujet ou un autre. Du coup, je me pose aussi la question. Et si, au bout du compte, je ne suis pas en train de devenir ce que je pensais que les autres étaient. Un con.

 

Clément est sur Twitter.

 

No comment yet.
Scooped by Jacques Le Bris
December 27, 2019 4:54 AM
Scoop.it!

Toulouse. Facebook, Twitter, Snapchat... Nos six faits-divers les plus "réseaux sociaux", en 2019

Toulouse. Facebook, Twitter, Snapchat... Nos six faits-divers les plus "réseaux sociaux", en 2019 | Toulouse networks | Scoop.it

Facebook, Twitter, Snapchat… Nos six faits-divers les plus « réseaux sociaux » en 2019, à Toulouse

Peine de prison pour avoir insulté l'acteur Omar Sy ou s'être réjoui de la mort d'un policier sur Facebook. Voici nos 6 faits-divers les plus "réseaux sociaux", en 2019, à Toulouse

Ils font tellement partie de notre quotidien qu’ils ont intégré la sphère judiciaire. Facebook, Twitter, Snapchat, Instagram… Les réseaux sociaux sont aussi pourvoyeurs de faits-divers. Voici les six principaux d’entre eux, à Toulouse, pour l’année 2019.   

Omar Sy, sa femme et le dealer

1. Toulouse. Un homme condamné pour des propos haineux sur Twitter à l’encontre d’Omar Sy et sa femme
Mercredi 27 mars 2019, un homme a été condamné par le tribunal correctionnel de Toulouse à de la prison avec sursis après avoir tenu des propos haineux sur Twitter contre Omar Sy.

 

2. Toulouse. La police intervient pour des cyclistes importunés, elle débusque… un dealer Snapchat
La police avait été requise pour des agresseurs de cyclistes, mercredi 18 décembre 2019. Elle est repartie avec un dealer qui sévissait à Toulouse, via le réseau Snapchat.

Il se réjouit de l’assassinat d’un policier sur Facebook

3. Toulouse. Interpellé après s’être réjoui sur Facebook de la mort du policier tué dans une rixe
La BRI de Toulouse a interpellé un homme mercredi 31 juillet 2019 qui s’était réjoui sur Facebook de la mort du policier Benjamin Quiles tué lors d’une rixe devant une discothèque.

 

3 bis. Toulouse. Il s’était réjoui de l’assassinat d’un policier sur Facebook : la justice a tranché
Un homme de 30 ans a été condamné pour apologie de crime et diffamation, mardi 28 novembre 2019, à Toulouse. Il s’était réjoui de l’assassinat d’un policier en civil sur Facebook.

 

4. Gilets jaunes. L’ingénieur de Toulouse avait dévoilé l’adresse d’une commissaire de police sur Internet
Scandalisé par une vidéo sur Internet, mettant en scène une personne handicapée et une commissaire de police, lors d’une manif des gilets jaunes à Toulouse, l’ingénieur a dérapé.

Grand patron des CRS et suicide empêché

5. Toulouse. Il a menacé sur Twitter le grand patron des CRS et sa famille : un étudiant condamné
En décembre 2018, un jeune étudiant a menacé sur Twitter le directeur central des CRS. Jugé en correctionnel à Toulouse, mercredi 30 janvier 2019, il a été condamné. Détails.

 

6. Toulouse. Il annonce son suicide sur Facebook, la police le localise et vole à son secours
Un internaute de 24 ans avait annoncé son suicide sur Facebook, dans la nuit de dimanche 22 à lundi 23 septembre 2019, à Toulouse. La police l’a localisé à temps pour le sauver.

 

Par : Laurent Derne

 

No comment yet.
Scooped by Jacques Le Bris
December 17, 2019 10:05 AM
Scoop.it!

Smart City : "il faut concevoir une IA avec ses utilisateurs et non pas pour eux"

Smart City : "il faut concevoir une IA avec ses utilisateurs et non pas pour eux" | Toulouse networks | Scoop.it

Laurence Devillers veut une intelligence artificielle transparente à tous les niveaux.

 

Comment pouvons-nous faire accepter l'intelligence artificielle par tous et comment la réguler ? Ces problématiques ont été abordées lors de la 5ème édition du Forum Smart City organisé par La Tribune, vendredi 13 décembre, dans la salle des Illustres du Capitole à Toulouse. Voici un décryptage de ce que doit être l'IA selon des chercheurs qui privilégient la création d'un "GIEC" de l'IA.

 

Faut-il avoir peur de l'intelligence artificielle et des technologies qui l'utilisent ? Depuis plusieurs années, ce débat anime la place publique entre les potentiels emplois qu'elle peut faire disparaître, ou encore l'exploitation des données que cette intelligence récolte sur ses utilisateurs, sans parler des robots intelligents qui pourraient remplacer les hommes ? Face à ces inquiétudes, le Forum Smart City, organisé par La Tribune, a consacré une table ronde sur le sujet, vendredi 13 décembre, à l'occasion de sa 5ème édition.

"La donnée et son utilisation sont l'ADN de la métropole toulousaine avec le programme Smart City mis en place sur la période 2015-2020. Cela est observable avec le développement de la plateforme Open Data Toulouse Métropole, chargée de collecter et d'analyser les données publiques pour créer les usages de demain. C'est dans cette optique que nous travaillons avec Indigo, notamment pour tenter d'indiquer avant que vous entriez avec votre voiture dans le centre-ville si des places de parking sont disponibles. Mais Aniti va nous permettre d'aller plus loin encore", tente de rassurer Bertrand Serp adjoint au maire de Toulouse et vice-président de la Métropole en charge de l'innovation et du numérique.

L'IA sera au cœur de la ville intelligente de demain (Crédits : Rémi Benoit).

De plus, la Ville rose a obtenu il y a quelques mois un institut interdisciplinaire 3IA, initié par le rapport Villani, grâce à son projet Aniti basé sur l'intelligence artificielle appliquée sur les mobilités et la santé. Ce projet regroupe ainsi des dizaines de chercheurs du monde entier, des laboratoires, des collectivités, des grands groupes industriels et des startups.

Lire aussi : Toulouse attire une star américaine de l'intelligence artificielle

 

Il faut une IA explicable et transparente

"C'est une très bonne chose que Toulouse ait décroché cet institut. Aniti va permettre de développer l'intelligence artificielle. Mais il faudra développer une IA explicable et certifiable et non pas une boite noire indéchiffrable", insiste Rachid Alami, chercheur CNRS au LAAS et titulaire de la chaine Aniti "Human Robot Interactions".

Le chercheur Rachid Alami travaille sur le développement de robots autonomes et leurs interactions avec les hommes (Crédits : Rémi Benoit).

Certains tentent déjà de l'expliquer auprès du grand public comme le Toulousain Luc Julia. Cet ingénieur, passé par Apple et HP au sein de la Silicon Valley, dirige la division IoT de Samsung et a récemment sorti un livre nommé "L'intelligence artificielle n'existe pas" aux éditions First. Dans une interview accordée à La Tribune quelques semaines après, il dénonçait les discours alarmistes de certains sur l'IA tout en appelant à écouter ceux qui font vraiment de l'intelligence artificielle et qui la maîtrisent. Dans ce sens, des chercheurs appellent à mettre en avant la transparence de cette technologie pour la faire accepter de tous.

"La question que nous devons nous poser est la suivante : voulons-nous créer une intelligence artificielle et une smart city de confiance ? Si c'est le cas, l'économie de demain devra être éthique. Les machines doivent être plus transparentes et non pas aux mains de quelques-uns. Il va falloir arriver à un certain degré de démystification de ces objets. Pour y parvenir, il faut concevoir une IA avec ses utilisateurs et non pas pour ses utilisateurs", argumente Laurence Devillers, professeure en IA à la Sorbonne-Université, chercheuse au LIMSI-CNRS et auteur du livre "Des robots et des hommes".

En partenariat avec la startup Soben, Enedis a développé ce robot à base d'IA qui suit à la trace l'opérateur sur le terrain et qui se présente comme un sac à dos (Crédits : Rémi Benoit).

Lire aussi : À Toulouse, les opérateurs d'Enedis travaillent avec un robot intelligent

 

Un besoin de politiques régulatrices ?

Pour insuffler ce besoin d'éthique et de transparence sur qui doivent compter les citoyens ? Au-delà des industriels, un cadre politique sera nécessaire à l'image de la charte signée entre le moteur de recherche Qwant et les collectivités d'Occitanie pour promouvoir un numérique éthique et souverain.

"Les politiques sont au cœur du système car c'est à eux de fixer les règles. Alors aujourd'hui, il est dit que la France est trop normée mais grâce à ces gardes-fous nous savons où nous allons", justifie Bertrand Serp.

Pour l'élu, les collectivités doivent fixer les limites de ce que deviendra l'IA (Crédits : Rémi Benoit).

"On donne des règles à la machine que seul l'humain établit ! Ce n'est pas la machine qui va établir des règles de manière autonome", avait également précisé Luc Julia dans son entretien. Pour établir ces règles, Rachid Alami évoque la possible création "d'un équivalent du GIEC pour l'intelligence artificielle afin de réfléchir sur cette technologie de manière responsable". Sera-t-il entendu ? Les années à venir donneront la réponse.

 

 

No comment yet.
Scooped by Jacques Le Bris
December 15, 2019 10:59 AM
Scoop.it!

10 erreurs en Référencement Naturel à éviter absolument

10 erreurs en Référencement Naturel à éviter absolument | Toulouse networks | Scoop.it

L’optimisation du référencement naturel du site web de votre entreprise  est une composante essentielle de votre présence en ligne.

Certes, les moteurs de recherche font évoluer en permanence le référencement naturel (SEO).

Néanmoins, celui-ci est toujours le moyen le plus puissant pour amener des visiteurs vers le site de votre entreprise.

Et ainsi mettre en avant l’offre que vous leur proposez.

Laurent me disait l’autre jour à quel point il ne comprenait pas ce manque d’effort de la part des entrepreneurs :

Certes, il est difficile de se maintenir dans le haut du classement des pages de résultats. Mais de trop nombreuses entreprises subissent surtout les conséquences de leur mauvais SEO. Au lieu de voir affluer un trafic vers leur site web et de conquérir de nouveaux clients, le résultat est tout simplement le contraire.

Laurent a poursuivi en listant les 10 erreurs SEO les plus communes qui sont pourtant faciles à éviter.

Les algorithmes des moteurs de recherche sont en constante évolution. Alos, certaines pratiques se révèlent efficaces de manière pérenne, tandis que d’autres sont nuisibles à long terme.

Découvrez 10 erreurs de SEO les plus fréquentes à éviter pour que le site Web de votre entreprise apporte les résultats souhaités par rapport à vos efforts fournis.

Table des matières

  • 1. Choisir de mauvais mots-clés
  • 2. Bourrer votre contenu de mots-clés, ce n’est pas optimiser le SEO
  • 3. Créer un contenu sans rapport avec vos mots-clés
  • 4. Copier un contenu
  • 5. Ignorer la puissance des titres et des méta-descriptions
  • 6. Oublier d’inclure des liens de qualité
  • 7. Perturber vos lecteurs avec vos liens internes
  • 8. Ne pas tenir compte de la vitesse de chargement et de la lisibilité sur mobile
    • Vitesse de chargement
    • Compatible sur Mobile
  • 9. Ne pas utiliser le pouvoir des influenceurs sur les réseaux sociaux
  • 10. Oublier les statistiques
  • Pour conclure sur les 10 erreurs SEO présentes sur votre site Web

1. Choisir de mauvais mots-clés

L’optimisation dans le classement des pages de recherche (SERP) est d’abord un sujet de mots-clés pour lesquels que vous voulez que votre site Web soit référencé. Par contre, êtes-vous certains de choisir les bons ?

L’une des erreurs SEO les plus courantes dans la sélection des mots-clés est de négliger la préférence des moteurs de recherche et des utilisateurs pour les mots-clés de la “longue traîne”.

Bien que vous puissiez définir vos produits et services avec votre propre vocabulaire, il est bien plus efficace de comprendre les mots que vos clients potentiels utilisent pour les désigner.

Parfois, les termes que vous considérez comme corrects peuvent signifier quelque chose de complètement différent pour d’autres personnes, ou sont trop génériques.

Dans les 2 cas, vous optimisez le SEO de votre contenu avec de mauvais mots-clés.

Il est préférable d’effectuer une recherche appropriée avec soin avant de commencer à l’optimiser.

Vous découvrez les mots-clés les plus opportuns en accord avec ce que vos lecteurs tapent dans leur moteur de recherche, avec des outils comme :

2. Bourrer votre contenu de mots-clés, ce n’est pas optimiser le SEO

" alt="" aria-hidden="true" />

Vous pouvez penser que rajouter vos mots-clés dans chaque phrase de votre contenu va augmenter votre classement. Cette stratégie est totalement erronée.

En fait, elle conduit tout simplement à être considéré par les moteurs de recherche comme un spammeur, et ainsi faire beaucoup plus de mal que de bien pour votre référencement.

C’est pourquoi le “bourrage” de mot-clé (c’est-à-dire leur surutilisation), n’est pas utile pour connaître le succès en terme de SEO.

Une telle approche rend aussi votre contenu artificiel et inutile pour vos lecteurs.

En fait, Google utilise des techniques de sémantique appelées Latent Semantic Indexing (LSI).

Grâce au LSI, Google reconnaît le sujet de votre contenu sans avoir besoin de répéter à foison vos mots-clés retenus dans votre contenu.

3. Créer un contenu sans rapport avec vos mots-clés

Une autre erreur commune pour le référencement est la production de contenu qui ne concerne pas réellement vos mots-clés.

Cela arrive lorsque vous souhaitez référencer votre contenu pour un certain mot-clé, mais que vous ne parvenez pas à concentrer votre texte sur le sujet ciblé.

Les moteurs de recherche comme Google veulent donner aux utilisateurs le contenu le plus pertinent pour les termes recherchés par les internautes.

Ainsi, si votre contenu ne répond pas aux besoins des utilisateurs, il sera forcément mal classé.

Cette erreur provient souvent du fait de :

  • Vouloir essayer d’aborder trop de sujets différents au sein d’un seul contenu,
  • Créer un article de faible qualité juste dans le but d’y inclure vos mots-clés,
  • Ou encore vouloir optimiser le SEO d’une page web contenu pour plusieurs mots-clés.

Votre objectif principal est donc de produire du contenu qui corresponde vraiment aux questions et aux besoins de votre public, en utilisant les bons termes de recherche.

Et seulement ensuite, les moteurs de recherche sont en mesure d’indexer votre contenu en fonction du mot-clé pour lequel vous cherchez à optimiser le SEO de votre contenu.

4. Copier un contenu

" alt="" aria-hidden="true" />

Alors que la duplication des textes était auparavant une pratique commune, aujourd’hui les moteurs de recherche pénalisent cette approche.

Copier et plagier le contenu est considéré comme une pratique de spam et je vous la déconseille.

Au lieu d’aspirer du contenu chez d’autres et/ou d’utiliser un logiciel qui trafique le contenu dans une nouvelle forme, il est plus opportun d’investir dans la création de textes originaux et pertinents.

C’est l’unique façon de vous assurer que votre site Web ne sera pas classé au fond des pages de recherche et ainsi devenir invisible aux internautes.

5. Ignorer la puissance des titres et des méta-descriptions

Optimiser le SEO de votre contenu ne se termine pas après avoir inclus un mot-clé cible dans vos articles.

Les balises de titre et les méta-descriptions sont des éléments essentiels du référencement qui ne doivent pas être oubliés.

Ne pas en tenir compte est un potentiel d’optimisation manqué.

En effet, les textes des titres et des méta-descriptions sont pris en compte par les moteurs de recherche lors de l’exploration de votre site Web.

Si cela est fait correctement, ils vont améliorer grandement la performance de votre contenu.

Une autre technique que les chefs d’entreprises oublient parfois, c’est d’inclure des tags aux images.

Les balises alt des éléments visuels que vous incluez dans votre contenu sont importantes.

En effet, elles participent aussi au référencement de vos articles.

Les robots de recherche ont dû mal à comprendre vos images ! Mais ils comprennent les balises alt.

6. Oublier d’inclure des liens de qualité

" alt="" aria-hidden="true" />

Pour référencer au mieux votre SEO, vous devez comprendre aujourd’hui que la qualité des liens externes inclus dans votre contenu est plus important que leur quantité.

C’est pourquoi il est préférable de lier votre contenu à des sites Web pertinents, si possible mieux classés que vous et avec une réputation solide.

Ce qui veut dire que vous devez choisir avec soin les sites vers lesquels vous rajouter vos liens. Il est aussi utile de rajouter des liens vers des sites qui ont inséré un lien avec le vôtre, car cela va vous apporter aussi du trafic.

Une autre pratique contre-productive concernant les liens est l’utilisation du texte d’ancre inefficace. Les textes d’ancrage sont les textes des liens pointant vers une autre page web. Là aussi, cela élimine de précieuses opportunités par rapport au SEO.

Les textes d’ancrage signifient au lecteur et aux robots des moteurs de recherche la signification du lien et pourquoi il peut être bénéfique pour vos lecteurs.

Ainsi, évitez d’utiliser le classique “cliquez ici” comme texte d’ancrage. Et assurez-vous d’opter pour plusieurs textes d’ancrage en évitant d’employer le même texte car là encore, cela peut-être considéré comme du spam.

7. Perturber vos lecteurs avec vos liens internes

Il y a aussi une erreur courante à surveiller lorsque vous insérez des liens internes.

Je vous invite à toujours placer des liens vers vos pages les plus performantes.

C’est le meilleur moyen de leur donner plus de visibilité tout en créant une traction supplémentaire.

Mais assurez-vous de ne pas inclure des liens internes juste pour le plaisir de les avoir insérés dans un article s’ils ne correspondent pas au sujet de votre article.

Comme avec le “bourrage” de mot-clé, il est crucial de ne pas exagérer le maillage interne. Si le contenu et les liens ne semblent pas naturels, le contenu ne sera pas apprécié par vos lecteurs. Il ne sera pas favorablement traité par les moteurs de recherche, et même considéré comme une pratique frauduleuse.

8. Ne pas tenir compte de la vitesse de chargement et de la lisibilité sur mobile

" alt="" aria-hidden="true" />

L’optimisation de votre référencement ne concerne pas que la qualité de votre contenu et les mots-clés retenus. Il est important de surveiller de la qualité de votre site Web.

Vitesse de chargement

Un premier point à regarder est la vitesse de chargement de vos pages. Car les moteurs de recherche prennent en compte aussi cette donnée.

Ne soyez pas surpris si un site lent conduit à le faire descendre dans les pages de recherches (SERP).

Utilisez des outils en ligne comme Pingdom et GT Metrix pour identifier vos problèmes de vitesse et avoir des pistes de corrections.

Compatible sur Mobile

En particulier la lisibilité sur les appareils mobiles qui sont aujourd’hui l’écran préféré des utilisateurs pour accéder à vos contenus. Google et les autres moteurs de recherche savent reconnaître lorsque votre site est pas “mobile-friendly”.

Si vous n’apportez pas à votre public une expérience fluide sur mobile, votre note sur les moteurs de recherche peut être compromise.

Je vous conseille d’utiliser l’outil de “Test d’optimisation mobile” de Google pour vérifier la compatibilité de vos pages sur mobile. Vous avez accès aussi dans la Google Search Console à l’ensemble des erreurs.

9. Ne pas utiliser le pouvoir des influenceurs sur les réseaux sociaux

Les algorithmes de référencement naturel comportent aussi aujourd’hui une dimension sociale.

Lorsque vous partagez votre contenu sur les réseaux sociaux, l’un de vos principaux objectifs doit être d’attirer l’attention des internautes qui ont une influence significative en ligne.

Cela signifie que le contenu qu’ils partagent sera forcément remarqué de part de leur notoriété et leur expertise reconnue.

Voilà pourquoi il est important de créer des relations avec ces “influenceurs” et d’utiliser leur crédibilité pour promouvoir votre contenu.

10. Oublier les statistiques

" alt="" aria-hidden="true" />

Et enfin, la seule façon de savoir si votre référencement et les efforts de production de contenu vont dans le bon sens est de suivre leurs évolutions.

Beaucoup de chefs d’entreprises ne tiennent pas compte des chiffres, et c’est une grave erreur.

La configuration et l’analyse régulière de vos analyses de trafic sont essentielles pour vos résultats d’optimisation.

Google Analytics et Google Search Console (ex Webmaster Tools) sont les 2 principaux outils que vous pouvez utiliser gratuitement pour mesurer et obtenir un aperçu des performances de votre site Web.

Avec leur aide, vous pouvez voir comment votre optimisation réagit selon les différents types de contenu et les différentes tactiques que vous essayez pour le promouvoir.

Pour conclure sur les 10 erreurs SEO présentes sur votre site Web

L’optimisation pour les moteurs de recherche est aujourd’hui un élément indispensable de toute stratégie de Marketing de Contenu.

Alors que vous pouvez trouver beaucoup de conseils en ligne, faire un certain nombre d’erreurs typiques sur le SEO est assez fréquent.

Il est préférable de se familiariser avec les problèmes que d’autres ont rencontrés et de les éviter dans vos efforts de marketing.

Ces 10 erreurs SEO sont assez répandues. Les éviter est un moyen facile de faire plaisir aux moteurs de recherches et de vous démarquer de la concurrence.

Evidemment, je vous conseille de lire mon guide sur l’extension yoast SEO pour WordPress pour optimiser la présence de vos mots-clés dans vos pages de contenu.

J’espère de tout coeur que cet article vous aide à gagner du temps sur les aspects techniques du référencement.

Connaissiez-vous toutes ces erreurs SEO les plus répandues ? Avez-vous vérifié que vos pages web sont optimisées pour le SEO ?

 

Also published on Medium.

Laurent VERMOT-GAUCHY @laurentvg

Entrepreneur & Coach, Laurent aime aider d'autres entrepreneurs à mieux appréhender Internet pour faire grandir leur entreprise.

No comment yet.
Scooped by Jacques Le Bris
December 9, 2019 11:36 AM
Scoop.it!

À l'export, les entreprises du numérique d'Occitanie favorisent l'Europe

À l'export, les entreprises du numérique d'Occitanie favorisent l'Europe | Toulouse networks | Scoop.it

77% des entreprises qui exportent de manière indirecte le font vers au moins un pays d'Europe.

 

Le cluster numérique Digital 113 révèle dans un sondage qu'en Occitanie, la majorité des sociétés à l'international exportent vers l'Europe. Les entreprises non présentes à l'étranger, elles, manquent de connaissance sur le marché et sur les aides auxquelles elles peuvent souscrire, pour avoir les clés en mains avant de se lancer. Décryptage.

 

67% des entreprises du numérique en Occitanie sont présentes à l'étranger. Parmi ce pourcentage, 37% sont des startups. C'est le chiffre révélé par une étude du cluster régional des entreprises du numérique Digital 113 auprès d'une centaine d'entreprises.

"Beaucoup de startups partent rapidement à l'international alors qu'elles ont moins de dix employés. Cela corrobore avec leur besoin en financement qui va vite arriver", explique Marguerite Bech, chargée de mission international à Digital 113.

L'Europe plébiscitée malgré le Brexit

Parmi les sociétés numériques occitanes présentes à l'international, 87% exportent dans au moins un pays dans le monde sans y avoir de présence physique. "Le numérique a cette particularité qui permet aux entreprises d'avoir une facilité d'accès indirect aux marchés", éclaire la chargée de mission. Parmi ces entreprises qui exportent de manière indirecte , 77% des entreprises le font vers au moins un pays d'Europe.

"Les entreprises déjà à l'international exportent indirectement, surtout vers le Royaume-Uni et vers l'Allemagne. Malgré le Brexit, nous n'avons pas remarqué d'évolution, au sein de ces entreprises, envers leurs relations à l'international avec le Royaume-Uni", affirme le dirigeant.

Par ailleurs, la moitié des entreprises du numérique en Occitanie exportent en créant un bureau sur place. Dans le cas d'une implantation physique à l'étranger, leur destination de prédilection est l'Amérique du Nord.

"55% des entreprises à l'international ont une implantation physique en Amérique du Nord et très largement aux États-Unis. Ceci s'explique par le fait que le marché américain est très compliqué à toucher sans implantation physique. Vient ensuite l'Allemagne et le Royaume-Uni", rapporte Jérémy Guillaume, directeur général adjoint de Digital 113.

Les entreprises non présentes à l'étranger préfèrent le Royaume-Uni

Qu'en est-il des entreprises non présentes à l'étranger ? 58% d'entre elles souhaitent y aller dont 63% se donnent entre deux et quatre ans pour s'exporter. Mais, la plupart ne savent pas si elles vont s'implanter à l'export en direct ou indirectement.

"Un tiers des entreprises veulent s'implanter en direct, un tiers en indirect et le dernier tiers ne sait pas. Malgré tout, celles-ci sont sûres de s'adresser au marché européen. Elles sont 95% à vouloir prospecter en priorité l'Europe. Elle les effraye moins, contrairement aux États-Unis. Alors que les entreprises déjà implantées à l'international s'adressent surtout aux États-Unis, à l'Espagne et à la Belgique", précise Marguerite Bech.

Et le pays européen qui les attire le plus c'est le Royaume-Uni, devant l'Allemagne et la Suisse.

"C'est surtout par facilité et parce que ce n'est pas intuitif pour les entreprises de sélectionner d'autres pays limitrophes. Et ce même s'il en existe d'autres plus importants sur leur secteur et qui sont plus proches de leur marché", informe la chargée de projets.

Des sociétés en manque de connaissance

Mais, avant de se lancer à l'international, les sociétés du numérique émettent plusieurs besoins. Et, en premier lieu, un besoin en connaissance du marché. Selon le directeur général adjoint de Digital 113, les entreprises "pêchent encore de ce côté-là" et également dans la connaissance des aides qui sont mises à leur disposition.

"Très peu connaissent ces dispositifs d'aide. Alors qu'il en existe de nombreux. Par exemple, si l'entreprise est éligible au marché export, la Région Occitanie peut financer jusqu'à 100 000 euros sur 200 000 euros d'investissement ce qui n'est pas négligeable."

Avoir un retour d'expérience est également une aide importante pour ces entreprises.

"Les entreprises en sont friandes. Elles cherchent des ressources informelles et des retours différents et nous leur en donnons. Nous nous assurons que les entreprises aient toutes les clés en main pour se lancer à l'export. Nous leur permettons d'aborder des sujets de réalité terrain contrairement à des consultants extérieurs", assure Marguerite Bech.

Actuellement, 34% des entreprises du numérique en Occitanie ont entre 0,1% et 5% de leur chiffre d'affaires global réalisé à l'international. Par ailleurs, 21% ont plus de 50% de leur chiffre d'affaires réalisé à l'international, selon l'enquête du Cluster.

 

Héloïse Thepaut

No comment yet.
Scooped by Jacques Le Bris
June 15, 2019 5:18 AM
Scoop.it!

La Mêlée rouverte

La Mêlée rouverte | Toulouse networks | Scoop.it

Très (trop ?) ambitieuse en 2016 et en 2017, l’association occitane du numérique, La Mêlée, retombe sur ses pieds en 2018.

L’association occitane du numérique, La Mêlée, a voulu suivre le tempo imposé par la naissance des « grandes régions » et de l’Occitanie/Pyrénées-Méditerranée, composée de 13 départements. C’est une ambition que l’association a payé au prix fort : son bilan était passé dans le « rouge » en 2017 (- 50 K€). Il est repassé dans le vert en 2018 (+ 21 K€).

Comment expliquer le « passage à vide » de 2016/2017 et le retour à meilleure fortune en 2018 (avec une vingtaine de milliers d’euros de bénéfices, on ne peut pas parler de « fortune ») ? La Mêlée a logiquement investi beaucoup pour développer sa présence, à commencer par les deux grandes métropoles régionales, Montpellier et Toulouse. Les dépenses ont également concerné d’autres territoires et 11 départements non-concernés par une « métropole régionale » (en résumé, Montpellier et Toulouse).

 

Base de tout : les adhérents

De nombreux indicateurs sont en progression. C’est notamment le cas pour le nombre d’événements organisés, qui a atteint 580 en 2018. Dans ce cadre, plus de 26 000 personnes ont participé à ces rendez-vous en Occitanie, dont 9 500 pour le festival « La Mêlée Numérique », qui a eu lieu au début de l’automne 2018. De même, trois commissions ont été créées en 2018 : BIM (Building Information Modeling), Datas et Handicap. Le principal bémol concerne le nombre d’adhérents, qui stagne et ne passe pas la barre des 500. Ce sera l’une des priorités de 2019 et des années à venir. Pour le reste, les perspectives de développement de La Mêlée (qui fêtera son 20ème anniversaire l’an prochain) ne manquent pas : l’association a été labellisée par la Région Occitanie/Pyrénées-Méditerranée pour 3 ans afin de sensibiliser les PME à la transformation numérique, elle a remporté l’appel à projet concernant l’animation de la crypte de l’église Saint-Aubin (voir l’article), l’animation de la structure de Météo France dédiée aux startups (Green Tech Verte), le lancement du « Mois de l’Emploi numérique », en octobre 2019, avec des éditions de JobsTIC qui auront lieu à Toulouse, à Montpellier, à Carcassonne ou à Rodez (un JobsTIC a eu lieu à Nîmes ce 13 juin)…

En l’occurrence, l’association passe également la vitesse supérieure dans l’est de l’Occitanie. A Montpellier, La Mêlée en emménagé fin 2018 dans les locaux du Village by CA et se développe notamment dans les domaines du tourisme, de la e-santé, de la cybersécurité, de la food tech et du sport connecté (l’association a accompagné des startups occitanes au Québec début juin, voir l’article annonçant le programme)…

 

L’inclusion par le numérique

Nadia Pellefigue, vice-Présidente de la Région Occitanie/Pyrénées-Méditerranée et notamment en charge du numérique, est intervenue lors de l’assemblée générale de La Mêlée pour rappeler les actions de la Région. « Elles visent toutes à faire du numérique un outil d’inclusion. Cela concerne les femmes, mais aussi les jeunes en décrochage scolaire, les personnes en situation de handicap, ou encore celles qui sont en difficulté au niveau économique. Concernant ce dernier sujet, faire du numérique un levier d’inclusion est d’autant plus important en Occitanie que les trois départements les plus pauvres de France sont dans la région (note de la rédaction : l’Aude, le Gard et les Pyrénées Orientales).

Dernier point : lors de cette assemblée générale, La Mêlée a élu 17 membres de son conseil d’administration, qui fait logiquement une place de plus en plus forte aux représentants de l’est de l’Occitanie.

 

Pascal Boiron

No comment yet.
Scooped by Jacques Le Bris
May 2, 2019 4:19 AM
Scoop.it!

Internet, de l'utopie au cauchemar

Internet, de l'utopie au cauchemar | Toulouse networks | Scoop.it

Il l'a tant aimé... Le dernier essai du spécialiste des médias Bruno Patino est un réquisitoire teinté de mea-culpa contre le Web d'aujourd'hui, gangrené par "l'économie de l'attention".

Jusqu'à présent, les "repentis" du Web, ces pionniers aux espoirs douchés, parlaient l'américain. Désormais, il faudra aussi compter avec la voix, bien française, de Bruno Patino. Incroyable et pourtant vrai : le directeur éditorial d'Arte France, figure des défricheurs du Web, avoue ne pas reconnaître, lui non plus, l'Internet dans lequel il avait placé sa foi, cette Toile magique où tous les savoirs devaient se conjuguer, où chacun allait pouvoir s'exprimer, échanger, partager, dans une conversation universelle expurgée des hiérarchies sociales. Ce merveilleux "commerce libre des idées" dont le philosophe John Stuart Mill décelait l'avènement au XIXe siècle avec l'essor de la presse aux Etats-Unis.  

 

Vingt-cinq ans après l'explosion du réseau mondial, le rêve s'est chargé de cauchemars, constate Bruno Patino dans son dernier essai, La Civilisation du poisson rouge, d'une lecture décapante. Le directeur de l'école de journalisme de Sciences Po y décrit un univers "de prédation" dans lequel ne priment ni l'intérêt des contenus ni la démocratisation des opinions, et pas davantage la vérité des faits, mais le profit que les plateformes retirent de nos clics stakhanovistes. Pour le spécialiste des médias, l'évolution des sociétés ou l'avènement d'outils technologiques, si séduisants fussent-ils, ne sont pas les fautifs. C'est l'économie, plus exactement les options stratégiques prises par les Google, Facebook et consorts, qui ont fait du Web ce golem auquel il s'agit maintenant d'échapper.  

 

Les Gafam ont utilisé et potentialisé les formidables ressources des nouvelles technologies pour rafler des milliards de données concernant les utilisateurs, afin de les revendre aux publicitaires et aux autres services numériques, explique Patino. Plutôt que de faire payer les usagers, ils ont préféré miser sur la publicité, comme le faisaient avant eux les médias traditionnels, mais en jouant d'une arme fatale dont ces derniers ne disposaient pas : l'intelligence artificielle, laquelle permet de cibler les publics. "Ce fut un choix. Il n'y avait en la matière aucune obligation technologique", soutient le journaliste, dans le droit fil de l'analyse du philosophe Eric Sadin. 

 

LIRE AUSSI >> La face très noire de l'intelligence artificielle 

Avant de disparaître, en 2018, John Perry Barlow, l'un des pères fondateurs du réseau numérique et grand libertaire devant l'Eternel, aura eu le temps de voir sombrer son utopie positiviste d'un monde "liquide" nourri de l'intelligence collective dans un techno-capitalisme où les algorithmes ont remplacé les machines-outils. Et puisque ce sont les données - ce "pétrole" - qui font les bénéfices, il importe d'en glaner toujours plus. Comment ? En retenant sans relâche l'intérêt de l'internaute.  

Cette "économie de l'attention", ainsi que l'a baptisée Bruno Patino, s'immisce dans les replis du temps journalier, à la manière d'un intrus prenant peu à peu possession d'une maison mal fermée. Pas seulement les minutes "inutiles", passées à attendre un bus, un film, un ami. Celles, aussi, du travail, des repas en famille, des loisirs... La durée d'usage quotidien du smartphone a doublé dans les années 2000. Elle est d'une heure trente-deux minutes en France (trois heures en Chine), et les experts vaticinent un doublement dans les prochaines années.  

 

Appliquant à la lettre les enseignements de la psychologie comportementale, les robots d'Internet savent mieux que n'importe quelle pub à l'ancienne faire de nous des sujets captifs. L'enchaînement automatique des vidéos sur YouTube ou Netflix en est un exemple : il "soulage de la fatigue liée à la prise de décision", note, dans une phrase terrible, Bruno Patino. Ce confort, agréable dans un premier temps, devient vite nécessaire et prend le pas [...] sur la zone de contrôle du cerveau." Notre santé mentale est en péril", insiste l'homme des médias. Au creux de ce réel stroboscopique farci de notifications, où une sollicitation chasse l'autre à une cadence que les plateformes doivent accélérer pour préserver leur filon, la pensée n'a plus d'espace où se loger. Les manitous de Google ont calculé que le cerveau des jeunes nés connectés décrochait au bout de neuf secondes. Soit seulement une de plus que le poisson rouge figurant en couverture du livre, généralement plus apprécié pour ses moirures que pour ses capacités cognitives. Les plus jeunes, évidemment, sont les plus vulnérables. A force de ne plus savoir où donner de la tête, ils menacent de finir en poupées de chiffon, abandonnant "la lutte contre le plaisir immédiat que fait naître la réponse à un stimulus électronique, aussi minime soit-il", ajoute Patino.  

On peut déplorer qu'Internet soit devenu cette arène de corrida où se déchaînent les passions sur fond de conduites toxicomaniaques. Mais pourquoi s'en étonner, quand l'architecture économique sur laquelle le Web a prospéré est tout entière bâtie sur la viralité des contenus ? conclut l'auteur. Quand l'émotion immédiate l'emporte sur la raison, l'effet produit sur la nature du message, l'avis de l'internaute le plus proche sur les données objectives ? Quand l'information elle-même doit jouer les aguicheuses pour ne pas être éjectée de la piste aux taureaux ?  

Ouvrir les boîtes noires algorithmiques

Les algorithmes des réseaux sociaux, Facebook en tête, composent à l'intention de chaque utilisateur une image kaléidoscopique du monde correspondant à ses affinités, simulacre renforcé par l'afflux constant de nouveaux contenus de la même eau. Chacun voit le réel avec ses yeux. Cependant, lorsque le champ de vision est à ce point "subjectivé", se retrouver sur des combats communs, une lecture partagée des enjeux et des valeurs à défendre - bref, se sentir appartenir à une même société - devient impossible. Toute information émanant des médias de masse passe pour suspecte, toute mesure politique visant le bien général semble répondre aux intérêts d'une camarilla ou d'une autre, comme le montre le mouvement des gilets jaunes. Là est la tragédie : rien ne pourra jamais coller avec la représentation de l'individu-monade, tel que l'Internet des Gafam l'a engendré.

 

Certains, parmi les pionniers "repentis", refusent ce fatum numérique. Tim Berners-Lee, l'inventeur du Web, s'essaie à la construction d'un contre-Internet répondant à l'esprit premier du réseau. Bruno Patino en appelle pareillement à la création d'offres alternatives, dans laquelle les médias publics pourraient trouver une nouvelle mission d'intérêt ô combien général. Plus compliqué, il prône la régulation. Le tour de vis est déjà dans l'air, avec les mesures de rétorsion fiscale votées en avril par les députés français, contraignant les Gafam à s'acquitter en France des impôts liés à leur activité sur le territoire. Mais l'ex-héraut 2.0, lui, va plus loin : il veut ouvrir les boîtes noires algorithmiques, pour en limiter l'efficacité et la portée addictive ; mettre fin à l'irresponsabilité éditoriale des hébergeurs, qui leur permet de laisser passer des contenus problématiques sans être inquiétés. Les potentats du Web sauront-ils renoncer à leurs profits immédiats ? Pourquoi pas ? A condition que les internautes renoncent, eux, aux charmes fétides de la dépendance. 

 

 

 

 

*La Civilisation du poisson rouge. Petit traité sur le marché de l'attention. Bruno Patino, Grasset, 184 p., 17 €. 

No comment yet.
Scooped by Jacques Le Bris
April 25, 2019 11:10 AM
Scoop.it!

Avec Aniti, Toulouse va devenir un des leaders mondiaux de l’intelligence artificielle

Avec Aniti, Toulouse va devenir un des leaders mondiaux de l’intelligence artificielle | Toulouse networks | Scoop.it

Le projet Aniti a été retenu par le gouvernement. Toulouse va devenir un des leaders mondiaux en matière d’IA. (©Illustration / Pixabay)

Avec Aniti, Toulouse vient d'obtenir son institut interdisciplinaire en intelligence artificielle. Le gouvernement a officialisé la nouvelle, mercredi 24 avril 2019.

 

Après plusieurs mois d’attente, le verdict est tombé : Toulouse va devenir un pôle de référence de recherche sur l’intelligence artificielle.

Lire aussi : Intelligence artificielle : voici les projets (plus ou moins fous) des chercheurs de Toulouse

 

Transport, environnement, santé 

La candidature du projet toulousain « Aniti » (Artificial and Natural Intelligence Toulouse Institute) a été retenue par l’État, a annoncé mercredi 24 avril 2019 Frédérique Vidal, la ministre de l’Enseignement supérieur, de l’innovation et de la recherche. 

Grenoble (Isère), Nice (Alpes-Maritimes), Paris et donc Toulouse… Au total, quatre Instituts Interdisciplinaires d’Intelligence Artificielle (3IA) vont être créés d’ici l’automne 2019. Dans la Ville rose, le projet Aniti aura « pour applications privilégiées, le transport, l’environnement et la santé », a précisé Frédérique Vidal. Les instituts 3IA seront mis en place pour une durée de 4 ans renouvelable.

Lire aussi : Toulouse parmi les heureux élus pour créer un institut de l’Intelligence artificielle

« Un des leaders mondiaux de l’intelligence artificielle »

Pour l’université fédérale de Toulouse :

 
No comment yet.
Scooped by Jacques Le Bris
March 14, 2019 9:43 AM
Scoop.it!

What Happens in an Internet Minute in 2019?

What Happens in an Internet Minute in 2019? | Toulouse networks | Scoop.it

During an average workday, a single minute might seem negligible.

If you’re lucky, a minute might buy you enough time to write a quick email, grab a coffee from the break room, or make small talk with a coworker.

But in other situations, a minute can also be quite extraordinary. Imagine being a quarterback in the Superbowl in overtime, or finding yourself in a life-and-death situation in which every second counts towards the outcome.

Visualizing an Internet Minute

When it comes to gauging the epic scale of the internet, it would seem that each minute leans closer to the extraordinary side of the spectrum.

Today’s infographic from @LoriLewis and @OfficiallyChadd aggregates the online activity of billions of people globally, to see what an internet minute looks like.

 

How is it possible that 188 millions of emails are sent every minute? How does Google process 3.8 million search queries in such a short span of time?

Simply put, the number of actions packed into just 60 seconds is extraordinary.

A Side-by-Side Comparison

The internet is incredibly dynamic, which means there are always new and interesting segments that are emerging out of the internet’s ether.

To get a sense of this, take a look at the comparison of last year’s version of this graphic with the more recent entry:

 

Platforms such as Instagram and Netflix continue to grow at a blistering pace, while new categories such as smart speakers are quickly building a strong foundation for the future.

Last year, for example, only 67 voice-first devices were being shipped per minute – and in 2019, there are now 180 smart speakers being shipped in the same window of time.

What will this look like in 2020?

Going Sideways or Backwards

Interestingly, even as more and more people gain access to the internet around the world each year, there are still parts of the web that are plateauing or even shrinking in size.

You’ll see that Facebook logins and Google searches both increased only incrementally from last year. Further, the amount of emails getting sent is also quite stagnant, likely thanks to to the rise of workplace collaboration tools such as Slack.

Snap is another story altogether. In the last year, the app saw a decrease in millions of users due to the infamous redesign that helped torpedo the app’s rising popularity.

Regardless, we’re certain that by this time next year, an internet minute will have changed significantly yet again!

 

Jacques Le Bris's insight:

Le grand perdant serait Twitter, en chute libre par rapport à l'an passé.

Viviane DI NATALE's curator insight, March 31, 2019 2:36 PM
Transition digitale : 
"Un bon croquis vaut mieux qu'un long discours" disait Napoléon Bonaparte, une citation toujours très pertinente  ! 
Scooped by Jacques Le Bris
March 13, 2019 3:57 PM
Scoop.it!

Microsoft veut que vous utilisiez les applis Android sur Windows 10

Microsoft veut que vous utilisiez les applis Android sur Windows 10 | Toulouse networks | Scoop.it

Bientôt, vous aurez peut-être une bonne raison d’installer l’application “Your Phone” de Microsoft sur votre smartphone Android.  

Créée pour permettre aux utilisateurs de Windows 10 d’avoir une meilleure synchronisation entre leurs smartphones et leurs ordinateurs, celle-ci se dote d’une nouvelle fonctionnalité baptisée ”phone screen”.  

Il s’agit en substance d’une fonctionnalité de screen mirroring, qui permet d’utiliser son smartphone sur son PC, en diffusant ce qu’il y a sur l’écran du smartphone sur une fenêtre sur Windows et donc (techniquement) utiliser des applications Android sur ordinateur. 

 

Votre smartphone sur Windows 10 

D’autres applications permettent déjà de faire cela mais désormais, avec son application Your Phone et la fonctionnalité “phone screen”, Microsoft veut proposer la même chose, probablement avec une meilleure intégration avec Windows 10. 

Pour le moment, cette fonctionnalité n’est cependant pas disponible pour tout le monde (étant donné qu’il s’agit encore d’un test).  

De plus, tous les PC ne seront pas compatibles puisque “phone screen” requiert la technologie “Bluetooth with Low Energy Peripheral mode”. 

D’ailleurs, dans le cadre des tests, seuls les ordinateurs Surface Go sont supportés, avec seulement quatre modèles de smartphones : les Galaxy S8, S8+, S9 et S9+ de Samsung. Mais Microsoft envisage d’ajouter d’autres appareils compatibles dans cette liste. 

Tout en permettant aux utilisateurs d’Android d’utiliser leurs applications sur Windows 10, Microsoft devrait également encourager plus de personnes à installer l’application Your Phone sur leurs smartphones. Sur le long terme, cela pourrait inciter les gens à utiliser plus de fonctionnalités de l’écosystème de Microsoft. 

L’application Your Phone sert de lien entre Windows 10 et Android ou iOS. Sur la version Android, celle-ci permet de transférer des fichiers entre smartphone et ordinateur, de lire et d’envoyer des SMS depuis Windows 10, mais aussi d’accéder aux photos stockées sur le mobile. En substance, cette application Microsoft peut déjà remplacer des services tels que Pushbullet. Bientôt, celle-ci fera également du screen mirroring. 

No comment yet.
Scooped by Jacques Le Bris
February 22, 2019 4:56 AM
Scoop.it!

Facebook développe des puces spécialisées en IA pour créer les Siri et Alexa du futur

Facebook développe des puces spécialisées en IA pour créer les Siri et Alexa du futur | Toulouse networks | Scoop.it

Facebook se lance avec Intel dans le développement de puces en silicium spécialisées en IA. Aujourd'hui, les deux entreprises travaillent conjointement sur le Nervana du fondeur, un processeur neuronal spécialisé dans les micro-architectures pour l'IA.

 

Yann Le Cun, le chef scientifique français de la division intelligence artificielle de Facebook, s'est exprimé sur le développement des futurs puces en silicium spécialisées. En partenariat avec Intel, le géant californien s'investit dans leur conception, et espère qu'elles permettront de créer des assistants vocaux type Siri, Alexa et Google Assistant plus autonomes et performants. Décryptage.

Après Amazon et Google, c'est au tour de Facebook de se lancer dans le développement de puces électroniques spécifiques à des usages de machine learning. Cette nouvelle génération de microprocesseurs permettrait d'améliorer les intelligences artificielles (IA). Avec une telle technologie, Facebook prépare déjà un assistant vocal doué de "sens commun" et capable d'une véritable discussion. Mais selon les propres mots de la figure du deep learning Yann Le Cun, cette innovation n'est "pas pour demain".

Les trois défis à relever par les puces spécialisées en IA

Visage de l'intelligence artificielle (IA) chez Facebook, Yann Le Cun a accordé deux interviews à Bloomberg et au Financial Times pour préciser sa vision du futur de cette technologie. Pour le chercheur français, entraîner plus rapidement les intelligences artificielles, diminuer l'énergie demandée par les algorithmes, et permettre le développement de nouvelles architectures de réseaux neuronaux sont les principaux enjeux autour du développement des nouvelles puces en silicium.

Aujourd'hui, les chercheurs utilisent les GPU (Graphic Process Unit) pour faire tourner la majorité des algorithmes de machine learning. Pensées pour le traitement d'images, notamment dans les jeux vidéo, les GPU excellent dans les calculs en parallèle, mais ne sont spécifiquement pensées pour les IA. Ainsi, elles consomment par exemple de l'énergie en réalisant des calculs qui ne sont pas nécessaire au bon déroulement du machine learning.

L'entreprise de Marc Zuckerberg avait recruté l'an dernier une équipe pour travailler sur de nouvelles puces et annoncé, à l'occasion du CES 2019, son partenariat avec Intel. Les deux entreprises travaillent aujourd'hui sur les Nervana Neural Processor du constructeur, un matériel spécialisé dans les micro-architectures pour l'IA.

Rendre les assistants vocaux comme Siri et Alexa plus interactifs

Pour Facebook, la prochaine vague de matériel permettrait le fonctionnement de nouvelles architectures de réseaux neuronaux, capables de doter d'autonomie un assistant comme Siri. Au lieu de servir de simple boîte à réponse comme à l'heure actuelle, il pourrait suggérer certains contenus, et vraiment interagir dans une discussion. Autre axe de développement, ces nouvelles puces pourraient permettre de mieux modérer ses réseaux sociaux, et notamment les vidéos en direct. Avec ces nouveaux processeurs, la capacité de calcul des algorithmes deviendrait plus importante et plus réactive, notamment face aux milliards de photos et vidéos en circulation sur ses plateformes.

Au Financial Times, Yann Le Cun précise que ces recherches s'inscriraient dans une démarche Open Source dès les premiers résultats, pour permettre à d'autres entreprises de se pencher également sur son amélioration.

 

Par François Manens

 

No comment yet.
Scooped by Jacques Le Bris
January 10, 2020 5:00 AM
Scoop.it!

Travelex : les clients laissés à l’abandon

Travelex : les clients laissés à l’abandon | Toulouse networks | Scoop.it

Sécurité : L'attaque par rançongiciel a rendu furieux les clients bloqués et l'ICO, l’equivalent britannique de la CNIL, n'a toujours pas vu de rapport officiel suite à l’attaque.

 

La situation de Travelex empire de jour en jour.

Depuis une attaque de ransomware avant le Nouvel An, les services en ligne du fournisseur de devises sont restés hors ligne. Les sociétés tierces qui exploitent le système Travelex sont toujours bloquées. Les cybercriminels responsables de l’attaque ont demandé une rançon et ont posé un ultimatum. La colère des clients a explosé et maintenant, le bureau du commissaire à l'information (ICO) du Royaume-Uni attend d’être contacté.

Le bureau de change a déclaré à l'origine qu'un "virus logiciel" avait compromis ses systèmes, mais qu'il était "contenu" tandis que le personnel "travaillait à restaurer les systèmes et à reprendre les opérations normales le plus rapidement possible".

 

Communication de crise

Pour répondre aux clients qui tentaient d'accéder à des services de change tiers, y compris ceux offerts par Tesco Bank, HSBC, Sainsbury's Bank, Lloyds et Virgin Money, un message de "maintenance planifiée" a été mis en place pendant plusieurs jours. Dans le même temps, Travelex répondait à des requêtes sur les réseaux sociaux en évoquant un "virus logiciel".

La police britannique a déclaré avoir été contactée le 2 janvier "concernant une attaque de ransomware signalée impliquant un bureau de change" et une enquête est en cours.

Sodinokibi est à l'origine de l'attaque. Travelex a confirmé que le groupe, également connu sous le nom de REvil, a réussi à chiffrer au moins certaines données clients.

"À ce jour, la société peut confirmer que même s'il y a eu un certain chiffrement des données, rien ne prouve que les données personnelles structurées des clients aient été chiffrées", a déclaré la société. "Travelex n'a pas encore une image complète de toutes les données qui ont été affectées, mais il n'y a aucune preuve à ce jour que des données aient été exfiltrées."

Si la situation était réellement contenue, il semble étrange que les opérateurs de ransomware à l’origine de l'incident de sécurité se sentent suffisamment confiants pour exiger un paiement de rançon, censément fixé à 6 millions de dollars en échange du décryptage, de la restauration des systèmes informatiques et de la préservation des données des clients. Les pirates prétendent posséder les dates de naissance, les informations de carte de crédit et les numéros d'assurance nationale (NI) des clients de Travelex.

Comme rapporté par la BBC, les attaquants prétendent avoir accédé aux systèmes Travelex il y a six mois, et avoir procédé à l'exfiltration de 5 Go d’informations clients.

L'année dernière, il a été découvert que Sodinokibi utilisait des vulnérabilités 0day de Windows, des méthodes peu communes pour maintenir sa persistance sur les systèmes infectés et un système de clefs maître, qui permet aux opérateurs de décrypter des fichiers, quelles que soient les clefs utilisées. Cela pourrait être une mauvaise nouvelle pour Travelex, si la variante en question est utilisable par ces clefs principales pour exfiltrer les données client chiffrées.

L'utilisation de ces clefs a conduit à de nouvelles spéculations selon lesquelles les développeurs pourraient proposer le malware sous forme de ransomware-as-a-service (RaaS).

Il y a quelques jours à peine, un avertissement a été envoyé aux entreprises utilisant des serveurs Pulse Secure VPN non corrigés, car il semble que les opérateurs de ransomware Sodinokibi ciblent activement ces systèmes.

Clients mecontents

Travelex a présenté ses excuses aux clients, qui doivent se rendre en succursale pour commander ou récupérer leur monnaie jusqu'à ce que la situation soit maîtrisée. Cependant, les problèmes en question ont provoqué la colère de certains clients.

Un certain nombre de clients se sont plaints d’avoir été "trompés" par le bureau de change, comme l'a noté The Independent. Certains utilisateurs, actuellement à l'étranger, n'ont pas pu accéder aux fonds placés sur les cartes ATM Travelex lorsque la cyberattaque a verrouillé les systèmes de l'entreprise.

Un client s'est plaint qu'il n'y avait eu "aucune aide, aucun service client".

Travelex n'a publié aucune forme de calendrier pour la restauration des services. En vertu du Règlement général sur la protection des données (RGPD) de l'UE et des lois britanniques sur la protection des données, les entreprises sont désormais tenues d'informer l’ICO des fuites de données. Cependant, un porte-parole de l’ICO a déclaré que Travelex n'avait pas encore déposé un tel rapport.

"Les organisations doivent informer l'ICO dans les 72 heures après avoir pris connaissance d'une fuite de données personnelles, à moins que cela ne présente pas de risque pour les droits et libertés des personnes", a ajouté le porte-parole. "Si une organisation décide qu’une violation n’a pas besoin d’être signalée, elle doit en garder la trace et pouvoir expliquer pourquoi elle n’a pas été signalée si nécessaire."

Si l’incident est jugé suffisamment grave et que Travelex n'a pas correctement protégé les systèmes informatiques et les données clients qu'il détient, l'ICO peut infliger une amende pouvant aller jusqu'à 4% du chiffre d'affaires mondial annuel. La décision de ne pas informer l'ICO dès que l'infraction potentielle a été constatée peut également devenir un facteur aggravant pour de futures amendes.

 

Source: ZDNet.com

 

 

No comment yet.
Scooped by Jacques Le Bris
January 8, 2020 4:56 AM
Scoop.it!

Vidéos manipulées : Facebook interdit désormais tous les deepfakes, ou presque

Vidéos manipulées : Facebook interdit désormais tous les deepfakes, ou presque | Toulouse networks | Scoop.it

Facebook annonce une mise à jour de ses règles de modération afin d'avoir un plan pour combattre les deepfakes, ces vidéos truquées qui sont susceptibles d'induire le public en erreur.

C’est l’un des nouveaux domaines de lutte contre la manipulation de l’information. Et c’est un domaine dans lequel Facebook entend agir. Le 6 janvier, le réseau social a présenté ses intentions à l’égard des « deepfakes », ces trucages vidéo très élaborés qui, grâce à l’emploi d’algorithmes et de méthodes relatives à l’intelligence artificielle, permettent par exemple de remplacer un visage par un autre.

Deepfakes interdits, mais par les parodies

Il faut dire qu’aux États-Unis, il y a d’importantes échéances électorales qui arrivent. Le parti démocrate doit désigner la personne qui sera envoyée en première ligne contre Donald Trump. Or, comme dans toute campagne politique, chaque camp est susceptible de verser dans l’exagération, la partialité voire le mensonge pour surclasser les autres. Et à cela s’ajoutent les risques d’influence extérieure.

Pour autant, le plus fréquenté des réseaux sociaux doit prendre garde à ne pas trop serrer la vis sur toutes les vidéos manipulées, car certaines d’entre elles ont le droit de demeurer sur la plateforme. C’est typiquement le cas des vidéos parodiques ou satiriques, ainsi que celles qui ont été remontées et éditées pour omettre certains mots ou en modifier l’ordre. Des détournements comme ceux de la chaîne VinZa sont donc en principe hors de danger, même s’ils concernent la politique.

 

Deux critères seront pris en compte

Facebook explique que deux critères seront observés pour déterminer le sort à réserver pour chaque vidéo : il faut qu’elle soit éditée « au-delà des ajustements pour la clarté ou la qualité, d’une manière qui n’est pas apparente pour une personne lambda et qui pourrait probablement induire en erreur en faisant croire qu’un sujet dans la vidéo a dit des mots qu’il n’a pas réellement prononcés ».

Cette vidéo de Barack Obama n’a jamais eu lieu : c’est un deepfake. // Source : Capture YouTube

À cela s’ajoute un autre critère, celui de l’emploi d’un procédé permettant d’aboutir à un deepfake, ou tout autre trucage du même ordre. « C’est le produit de l’intelligence artificielle ou de l’apprentissage automatique qui fusionne, remplace ou superpose le contenu d’une vidéo, le faisant alors paraître comme authentique ». Pour le savoir, le site s’appuiera sur ses propres outils informatiques.

 

Face à l’ampleur de la tâche et dans la mesure où les trucages risquent de devenir de plus en plus réalistes, Facebook a fait le choix de lancer un concours en septembre 2019 pour attiser la recherche. Plus de 10 millions de dollars de prix ont été mis en jeu par le réseau social pour encourager à la création de nouveaux outils capables de voir les plus subtiles retouches qui échapperaient à d’autres logiciels.

Ultime élément à considérer : les contenus audio. Le règlement de Facebook s’applique aussi à ces fichiers, qu’ils soient accompagnés ou non d’images ou d’une vidéo. Une prise en compte importante : il existe des algorithmes capables de recréer une voix à partir d’un enregistrement d’une minute. Et encore, dans ce cas de figure, il s’agissait d’une méthode datant de 2017.

Un délicat équilibre à trouver

Si la suppression de certaines vidéos malhonnêtes et trompeuses ne représente aucune difficulté pour Facebook, parce que le trucage est grossier ou parce que la manipulation est trop grosse pour être crédible, il est à prévoir toute une zone grise complexe dans laquelle la modération risque de se prendre les pieds dans le tapis de temps à autre, car la limite ne sera pas toujours très franche.

Le réseau social pourrait donc être confronté à des injonctions contradictoires : faire preuve de célérité pour retirer toutes les vidéos falsifiées s’apparentant à du deepfake, en particulier s’il s’agit de tromper les internautes, afin de préserver l’authenticité du débat public, notamment en période électorale, mais tout en se montrant attentif à ce qu’il doit modérer, pour ne pas sur-censurer sa communauté.

 

Julien Lausson

 

No comment yet.
Scooped by Jacques Le Bris
December 29, 2019 2:52 AM
Scoop.it!

Antivirus : faut-il craindre une guerre de l’IA entre pirates et éditeurs ?

Antivirus : faut-il craindre une guerre de l’IA entre pirates et éditeurs ? | Toulouse networks | Scoop.it

Les logiciels de sécurité informatique s’appuient de plus en plus sur l’apprentissage automatique pour améliorer la détection de logiciels malveillants. Le hic : avec du savoir-faire, les pirates pourraient berner systématiquement ces systèmes d’intelligence artificielle.

L’apprentissage automatique profond, ou « Deep Learning », bouleverse de nombreux secteurs économiques. Il n’est pas donc étonnant que cette technologie apparaisse également chez les éditeurs antivirus. La détection de malware est avant tout un problème de classification auquel le Deep Learning peut apporter de nouvelles réponses.

A l’occasion de la conférence CyberSec & AI, qui s’est déroulée à Prague au mois d'octobre dernier, l’éditeur Avast a détaillé quelques techniques d’ores et déjà en production. Ainsi, son module de protection Web Shield s’appuie sur des réseaux de neurones convolutifs pour trier les 70 000 URLs sur lesquels se rendent ses 400 millions de clients chaque seconde et, le cas échéant, détecter celles qui sont malveillantes.

Un premier réseau de neurones va essayer de détecter des anomalies dans l’adresse elle-même, tant au niveau de sa structure que de l’agencement des lettres. Un second réseau de neurones va ensuite prendre une copie d’écran du site et analyser certaines parties de l’image et la comparer à des sites légitimes existants. « Si la page ressemble à une page du site d’Apple, mais que l’adresse ne fait pas partie de son domaine, alors c’est une URL malveillante », explique Rajarshi Gupta, vice-président en charge de l’intelligence artificielle.

L’apprentissage automatique est également utilisé dans le module d’analyse comportementale (Behaviour Shield) pour mieux détecter les attaques réseaux chez les clients. Grâce à ses pots de miel (sorte de leurre), l’éditeur dispose d’une liste noire d’environ 2 millions d’adresses IP de serveurs de commande et contrôle. « Mais c’est difficile d’intégrer une telle liste noire en local chez nos clients. Un réseau neuronal nous permet de ne retenir que les serveurs C & C (botnets) les plus virulents. Au final, nous obtenons une liste de 200 000 adresses couvrant 95 % des attaques », poursuit Rajarshi Gupta. D’autres réseaux neuronaux ont été entraînés pour détecter des modes opératoires - tels que les attaques par force brute – ou des trafics suspects. Ce qui est utile si l’adresse IP utilisée par les pirates est totalement inconnue.   

Mais le domaine de la sécurité informatique a aussi ses difficultés. Ainsi, les éditeurs antivirus ne peuvent que difficilement s’appuyer sur des données étiquetées, qui sont pourtant un ingrédient fondamental pour entraîner un algorithme et créer un modèle. « On ne peut pas faire comme dans la reconnaissance d’image et avoir des gens qui disent "ceci est un malware" ou "ceci n’est pas un malware". Il y a trop de données à analyser et trop peu de personnes qualifiées capables de le faire », explique Rajarshi Gupta. C’est pourquoi les éditeurs vont essayer de générer les étiquettes de manière indirecte, soit avec des méthodes statistiques, soit au travers d’autres procédés.

A découvrir aussi en vidéo

Ainsi, Avast stocke toutes les URL visitées par ses clients dans un gigantesque graphe. Quand des clients se retrouvent infectés, celui-ci lui permet de déterminer par recoupements l’URL qui est à l’origine de cette attaque, et donc de créer un label qui viendra alimenter le modèle de Web Shield.

L'IA, une technologie aux pieds d'argile

Malheureusement, les modèles de classification obtenu par apprentissage automatique ne sont pas à l’abri d’erreurs. Pire : les chercheurs en intelligence artificielle ont montré ces dernières années qu’il était possible d’identifier cette marge d’erreur et d’injecter des données dans un fichier pour systématiquement faire planter le classifieur. On appelle cela les « attaques contradictoires » (adversarial attacks). Par le passé, elles ont déjà permis d’induire en erreur les systèmes de reconnaissance d’image, y compris ceux de voitures autonomes comme les Tesla. Dans certains cas, il est même possible de créer une image qui fasse planter le système alors que le changement est imperceptible à l’œil nu.

Capture YouTube - Un changement imperceptible transforme un panda en singe

Mais peut-on également envisager ce genre d’attaques dans le domaine des logiciels malveillants ? La réponse est oui. D’ailleurs, les pirates le font déjà de manière empirique. Quand ils modifient légèrement les textes de leurs e-mails de phishing ou le code de leurs malwares, ils cherchent à passer entre les mailles du filet de l’IA.

Modifier un malware est évidemment plus difficile que changer quelques pixels dans une image, car le code risque de ne plus fonctionner. « Les techniques d’évasion généralement utilisées sont le rembourrage avec des données aléatoire, l’ajout de fichiers bénins, la compression, le chiffrement ou encore l’injection de fonctions malveillantes dans un fichier légitime », explique Sadia Afroz, chercheuse à l’université de Berkeley. En janvier dernier, un groupe de chercheurs italiens a montré que MalConv, un réseau neuronal spécialisé dans la détection de malware sur Windows, pouvait être trompé de manière systématique en ajoutant seulement quelques dizaines d’octets dans l’entête des fichiers.

Pour copier un modèle, il suffit de l'interroger

Autre bonne nouvelle pour les pirates : il n’est pas nécessaire de connaître par avance le fonctionnement d’une intelligence artificielle pour réussir à la duper. Il est possible, en effet, d’y arriver par une analyse de type boîte noire, en lui soumettant des données à classer. « En interrogeant le système d’IA, un attaquant peut identifier ses caractéristiques et recréer un modèle similaire à partir duquel il pourra générer les erreurs de classement », explique Nicolas Papernot, professeur à l’université de Toronto. Paradoxalement, l’effort nécessaire pour extraire un modèle est bien plus faible que celui requis pour sa création initiale. Dans les expériences réalisées par Nicolas Papernot sur les plates-formes d’intelligence artificielle d’Amazon, de Google et de MetaMind, quelques milliers de requêtes suffisaient alors que les modèles étaient entraînés sur plus de 60 000 images. 

Capture YouTube -

Se protéger contre ces attaques n’est pas aisé. Les chercheurs se cassent actuellement la tête pour rendre les modèles d’apprentissage automatique plus robustes, sans les faire perdre en précision. Faut-il, dès lors, bientôt craindre une guerre de l’IA dans la sécurité informatique ? Pas dans l’immédiat, car les pirates n’ont pas encore les compétences suffisantes pour s’attaquer de manière systématique aux systèmes d’intelligence artificielle.

Mais les compétences en IA vont bien finir par se démocratiser et les pirates trouveront peut-être des cibles suffisamment rentables pour mettre des data scientists à leur solde. Ce n’est qu’une question de temps. « A mesure que les niveaux de protection augmenteront, les pirates vont se tourner vers ce genre de techniques pour arriver à leurs fins », estime Battista Biggio, professeur à l’université de Cagliari.

Quand ce jour arrivera, les éditeurs antivirus vont avoir de sérieux problèmes et ils le savent. C’est pourquoi ils cherchent à avoir constamment une longueur d’avance en attirant un maximum de chercheurs spécialisés. « La sécurité informatique est le seul domaine où les systèmes d’intelligence artificielle sont confrontés à de vrais adversaires. C’est le seul domaine où ils doivent classer des éléments qui ont été créés pour ne pas l’être », a lancé Rajarshi Gupta à la fin de la conférence. Son but était clair : susciter des vocations parmi les experts présents dans la salle... et peut-être leur proposer un job.

 
Gilbert Kallenborn
No comment yet.
Scooped by Jacques Le Bris
December 21, 2019 6:14 AM
Scoop.it!

267 millions d’identifiants, numéros de téléphone et noms d’utilisateurs Facebook publiés par des pirates

267 millions d’identifiants, numéros de téléphone et noms d’utilisateurs Facebook publiés par des pirates | Toulouse networks | Scoop.it

Plus de 267 millions de numéros de téléphone, de noms et d’identifiants d’utilisateurs de Facebook ont été exposés dans une base de données à laquelle n’importe qui pouvait accéder en ligne.

Cela s’ajoute à une longue liste de problèmes de confidentialité et de sécurité qui continuent de nuire au plus grand réseau social du monde.

 

Le chercheur en sécurité Bob Diachenko a découvert les données des utilisateurs de Facebook le 14 décembre dernier. La base de données, qui a depuis été retirée, n’était pas protégée par un mot de passe ou toute autre mesure de protection. L’accès à la base de données a été supprimé, mais à ce moment-là, l’information avait déjà été rendue publique pendant près de deux semaines.

 

Selon Comparitech, une société de recherche technologique britannique qui a travaillé avec Diachenko, quelqu’un avait également mis les données à disposition sur un forum de pirates informatiques pour les télécharger.

Les dernières mésaventures de Facebook en matière de confidentialité soulèvent des questions quant à savoir si l’entreprise en fait assez pour protéger les données de ses milliards d’utilisateurs.

C’est aussi un autre rappel que les utilisateurs devraient se méfier des informations qu’ils rendent publiques sur le réseau social. Ce n’est pas la première fois qu’un chercheur en sécurité découvre une base de données remplie de données sur les utilisateurs de Facebook. Cette révélation survient également après que le cabinet de conseil politique britannique Cambridge Analytica ait récolté les données de 87 millions d’utilisateurs de Facebook sans leur consentement.

 

Facebook a dû faire face à d’autres problèmes de confidentialité, comme le stockage de centaines de millions de mots de passe en texte clair.

Selon Comparitech, les données Facebook divulguées mettent les utilisateurs à risque pour des campagnes de spam et de phishing. Un identifiant utilisateur Facebook contient des numéros uniques qui peuvent être utilisés pour déterminer le nom d’utilisateur Facebook d’une personne et d’autres informations de son profil.

Les messages à caractère politique peuvent tomber entre les mains d’acteurs agressifs qui mèneront des attaques en ligne ou physiques.

Diachenko pense que les criminels, basés au Vietnam, ont obtenu les dossiers des utilisateurs de deux façons possibles.

  • Ils pourraient avoir exploité l’interface de programmation d’applications de Facebook, ou API, qui permet aux développeurs d’accéder à des données telles que leur liste d’amis, leurs photos et leurs groupes. Cela aurait pu se produire avant que Facebook ne restreigne l’accès aux numéros de téléphone des utilisateurs en 2018 ou après, en raison d’une possible faille de sécurité.
  • Les criminels auraient également pu utiliser une technologie automatisée pour effacer l’information des profils publics de Facebook.

Dans un email, M. Diachenko a indiqué qu’une page d’accueil et un tableau de bord liés à la base de données comprenaient une invitation en vietnamien demandant un nom d’utilisateur et un mot de passe. Il semble que la base de données ait été rendue publique par erreur car « il n’y a pas de bonnes raisons d’exposer publiquement ces données », a-t-il dit.

Un porte-parole de Facebook a déclaré dans un communiqué que l’entreprise se penche sur la question mais pense que les données ont probablement été récoltées avant qu’elle n’apporte des changements pour mieux protéger les informations des utilisateurs, comme la restriction de l’accès aux numéros de téléphone.

Pour aider à protéger vos données Facebook, vous pouvez modifier vos paramètres de confidentialité afin que les moteurs de recherche extérieurs à Facebook ne puissent pas établir de lien avec votre profil. Vous pouvez également désactiver ou supprimer votre compte Facebook.

 

Les bases de données publiques non protégées sont un problème pour Facebook.

  • En avril, des chercheurs en sécurité d’UpGuard ont trouvé plus de 540 millions d’enregistrements d’utilisateurs de Facebook, y compris des commentaires et des préférences, dans une base de données publique sur les serveurs d’Amazon.
  • En septembre, TechCrunch a fait un rapport sur un serveur qui contenait plusieurs bases de données remplies de plus de 419 millions d’enregistrements Facebook provenant d’utilisateurs aux États-Unis, au Royaume-Uni et au Vietnam. Facebook, cependant, a déclaré que le serveur ne contenait « que » 220 millions d’enregistrements.
  • En septembre, un autre chercheur en sécurité a trouvé une base de données avec les données des utilisateurs de Facebook. Il n’est pas clair si la même personne ou le même groupe a publié en ligne des informations sur les utilisateurs de Facebook.

 

 

 

Reproduction autorisée avec la mention suivante : © Christian Larnet pour Dreuz.info.

 

Source : https://www.comparitech.com/blog/information-security/267-million-phone-numbers-exposed-online/

 

No comment yet.
Scooped by Jacques Le Bris
December 16, 2019 2:55 PM
Scoop.it!

Apple face à des fuites de données de ses appareils.

Apple face à des fuites de données de ses appareils. | Toulouse networks | Scoop.it

Des chercheurs français révèlent des fuites de données dans les appareils Apple (iPhone, iPad, MacBook etc...) et les objets connectés compatibles. Une fuite qui provient des messages envoyés en permanence par le bluetooth pour synchroniser les produits de la firme de Cupertino.

 

Les fans d’iPhone et autres MacBook, apprécient certainement Continuité, cette fonction d’Apple très pratique, qui leur permet, entre autres, de passer d’un appareil à l’autre et poursuivre ce qu’ils étaient en train de faire sans effectuer la moindre manipulation. Ce qu’ils vont moins aimer, c’est qu’au même moment, ces appareils laissent fuiter des informations personnelles sensibles pouvant être interceptés ! C’est ce que viennent de découvrir Guillaume Celosia et Mathieu Cunche, deux chercheurs du laboratoire Inria Privatics de l’Insa de Lyon.

Continuité permet par exemple de commencer l’écriture d’un email sur son iPhone et de le finir sur son MacBook situé à proximité, de recevoir un appel sur son ordinateur sans toucher à son téléphone, de transférer automatiquement à l’iPhone d’un invité le code wifi de la maison, d’envoyer des documents entre smartphone et ordinateur via Airdrop etc... Et ce, parce que les appareils se synchronisent en permanence en s’envoyant des messages par Bluetooth. Les fuites se produisent justement durant ces échanges.

En cause, le Bluetooth Low Energy ou BLE, un type de Bluetooth qui a la particularité de consommer moins d’énergie et ainsi améliorer l’autonomie des batteries. Il équipe iPhone, iPad, MacBook, Airpods (oreillettes sans fil), Apple Watch etc… La source du problème se trouve dans le mode de fonctionnement du BLE lui-même. "Ce standard réserve dans les messages entre appareils, une espace libre dans lequel le fabricant peut inclure des données utiles au fonctionnement de ses applications. C’est en nous intéressant à la façon dont cet espace était utilisé par Apple que nous avons découvert les fuites", explique Mathieu Cunche.

Comment tracer les utilisateurs via leurs écouteurs Airpod

Les chercheurs ont par exemple montré qu’il était possible de tracer une personne dans le monde réel grâce entre autres à ses… Airpods, les fameux écouteurs sans fil d’Apple.

La méthode est assez subtile : les messages envoyés par bluetooth contiennent les niveaux de batterie de chacun des Airpods...  Soit une information suffisante pour identifier la personne avec une certaine fiabilité. Et pour capter ces informations,  pas besoin de grands moyens. "Nous pouvons le faire avec un simple smartphone ou avec Raspberry Pi et une interface bluetooth pour une vingtaine d'euros. Mais toute la difficulté est dans l'analyse des données collecées", explique Mathieu Cunche.

 

Autre faille : les chercheurs peuvent relier deux appareils qui appartiennent au même compte iCloud, le service de stockage à distance d'Apple.
Ainsi, à partir du signal d'un iPhone, il est possible de retrouver le domicile de la personne grâce au signal émis pas son MacBook resté dans l'appartement.
Et c'est d'ailleurs à la maison que les choses se corsent. Ces fuites concernent les produits Apple mais aussi tous produits compatibles avec HomeKit, l'application qui permet de contrôler les objets connectés d'une "maison intelligente" : interrupteur, capteur de présence, thermostat, caméra de surveillance,
ampoule, etc.

Les messages transmis révèlent peu de choses, juste le changement d'état de ces appareils entre utilisé ou pas.
Mais cela suffit pour avoir une bonne idée de ce qu'il se passe dans la maison.
"Nous avons fait l'expérience au laboratoire en installant un capteur de présence infrarouge et une ampoule connectés dans le bureau de Guillaume Celosia, l'un des auteurs de l'étude. En quelques jours d'interceptions nous avons pu déduire les horaires de Guillaume", explique Mathieu Cunche.
Ainsi, une personne malveillante pourrait connaître les habitudes de sa cible, savoir quand elle est chez elle et quand elle n'y est pas.
Pratique, si s'agit d'aller fouiller dans ses placards.

 

Il est possible de collecter les numéros de téléphone.

 

Les deux chercheurs ont aussi pu montrer qu'il était aussi possible de collecter le numéro de téléphone et l'email d'une personne.
En effet, quand par exemple deux iPhone s'échangent le code wifi de la maison ils doivent d'abord se reconnaître.
Ce qu'ils font en s'échangeant leur numéro et leur adresse email. Cet échange est "/obfusqué/" c'est-à-dire modifié; pour le rendre incompréhensible.
Chaque smartphone reçoit une sorte d'empreinte difficile à falsifier. Mais plutôt que d'essayer de décrypter l'empreinte,

l'attaquant peut tenter de nombreuses combinaisons de numéros de téléphone ou d'emails, générer ainsi des empreintes et les comparer avec celle qui l'intéresse et finalement en déduire le numéro ou l'email recherché. Avec un numéro de mobile,

l'opération est assez simple, puisque l'on a déjà; les deux premiers chiffres. Il suffit à la machine d'explorer toutes les combinaisons possibles pour les huit suivants jusqu'à obtenir le bon.

 

Pour l'email, la deuxième partie après le @ est facile à trouver. En France par exemple, ce sera surtout du @gmail.com, @orange.fr, @yahoo.fr ou encore pour une entreprise @nomdelentreprise.fr etc. Par contre, l'identification de la première partie, avant le @, risque d'être plus délicate car il peut s'agir d'une succession
plus ou moins longue de lettres, de chiffres, de caractères spéciaux etc. Difficile, mais pas impossible, car souvent ces adresses mails sont assez stéréotypées : prénom, nom ou première lettre de prénom, nom et un chiffre etc.

 

Et pour les appareils sous Android ?
"Nous n'avons pas étudié cet écosystème mais les communications entre appareils sont différentes et nous pensons qu'ils sont moins exposés" , explique Mathieu Cunche.
Ainsi, espions, pirates et autres attaquants ont à leur portée une multitude de fuites à exploiter pour en savoir un plus sur la vie privée de leurs cibles adeptes des produits Apple.

 

[...]

 
 
No comment yet.
Scooped by Jacques Le Bris
December 13, 2019 5:34 AM
Scoop.it!

Twitter veut dynamiter les réseaux sociaux

Twitter veut dynamiter les réseaux sociaux | Toulouse networks | Scoop.it

 

Twitter va monter une équipe nommée « Bluesky ». Elle développera des standards open source pour créer des médias sociaux décentralisés, afin de mieux traiter la désinformation ou les bulles de filtre. Twitter en sera utilisateur.

 

C'est une petite bombe qu'a lancée mercredi Jack Dorsey, le patron fondateur de Twitter. Dans une série de messages sur le site de microblogging, il décrit un nouveau projet, Bluesky, susceptible de changer fondamentalement la façon dont fonctionnent les réseaux sociaux.

« Twitter finance une petite équipe indépendante de cinq architectes, ingénieurs et designers open source pour développer un standard ouvert et décentralisé pour les médias sociaux, écrit '@jack'. L'objectif est pour Twitter d'être à terme un client de ce standard. »

 

En clair, l'entreprise ne veut plus dicter à elle seule les règles de fonctionnement de sa plate-forme. Demain, grâce à un cadre standardisé dont le code informatique sera public, n'importe qui pourrait créer sa propre version de Twitter. Ces multiples services seraient interopérables, y compris avec celui du groupe californien.

Retour à l'Internet d'avant

Pour expliquer la philosophie de cette évolution radicale, Jack Dorsey cite  un article publié l'été dernier par Mike Masnick , le fondateur du blog Techdirt, qui appelle à la création de protocoles plutôt que de plates-formes.

« Cette approche nous ramènerait à ce qu'Internet était avant. L'Internet des débuts recourrait à de nombreux protocoles - des instructions et des standards que chacun pouvait ensuite utiliser pour construire une interface compatible, peut-on y lire. Les e-mails utilisaient SMTP (Simple Mail Transfer Protocol). Le chat se passait sur IRC (Internet Relay Chat) […] le World Wide Web lui-même était son propre protocole : HyperText Transfer Protocol, ou HTTP. »

Grâce à ces protocoles standards, un utilisateur de Gmail peut envoyer un message sans problème à un utilisateur de Hotmail ou même à quelqu'un ayant son propre serveur de mails. Ce n'est pas le cas dans le monde des réseaux sociaux, où Facebook, Twitter ou TikTok sont autant d'écosystèmes propriétaires fermés. Se doter d'une brique de base pour les réseaux sociaux similaire à ce que SMTP est au mail serait une petite révolution.

 

Dans un tel système, « n'importe qui pourrait créer ses propres règles - y compris quel contenu il ne souhaite pas voir et quel contenu il veut voir promu », écrit Mike Masnick. Et même si tout un chacun ne se lance pas dans l'aventure - comme pour les mails - un certain nombre de fournisseurs tiers se concurrenceront, au bénéfice des utilisateurs.

Le poids de la censure

Jack Dorsey y voit deux intérêts majeurs : cela obligera Twitter à « être bien plus innovant que par le passé ». Et surtout, cela enlèvera de ses épaules le poids de devoir décider quel contenu est autorisé ou non et quel contenu est poussé vers les utilisateurs en priorité. C'est une épine majeure dans le pied des plates-formes. Comme Facebook, Twitter est régulièrement critiqué - à la fois pour son côté permissif - laissant son service être le support de discours de haine ou de fausses informations - et pour son rôle de censeur - trop politique au goût de certains.

« L'application centralisée d'une politique mondiale pour traiter les insultes et la désinformation a peu de chances de passer à l'échelle sur le long terme sans faire peser un fardeau trop lourd sur les gens », écrit Jack Dorsey. Facebook a lancé  un projet de « Cour Suprême » interne pour décider des cas les plus litigieux. Avec Bluesky, Twitter adopte une approche plus singulière.

Trois obstacles majeurs

Celle-ci ne manquera pas de rencontrer de nombreux obstacles. Le directeur technique de Twitter, Parag Agrawal, qui pilotera l'équipe Bluesky, les a listés dans une série de messages mercredi. Le premier sera pour un système décentralisé d'être compétitif en qualité avec les plates-formes privées. Si Facebook a prospéré, c'est grâce à un cercle vertueux : refermé sur lui-même, il a pu réaliser d'énormes profits, investir dans des services extrêmement performants et retenir les utilisateurs…

 

Le deuxième défi d'un système décentralisé sera donc la monétisation. Jack Dorsey ne dit d'ailleurs pas si Twitter devra modifier son business model reposant sur la publicité ciblée, ni comment. Enfin, le troisième défi sera de conserver le rythme d'innovation endiablé du privé. « Malgré ces obstacles, nous croyons qu'il y a le potentiel pour un impact massif sur Twitter et la société », assure Parag Agrawal.

Le précédent Mastodon

Pour atteindre son objectif, son équipe de geeks pourra soit développer de nouveaux standards à partir de zéro, soit utiliser des modèles existants. Jack Dorsey a mentionné la technologie blockchain comme une piste de réflexion.

Mais il existe surtout ActivityPub, un protocole utilisé notamment par Mastodon, un concurrent de Twitter lancé en 2016 et déjà décentralisé. N'importe qui peut monter un serveur Mastodon, dont les utilisateurs pourront échanger entre eux ou avec les autres serveurs Mastodon - à moins d'avoir défini des règles pour exclure certains serveurs.

Quel que soit le chemin choisi, « il faudra des années pour développer un standard décentralisé utilisable, évolutif et sûr » a prévenu Jack Dorsey. Sa proposition est une bombe pour les réseaux sociaux. Mais il en a juste posé l'amorce.

 

Sébastien Dumoulin 

 

No comment yet.
Scooped by Jacques Le Bris
December 1, 2019 4:39 PM
Scoop.it!

Occitanie. EDF et Airbus Développement partenaires pour repérer et aider des start-up

Occitanie. EDF et Airbus Développement partenaires pour repérer et aider des start-up | Toulouse networks | Scoop.it

Gilles Capy, délégué régional EDF en Occitanie et Michel Sesques, président d’Airbus Développement.

 

EDF et Airbus Développement ont annoncé la semaine dernière la mise en place d’un partenariat pour sourcer et aider au développement des start-up innovantes sur le territoire d’Occitanie.

Déjà impliqués chacun de leur coté dans l’aide aux start-up, EDF et Airbus Développement (filiale à 100 % d’Airbus dédiée à l’accompagnement de projets) ont signé devant la presse une convention de partenariat pour repérer conjointement des start-up « à haut potentiel » en Occitanie, dans des secteurs communs aux deux groupes. « La maintenance prédictive par exemple, ou l’avion électrique, sont des domaines qui intéressent tout autant EDF qu’Airbus », explique Gilles Capy, délégué régional EDF en Occitanie.

Ce partenariat permettra de « mettre en place des tests ou l’intégration de services et technologies innovantes au sein d’Airbus Développement et d’EDF, en mettant en place des études de possibilité de financement internes et externes aux deux groupes, via notamment les dispositifs existants d’ Airbus Développement et EDF Pulse Croissance », poursuit Gilles Capy.

Tournée des incubateurs prévue début 2020

Les deux entreprises souhaitent également mettre en place une co-labellisation, sorte de super recommandation pour les start-up qui en bénéficieront, mais dont les critères d’obtention ne sont pas précisés, hormis le « caractère innovant » du produit ou service proposé.

Pour sourcer les start-up, EDF et Airbus Développement font faire le tour de plusieurs incubateurs et pépinières d’entreprise dès le premier semestre 2020, avec des visites prévues à la French Tech Perpignan en février, au Bic Crescendo de Tarbes et au CleanTech Booster (Nîmes) en mars, et en avril à Montauban. Aucun objectif chiffré n’est communiqué concernant le nombre de projets qui seront accompagnés ou financés par ce nouveau partenariat, mais sur les 20 entreprises rencontrées et conventionnées par Airbus Développement en 2019, une dizaine étaient également accompagnées par EDF. « On peut imaginer qu’Airbus Développement va monter à 30 startups accompagnées en 2020, dont une quinzaine avec EDF », estime Michel Sesques, président d’Airbus Développement.


Sophie Arutunian

 

No comment yet.
Scooped by Jacques Le Bris
May 30, 2019 2:21 AM
Scoop.it!

10 faits que vous ignorez sur le blogging !

10 faits que vous ignorez sur le blogging ! | Toulouse networks | Scoop.it

Hello les Overblogueurs !

 

Cela fait quelques années que vous bloguez maintenant, ou peut-être que vous vous y êtes mis récemment... Vous pensez savoir beaucoup de choses sur cette activité...

Mais savez-vous comment cela a commencé ? Savez-vous qui a posté le premier billet de blog ? 

Voici 10 choses que vous ignorez probablement sur le blogging, pour devenir incollable sur le sujet ! �

1 - Le blog est apparu à la fin des années 1990. 

Les premiers blogs ont fait leur apparition au Canada, à la fin des années 1990. Il s'agissait d'un type de carnet de bord regroupant des listes d'hyperliens que les auteurs trouvaient intéressants, avec quelques commentaires. 

2 - Le blog existait déjà sur Minitel.

Dès 1989, on retrouve sur Minitel des sortes de blogs. Par exemple, le service 3615 LS permettait de créer une page, d'avoir un nom de domaine personnalisé et une messagerie personnelle. 

3 - Le tout premier post de blog date du 1er janvier 1994.

Le 1er janvier 1994, le journaliste freelance américain Justin Hall publie son premier post de blog. Il y a raconte sa découverte de l'internet en 1988.
Ça ne nous rajeunit pas tout ça... 

4 - La première plateforme de blog est créée en 1997.

Open Diary, fondé par Bruce et Susan Abelson, a été mis en ligne pour la première fois le 20 octobre 1997. Cela devient petit à petit une communauté de journaux personnels en ligne sur lesquels on peut publier en mode public, privé ou pour ses amis ; commenter et envoyer des emails gratuitement. C'est ce site web qui a vu naître le concept de social networking. Cette plateforme aura hébergé 5 millions de journaux personnels de 77 pays différents et ferma définitivement en février 2014. 

5 - Cela ne s'appelait pas des "blogs" au début.

Le premier terme spécifique apparait en 1995 et a été créé par John Barger. Ce dernier tenait un site web nommé "Robot Widsom" sur lequel il partageait ses analyses sur le monde numérique. Il avait pris l'habitude de collecter une liste de liens chaque jour pour étayer ses propos, ce qu'il avait appelé "a day-to-day log of my readings and intellectual pursuits". Il décida donc de créer l'expression "Weblog" ("web" et "log"). 
Celle-ci sera plus tard raccourcie en "blog" par Peter Merholz en 1999. 

6 - "Blog" est le mot de l'année en 2004. 

Le terme « blog » a été considéré par le Dictionnaire américain Merriam Webster, équivalent du Petit Robert Français, comme « le mot de l’année ». En 2004, 130 000 000 pages sont indexées par Google avec le terme "blog". 

7 - Certains médias d'aujourd'hui ont été des blogs. 

Techcrunch, Mashable, le Huff Post ou Gizmodo ont été lancés par des blogueurs indépendants et sont aujourd'hui de grands médias. 

8 - Le vlog est une forme de blog.

Les premiers blogs vidéos furent lancés dès 2004 soit un an avant la création de Youtube.
Le mot "vlog" est simplement la contraction entre les mots "vidéos" et "blog". Cela consiste à raconter une situation, quelqu'elle soit, en vidéo. 
Aujourd'hui, c'est un format extrêmement développé sur les plateformes vidéos comme Youtube. 

9 - Ce sont les marques qui ont dessiné le métier de blogueur. 

En créant en 2003 Adsense, Google a permis aux blogueurs d'ajouter de la publicité sur leurs blogs et toucher une rémunération selon leur trafic. Les marques ont donc rapidement perçu l'influence que les blogueurs pouvaient avoir sur leurs communautés. Petit à petit, cela est devenu une technique de marketing, cela a créé de nouveaux métiers dédié au milieu de l'influence, et bloguer devient un métier à temps plein pour de nombreux blogueurs. 

10 - Overblog a demarré dans un petit appartement à Toulouse. 

Créé par Frédéric, Gilles et Julien, en 2004 dans un appartement sous les toits à Toulouse, Overblog est le pari de 3 amis passionnés de web qui souhaitent rendre le blogging accessible à tout le monde, même à ceux qui n'y connaissent rien au web. Et c'est un pari plus que réussi ! �

 

 

 

 

 

 

Rédigé par Marion et publié depuis Overblog

No comment yet.
Scooped by Jacques Le Bris
April 26, 2019 6:04 AM
Scoop.it!

La startup de la semaine : MiddleVR ou la réalité virtuelle pragmatique

La startup de la semaine : MiddleVR ou la réalité virtuelle pragmatique | Toulouse networks | Scoop.it

L'application de MiddleVR permet à GRT Gaz d'économiser dans ses coûts de formation.

 

 

Toutes les semaines, La Tribune braque les projecteurs sur une pépite méconnue de la French Tech. Cette semaine, MiddleVR. Derrière les paillettes de la réalité virtuelle grand public, la startup propose des applications VR destinées à réduire les coûts des entreprises liés à la formation. A la clé, un marché de plus de 30 milliards d'euros. 

 

"Notre objectif, c'est d'améliorer la productivité et que les entreprises aient un retour sur investissement, pas de participer à l'effet waow du marketing", attaque d'entrée Sébastien Kuntz, président et fondateur de MiddleVR. Ce quadragénaire a commencé à travailler dans la réalité virtuelle chez la SNCF dès 2001, bien avant l'annonce du casque Oculus Rift en 2012, tournant de la VR grand public. Son objectif est de populariser l'usage de la réalité virtuelle dans les entreprises. La startup créée en 2012 veut s'imposer sur le marché de la formation professionnelle, mesuré en 2014 à plus de 32 milliards d'euros par la DARES (direction de l'animation de la recherche, des études et des statistiques), rien qu'en France. Sans faire appel aux levées de fonds, la jeune pousse a dépassé le million de chiffre d'affaire et anticipe une croissance annuelle de plus de 20%.

Des applications sur mesure

« Le boom de la réalité virtuelle, c'est dans les années 90, donc les cas d'usage sont déjà identifiés. L'arrivée des casques, et surtout du HTC Vive en 2016, n'a fait que rendre la VR plus accessible », expose Sébastien Kuntz. Avant les casques, la réalité virtuelle nécessitait la construction de dispositifs onéreux et immobiles. A sa création, MiddleVR prend donc un chemin moins coûteux et bâtit son modèle économique autour d'un outil à destination des développeurs. Mais dès 2014 et l'arrivée des casques, elle commence à créer des applications sur mesure pour ses clients. Son exemple étendard, développé pour GRTgaz, est destiné à former les agents sur un poste de "détente livraison". Immergés dans un environnement 3D, les futurs opérateurs de terrain doivent réaliser une opération routinière, qui consiste à abaisser la pression du gaz entre le réseau de transport de gaz et celui des clients. "GRTgaz n'a qu'un poste d'entraînement, situé à Nantes. En plus de devoir payer le déplacement des agents, l'instructeur ne peut y former qu'une personne à la fois, pendant que les autres attendent", relève Christophe Gouet, directeur de la startup. Avec les kits VR, GRTgaz a formé plus de 400 personnes à distance en 3 ans.

L'environnement en réalité virtuelle comprend toutes les contraintes du dispositif réel : il faut se déplacer en marchant, s'y prendre à plusieurs reprises pour ouvrir certains canaux, ou se pencher pour accéder à des commandes. Un bruit de gaz constant accompagne les manipulations, et se manifeste de façon de plus en plus inquiétante si l'on ne dépressurise pas convenablement. La réalité virtuelle permet d'ailleurs de tester les dispositifs d'urgence, et de montrer aux futurs agents les potentielles conséquences en cas d'erreur. Autant de "scénarios pédagogiques" supplémentaires. La jeune pousse vient de livrer la quatrième version du logiciel, qui offre désormais la possibilité d'afficher la mesure de pression dans chaque partie des tuyaux, une donnée évidemment invisible à l'œil nu.

Lire aussi : La réalité virtuelle s'équipe de nouveaux casques pour (enfin) exploiter son potentiel

 

Efficace et sans paillettes

« Notre objectif, ce n'est pas du faire du joli, nous nous concentrons sur les besoins des personnes qui sont sur le terrain. On peut proposer la couche de vernis, mais on précise le coût additionnel", affirme avec franchise Christophe Gouet. Par exemple, GRTgaz a payé pour que l'environnement autour du poste de travail, un paysage avec des arbres, soit plus joli. Mais MiddleVR préfère aller à l'essentiel, que ce soit dans les graphismes ou dans les interactions.

"Dans la mesure du possible, on configure nos applications pour que les utilisateurs n'aient à utiliser qu'un seul bouton", argue le dirigeant. L'objectif : que cette simple interaction suffise à réaliser l'ensemble des tâches du parcours de formation. Équipé d'un HTC Vive Pro, l'utilisateur n'a qu'à utiliser les gâchettes présentes sur les manettes pour ouvrir et fermer les mains de son avatar virtuel. On peut ainsi activer des leviers, tourner des molettes ou assembler des pièces. On monte alors un moteur d'avion en déplaçant des pièces disposées sur la gauche vers le projet final à droite. Le tout sans se déplacer, et en utilisant seulement les gâchettes. Et surtout, sans besoin de formation à la VR.

Populariser pour décoller

Confiant dans ses produits, Chritophe Gouet estime qu'il ne reste plus qu'un travail d'évangélisation de la réalité virtuelle à effectuer. "Nos clients imaginent le plus souvent des choses incroyables, on doit donc les recadrer. Parfois, la VR apporte trop de contraintes par rapport aux bénéfices qu'elle apporte. A l'inverse, ils n'identifient pas toujours les usages où l'intervention de la VR serait pertinente", constate-t-il. Pour convaincre les entreprises, la jeune pousse passe souvent par le développement d'un prototype, pour un prix oscillant entre 30.000 et 50.000 euros.

Afin de diversifier son activité, MiddleVR a développé en 2016 Improov, une sorte de Skype en 3D, à destination des ingénieurs. On y est projeté dans un environnement virtuel, dans lequel les concepteurs importent leur maquette 3D. On peut en faire le tour, prendre des mesures, déplacer des pièces, observer des plans de coupe, bref, tourner la maquette dans tous les sens. Les dysfonctionnement repérés, ou les améliorations importées dans le plan virtuel peuvent se traduire en centaines de milliers d'euros de coûts évités dans le réel. "En discutant avec leurs homologues japonais sur Improov, les ingénieurs du CNES (Centre national d'études spatiales, ndlr) ont observé un problème d'emboîtement de pièces sur un prototype de satellite", donne comme exemple Sébastien Kuntz. La NASA, L'Oréal ou encore Plastic Omnium font parti de la quarantaine d'utilisateurs prestigieux de Improov.

En plus du développement d'applications de réalité virtuelle, la startup pourrait bientôt accélérer du côté de la réalité augmentée (AR). Trop limitée par les performances des premiers casques, les usages de l'AR pourraient exploser avec la deuxième génération de matériel, et notamment le Hololens 2 de Microsoft. Cette technologie pourrait par exemple guider un ouvrier étape par étape dans le montage d'une pièce industrielle. Un nouveau pan de marché s'ouvrirait à MiddleVR. Si les dirigeants de la startup préfèrent aujourd'hui présenter leur entreprise comme une PME de 18 employés, elle a tout pour poursuivre sa croissance à deux chiffres.

 

François Manens

No comment yet.
Scooped by Jacques Le Bris
April 25, 2019 10:37 AM
Scoop.it!

Des ingénieurs belges déjouent une IA grâce à de simples pancartes

Des algorithmes hyper puissants battus par un stratagème basique.

 

Les nouvelles technologies génèrent de nombreuses craintes. Pour tenter de faire face à la reconnaissance faciale, des chercheurs belges ont imaginé un stratagème : faire porter à des testeurs, une pancarte sur laquelle une image de foule est collée, pour déjouer l’attention des intelligences artificielles. Ça fonctionne !

Alors que la reconnaissance faciale couvrira bientôt 79% des aéroports américains, des ingénieurs de l’université belge KU Leuven veulent s’opposer au dictat de cette technologie. Comment déjouer ces algorithmes hyper-puissants et potentiellement dangereux pour nos sociétés ? C’est la question à laquelle ils ont tenté de répondre en imaginant un stratagème « basique » pour perturber l’IA en question, du nom de YOLOv2.

L’idée ? Une pancarte sur laquelle est collée la photo d’une foule. Les chercheurs ont réussi à prouver dans cette vidéo que l’intelligence artificielle était totalement perturbée par cette photo. Elle n’est plus en mesure d’identifier les individus « réels ». Les chercheurs précisent que : « cette technique pourrait rendre une personne virtuellement invisible pour les caméras de surveillance automatisée ». Vous comprendrez mieux avec cette vidéo ci-dessus.

 

Des méthodes archaïques pour faire face à des technologies hyper puissantes. Cela peut paraître dérisoire et pourtant ça fonctionne. L’idée est de faire face à la puisse d’États non-démocratiques comme la Chine, qui introduisent la reconnaissance faciale à tous les niveaux. En effet, le géant asiatique annonçait en mars dernier que cette technologie serait introduite pour payer le métro.

Les intelligences artificielles spécialisées dans la reconnaisse visuelle sont très présentes de nos jours.

À titre d’exemple, elle a déjà été utilisée dans un lycée français pour filtrer les élèves et limiter les intrusions.

Ce fut également le cas à Londres en décembre dernier, dans le cadre d’un essai pour la police britannique.

Évidement, les algorithmes ne sont pas mauvais en eux-mêmes. Le problème, c’est l’usage qui en est fait.

 

Par Valentin Cimino Twitter@ciminix

Source : https://siecledigital.fr/2019/04/25/des-ingenieurs-belges-dejouent-une-ia-grace-a-de-simples-pancartes/

 

Jacques Le Bris's insight:

Supplementary material of our paper to be presented on the CVPR Workshop: CVCOPS (https://cvcops19.cispa.saarland/).

Simen Thys, Wiebe Van Ranst, and Toon Goedemé.

"Fooling automated surveillance cameras: adversarial patches to attack person detection."

https://arxiv.org/abs/1904.08653

Contact: wiebe.vanranst@kuleuven.be, toon.goedeme@kuleuven.be, simen.thys@student.kuleuven.be http://eavise.be

No comment yet.
Scooped by Jacques Le Bris
March 13, 2019 4:03 PM
Scoop.it!

Facebook, Instagram, WhatsApp: pannes massives des serveurs à travers le monde

Facebook, Instagram, WhatsApp: pannes massives des serveurs à travers le monde | Toulouse networks | Scoop.it

De nombreux membres de Facebook rapportent des difficultés de connexion. Le problème touche des utilisateurs européens, américains et asiatiques.

Si Facebook rencontre régulièrement des pannes de serveurs, celle de ce 13 mars concerne une bonne partie de ses 2,3 milliards d’utilisateurs dans le monde. Depuis 17h, heure de Paris, le site Downdetector recense des milliers de rapports de pannes du réseau social. D’après les données publiées sur le portail, les difficultés concernent l’étape de connexion au site, ou de chargement du fil d’actualité.

 

Instagram et WhatsApp touchés

Downdetector publie également une carte en temps réel, afin de recenser la provenance des différents rapports de panne. La France est concernée, au même titre qu’une grande partie des pays situés dans le nord de l’Europe. Les Etats-Unis sont eux aussi touchés, avec un pic d’erreurs sur la côte Est. Des difficultés de connexion sont par ailleurs signalées au Pérou, au Brésil, en Argentine, ainsi qu’en Inde et en Asie du Sud-Est.

Toujours selon Downdetector, les problèmes techniques concernent l'ensemble des services de Facebook. Des rapports ont également été publiés au sujet de Messenger, WhatsApp et d'Instagram. A chaque fois, les pannes sont mentionnées dans de nombreux pays, principalement en Europe et en Amérique du Nord.
 
Facebook France a reconnu l'existence de la panne empêchant l'accès à ses différents services par le biais de son compte Twitter, peu après 19h. Aux alentours de 20h30, la firme a confirmé qu'elle ne faisait pas l'objet d'une attaque par déni de service (DDoS), qui consiste à surcharger un service pour faire tomber ses serveurs. Facebook n'écarte toutefois pas l'hypothèse d'un autre type d'attaque informatique.

Raphaël GRABLY

Chef de service

 

 

No comment yet.
Scooped by Jacques Le Bris
March 13, 2019 3:49 PM
Scoop.it!

Microsoft devient un contributeur de Chromium, et propose une fonctionnalité

Microsoft devient un contributeur de Chromium, et propose une fonctionnalité | Toulouse networks | Scoop.it

Microsoft a annoncé fin 2018 qu’elle migrerait de EdgeHTML vers Chromium pour son « populaire » navigateur Web, alias Microsoft Edge, expliquant qu’en devenant un contributeur de ce moteur, le reste du Web bénéficierait de toutes ses innovations.

Et d’après ce que l’on voit, Microsoft tient beaucoup à tenir cette promesse, et l’entreprise apporte maintenant une fonctionnalité clé de Edge aux navigateurs Chromium, y compris Google Chrome.

Le défilement fluide (« Smooth scrolling »), qui a été spécifiquement développé pour Microsoft Edge, est une fonctionnalité proposée à Chromium. Comme vous l’avez peut-être remarqué si vous utilisez Microsoft Edge, le défilement tactile des pages Web est beaucoup plus fluide que sur Chrome. C’est bien cette expérience que Microsoft veut apporter à tous les navigateurs basés sur Chromium. Et comme l’a remarqué Thurrott, Google pourrait l’apporter à tous les navigateurs basés sur ce moteur, y compris ceux fonctionnant sous Windows, macOS, Linux, Chrome OS et Android.

« Le défilement de la scrollbar à l’aide de la souris se fait sur le fil principal de Chromium », explique la proposition de Microsoft. « Si le fil principal est occupé, le défilement en cliquant sur la barre de défilement semblera être anormal, car les événements se mettent en file d’attente [et] attendent que le fil principal se libère », explique Microsoft dans une description de la fonctionnalité proposée pour adoption sur Chromium.

Une expérience en cours

« Aujourd’hui, nous observons en moyenne que le scroll des barres de défilement a une latence supérieure sur Chromium par rapport à EdgeHTML, et c’est pire sur les sites particulièrement fréquentés. Nous attribuons principalement cette lacune à la fonctionnalité EdgeHTML. En évitant également le fil principal de Chromium, nous pensons pouvoir aligner les performances du défilement sur ce que nous observons dans EdgeHTML », poursuit la société.

À l’heure actuelle, Microsoft expérimente encore les premières implémentations de cette fonctionnalité, et aucune date de sortie n’est disponible quant à la date à laquelle elle sera disponible pour les utilisateurs.

Toutefois, les versions Canary de Google Chrome sont déjà livrées avec une première version de ce défilement fluide, et la version Chromium de Microsoft Edge, qui sera disponible plus tard cette année, devrait en disposer. Il s’agit là d’une excellente décision pour Microsoft et pour Google qui semble ravie de cette nouvelle fonctionnalité puisqu’elle a déjà accepté cette suggestion. Merci Microsoft !

No comment yet.