Toulouse networks
41.8K views | +7 today
Follow
Toulouse networks
Networking in Toulouse - Réseautage de la Ville Rose
Your new post is loading...
Your new post is loading...
Scooped by Jacques Le Bris
Scoop.it!

Intox etc. : Google, Facebook, Twitter vont-ils réagir?

Intox etc. : Google, Facebook, Twitter vont-ils réagir? | Toulouse networks | Scoop.it

La semaine dernière, Google, Facebook et Twitter ont promis de lutter, chacun à sa manière, contre les informations erronées, les discours haineux et autres exagérations, suite aux nombreuses critiques sur l’impact de leurs algorithmes sur l’issue des élections présidentielles américaines. Mais ce débat, qui aurait dû avoir lieu plus tôt, laisse sans réponse de nombreuses interrogations préoccupantes.

 

Google a promis qu’il empêcherait les sites web véhiculant des contenus invérifiés d’accéder à sa plateforme publicitaire AdSense, qui aide ces sites à profiter de recettes publicitaires. Facebook a déclaré qu’il n’intégrerait, ou ne diffuserait sur la toile, aucune annonce présentant un contenu illégal, trompeur ou visant délibérément à induire en erreur, comme les intox ou les informations inexactes. Twitter a déclaré dans un communiqué qu’il supprimerait les comptes de tout utilisateur affichant un contenu offensant, en s’appuyant sur les fonctionnalités qui permettent aux utilisateurs de « rendre muets » (mute) de tels contenus et de signaler un abus, confirmant ainsi sa politique relative aux discours de haine et autres contenus offensants.

Frapper au portefeuille est la bonne stratégie pour prévenir de tels abus, note Jennifer Golbeck - directrice de l’Intelligence Social Lab, professeure de sciences de l’information à l’Université du Maryland et auteure du livre Social Media Investigation: A Hands-on Approach. Les nouvelles mesures prises par ces entreprises ont, dit-elle, « incontestablement privé ces sites de leur principale source de revenus, ces perspectives de rémunérations étant souvent la raison même de leur existence ». Jennifer Golbeck fait aussi remarquer que bon nombre d’individus et d’organisations ayant mis en ligne les fausses informations en question, particulièrement lors des récentes élections, ne sont pas basées aux États-Unis et ne se soucient pas des idéologies qui se cachent derrière ces contenus. « Leur seul souci est de gagner de l’argent, et de créer les flux de clics qui le leur permettront. »

Ces mesures sont permises par une loi (plus précisément l’article 230 du Communications Decency Act) qui leur donne « un minimum de protection juridique sur les contenus visibles sur leurs plateformes, tant qu’ils ne vont pas trop loin dans l’édition de ces contenus, explique Andrea Matwyshyn, professeur de droit à la Northeastern University et affilié au Center for Internet and Society de la Faculté de Droit de Stanford. « Ils font quelques pas dans la direction d’un contexte légal qui, de leur point de vue, sera le meilleur, un environnement qui n’ira pas à l’encontre des dispositions prévues par l’article 230 du CDA qui leur garantit une protection juridique ».

Le PDG de Facebook, Mark Zuckerberg, qui avait pourtant démenti les accusations selon lesquelles son entreprise aurait involontairement permis à de fausses infos de proliférer, n’est aujourd’hui plus dans le déni. Dans un message posté sur son site le 18 novembre dernier, il décrit comment son entreprise s’apprête à déployer un front pluridimensionnel visant à prévenir la prolifération d’informations erronées. Il a tout de même reconnu les limites de son action: « Nous ne voulons pas nous poster en arbitres de la vérité, mais plutôt nous appuyer non seulement sur notre communauté, mais aussi sur des acteurs extérieurs à qui nous voulons pouvoir faire confiance. »

 

Jusqu’où pourraient-ils aller?
La question importante est, selon Kevin Werbach, professeur de droit et d’éthique des affaires à l’Université de Wharton, de savoir si Facebook et les autres médias sociaux assument leur responsabilité dans le modelage de l’environnement informationnel. « Ils ne veulent pas se considérer comme des médias à proprement parler, mais jouent le même rôle que les médias traditionnels dans l’influence qu’ils exercent sur l’opinion publique. De cette influence naît leur responsabilité. »

Le gouvernement devrait-il s’associer aux réseaux sociaux et construire un front plus fort? Les lois et règlementations pourraient y contribuer, mais le défi réside dans leur élaboration, explique Jonah Berger, professeur de marketing à Wharton. « Ce qui est pornographie pour l’un est chef d’œuvre pour l’autre », a-t-il déclaré. « Dans le domaine des croyances religieuses, la vérité de l’un est le mensonge d’un autre. C’est là que les choses se compliquent. »

Les réseaux sociaux ont cependant quelques options pour éviter de propager des infos erronées, explique Pinar Yildirim, professeure de marketing à Wharton. « Les journaux sérieux – jusque-là gardiens de l’information – sont généralement bien plus efficaces dans la vérification des faits avant la publication d’une info », a-t-elle déclaré. « Étant donné que les barrières à la diffusion de l’information ont été considérablement abaissées ces dernières années, il devient d’autant plus difficile à des plateformes comme Twitter et Facebook de filtrer les contenus disponibles dans de tels volumes et à une telle échelle. Elles ne veulent pas non plus froisser leurs utilisateurs en bloquant leurs contenus. »

 

L’appât du gain
Donner aux utilisateurs le pouvoir de décider de ce qu’ils veulent voir ou de ce qu’ils veulent ignorer est aussi un argument commercial conséquent. « Après les élections polarisées de 2016, il est devenu évident qu’il est nécessaire de donner aux utilisateurs un plus grand contrôle sur le type d’information auxquels ils souhaitent être exposés, si l’on souhaite qu’ils continuent à utiliser ces plateformes », explique Pinar Yildirim. « En l’absence de ces outils, les utilisateurs auraient plus tendance à se désinscrire ou à moins fréquenter la plateforme pour éviter de subir des contenus non désirés. »

Les efforts de Twitter visent à protéger non seulement ses utilisateurs, mais aussi son image de marque, sérieusement égratignée en raison des discours haineux et des trolls désobligeants qui prolifèrent sur ce réseau. Golbeck a fait observer que Twitter avait, la semaine dernière, suspendu les comptes de certains membres d’organisations suprématistes blanches et de groupes néonazis.

Matwyshyn est moins enthousiaste sur les motivations que cachent ces initiatives. Elle fait remarquer que Twitter est lié par contrat avec ses utilisateurs, qui se voient imposer des clauses comprnent désormais l’interdiction de discours de haine. « Les mesures qu’il prend maintenant ne sont ni plus ni moins qu’une stricte mise en application de clauses déjà prévues au contrat », note-t-elle

Peut-être plus significatif encore, les perspectives de Twitter pourraient également être accrues par ces récentes mesures, car l’entreprise est en pleine recherche d’un acquéreur. Twitter a vu sa plateforme se transformer « sous de nombreux rapport en un bourbier glauque, considère Jennifer Golbeck, en raison de la prolifération de comptes anonymes qui en ont fait un endroit parfois dangereux pour beaucoup d’utilisateurs ».

« Par souci pour son image, et pour la façon dont toute cette affaire pourrait affecter durablement l’entreprise et l’idée qu’on se fait de sa valeur, il ne pouvait y avoir de meilleur moment pour que Twitter lance cette campagne », pointe Jennifer Golbeck. Au cours des derniers mois, plusieurs prétendants – dont Google et Disney – auraient envisagé d’acheter Twitter, mais auraient apparemment remis ce rachat à plus tard en raison des discours haineux et des débordements auxquels on assiste sur le site.

En plus de ses récents efforts pour lutter contre les abus, Twitter a également expérimenté une autre piste, note Matwyshyn : la notion d’identité de l’utilisateur comme marqueur de crédibilité. Selon cette proposition, la plateforme ne filtrerait pas les idées, mais permettrait d’évaluer les utilisateurs en leur affectant une crédibilité ou une note de confiance, a-t-elle ajouté. Ce concept pourrait être étendu à d’autres plateformes, a-t-elle fait remarquer.

Jennifer Golbeck note que cette fonction de fiabilité pourrait également être intégrée aux résultats de recherche Google. « Google part traditionnellement du principe que le nombre de personnes se connectant à votre page est l’indice que vous êtes digne de confiance », fait-elle fait remarquer, ajoutant que cela ne tombe pas sous le sens par les temps qui courent.

Les réseaux sociaux ont-ils attendu trop longtemps pour agir sur la question du relayage d’informations erronées ? Kevin Werbach rappelle que Facebook, comme d’autres sites publicitaires, a « un modèle d’affaires qui récompense l’activité plutôt que la qualité ou l’exactitude ». Cela pourrait présenter un conflit d’intérêt dans l’étendue de leur lutte contre les fausses infos ou les propos injurieux. « Le fait que Facebook et Google aient attendu la fin de l’élection – et que les revenus publicitaires provenant de ces sites aux contenus douteux aient été engrangés – avant de prendre des mesures, est assez accablant », ajoute-t-il.

D’autres veulent accorder aux entreprises le bénéfice du doute. « Je pense que les dirigeants de Twitter sont sensibles à la liberté d’expression, même lorsque cette parole est désagréable ou pose problème. Leur position ayant toujours été par défaut d’encourager le libre échange des contenus », explique Matwyshyn. Leurs efforts récents sont une « révolution » pour cette entreprise, « qui passerait d’un échange de contenus sans entraves à la création sur sa plateforme d’un environnement assaini et plus propice au respect. »

« Pour un observateur extérieur, il est facile de dire qu’ils auraient dû agir plus tôt », admet Berger. « Personnellement, j’aimerais qu’ils se penchent sérieusement sur la question, surtout sur la question des discours haineux ou de l’intox. » Cependant, il a ajouté que puisque les réseaux sociaux veulent dans un même temps favoriser la liberté d’expression, il est difficile de déterminer une limite sous ce rapport. « Comment savez-vous que tel discours est un discours de haine ou contient des informations fausses? », a-t-il demandé. « Une fois que vous commencez à restreindre certaines de ces acquis, vous vous placez sur une pente glissante et vous vous exposez à des poursuites judiciaires. »

 

Les contenus abusifs : une guerre interminable
« C’est une bataille que les moteurs de recherche livrent inlassablement », explique Jennifer Golbeck. « Ils trouvent un moyen de classer les contenus de qualité, et les utilisateurs qui cherchent à promouvoir des contenus fallacieux trouvent moyen de déjouer les garde-fous du système. La tâche de Google sera maintenant de signaler les contenus erronés qui apparaissent pourtant en premier dans les résultats de recherche, puis de les rétrograder. »

Mais Pinar Yildirim souligne aussi un autre inconvénient. Elle s’inquiète de ce que ces nouveaux outils susciteront « une ségrégation des internautes » et contribuera ainsi à créer des « chambres d’écho ».

Par exemple, un utilisateur avec des penchants d’extrême droite peut, selon Pinar Yildirim, bloquer les contenus des partisans du Parti Démocrate, et s’exposer alors à d’autres vues potentiellement biaisées. « Il va donc constamment tomber sur des contenus exprimant à quel point l’ObamaCare est nuisible, combien les impôts sont élevés, que les emplois industriels pourraient être relocalisés aux États-Unis, etc. », expliqu-t-elle. « Il va finir par croire que tout le monde pense comme lui, et il sera moins en mesure de remettre en question certaines de ses croyances pourtant erronées. »

Les entreprises de médias avaient pris des mesures pour filtrer les contenus choquants bien avant la récente controverse, mais ces mesures se sont avérées insuffisantes. Elles impliquent généralement un algorithme initial qui recherche et supprime automatiquement certains commentaires, processus suivi par des vérifications manuelles exécutées par un personnel dédié et des modérateurs de conversations.

 

Quand l’information est inexacte
Les dégâts que peuvent faire de fausses informations sont bien entendu considérables. Une récente histoire relatée dans le New York Times évoquait ce faux post sur des manifestants emmenés en car à une réunion de Trump à Austin, Texas. Eric Tucker, co-fondateur d’une agence de marketing à Austin, avait tweeté que des personnes transportées à des manifestations anti-Trump avaient été payées pour le faire. Il n’avait pas vérifié son information, et son tweet avait été partagé au moins 16 000 fois sur Twitter, et plus de 350 000 fois sur Facebook. « Il a alimenté une théorie du complot à l’échelle nationale – conspiration sur laquelle M. Trump s’est empressé de surfer », écrit le NYT.

« Personne ne contrôle plus ses sources – Voilà comment Trump a été élu », a déclaré Paul Horner, l’éditeur d’un de ces sites de fausses infos (qui tirent l’essentiel de leurs revenus de la publicité et ont donc intérêt à jouer le sensationnalisme), dans un entretien pour le Washington Post. Et de battre sa coulpe : « Je suis l’un des responsables de l’élection de Trump. »

Les auteurs de fausses informations pourraient également compromettre le fonctionnement de navigateurs web et autres dispositifs en ligne utilisés par les internautes afin de relier ces derniers à des botnets, par exemple. Comme le rappelle Andrea Matwyshyn, « une partie de la bataille consiste ici à protéger les utilisateurs contre les atteintes invisibles à leur sécurité, en plus de la question du contenu ». Elle rappelle la récente affaire des hackers qui connectaient des appareils domestiques connectés, par exemple des webcams, à un botnet qui à son tour désactivait Twitter et quelques autres sites web populaires pendant toute une journée, voire plus.

S’attaquer aux fausses infos, comme à d’autres formes de pratiques ayant cours sur les plateformes de médias sociaux, sera un processus à multiples facettes, pense Kevin Werbach, qui ajoute qu’aucune solution miracle n’est encore en vue. « Faire plus exigera probablement un ensemble de moyens combinant une surveillance humaine, des algorithmes conçus pour détecter et éliminer le mensonge ou les dérives, et des outils permettant de donner encore plus la main à l’utilisateur », a-t-il ajouté.

Andrea Matwyshyn a indiqué que la Federal Trade Commission, où elle a travaillé comme conseillère, n’a à ce jour envisagé aucun filtrage de cet ordre. On s’attend d’abord à une évolution dans le secteur privé, avant que le gouvernement ne s’implique davantage pour contrecarrer de telles menaces de sécurité, a-t-elle fait remarquer. « Une réponse trop marquée du gouvernement serait, à ce stade, prématurée. »

En tout état de cause, les réseaux sociaux ne peuvent se permettre de ne rien faire dans la lutte contre les fausses informations. « À un moment donné, s’il ne reconnaît pas les effets néfastes des fausses infos, Facebook subira un retour de bâton de la part des utilisateurs et des régulateurs », précise Werbach. « La seule raison pour laquelle ces entreprises ne sont pas tenues pour juridiquement responsables des contributions et contenus inexacts ou malveillants de leurs utilisateurs, est que le Congrès a inclu une disposition dans sa tentative de 1996 d’interdire les contenus indécents en ligne pour protéger les ‘bons samaritains’ et encourager la croissance des plateformes en ligne. »

Au fur et à mesure que les plateformes de médias sociaux tenteront de limiter le harcèlement des contenus et l’intox en ligne, elles seront « vivement critiquées par les conservateurs », prédit Werbach. En fait, il a souligné que plusieurs évaluations indépendantes ont laissé transparaitre que les informations erronées en ligne étaient beaucoup plus répandues et crues chez les pro-Trump. « J’espère que les plateformes de médias sociaux auront le courage de rester fermes », a-t-il dit. « Elles doivent être ouvertes dans leur démarche, et être prêtes à faire évoluer leurs dispositifs en tenant compte des effets qui en résulteront. »

 

Cet article a été publié par notre partenaire Knowledge@Wharton, sous le titre « Fake news, hate speech and social media abuse: what’s the solution? » Copyright Knowledge@Wharton. Tous droits réservés. Traduit et publié sur autorisation.

more...
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Fake in Toulouse

La fausse pub Playstation 4 : le "fake" très réussi de 4 créatifs toulousains

Un collectif de 4 créatifs toulousains a diffusé sur YouTube une fausse pub révélant la future console de jeu Playstation 4. Un "fake" tellement réussi que Sony a été obligé de démentir. Et le buzz continue.

 

Plus d'1.200.000 vues en quelques jours ! Leur fausse pub révélant la PS4 (Playstation 4) de Sony fait un carton sur internet. Il faut dire qu'elle est tellement réussie que l'on pourrait croire... que c'est une vraie !  Le collectif "Slot B" réunit 4 jeunes créatifs toulousains.

more...
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

First Draft : réseaux sociaux et titres de presse s'engagent contre les fausses informations

First Draft : réseaux sociaux et titres de presse s'engagent contre les fausses informations | Toulouse networks | Scoop.it

 

Plusieurs dizaines d’entreprises de médias ou de réseaux sociaux viennent de s’associer dans un grand réseau dont l’objectif est de lutter contre les fausses informations. Ces acteurs ambitionnent d’accorder leurs violons sur cette vaste thématique, tout en fournissant des formations et des conseils.

Les réseaux sociaux ont changé la manière dont l’information est consommée, au moins en partie. Les utilisateurs sont devenus eux-mêmes des relais d’actualités. La dimension sociale, qui prend aussi en compte la réaction émotionnelle et parfois le désir de faire parler de soi, a ouvert la voie à une certaine course à l’information la plus visible. Qui n’est pas toujours la plus pertinente.

Les fausses informations circulent abondamment, alimentées par plusieurs phénomènes. On trouve bien sûr celles fabriquées de toute pièce, pour les raisons exposées précédemment, ou encore des informations qui étaient initialement véridiques, mais ont été déformées ou mal comprises, puis diffusées sans vérification. Au-delà des réseaux sociaux, les rumeurs enflent puis explosent en plein vol sur de nombreux sites, comme en témoigne la récente histoire du bus chinois capable de passer au-dessus de la circulation routière. Dirty Biology a d'ailleurs publié une vidéo sur le problème des articles scientifiques publiés dans la presse. On lira également le billet de Yann Guégan sur les histoires qui perduent sur certains sites alors même qu'elles se sont révélées fausses. 

Le First Draft Partner Network pour lutter contre les « fake news »

Pour contrer ce phénomène, la First Draft Coalition a été créée en juin 2015. Bellingcat, Dig Deeper Media, Emergent, Storyful, Reportedly, Meedan, Verification Junkie et Eyewitness Media Hub en étaient les membres fondateurs, soutenus par Google à travers son News Lab. Depuis plus d’un an, ce groupe publiait déjà régulièrement des billets de blog, des études de cas ou encore différents contenus visant à s’entrainer à la détection des faux contenus.

La Coalition est passée hier à l’étape supérieure, avec l’annonce du First Draft Partner Network. Plus d'une trentaine d’entreprises de tous bords ont annoncé leur participation. On trouve des organes de presse tels que le New York Times, le Washington Post, l’AFP, Les Décodeurs (Le Monde), France Info, proPublica, The Telegraph ou encore l’American Press Institute, des chaines de télévision comme CNN et Channel 4 ou encore des réseaux médiatiques tels qu’Aljazeera Media Network ou l’Eurovision News Exchange.

 

 

Facebook et Twitter en première ligne

Surtout, on trouve dans le lot Facebook, Twitter et YouTube, trois acteurs largement impliqués aujourd’hui dans la diffusion des informations. Dans le communiqué de presse de l’annonce, on peut lire ainsi que « Google, Facebook, Twitter, YouTube, Instagram et Periscope sont désormais centraux dans la manière dont les nouvelles sont découvertes, rapportées et diffusées ».

Une boucle sera mise en place pour collecter des retours, permettant aux « représentants des réseaux sociaux de se mettre en relation avec des journalistes », pour « développer des idées sur les manières dont le processus de vérification pourrait être rendu plus fluide, améliorer l’expérience de surveillance » et surtout augmenter le niveau de qualité pour les utilisateurs de réseaux sociaux.

Jenni Sargent, l’une des responsables du réseau, ajoute que le FDPN est dans « une position unique pour coordonner les efforts et faciliter de réels progrès dans la confrontation avec certains défis clés que rencontrent les journalistes et leur audience ».

 

Un engagement visible, des résultats à surveiller

La présence de Facebook est particulièrement importante. Le Graph, c’est-à-dire l’algorithme présidant à la composition du flux, a été retouché à de multiples reprises, prenant en compte les contenus partagés par les proches, le nombre de partages, le temps de lecture nécessité, sans parler des vidéos. Il y a environ deux ans, Facebook ouvrait déjà un premier front dans les contenus dits « clickbait » afin de lutter contre les titres racoleurs.

En août dernier, l’éditeur annonçant un renforcement de cette lutte, notamment à travers une analyse des titres, en plus du simple temps qui sépare l’ouverture d’un contenu et son départ. Nous regrettions alors que ce mouvement se focalise sur les titres et pas sur les contenus, ce genre de mesure pouvant facilement provoquer une adaptation. La question est donc de savoir si sa participation au FDPN aura une réelle influence sur les contenus partagés. L’interrogation est la même pour Twitter, royaume du partage des réactions à chaud et des informations non vérifiées.

Au cours des prochains mois, le réseau publiera de nombreuses ressources visant à améliorer la détection des faux contenus et leur qualité globale. Elles seront librement accessibles aux internautes.

 

Publiée le 14/09/2016 à 17:10
 
Vincent Hermann

Rédacteur/journaliste spécialisé dans le logiciel et en particulier les systèmes d'exploitation. Ne se déplace jamais sans son épée.

 

 

more...
No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Etes vous sûr de vos followers sur Twitter? (infographie)

Etes vous sûr de vos followers sur Twitter? (infographie) | Toulouse networks | Scoop.it

Qui a la plus grosse?... Je parle du nombre de followers sur Twitter bien sur.

Les réseaux sociaux, Facebook, Twitter et j'en passe, ont ceci de fabuleux, plus il y a d'amis et plus de personnes veulent en faire parti. C'est un effet que l'on constate souvent, c'est légitime, lorsque vous regardez un compteur d'amis sur le compte Twitter de quelqu'un, si cette personne affiche un grand nombre de followers, les gens se disent " ce mec là il faut le suivre". Nous avions connu ce phénomène sur les blogs avec les compteurs Feedburner.

Seulement, depuis quelques temps, il possible d'acheter des followers, évidemment ce sont souvent des comptes inactifs, mais cela fait gonfler considérablement les chiffres, et visiblement certaines personnalités politiques sont adeptes de ce coup de pouces (surtout américaines visiblement)

Ensuite il y a les robots, qui "follow" votre compte en espérant que vous fassiez de même et ainsi vous balancer tout un tas de "conneries" sur votre Timeline.

Enfin, et j'ai déjà pu le constater sur certains comptes, il y a les comptes Twitter fabriqués uniquement dans le but de "reTwitter" vos billets de façon à faire gonfler le compteur. A quoi ça sert? Je l'ai dit plus haut.

Il existe un outil qui vous permet de connaitre le nombre de "fake", le nombre de "comptes inactifs" et le nombre de comptes actifs sur votre propre compte Twitter.

http://fakers.statuspeople.com/

 

Je vous encourage à essayer cet outil, et même si les chiffres ne sont pas tout à fait exact, cela donne quand même une petite idée. C'est comme cela que je m'aperçois que sur mon compte Twitter, seulement 74% des abonnés sont actifs.

Et du coup, Mashable a publié une infographie qui montre le chemin parcouru depuis l'apparition de Twitter en 2005 et le pourcentage de compte actifs sur quelques grands compte Twitter bien connu.

Pour certains, c'est affligeant....

 

[Note du Curateur] Avec cet outil  http://fakers.statuspeople.com/, vous pouvez vérifier la cote réelle de nos politiques.

Quant à moi, j'ai actuellement 2% de faux comptes qui sont régulièrement éliminés par Twitter expliquant la majorité des évasions de compte de mes Followers, cette "part des anges" bien utile pour conserver la qualité de cet outil de communication universelle.

more...
No comment yet.