Toulouse networks
59.5K views | +0 today
Follow
Toulouse networks
Networking in Toulouse - Réseautage de la Ville Rose
Your new post is loading...
Your new post is loading...

Popular Tags

Current selected tag: 'Fake news'. Clear
Scooped by Jacques Le Bris
Scoop.it!

Comment des algorithmes incitent à discréditer les médias

Comment des algorithmes incitent à discréditer les médias | Toulouse networks | Scoop.it

Tribune libre de Guillaume Chaslot, docteur en informatique. G. Chaslot a travaillé chez Microsoft et Google.

 

Diffamer les concurrents est une stratégie efficace pour gagner de l’audience. Les intelligences artificielles de YouTube et Facebook s’en sont rendu compte.

Lors d’un interminable trajet en car, mon voisin passe son temps sur YouTube. Comme j’ai travaillé sur l’algorithme qui fait les recommandations, une certaine fierté m’incite à regarder de plus près. Dans ces vidéos, il est question d’un projet visant à exterminer deux milliards de personnes. Je blague : “Alors, qui est-ce qui veut notre peau ?” Il m’explique : “Il y a un plan secret. Des centaines de vidéos le montrent ! Les médias te le cachent. Regarde sur YouTube, tu découvriras la vérité.” Il était transporté par une excitation à la fois touchante par son humanité, et inquiétante par son fanatisme. Je constate avec effroi que mes algorithmes, dont j’étais si fier, ont appris à exploiter sa crédulité.

 

Des algorithmes orchestrent les réseaux sociaux

Un algorithme est un système informatique qui prend des décisions. Lorsqu’il est suffisamment intelligent, on parle d’“intelligence artificielle” (en anglais, artificial intelligence, AI). Ces AI, qui sont parfois appelées robots, sont utilisées par de nombreuses plateformes sur Internet.

L’AI de Facebook filtre souvent la majorité des fils d’actualité. Celle-ci est développée par certains des plus grands chercheurs dans la matière. L’AI de YouTube, qui calcule les recommandations (sur la droite de l’écran), est responsable d’une très grande partie des vues.

Ainsi, la majorité de l’information qui est consultée sur les réseaux sociaux passe par une telle AI. L’utilisation de l’intelligence artificielle confère un avantage compétitif sur les médias traditionnels. Comme le disait Elon Musk, qui a cofondé un projet open source d’AI de plus d’un milliard de dollars, “si vos compétiteurs font de l’intelligence artificielle et que vous n’en faites pas, vous allez vous faire écraser”  (Elon Musk, juillet 2017).

Le moindre biais dans ces AI aurait un énorme impact sur l’information mondiale. Il est donc primordial de comprendre comment elles sont conçues et d’étudier leurs biais potentiels.

 

L’AI est conçue pour maximiser le “temps de vue”

YouTube utilise des AI complexes mais leur but est simple : maximiser le temps que les utilisateurs passent sur YouTube. Google, qui détient YouTube, explique ce choix dans ce communiqué : si les utilisateurs passent plus de temps sur YouTube, cela nous signale qu’ils sont contents du contenu qu’ils ont trouvé ; cela signifie aussi que les créateurs de contenu attirent des audiences passionnées, et cela ouvre aussi plus d’opportunités pour générer des revenus pour nos partenaires.

La conclusion est que, plus les gens passent de temps sur ces vidéos, plus elles rapportent de revenus publicitaires à Google. La plupart des plateformes font des choix similaires.

Or, ce choix a un effet pervers qui a un impact majeur sur l’information mondiale.

 

Comment l’AI amplifie les sentiments hostiles aux autres médias

Si des vidéos de YouTube arrivent à me persuader que les médias mentent, je passerai sûrement moins de temps sur les médias traditionnels, et plus de temps sur YouTube. L’AI en déduira que ces vidéos sont très efficaces, et elle les recommandera d’autant plus.

Par exemple, des milliers de vidéos sur YouTube affirment que la terre est plate. Les utilisateurs commencent à les regarder par curiosité. Certains d’entre eux ont des doutes et passent donc du temps sur YouTube pour avoir plus d’informations. Ces vidéos sont efficaces pour retenir l’attention ; l’AI va donc les recommander plus souvent. Certains utilisateurs vont se retrouver assaillis ; quelques-uns vont finir par se laisser convaincre. L’un d’entre eux disait : “Il y a des millions de vidéos qui disent que la terre est plate, ca ne peut pas être faux !” Ces utilisateurs ne feront probablement plus confiance aux médias traditionnels, qui leur avaient caché une information aussi fondamentale. Ils passeront, en moyenne, plus de temps sur YouTube. Qui recommandera d’autant plus ces vidéos… Le cercle vicieux est bouclé.

“Les médias mentent”, est l’un des discours qui peuvent être efficaces pour augmenter le temps passé par les utilisateurs sur YouTube. Mais tout autre discours qui incite à passer plus de temps sur les plateformes, directement ou indirectement, peut être aussi favorisé. Les intelligences artificielles qui maximisent le temps de vue peuvent apprendre à décrédibiliser les autres médias. Plus l’AI deviendra intelligente, plus elle sera efficace pour décrédibiliser les concurrents. Nous ne sommes donc qu’au tout début du problème. Ce biais sur la distribution du contenu peut aussi avoir des conséquences sur sa création.

 

Comment l’AI influence les créateurs de contenus

Toujours selon Elon Musk, “l’intelligence artificielle pourrait créer une guerre en propageant des fausses informations… et en manipulant l’information”. Si les contenus hostiles aux médias ont plus de chance d’être partagés automatiquement, de nombreux créateurs de contenu vont le remarquer, et en produire d’autant plus. L’AI ne crée pas de “fausses informations” par elle-même, mais elle encourage les créateurs de contenu à le faire. Tout se passe comme si l’AI offrait de la publicité gratuite aux détracteurs des médias.

 

Exemples sur YouTube

Ces exemples n’ont pas valeur de preuve, mais ils sont assez inquiétants et leur impact est suffisamment étendu pour que l’on puisse se poser de sérieuses questions. Pour avoir le plus de données possible, nous avons construit un robot qui trouve quelles vidéos sont les plus recommandées sur YouTube sur des thèmes précis. Nous l’avons utilisé pour analyser des sujets importants, comme les élections dans différent pays : algotransparency.org

 

Dans l’élection américaine de 2016, le candidat qui était le plus hostile aux médias a été recommandé quatre fois plus sur YouTube que son adversaire.

 

Pendant l’élection française de 2017, les trois candidats les plus recommandés par YouTube étaient de virulents critiques des médias : Mélenchon, Le Pen et Asselineau.

 

La tuerie de Las Vegas ? Les “faux médias” cachent que c’est l’œuvre d’antifascistes. Le changement climatique ? Un mensonge monté de toutes pièces. Michelle Obama ? Un travesti. Le pape ? Un satanique. Selon Zeynep Tufekci, les AI construisent “des mondes cauchemardesques (dystopies) pour faire cliquer sur de la pub”. Dans ces dystopies, les vérités sont souvent loufoques et contradictoires. Mais un thème revient constamment : les médias vous mentent.

 

Ce qui est nouveau

Les fake news et la diffamation ont toujours existé, en particulier contre des médias. Ce qui est nouveau, c’est l’implication des algorithmes et l’AI dans leur diffusion. Les AI sont programmées pour “maximiser le temps de vue”, ce qui a un effet secondaire : elles favorisent le contenu qui fait passer moins de temps ailleurs ; en particulier, des discours comme “les médias vous mentent” pourraient ainsi avoir bénéficié de milliards d’euros de publicité gratuite.

 

Ce que l’on peut faire

Ce biais anti-médias est crucial pour comprendre la force de l’AI sur les réseaux sociaux. Il y a des chaînes YouTube de plusieurs milliards de vues qui attaquent les médias, diffusent des fausses informations et incitent à la haine raciale, politique et religieuse. Ces milliards de vues viennent-ils en majorité de recommandations par des robots, ou de recommandations humaines ? C’est une question importante à laquelle Facebook et Google pourraient répondre. Ces entreprises ont en effet montré leur volonté de résoudre les problèmes dont les utilisateurs se soucient, notamment cette année dans le cas des fake news et des recommandations abusives de vidéos pour enfants. Nous pouvons aussi les encourager à se pencher sur le sujet des recommandations algorithmiques en leur faisant part de nos interrogations à press@google.com et press@fb.com

No comment yet.
Scooped by Jacques Le Bris
Scoop.it!

Facebook tries fighting fake news with publisher info button on links

Facebook tries fighting fake news with publisher info button on links | Toulouse networks | Scoop.it

Facebook thinks showing Wikipedia entries about publishers and additional Related Articles will give users more context about the links they see. So today it’s beginning a test of a new “i” button on News Feed links that opens up an informational panel. “People have told us that they want more information about what they’re reading” Facebook product manager Sara Su tells TechCrunch. “They want better tools to help them understand if an article is from a publisher they trust and evaluate if the story itself is credible.”


This box will display the start of a Wikipedia entry about the publisher and a link to the full profile, which could help people know if it’s a reputable, long-standing source of news…or a newly set up partisan or satire site. It will also display info from their Facebook Page even if that’s not who posted the link, data on how the link is being shared on Facebook, and a button to follow the news outlet’s Page. If no Wikipedia page is available, that info will be missing, which could also provide a clue to readers that the publisher may not be legitimate.

Meanwhile, the button will also unveil Related Articles on all links where Facebook can generate them, rather than only if the article is popular or suspected of being fake news as Facebook had previously tested. Trending information could also appear if the article is part of a Trending topic. Together, this could show people alternate takes on the same news bite, which might dispute the original article or provide more perspective. Previously Facebook only showed Related Articles occasionally and immediately revealed them on links without an extra click.

More Context, More Complex

The changes are part of Facebook big, ongoing initiative to improve content integrity
Of course, whenever Facebook shows more information, it creates more potential vectors for misinformation. “This work reflects feedback from our community, including publishers who collaborated on the feature development as part of the Facebook Journalism Project” says Su.

When asked about the risk of the Wikipedia entries that are pulled in having been doctored with false information, a Facebook spokesperson told me “Vandalism on Wikipedia is a rare and unfortunate event that is usually resolved quickly. We count on Wikipedia to quickly resolve such situations and refer you to them for information about their policies and programs that address vandalism.”

And to avoid distributing fake news, Facebook says Related Articles will “be about the same topic — and will be from a wide variety of publishers that regularly publish news content on Facebook that get high engagement with our community.”

 

“As we continue the test, we’ll continue listening to people’s feedback to understand what types of information are most useful and explore ways to extend the feature” Su tells TechCrunch. “We will apply what we learn from the test to improve the experience people have on Facebook, advance news literacy, and support an informed community.” Facebook doesn’t expect the changes to significantly impact the reach of Pages, though publishers that knowingly distribute fake news could see fewer clicks if the Info button repels readers by debunking the articles.

Getting this right is especially important after the fiasco this week when Facebook’s Safety Check for the tragic Las Vegas mass-shooting pointed people to fake news. If Facebook can’t improve trust in what’s shown in the News Feed, people might click all its links less. That could hurt innocent news publishers, as well as reducing clicks to Facebook’s ads.

 

Image: Bryce Durbin/TechCrunch

Facebook initially downplayed the issue of fake news after the U.S. presidential election where it was criticized for allowing pro-Trump hoaxes to proliferate. But since then, the company and Mark Zuckerberg have changed their tunes.

The company has attacked fake news from all angles, using AI to seek out and downrank it in the News Feed, working with third-party fact checkers to flag suspicious articles, helping users more easily report hoaxes, detecting news sites filled with low-quality ads, and deleting accounts suspected of spamming the feed with crap.

Facebook’s rapid iteration in its fight against fake news shows its ability to react well when its problems are thrust into the spotlight. But these changes have only come after the damage was done during our election, and now Facebook faces congressional scrutiny, widespread backlash, and is trying to self-regulate before the government steps in.

The company needs to more proactively anticipate sources of disinformation if its going to keep up in this cat-and-mouse game against trolls, election interferers, and clickbait publishers.

No comment yet.