Notebook or My Personal Learning Network
11.5K views | +11 today
Follow
 
Scooped by Gilbert C FAURE
onto Notebook or My Personal Learning Network
October 4, 5:52 AM
Scoop.it!

18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA - Next

18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA - Next | Notebook or My Personal Learning Network | Scoop.it
18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA De « Don't be evil » à « Je danse le mIA » L'algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par... la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d'info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA. Jean-Marc Manach Le 03 octobre à 13h24 27 min IA et algorithmes Dans la mesure où la lutte contre la désinformation nous semble un enjeu de salubrité (numérique) publique, cet article, en principe réservé aux lecteurs premium de Next, est exceptionnellement en accès libre pour 24 heures. Ce sont vos abonnements qui rendent possible ce genre d'enquête au long cours, merci ! En 2024, et pour la deuxième année consécutive, le trafic en provenance de l'algorithme de recommandation de contenus Discover de Google avait explosé de + 50%. Au point d'être devenu la principale source de trafic pour la presse française, avec plus de 500 millions de clics vers des articles de presse par mois, selon le baromètre de la diffusion 2024 de l’Alliance pour la presse d’information générale (APIG). 61 % du trafic des sites d'infos émane en effet de Google, et 68 % de ce trafic émane de Discover, rendant les sites de presse « dépendants » de cet algorithme. Une véritable « pompe à fric » qui attire de nombreux professionnels du marketing numérique, du référencement et du « black hat » SEO, cherchant eux aussi à profiter de cette manne publicitaire, monétisée par... Google via sa régie AdSense. Une tendance qui ne semble pas prête de s'infléchir, bien au contraire, comme notre enquête au long cours le documente depuis des mois. D'autant que Google a aussi récemment annoncé que Discover serait prochainement disponible en mode « desktop ». Ce qui ne pourra qu'augmenter le trafic des sites qui y sont recommandés, mais également l'appétit des éditeurs de sites GenAI qui voudraient eux aussi pouvoir « poper » sur Discover, pour reprendre l'expression consacrée. [Récap] Nous avons découvert des milliers de sites d'info générés par IA : tous nos articles Perdu dans le jargon ? Petit lexique pour s’y retrouver Discover : la mission historique de Google est d’amener des réponses aux requêtes des internautes, mais le moteur développe depuis des années des outils de recommandation, qui sélectionnent automatiquement des contenus et les affichent aux utilisateurs de Google, de Chrome et d’Android. Sur mobile, les suggestions Discover sont par exemple visibles dès l’interface du système d’exploitation. Elles sont devenues la principale source de trafic des médias français. Poper : de l’anglais to pop, qui signifie sauter ou éclater. Ce terme est utilisé par les professionnels du référencement pour désigner la capacité à faire apparaitre un site ou un contenu donné au sein des outils de recommandation automatisés. SEO : de l’anglais search engine optimization, soit optimisation pour les moteurs de recherche. Le terme recouvre à la fois les pratiques techniques ou éditoriales visant à favoriser l’apparition d’un site dans les moteurs de recherche, et l’activité de service qui s’est créée autour de cet objectif. 7 700 articles en 15 jours, soit plus de 510 articles par jour, tout seul Début août, l'éditeur de Gnewsalyzer, un outil d'analyse du trafic de Google News et Discover, annonçait sur X.com qu'il était désormais possible d'y « visualiser les sites qui viennent de rentrer sur Discover depuis moins de 10 jours et qui performent ». En réponse, son prédécesseur et concurrent (payant) 1492.vision rétorqua qu'il proposait lui aussi une fonctionnalité similaire. Or, ces nouveaux sites récemment apparus sur Discover et figurant sur leurs captures d'écran respectives ont tous pour point commun d'être générés par IA (GenAI) – à l'exception des quatre sites n'ayant été recommandés que trois fois sur le screen de Gnewsalyzer. Le créateur de Gnewsalyzer, Clément Pessaux, estimait cet été qu'il parvenait à récupérer de 10 à 20 % des 15 000 articles qui seraient chaque jour recommandés par Discover en français, sans que nous ayons pu vérifier ces chiffres de manière indépendante, non plus que via Google. La base de données de Gnewsalyzer comporterait à ce jour plus de 6 800 sites, dont 1 000 environ ont été recommandés une dizaine de fois au moins par Discover. Des chiffres qui, à défaut d'être exhaustifs – et probablement minorés pour ce qui est du nombre d'articles réellement recommandés – n'en constituent pas moins un échantillon somme toute représentatif des sites francophones recommandés par Google. À l'époque, le site qui surperformait sur Discover, decontair-67.fr, y avait à lui seul été recommandé au moins 325 fois en seulement 7 jours (soit 46 fois par jour, en moyenne). Au total, d'après le dashboard de Gnewsalyzer, Discover recommanda 614 de ses articles (au moins) avant qu'il n'en disparaisse, 12 jours après y être apparu la première fois, vraisemblablement pénalisé par Google pour avoir spammé son algorithme, et donc violé ses conditions d'utilisation. Il est somme toute improbable qu'un média qui serait composé de journalistes puisse choisir un nom de domaine aussi imbitable et un logo aussi ridicule pour se mettre soudainement à publier autant d'articles en aussi peu de temps, a fortiori entre le 1er et le 13 août. Et ce, pour y publier des titres de cinq lignes relayant des informations abracadabrantesques et illustrées par des images générées par IA croquignolesques, comme cette piscine gonflable remplie par (et avec) des « bouteilles » d'eau minérale, ou cette autre « piscine à glaçons » offerte par un refuge pour chiens et accusée de « gaspillage d'eau potable ». Comme c'est quasiment toujours le cas avec les sites GenAI, decontair-67.fr est un nom de domaine expiré, ayant appartenu précédemment à une entreprise de désamiantage de Strasbourg, et racheté par le spammeur. La question reste de savoir pourquoi l'algorithme de Google l'a recommandé ces 614 fois (au moins), mais également pourquoi ses filtres antispam ont mis 15 jours avant de le mettre en quarantaine. Au-delà des articles publiés sur le site (rien n'interdit de publier du « bullshit », ni d'opter pour des titres « putaclics »), ceux qui furent recommandés par Discover étaient pourtant sujets à caution. Il y était par exemple question d'un retraité sanctionné « pour avoir réparé bénévolement les vélos des enfants du quartier », de familles verbalisées pour avoir improvisé des cabanes sur la plage avec des draps mouillés, ou encore d'un « lac souterrain gigantesque » découvert sous le désert du Sahara et qui « pourrait alimenter toute une région ». Son successeur, amios.fr, a fait encore plus fort. Apparu sur Discover le 13 août, il a réussi à y faire « poper » au moins 1 608 articles avant d'en être exclu le 28, soit une moyenne de 107 articles par jour. Là encore, les titres des articles surfaient sur la peur, avec par exemple plus de quarante articles déclinant le fait que « les requins prolifèrent à cause du réchauffement », que les « les scientifiques préviennent que les plages sont devenues des zones de chasse », ou encore qu' « un expert dit que les vacanciers sont littéralement sacrifiés », eux aussi illustrés par d'improbables images générées par IA. Dix de ces articles n'en ont pas moins été recommandés par Discover. Pour parvenir à ce que l'outil de suggestion de contenus de Google relaie ces 1 608 articles, amios.fr en a publié plus de 7 700 (soit plus de 510 par jour, en moyenne), d'après une sauvegarde de son sitemap sur archive.org. Signe de la montée en puissance du spammeur, et à titre de comparaison, decontair-67.fr n'en avait publié qu'un peu plus de 2 300 (soit 192 par jour) sur une période équivalente. La moitié des sites GenAI émane d'un seul serial éditeur... Début septembre, sur les 30 sites apparus sur Discover ces 10 derniers jours et y ayant été recommandés au moins 4 ou 5 fois, 27 étaient des sites générés par IA (soit 90 %), dont 17 (soit plus de la moitié) appartiennent à la ferme de contenus (« content farm », ou « private blog network » – PBN) de sites GenAI de Julien Jimenez, l'éditeur de decontair-67.fr et amios.fr. Nous avions consacré un article à ce serial-spammeur de sites GenAI, début juillet, après que d'autres pros du marketing numérique et du référencement (pourtant eux-mêmes éditeurs de sites GenAI), se furent publiquement plaints du volume de spams qu'il envoyait à Discover, au risque d'attirer l'attention de Google sur leur juteux business. Éditeur de sites générés par IA, il spamme tellement Google que ses confrères se plaignent Dans un précédent article, nous avions aussi relevé que plusieurs éditeurs de sites GenAI comparaient Discover aux recommandations algorithmiques « addictives » de TikTok, mais également à une « une drogue » susceptible de « générer une dépendance », au vu des centaines voire milliers d'euros de chiffre d'affaires susceptibles d'être engrangés, par jour. Deux d'entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement. Sites d’infos générés par IA : « Notre job, c’est gruger Google » pour faire du fric Mais pour espérer pouvoir « poper » sur Discover, il faut publier. Le 10 juillet dernier, labottega-pinseria.fr, l'un des sites de la ferme Jimenez, avait par exemple publié 760 articles entre 9h03 et 10h03, soit plus de douze articles... par minute. Au vu de cette hyperproductivité automatisée et humainement impossible à valider, ses articles « hallucinent » régulièrement de nombreuses infox', elles aussi considérées comme nuisibles à la profession par de nombreux éditeurs de sites GenAI, au motif qu'elles pourraient inciter Google à faire le ménage. Au point que l'un de ses concurrents l'avait qualifié de « maître de la désinformation via une diffusion industrielle de fake news sur ses propres réseaux de sites ». Julien Jimenez avait déjà attiré l'attention de plusieurs journalistes et rédactions pour avoir publié de nombreux articles au sujet de prétendues fermetures de magasins ayant, dans certains cas, affolé clients, syndicats et employés. Il est l'un d'ailleurs l'un des rares éditeurs de sites GenAI dont le nom a été rendu public, et à avoir vu plusieurs de ses articles faire l'objet de fact-checks, comme l'avait souligné en juillet l'ONG Reporters sans frontières, déplorant que Google Discover soit « désormais infiltrée par des sites aux titres aguicheurs, aux informations douteuses ou totalement fausses ». ... qui écrase Ouest France, Le Parisien, BFM et L'Équipe Nous n'avons pas calculé le nombre d'articles publiés chaque jour par chacun des 17 sites de Jimenez figurant dans ce Top30, mais on peut raisonnablement estimer, au vu des statistiques de decontair-67.fr et amios.fr, qu'il en publie probablement plusieurs milliers par jour, sans relecture, ni validation. Et ce, alors qu'il est par ailleurs parti faire un tour du monde en famille début août, et qu'il ne travaillerait qu'à temps partiel, le matin. L'échantillon d'articles promus sur Discover qu'a recueilli Gnewsalyzer montre que, certains jours, Discover a recommandé jusqu'à 196 articles d'amios.fr, soit deux fois plus que les 94 articles de ouest-france.fr, six fois plus que la trentaine d'articles du Parisien, L'équipe et BFM, et 10 fois plus que les 19 articles du Figaro. Discover a également recommandé, en 15 jours seulement, deux fois plus d'articles d'amios.fr que ce qu'actu.fr, lequipe.fr, lefigaro.fr et leparisien.fr y ont vu « poper » en 30 jours. Une surproduction sous stéroïdes, générée grâce à l'IA par un professionnel du marketing solitaire (et travaillant à mi-temps), qu'aucune rédaction composée de journalistes humains ne saurait pouvoir effectuer. Mais que l'algorithme Discover de Google n'en « recommande » pas moins à ses lecteurs et utilisateurs. Le graphique montre par ailleurs que, si amios.fr a disparu de Discover le 28 août, vraisemblablement suite à une pénalité de Google, il a tout de suite été remplacé, le même jour, par un autre site de la ferme de sites GenAI de Jimenez, couteauduviaur.fr, et que ce dernier surperformait tous les autres sites d'info trois jours plus tard seulement. 33 % des sites les plus recommandés sur Google News Technologies sont GenAI D'après le spécialiste des noms de domaine David Chelly, les sites GenAI de Julien Jimenez lui permettraient d'engranger « à peu près de 100 000 à 150 000 euros de revenus par mois », rémunéré « essentiellement par AdSense » (la régie publicitaire de Google), grâce à un « trafic incroyable », du fait que « les fake news, c'est le meilleur moyen » de créer du buzz et de générer du clic. Une estimation impossible à vérifier, mais qui a été corroborée par l'une de nos sources bien informées. Or, ce « trafic incroyable », et les revenus associés, correspondent également à autant de pertes de trafic et de revenus pour les médias reposant sur le travail de journalistes professionnels qui, contrairement à la ligne éditoriale que semble privilégier Julien Jimenez, ont à cœur de ne surtout pas publier d'infox'. Pour autant, si ses sites surperforment, il n'est pas le seul « black hat SEO », loin de là, à faire mieux que de nombreux médias et sites de presse, et donc à cannibaliser le travail des journalistes. Mi-août, Gnewsalyzer répertoriait en effet un peu moins de 4 300 noms de domaine différents (certains y figurent en doublons, faussant ses stats). Or, nous avons découvert qu'environ 400 d'entre eux au moins (soit un peu plus de 9 %) figuraient dans notre liste d'un peu plus de 7 000 sites d'info générés par IA. Téléchargez notre extension web (gratuite) pour être alerté lorsque vous visitez un site d'info généré par IA Nous avons développé une extension pour les navigateurs Chrome (et donc Brave, Vivaldi, Opera, Microsoft Edge, etc.) et Firefox (y compris en version mobile sur Android), qui tourne en tâche de fond et affiche un pop-up d'alerte lorsque ses utilisateurs consultent un des 7 000 sites d'information dont nous avons identifiés que leurs contenus sont en tout ou partie générés par des intelligences artificielles génératives. Afin de vous prémunir des autres risques de cyberarnaques, notre extension prend également en compte deux autres listes : celle de plus de 30 000 noms de domaine « suspects » de Red Flag Domain, ainsi que la liste noire des entités non autorisées à proposer des produits ou services financiers en France de l’Autorité des marchés financiers (AMF). Télécharger notre extension sur Firefox Télécharger notre extension sur Chrome À défaut de pouvoir vérifier (faute de temps) l'intégralité de ces 4 300 noms de domaine, nous avons cela dit vérifié les 1 016 sites ayant été recommandés par Discover au moins 10 fois, et découvert que 184 figuraient dans notre base de données de sites générés par IA, soit plus de 18 %. Nous avions de fait déjà découvert, en juin, via le Top 50 de DiscoverSnoop.com, que 14 % des 50 sites les plus mis en avant sur Discover France étaient générés par IA. Depuis janvier, plus de 15 sites GenAI y ont figuré, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite) – quand bien même certains d'entre eux avaient pourtant été signalés comme tels à Google –, signe que nombre de sites GenAI ne sont pas, contrairement à ceux de Julien Jimenez, identifiés comme tels et sanctionnés au bout de 15 jours. Et ce, alors que Google n'a de cesse de répéter, depuis des mois, que ses « systèmes antispams » excluent « 99 % [...] des contenus de faible qualité », comme il vient encore de le répéter au Monde. Les statistiques de Gnewsalyzer indiquent par ailleurs que, sur les 120 sites les plus recommandés dans la rubrique technologie de Google News, 40 (soit 33 %) sont générés par IA. Ce qui ne semble pas être le cas des autres verticales thématiques, telles que Gnewsalyzer les a indexées. Nous sommes conscients que son dashboard n'analyse qu'une partie des articles recommandés par Google, mais cette surreprésentation des sites GenAI n'en relève pas moins une tendance préoccupante. « Je ne suis pas journaliste, chacun son métier » En réponse à la publication en février dernier de nos premiers articles sur cette pollution de sites GenAI, Clément Pessaux (qui n'avait pas encore lancé Gnewsalyzer) avait publié une tribune libre en défense des éditeurs de sites GenAI, qualifiant de « dangereux ce discours qui pose le journalisme comme gardien du temple de certaines vérités ». Pionnier de l'édition de sites GenAI, Pessaux figure aussi parmi les cofondateurs de Discover Partners, qui se vante de pouvoir décupler le trafic des sites grâce à Discover et d'avoir contribué à générer « plus de 700 millions de visites… dans + de 30 pays différents [et] jusqu'à 5 millions de visiteurs par jour ». Lui-même éditeur de sites GenAI, nous l'avions également interviewé après que l'un de ses sites ait repris une infox, émanant de sites générés par IA, qui avait pourtant été fact-checkée et démentie entre-temps. « Je ne suis pas journaliste, chacun son métier », nous avait-il rétorqué : « Quelque part, la matière informative ne m'intéresse pas, c'est de la matière que je sculpte, ce qui m'intéresse c'est comment Google la perçoit, puis après comment la masse des lecteurs la perçoit, pour que l'info soit appréciée de Google et du lecteur. » Cette « rumeur » relayée par de nombreux médias émanait de sites générés par IA Dans une autre vidéo, il reconnaissait par ailleurs que Discover « génère une dépendance, c'est une drogue, il faut le dire, parce que ça génère pas mal d'argent, et quand t'es là-dedans ça devient difficile de lâcher prise, tu deviens mégalo avec ça » : « Le problème avec Discover, c'est que ça génère énormément d'adrénaline : quand tu as un site qui commence à faire 100 00 ou 200 000 visites par jour, avec 10 000 visiteurs en simultané qui génère entre 200 à 500 euros par jour, multipliés par 30 ça fait 15 000 euros… » Sites d’infos générés par IA : « Notre job, c’est gruger Google » pour faire du fric La publication massive de fake news sur Discover, un « véritable succès d'audience » Dans une vidéo qu'il vient de mettre en ligne afin d'expliquer comment Gnewsalyzer pouvait aider d'autres éditeurs à « performer » sur Discover, Clément Pessaux qualifie lui-même les sites de Jimenez de « spammeurs », relève qu'ils « ont une durée de vie de 3 semaines, 15 jours 3 semaines, pas plus », mais recommande néanmoins de s'en inspirer : « Comme toujours avec le SEO en général, ce qui nous intéresse le plus à étudier c'est les sites qui sont "border" qui vont prendre les stratégies les plus avancées, les plus à la marge on va dire, pour pouvoir les adapter à nos propres sites de manière beaucoup plus safe et pérenne. » Gnewsalyzer a en effet été conçu pour aider les éditeurs de sites à « révolutionner [leur] stratégie Google Discover », notamment grâce à un « espionnage intelligent de la concurrence » afin d' « analyser les stratégies des sites les plus performants, y compris ceux aux méthodes "borderline" qui constituent pourtant une mine d'or d'informations sur les titres accrocheurs et les typologies d'images qui fonctionnent ». Des éditeurs de sites GenAI se vantent d'ailleurs déjà d'y avoir identifié des patterns leur permettant de surperformer. Contacté pour savoir comment il expliquait cette surreprésentation des sites GenAI, Clément Pessaux nous répond que « Discover est basé sur Navboost, un algorithme qui mesure avant tout le niveau d’interaction des utilisateurs sur une page : clics, temps de lecture, partages, etc. », et que « les contenus qui performent le plus sont ceux qui intéressent et engagent réellement les lecteurs » : « Ce n’est donc pas une histoire de "GenAI ou pas GenAI" : c’est une histoire d’adéquation entre l’offre éditoriale et les attentes de l’audience. Tant que certains journalistes continueront à écrire avant tout pour eux-mêmes, sans prendre en compte les formats, les angles, les temporalités ou les sujets qui captent l’attention des lecteurs, ils laisseront mécaniquement la place à ceux qui savent écouter et répondre à cette demande. Les médias traditionnels ont deux options : rester dans un modèle qui ne parle plus aux audiences Discover, ou adapter leurs formats pour exister dans un écosystème qui pèse des millions de lecteurs par jour. » Interrogé sur la surreprésentation des sites GenAI de Julien Jimenez, les nombreuses infox' qu'ils relaient, le fait que, faute de respecter les règles de Google, ils sont généralement pénalisés au bout de 15 jours à trois semaines, Clément Pessaux élude nos questions et, relancé, refuse d'y répondre : « Je n'ai rien à dire sur le sujet aujourd'hui, strictement rien ». « Dans le cas des dernières pénalités, il s'agit de sites qui ont clairement dérivé vers la publication massive de fake news pour faire le buzz et capter du trafic, avec un véritable succès d'audience », avait-il cela dit répondu au Journal du Net, soulignant que « ces sites sont devenus très visibles, attirant ainsi l'attention de tous, y compris de Google, qui a décidé de les exclure de Discover » : « C'est toute la problématique de Discover aujourd'hui. Une très petite minorité de sites pousse le curseur trop loin, dégradant par amalgames et raccourcis l'image globale de Discover. Les équipes de Google en sont parfaitement conscientes, c'est pourquoi on peut observer, par vagues, des pénalités manuelles tomber. » Contacté, Julien Jimenez, qui a jusqu'alors systématiquement refusé de répondre aux sollicitations de journalistes, ne nous a pas non plus répondu. Des infox' GenAI en « Une » de Google Discover Notre enquête avait déjà démontré que Google ne respecte pas ses propres règles. Elles stipulent en effet que, pour pouvoir être indexés, les contenus mis en ligne doivent respecter ses critères EEAT (pour « Expertise, Experience, Authoritativeness, Trustworthiness », ou « Expertise, Expérience, Autorité, Fiabilité » en français). Les sites et articles GenAI que nous avons identifiés, qui semblent majoritairement ne pas avoir été relus avant d'être publiés, « en masse », ne devraient dès lors pas pouvoir figurer dans les résultats de son moteur de recherche, encore moins de Google Actualités, et ne sauraient non plus être « recommandés » par son algorithme Discover de « recommandation » de contenus. Un problème de filtrage et de modération d'autant plus étonnant que, lorsque Google avait été confronté à une déferlante de publicités reposant sur l'usurpation d'identité de « people » et personnalités, générée par IA, afin de promouvoir des escroqueries, la régie publicitaire de Google avait « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d'annonceurs », comme nous l'avions relevé. Google pénalise les publicités générées par IA (mais pas les médias générés par IA) Une célérité que Google ne semble pas avoir mise en œuvre pour ce qui est des contenus « générés par IA » recommandés par son algorithme Discover qui, comme nous l'avons aussi documenté, sont par ailleurs majoritairement monétisés par AdSense, la régie publicitaire de Google. Contacté, Google nous répond que « bien que l'utilisation de l'automatisation, y compris l'IA, pour générer du contenu dans le but principal de manipuler le classement dans les résultats de recherche constitue une violation de nos règles relatives au spam, toute utilisation de l'automatisation, y compris la génération par IA, n'est pas considérée comme du spam (voir plus ici) » : « Nous nous engageons à proposer des contenus utiles et de haute qualité dans Google Discover, et nos règles interdisent formellement les contenus trompeurs, manipulés ou mensongers. Nos systèmes automatisés sont très efficaces pour appliquer ces règles à grande échelle. Par exemple, comme nous l'avons mentionné, nos systèmes anti-spam maintiennent les résultats de la recherche Google à plus de 99 % exempts de spam. » Contacté par Le Parisien, à qui nous avons partagé notre enquête, Google précise que « les analyses de Next reposent sur des outils tiers qui ne sont pas directement connectées aux données de Google, ne sont pas représentatives de l’écosystème Discover ». Il suffit pourtant de consulter la liste (.pdf) des 1 000 sites les plus recommandés par Discover sur Gnewsalyzer pour constater que l'échantillon est bien représentatif de l'écosystème médiatique français, et que quatre des sites GenAI de Jimenez figurent dans son Top120. Notre enquête montre bien que les sites d'info GenAI de Julien Jimenez « surperforment » les principaux médias français sur Discover – quand bien même ces derniers reposent sur le travail de centaines de journalistes, alors que Jimenez travaille seul et à mi-temps –, et qu'ils ne sont, au mieux, déréférencés qu'au bout de 15 jours à trois semaines seulement – quand bien même ils violent pourtant les règles de Google. Les sites GenAI sont en outre « sur-représentés » par rapport aux sites d'information – au point de représenter près de 20 % des sites les plus « recommandés », et que le tiers des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA. Les « éléments de langage » répétés à l'envi depuis des mois par Google sont également contredits par les centaines de captures d'écran que nous accumulons depuis des mois (à partir d'un profil non connecté, pour limiter le profiling associé), les infox GenAI allant jusqu'à figurer à la « Une » et donc en tête des recommandations de Google Discover, comme l'attestent ces quelques captures d'écran, extraites de nos archives. Il nous est par ailleurs plusieurs fois arrivé de découvrir, dans la quinzaine de contenus recommandés par Discover, que trois, quatre voire cinq articles (soit de 20 à 33 %) émanaient de sites d'infos générés par IA... signe que Google ne parvient pas à filtrer « 99 % » du spam, mais également que « l’EEAT semblerait ne pas avoir l’importance que l’on peut penser », comme l'avaient relevé Abondance et d'autres au sujet de son algorithme de « prédiction » Navboost, conçu pour améliorer les résultats de recherche en se basant sur les interactions des utilisateurs avec les pages de résultats de recherche. « Google ne dit pas la vérité » Mi-juillet, Vincent Berthier, responsable du bureau technologies et journalisme de RSF, avait appelé Google à « renforcer ces critères de sélection, ainsi que le contrôle de leur respect, avant que les utilisateurs ne soient submergés par les fausses informations déroulées à la chaîne par ces rotatives numériques » : « La facilité avec laquelle des sites peu recommandables parviennent à se hisser dans Discover pousse à s’interroger sur les failles de ce service. Il devient urgent de les combler en remaniant son fonctionnement, et d’empêcher la promotion des faux sites d’information. Les bloquer manuellement ne suffira pas : ce sont des hydres. » Virginie Clève, bien connue dans le monde des médias pour son expertise en matière de marketing numérique et donc de SEO, invite les éditeurs de presse à porter plainte, « tous les mois s'il le faut ». Elle estime en effet que « Google ne dit pas la vérité », alors qu'« en termes de réputation, c'est catastrophique d'être responsable d'une telle dispersion de contenus pourris, anxiogènes, faux, fracturant la société ou contribuant à sa déstabilisation ». Pour elle, Google « ne fait rien » parce que le problème concerne principalement la France (du fait que « les spammeurs SEO FR sont parmi les plus doués au monde »), et peu leur marché domestique états-uniens, ce pourquoi Google minimiserait l'ampleur de cette pollution. Elle estime également que le fait de renforcer l'antispam de Discover ne serait pas prioritaire, alors que stratégiquement les moyens sont mis ailleurs, en particulier sur l'IA, et que « cela ne gène en rien l'audience et l'adoption du produit, sans doute même l'inverse ». Face à cette épidémie d'infox, Google... invisibilise le fact-checking Sur sa page « Notre approche de la recherche », Google indique que sa mission est « d'organiser les informations à l'échelle mondiale dans le but de les rendre accessibles et utiles à tous ». Or, Google a récemment annoncé – sans prévenir les rédactions concernées – la fin de l’affichage des balises ClaimReview qui rendaient visibles les articles de fact-checking dans son moteur de recherche depuis 2017, comme CheckNews l'a relevé. En outre, la déferlante de contenus générés par IA est telle que les plateformes et réseaux sociaux sont eux aussi submergés de contenus GenAI, qu'il s'agisse de YouTube, Instagram, TikTok, Facebook et même LinkedIn, comme le relatait l'épisode de Last Week Tonight with John Oliver consacré cet été à l'« AI slop », du surnom donné à ces contenus bas de gamme générés par IA. Plus de 7 000 sites d'info GenAI, mais jusqu'à quand ? Cet article est l'occasion de rappeler que l'extension (gratuite) pour les navigateurs Firefox et Chrome, développée par Next afin d'afficher un message d'alerte lorsque ses utilisateurs visitent un site d'info généré par IA, a franchi le cap des 6 000 sites cet été, et des 7 000 sites peu après la rentrée. Alerte sur les sites GenAI : notre extension signale plus de 6 000 sites et passe en v2.3 Elle permet par ailleurs à ses utilisateurs de nous envoyer un message lorsqu'ils estiment avoir identifié un site d'info GenAI, et nous avons rajouté, en août, la possibilité d'y associer votre adresse mail, de sorte de pouvoir vous répondre ou en discuter, au besoin. Depuis son lancement, début février, nous avons ainsi reçu plus de 1 500 signalements de la part de ses utilisateurs. Ces alertes nous ont permis d'identifier plusieurs fermes de contenus de dizaines voire centaines de sites, et de nombreux sites GenAI que nous n'avions pas encore détectés, ou qui ont récemment été mis en ligne. Nous tenions donc à vous en remercier. PS : nous n'y répertorions que les seuls sites d'information/actu/médias, pas les sites GenAI type ChatGPT & Cie. Les chatbots d'IA génératives peuvent être utiles, du moment où ils sont utilisés à bon escient, en en comprenant les limites, et problèmes associés. Les sites d'infos GenAI, par contre, ne sauraient en l'état être considérés comme fiables, nonobstant le fait que leur objectif n'est pas d'informer. 18% des médias et 33% des sites tech les plus recommandés par Google sont générés par IA Perdu dans le jargon ? Petit lexique pour s’y retrouver 7 700 articles en 15 jours, soit plus de 510 articles par jour, tout seul La moitié des sites GenAI émane d'un seul serial éditeur... ... qui écrase Ouest France, Le Parisien, BFM et L'Équipe 33 % des sites les plus recommandés sur Google News Technologies sont GenAI Téléchargez notre extension web (gratuite) pour être alerté lorsque vous visitez un site d'info généré par IA « Je ne suis pas journaliste, chacun son métier » La publication massive de fake news sur Discover, un « véritable succès d'audience » Des infox' GenAI en « Une » de Google Discover « Google ne dit pas la vérité » Face à cette épidémie d'infox, Google... invisibilise le fact-checking Plus de 7 000 sites d'info GenAI, mais jusqu'à quand ? Commentaires 10
No comment yet.
Notebook or My Personal Learning Network
a personal notebook since summer 2013, a virtual scrapbook
Your new post is loading...
Your new post is loading...
Scooped by Gilbert C FAURE
October 13, 2013 8:40 AM
Scoop.it!

This notebook..

is a personal Notebook

 

Thanks John Dudley for the following tweet

"If you like interesting snippets on all sorts of subjects relevant to academia, information, the world, highly recommended is @grip54 's collection:"

 

La curation de contenus, la mémoire partagée d'une veille scientifique et sociétale

Gilbert C FAURE's insight:

... designed to collect posts and informations I found and want to keep available but not relevant to the other topics I am curating on Scoop.it (on behalf of ASSIM):

 

the most sucessful being

Immunology, teaching and learning immunology

http://www.scoop.it/t/immunology

and

From flow cytometry to cytomics

http://www.scoop.it/t/from-flow-cytometry-to-cytomics

Immunology and Biotherapies, a page of resources for the DIU 

 http://www.scoop.it/t/immunology-and-biotherapies

 

followed by

Nancy, Lorraine

 http://www.scoop.it/t/nancy-lorraine

I am based at Université Lorraine in Nancy

Wuhan, Hubei,

 http://www.scoop.it/t/wuhan

because we have a long standing collaboration through a french speaking medical training program between Faculté de Médecine de Nancy and WuDA, Wuhan university medical school and Zhongnan Hospital

  

CME-CPD,

 http://www.scoop.it/t/cme-cpd

because I am at EACCME in Brussels, representative of the medical biopathology and laboratory medicine UEMS section

 

Mucosal Immunity,

 http://www.scoop.it/t/mucosal-immunity

because it was one of our main research interest some years ago 

 

It is a kind of electronic scrapbook with many ideas shared by others.

It focuses more and more on new ways of Teaching and Learning: e-, m-, a-, b-, h-, c-, d, ld-, s-, p-, w-, pb-, ll- ....

Thanks to all

No comment yet.
Scooped by Gilbert C FAURE
November 16, 4:50 AM
Scoop.it!

World Quality Day Today the world... - My life with cats

World Quality Day Today the world... - My life with cats | Notebook or My Personal Learning Network | Scoop.it
No comment yet.
Scooped by Gilbert C FAURE
November 15, 4:41 AM
Scoop.it!

Fraude scientifique : analyse d’un phénomène en hausse

Fraude scientifique : analyse d’un phénomène en hausse | Notebook or My Personal Learning Network | Scoop.it
Fraude scientifique : analyse d’un phénomène en hausse - Une Tribune à découvrir sur Polytechnique Insights
No comment yet.
Scooped by Gilbert C FAURE
November 14, 1:25 PM
Scoop.it!

14 Go, c’est le poids du modèle d’IA que je fais tourner… sur mon ordinateur, en local 💻 Pas sur les serveurs d’OpenAI, pas dans le cloud de Google... mais bien sur mon MacBook personnel. Et… | N...

14 Go, c’est le poids du modèle d’IA que je fais tourner… sur mon ordinateur, en local 💻 Pas sur les serveurs d’OpenAI, pas dans le cloud de Google... mais bien sur mon MacBook personnel. Et… | N... | Notebook or My Personal Learning Network | Scoop.it
14 Go, c’est le poids du modèle d’IA que je fais tourner… sur mon ordinateur, en local 💻

Pas sur les serveurs d’OpenAI, pas dans le cloud de Google... mais bien sur mon MacBook personnel. Et honnêtement, ça change pas mal de choses dans ma manière d’utiliser l’IA au quotidien.

Depuis plusieurs mois, je teste Ollama, un outil qui permet d’installer des modèles open source directement sur sa machine. Llama 3.2 (Meta), Mistral ou GPT-OSS, le modèle open source d’OpenAI… tout fonctionne en local, sans connexion internet, sans transfert de données et sans aucun abonnement mensuel. C’est simple à installer et, surtout, très confortable à l’usage.

Concrètement, voilà ce que j’y gagne :
→ Mes documents sensibles restent sur ma machine et n’en sortent jamais
→ Le coût mensuel tombe à… 0 € (pas d'abonnement à payer)
→ L’outil fonctionne partout, même hors ligne
→ Les modèles récents sont plutôt rapides et réactifs
→ L’impact environnemental est bien plus faible que dans le cloud

Attention, il y a quand même quelques limites à garder en tête :
→ Une machine avec 16 Go de RAM reste idéale pour une expérience fluide
→ Les modèles peuvent peser lourd (jusqu'à 65 Go pour les plus puissants)
→ On ne remplace pas les tout derniers grands modèles pour les tâches plus complexes ou spécialisées

Pour le reste, c’est-à-dire environ 80 % de mes usages quotidiens (aide à la rédaction, correction, résumé de documents, code simple…), l’IA locale fait plutôt bien le travail et apporte même une vraie sensation de maîtrise... et de liberté !

On retrouve un contrôle qu’on avait clairement perdu avec les plateformes cloud, tout en gagnant en sobriété (je ne sollicite pas un data center à chaque requête et ça change vraiment la donne) et en confidentialité.

Je ne pense pas que l’IA locale remplacera les grands modèles hébergés dans le cloud, mais elle offre une alternative plus autonome, plus sobre et plus respectueuse de la vie privée. Et je suis convaincu qu’on va en voir de plus en plus dans les mois à venir.

Je vous partage une courte vidéo pour montrer concrètement ce que ça donne avec quelques tests simples.

Et si ça vous intéresse, j’en parle plus en détail dans ma dernière newsletter : https://lnkd.in/eTz2anJ4

Certains d’entre vous utilisent déjà l’IA en local ? Vos retours m’intéressent vraiment 👇 | 28 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
November 14, 1:16 PM
Scoop.it!

SEMAINE SPÉCIALE - ICI Lorraine fête les 90 ans du plus célèbre humoriste vosgien... Claude Vanony 🎂 - ICI

SEMAINE SPÉCIALE - ICI Lorraine fête les 90 ans du plus célèbre humoriste vosgien... Claude Vanony 🎂 - ICI | Notebook or My Personal Learning Network | Scoop.it
Claude Vanony fête ses 90 ans sur scène ce samedi 22 et dimanche 23 novembre à l'Espace L.A.C de Gérardmer ! ICI Lorraine lui consacre cette semaine spéciale et vous invite à son spectacle.
No comment yet.
Scooped by Gilbert C FAURE
November 13, 6:29 AM
Scoop.it!

Pourquoi le New York Times mise tout sur le « temps d’attention » Comment mieux mesurer l’impact réel d’un article ? Pour le NYT, la réponse ne se trouve plus dans les simples clics, mais dans le…...

Pourquoi le New York Times mise tout sur le « temps d’attention » Comment mieux mesurer l’impact réel d’un article ? Pour le NYT, la réponse ne se trouve plus dans les simples clics, mais dans le…... | Notebook or My Personal Learning Network | Scoop.it
Pourquoi le New York Times mise tout sur le « temps d’attention »

Comment mieux mesurer l’impact réel d’un article ? Pour le NYT, la réponse ne se trouve plus dans les simples clics, mais dans le temps passé par les lecteurs sur chaque contenu. Un changement stratégique, qui redéfinit la manière dont la rédaction s’aligne sur les objectifs de l’entreprise.

1️⃣ Une métrique devenue centrale

En 2024, le New York Times a placé le temps d’attention au cœur de son pilotage éditorial. L’objectif ? Créer des habitudes de lecture plus profondes. Pour Hayley Arader, directrice exécutive data et insights pour la newsroom : « le projet autour du temps d’attention a permis de cultiver le comportement que nous recherchions chez les lecteurs, ce que le simple suivi des pages vues ne permet pas ».

Le choix de cette métrique n’est pas anodin : il répond à deux finalités claires. Côté rédaction, il s’agit de mieux comprendre les préférences des lecteurs. Côté business, le but est de prolonger le temps passé sur la plateforme.

2️⃣ Un cadre d’analyse rigoureux

Pour que cette donnée soit utile, encore faut-il l’interpréter dans le bon contexte. Le Times a mis au point un modèle permettant de comparer la durée moyenne passée sur un article selon :

▪️sa longueur,
▪️son thème,
▪️sa promotion sur le site,
▪️la source du trafic,
▪️et même les fuseaux horaires des lecteurs.

Grâce à ces modèles, chaque article est positionné au-dessus ou en dessous de la moyenne attendue. Ce benchmark permet de ne pas tirer de conclusions hâtives sur les performances.

3️⃣ Une stratégie visuelle et pédagogique

Le tps d’attention est aujourd’hui affiché tout en haut du tableau de bord des audiences pour chaque article. Mais le Times a refusé toute approche culpabilisante. Pas de texte en rouge ou vert, mais du noir uniquement. « Nous voulons que ce soit un outil d’apprentissage, pas une grille de performance ».

💎 Pour accompagner ce changement, la rédaction a diffusé un guide complet, avec une FAQ accessible à tous. Et surtout, ce changement a été porté autant par la direction que par les équipes. « Cela a marché car c’est venu du haut comme du bas ».

4️⃣ Une lecture enrichie par les formats

Autre constat clé : le multimédia joue un rôle déterminant. Vidéos, photos, interactifs… influencent fortement le temps passé. Le Times a donc intégré ces formats dans ses modèles, pour suivre précisément leur impact. « C’est essentiel pour être pertinent dans le nouvel Internet ».

Comprendre comment les lecteurs naviguent sur les pages, interagissent avec les formats et reviennent ou non, devient vital pour créer des récits plus immersifs et engageants.

5️⃣ Une culture data au service du journalisme

Comme le relève Hayley Arader : « nous répétons sans cesse que le jugement éditorial passe en premier. C’est ce qui nous a permis de réussir dans l’utilisation des données ».

👉 Lien en commentaire.
No comment yet.
Scooped by Gilbert C FAURE
November 13, 6:19 AM
Scoop.it!

Testez votre profil en termes de Litteratie à l’IA développé par l’Université Laval au Québec | Bruno De Lièvre

Testez votre profil en termes de Litteratie à l’IA développé par l’Université Laval au Québec | Bruno De Lièvre | Notebook or My Personal Learning Network | Scoop.it
Testez votre profil en termes de Litteratie à l’IA développé par l’Université Laval au Québec
No comment yet.
Scooped by Gilbert C FAURE
November 12, 5:11 AM
Scoop.it!

#researchculture #academicintegrity #publishorperish #highereducation #openscience #academiclife #researchleadership #sustainableacademia #scholarshipnotscorekeeping | Robert Buch | 30 comments

#researchculture #academicintegrity #publishorperish #highereducation #openscience #academiclife #researchleadership #sustainableacademia #scholarshipnotscorekeeping | Robert Buch | 30 comments | Notebook or My Personal Learning Network | Scoop.it
Edit: To be clear, this is not an argument that research quality has declined — if anything, standards for rigor and data quality have increased in many fields. The point is about incentives: how evaluation systems influence where scholars invest their time, attention, and energy.

“Publish or perish” continues to shape academic careers — but increasingly at the expense of quality.
It’s been ten years since I was promoted to full professor, and I find myself re-examining what we choose to measure.

When quantity becomes the primary KPI, something important is lost.

Recent reports show that publication pressure is linked to burnout, ethical dilemmas, and rising retractions (Newsletters QS, 2025; Editors Cafe, 2025; Council Science, 2024). At the same time, major academic presses and research organizations are calling for reward systems that value mentorship, collaboration, and scientific culture just as much as publication counts (Inside Higher Ed, 2025; Nature, 2025).

The landscape is shifting — preprints, open peer review, modular formats — but none of this will matter unless universities change how scholars are evaluated and rewarded.

Most researchers already know what meaningful scholarship looks like:
• Slow, careful thinking
• Genuine collaboration
• Time to mentor and develop others
• The honesty to say, “This study needs more time.”

If the goal is real impact — not just output — then:
Quality must matter more than quantity.
Contribution must matter more than performance metrics.
This is the conversation we need to have now.

References
Council Science. (2024). The ‘publish or perish’ mentality is fuelling research paper retractions.
Editors Cafe. (2025). Rethinking ‘Publish or Perish’ in the Age of AI.
Inside Higher Ed. (2025). Major Academic Press Calls for “Publish or Perish” Reform.
Nature. (2025). Move beyond ‘publish or perish’ by measuring behaviours.
Newsletters QS. (2025). How has “publish or perish” become “publish and perish” in academia?

#ResearchCulture #AcademicIntegrity #PublishOrPerish #HigherEducation #OpenScience #AcademicLife #ResearchLeadership #SustainableAcademia #ScholarshipNotScorekeeping

PS: image generated by GROK using a simple prompt - learn to use prompts.... | 30 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
November 10, 5:08 AM
Scoop.it!

THE INTERNET IS EATING ITSELF The Internet Is Now 52% AI-Generated Content And It's Training On Itself New research just dropped numbers that should terrify anyone who cares about truth: **52% of...

THE INTERNET IS EATING ITSELF The Internet Is Now 52% AI-Generated Content And It's Training On Itself New research just dropped numbers that should terrify anyone who cares about truth: **52% of... | Notebook or My Personal Learning Network | Scoop.it
THE INTERNET IS EATING ITSELF
The Internet Is Now 52% AI-Generated Content
And It's Training On Itself

New research just dropped numbers that should terrify anyone who cares about truth:

**52% of all internet content is now AI-generated.**¹
In 2022, it was 10%.

But here's where it gets insane (actually it's all insane TBH):

**74% of ALL NEW web pages contain AI-generated content.**²
The internet added 3-5 billion pages monthly in 2024
most of it synthetic.³

The internet isn't just being eaten.
It's being mass-produced by the thing that's eating it.

Why This Matters

Large Language Models aren't brains.
They're giant stomachs.
They consume everything.
Digest nothing.
Excrete more content, which gets consumed again
an infinite feedback loop of synthetic regurgitation.

Here's what happens when AI trains on AI:

→ Model collapse: Recursive training causes "irreversible performance decay."⁴
→ Narrowing of knowledge: Models reflect themselves, not reality
→ Death of originality: A hall of mirrors, each reflection dimmer than the last

We're replacing:

Human nuance
Cultural context
Real expertise
Original thought
The truth

With statistically probable simulations.

The Economics

Licensing real content costs billions.
Synthetic data? Almost nothing.
So they choose cheap scale over real knowledge.
No regulation. No transparency. No tracking.

OpenAI doesn't ask permission to train on Anthropic's outputs.
They just scrape the web.

Competition accelerates the collapse.
Every AI company races to build bigger models.

They need more data.
Synthetic data looks like a shortcut.
Collectively, they're destroying the foundation their business depends on: real human knowledge.

We've Already Passed the Tipping Point

What happens when:

→ Medical information trains on synthetic medical papers?
→ Children learn history from recursive AI summaries?
→ Scientific research builds on fabricated datasets?

We don't just lose quality.
We lose the ability to know what's real.
The internet was humanity's collective memory.
Now it's becoming humanity's collective hallucination.

The Bottom Line

LLMs are giant stomachs, not brains.
They consume.
They excrete.
They consume again.
********************************************************************************
The trick with technology is to avoid spreading darkness at the speed of light
Stephen Klein | Founder & CEO, Curiouser.AI | Teaches AI Ethics at UC Berkeley | Raising on WeFunder | Would your support (LINK IN COMMENTS)

Footnotes:

¹ Graphite Research (2025). Analysis of 65,000 URLs from Common Crawl.
² Ahrefs (2025). Analysis of 900,000 newly created web pages in April 2025.
³ Common Crawl Foundation. Database adds 3-5 billion pages monthly.
⁴ Shumailov et al. (2024). "AI models collapse when trained on recursively generated data." Nature, 631, 755-759. | 388 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
November 8, 6:13 AM
Scoop.it!

Reba McEntire, Miranda Lambert, Lainey Wilson - Trailblazer (Live from Music City Rodeo)

Music video by Reba McEntire, Miranda Lambert, Lainey Wilson performing Trailblazer (Live from Music City Rodeo).© 2025 Rockin' R Records, LLC, under exclusive license to UMG Recordings, Inc.
No comment yet.
Scooped by Gilbert C FAURE
November 7, 12:59 PM
Scoop.it!

I discovered that a reading pack for my doctoral leadership subject contained fabricated references. Almost everything listed was AI-generated citations that either didn’t exist or linked to the… |...

I discovered that a reading pack for my doctoral leadership subject contained fabricated references. Almost everything listed was AI-generated citations that either didn’t exist or linked to the… |... | Notebook or My Personal Learning Network | Scoop.it
I discovered that a reading pack for my doctoral leadership subject contained fabricated references. Almost everything listed was AI-generated citations that either didn’t exist or linked to the wrong papers.

When I raised it, the provider confirmed that AI had been used and that the material was shared before human review. They also reminded me that doctoral candidates should be able to verify their own sources.

That response was so disappointing. Doctoral candidates are expected to build on verified scholarship, not correct institutional errors. I’ve asked to withdraw from the course because the university doesn’t seem to understand why this is a serious concern and has pushed the responsibility back on me.

Distributing unverified academic material in a foundation subject is a breach of academic integrity and sets entirely the wrong ethical tone for the course.

Am I overreacting? Or is this yet another symptom of the wider issues that are undermining confidence in the sector? | 306 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
November 7, 12:57 PM
Scoop.it!

My first visit to Tbilisi, Georgia for the International Conference on Medical Education has been incredible and filled with thoughtful discussions, engaged learners, and the perfect mix of local a...

My first visit to Tbilisi, Georgia for the International Conference on Medical Education has been incredible and filled with thoughtful discussions, engaged learners, and the perfect mix of local a... | Notebook or My Personal Learning Network | Scoop.it
My first visit to Tbilisi, Georgia for the International Conference on Medical Education has been incredible and filled with thoughtful discussions, engaged learners, and the perfect mix of local and international perspectives. Thanks to Salome Voronovi for the invitation, and always nice to see David Taylor.

A concept that really struck a chord is what I’ve started calling the Suitcase Paradox:

In lifelong learning or curriculum design, just like when packing for a trip, you can’t keep adding new things unless you take something out first. And you have to fit it into the overhead compartment on a plane and in our anatomical overhead compartment, the brain!

Healthcare professionals must continually unlearn outdated practices to make room for new evidence, new technologies, and new ways of thinking.

That’s what lifelong learning, and particularly continuing professional development (CPD), is all about.

But to make it work, educators must evolve into learning facilitators, helping learners curate, adapt, and apply knowledge depending on where they are on the learning continuum.

And because healthcare doesn’t happen in silos, neither should learning.
Interprofessional education (IPE) brings students from different health professions together.

Interprofessional continuing education (IPCE) extends that collaboration into practice. And when it’s done right, it leads to interprofessional collaborative practice (IPCP), where the ultimate outcome is better patient care.

I even got in a mention of the Donald & Barbara Zucker School of Medicine curriculum!

Plenty more to come: I’ve still got a wine tour 🍷 ahead and a masterclass on lifelong learning and CPD on Monday!
No comment yet.
Scooped by Gilbert C FAURE
November 7, 6:53 AM
Scoop.it!

J’ai le plaisir de vous annoncer la tenue de la journée d’étude « Penser l’éducation avec John Dewey : une approche pragmatiste et pluridisciplinaire », qui se déroulera à Paris le 1er décembre… | ...

J’ai le plaisir de vous annoncer la tenue de la journée d’étude « Penser l’éducation avec John Dewey : une approche pragmatiste et pluridisciplinaire », qui se déroulera à Paris le 1er décembre… | ... | Notebook or My Personal Learning Network | Scoop.it
J’ai le plaisir de vous annoncer la tenue de la journée d’étude « Penser l’éducation avec John Dewey : une approche pragmatiste et pluridisciplinaire », qui se déroulera à Paris le 1er décembre 2025: https://lnkd.in/ehh5MbTx

Cet événement, co-organisé par Annabelle Cara, Anne BARRERE et moi-même, avec le soutien du CERLIS, de l’EDA et du Centre de recherche sur les médiations (Crem), proposera un regard croisé sur l’œuvre de Dewey et ses apports pour penser les questions et pratiques éducatives.
Avec la participation de Renaud Hétier, Anne Lehmans, Samuel Renier, Sébastien-Akira Alix, Céline Robillard et Arthur Ancelin.

Inscription obligatoire.
Plus d'informations ici : https://lnkd.in/ehh5MbTx
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:08 AM
Scoop.it!

Applied-English Linguistics & Literature Group | A Chat (GPT) about the future of scientific publishing

Applied-English Linguistics & Literature Group | A Chat (GPT) about the future of scientific publishing | Notebook or My Personal Learning Network | Scoop.it
No comment yet.
Scooped by Gilbert C FAURE
November 16, 4:48 AM
Scoop.it!

#écriture #geo #map #world #writing | Maxime Blondeau | 24 comments

#écriture #geo #map #world #writing | Maxime Blondeau | 24 comments | Notebook or My Personal Learning Network | Scoop.it
✍️ Excellent. La géographie de l'écriture.

Cette carte du Monde diplomatique est magnifique. A découvrir ici https://buff.ly/Mz2E1jt

Il existe seulement 23 systèmes d'écriture officiels en 2025.
Et 293 systèmes recensés dans l'histoire (actuels + historiques) selon la base de données incroyable : World Writing Systems https://buff.ly/ObjP2TB

Quand on regarde les nations, on peut voir des frontières.
Mais quand on regarde les écritures, on voit des civilisations.
L'écriture est au coeur de la relation complexe entre les peuples, l'espace et le temps.

🔤 Depuis l'Occident, l’alphabet latin s’est diffusé comme un même. 26 lettres pour dire toutes les langues du globe : un outil d’efficacité, le vecteur idéal de la mondialisation. C'est le système d’écriture le plus répandu : environ 70 % de la population mondiale l’utilise.

🌀 En Asie de l’Est, les idéogrammes d'origine chinoise hanzi/kanji — logogrammes millénaires — condensent la pensée en caractère. Chaque symbole est un paysage miniature: “montagne”, “rivière”, “cœur”. Ce n’est pas un alphabet, c’est une cosmologie d'encre et d'histoire. Un système utilisé par environ 1,34 milliard de personnes

🕎 Au Moyen-Orient et en Afrique, l’écriture arabe, fluide et calligraphique, épouse le souffle du Coran et traverse les déserts, du Maghreb à l’Indonésie. L’écriture devient prière, onde, mouvement. Le système arabe est estimé à environ 660 millions d’utilisateurs

🪶 En Inde, les alphasyllabaires — Devanagari, Tamil, Bengali... — traduisent la complexité phonétique d’un sous-continent où le langage est une discipline spirituelle. A lui seul, le système devanāgarī (utilisé pour l’hindi, le népalais, etc.) compte environ 600 millions d’utilisateurs. Presque autant que l'arabe.

⚫ En Afrique, les écritures renaissent : le N’ko, le Tifinagh, l’Adlam… Des inventions récentes pour redonner voix aux langues orales, effacées par la colonisation.

🌐 Et aujourd’hui, le monde numérique impose une nouvelle carte invisible : celle de l’Unicode, ce langage commun des machines qui encode toutes les écritures du monde… mais les range, encore une fois, dans un même système.

📜 Regarder la carte des écritures, c’est regarder la Terre à travers ses voix.
Chaque système d’écriture est une manière d’habiter le réel, de relier le visible et l’invisible.

La carte en version PDF ici : https://buff.ly/6xa6kaX

#écriture #geo #map #world #writing


Suivez ma newsletter hashtag#Cosmorama pour recevoir chaque semaine une carte, une image, une découverte sur le monde ! 🌍 Pour s'abonner, c'est ici : https://buff.ly/gAMRazF | 24 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
November 14, 1:38 PM
Scoop.it!

Tonight, BioNexus KC... - Union Station Kansas City

Tonight, BioNexus KC... - Union Station Kansas City | Notebook or My Personal Learning Network | Scoop.it
No comment yet.
Scooped by Gilbert C FAURE
November 14, 1:19 PM
Scoop.it!

#science #research #integrity #impact #productivity | Erik Hermann

#science #research #integrity #impact #productivity | Erik Hermann | Notebook or My Personal Learning Network | Scoop.it
𝐓𝐡𝐞 𝐑𝐢𝐬𝐞 𝐚𝐧𝐝 𝐅𝐚𝐥𝐥 𝐨𝐟 𝐭𝐡𝐞 “𝐇𝐢𝐠𝐡𝐥𝐲 𝐂𝐢𝐭𝐞𝐝 𝐑𝐞𝐬𝐞𝐚𝐫𝐜𝐡𝐞𝐫𝐬” 𝐋𝐢𝐬𝐭

In her Quantitative Science Studies paper, Lauranne Chaignon traces the 20-year evolution of Clarivate’s Highly Cited Researchers (HCR) list: a ranking that once defined academic prestige and still shapes the Shanghai University Rankings.

𝐊𝐞𝐲 𝐅𝐢𝐧𝐝𝐢𝐧𝐠𝐬
𝐓𝐡𝐫𝐞𝐞 𝐝𝐢𝐬𝐭𝐢𝐧𝐜𝐭 𝐞𝐫𝐚𝐬 (2001–2023):
➡️ 𝐃𝐚𝐭𝐚𝐛𝐚𝐬𝐞 𝐞𝐫𝐚 (2001–2011): Created by Eugene Garfield’s Institute for Scientific Information (ISI) as a rich, biographical database of influential scientists
➡️ 𝐈𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫 𝐞𝐫𝐚 (2012–2018): Under Thomson Reuters and Clarivate, the list became an annual metric of research excellence, stripped of biography and tightly linked to university rankings
➡️ 𝐈𝐧𝐭𝐞𝐠𝐫𝐢𝐭𝐲 𝐜𝐫𝐢𝐬𝐢𝐬 (2019–2023): Growing cases of self-citation, manipulation, and fake affiliations forced Clarivate to adopt “qualitative filters” and partnerships with watchdogs like Retraction Watch to exclude fraudulent entries (over 13% in 2023)

➡️ Changing purpose: Once a tool for scholarly networking, the list is now a symbol of academic reputation and competition, with major policy and funding implications

➡️ Crisis of credibility: Scandals (e.g. Saudi universities paying foreign researchers for nominal affiliations) have exposed how metrics can be gamed, threatening Clarivate’s authority

𝐓𝐡𝐞 𝐅𝐮𝐭𝐮𝐫𝐞?
After removing mathematics entirely from the 2023 list due to manipulation, Clarivate faces a critical question: can citation-based metrics still define true research influence?

Interesting insights into how a bibliometric tool became both a global status symbol and a cautionary tale about measurement, integrity, and the commercialization of scientific prestige.

#science #research #integrity #impact #productivity

Jason Thatcher Timo Mandler Rüdiger Hahn Giampaolo Viglia
No comment yet.
Scooped by Gilbert C FAURE
November 14, 4:19 AM
Scoop.it!

How does ‘common knowledge’ shape our individual lives and our societies? Steven Pinker has some ideas –

How does ‘common knowledge’ shape our individual lives and our societies? Steven Pinker has some ideas – | Notebook or My Personal Learning Network | Scoop.it
Jamie Q. Roberts, University of Sydney I don’t know about you, but ever since I can remember – from my early teens – I have been bemused about the end
No comment yet.
Scooped by Gilbert C FAURE
November 13, 6:21 AM
Scoop.it!

🎥✈️ Une vidéo impressionnante de 1919 d’un aviateur français Un an après la fin de la Grande Guerre, le pilote français Jacques Trolley de Prévaux entreprend un vol exceptionnel : à bord de son… ...

🎥✈️ Une vidéo impressionnante de 1919 d’un aviateur français Un an après la fin de la Grande Guerre, le pilote français Jacques Trolley de Prévaux entreprend un vol exceptionnel : à bord de son… ... | Notebook or My Personal Learning Network | Scoop.it
🎥✈️ Une vidéo impressionnante de 1919 d’un aviateur français

Un an après la fin de la Grande Guerre, le pilote français Jacques Trolley de Prévaux entreprend un vol exceptionnel : à bord de son dirigeable, il survole les anciens champs de bataille depuis la côte belge jusqu’à Verdun.

Sous lui, un paysage apocalyptique — villages effacés, forêts rasées, tranchées à perte de vue — mais aussi le théâtre des exploits de millions de soldats qui ont tenu, avancé, résisté.

Ces images, tournées en 1919 et restaurées en couleur et en haute définition, redonnent vie à ces lieux où la France s’est battue pied à pied pour sa survie.
--
Si ce post vous a plu, restez en alerte et abonnez-vous à notre lettre d'information exclusive : https://lnkd.in/dwQnfhw4 | 77 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
November 13, 6:17 AM
Scoop.it!

The editors of the non predator scientific journals are often doing a good job but without the free help of the scientific community it would not be possible. However the huge profit they make (at…...

The editors of the non predator scientific journals are often doing a good job but without the free help of the scientific community it would not be possible. However the huge profit they make (at…... | Notebook or My Personal Learning Network | Scoop.it
The editors of the non predator scientific journals are often doing a good job but without the free help of the scientific community it would not be possible. However the huge profit they make (at least 32% of their revenue) is not acceptable as it is made with money of the taxpayer or of donators. It should change…
No comment yet.
Scooped by Gilbert C FAURE
November 12, 5:06 AM
Scoop.it!

Clarivate announces Highly Cited Researchers 2025 List

Clarivate announces Highly Cited Researchers 2025 List | Notebook or My Personal Learning Network | Scoop.it
United States is the world leader, while Mainland China and United Kingdom retain second and third positions on the list
No comment yet.
Scooped by Gilbert C FAURE
November 9, 3:55 AM
Scoop.it!

#ia #recherche #innovation #veillescientifique #ai | Juliette Mandelbrojt, PhD

#ia #recherche #innovation #veillescientifique #ai | Juliette Mandelbrojt, PhD | Notebook or My Personal Learning Network | Scoop.it
🧠📚L’un de mes premiers souvenirs marquants de contact avec le monde de la publication scientifique remonte à ma première année de licence. Un professeur nous avait montré une image frappante : si l’on empilait toutes les publications scientifiques produites chaque jour dans le monde, on atteindrait des distances astronomiques… jusqu’à la Lune, voire le Soleil.
Cette métaphore m’a suivie tout au long de mon parcours. Pendant ma thèse, j’ai vite compris à quel point rester à jour sur la bibliographie de son propre domaine est un défi colossal. Et j’ai découvert une frustration bien connue des chercheurs : plus on lit, plus on réalise l’immensité de ce qu’il nous reste à lire et à comprendre.

📅 La semaine dernière, j’ai eu le plaisir de participer à une formation animée par Assia ASRIR, PhD sur l’outil Opscidia. Une vraie révélation.

✨ Opscidia, c’est une IA fiable, exhaustive, qui ne génère pas de sources fictives. Le rêve de toute personne ayant déjà tenté de réaliser un état de l’art rigoureux. Un outil modulable, qui permet de gagner du temps sans sacrifier la rigueur, tout en gardant la main sur le processus de rédaction.
C’est aussi un excellent moyen de rester à jour sur les sujets que l'on maîtrise… mais surtout sur ceux que l'on rêve d’approfondir.

🙏 Merci Assia pour cette découverte ! J’ai hâte de continuer à explorer les possibilités de cet outil.

#IA #Recherche #Innovation #VeilleScientifique #AI
No comment yet.
Scooped by Gilbert C FAURE
November 7, 1:21 PM
Scoop.it!

Webber et al IL research agenda ECIL 2025 final.pdf - Google Drive

Webber et al IL research agenda ECIL 2025 final.pdf - Google Drive | Notebook or My Personal Learning Network | Scoop.it
No comment yet.
Scooped by Gilbert C FAURE
November 7, 12:58 PM
Scoop.it!

#wikipedia #prompt #ia | Bruno De Lièvre

#wikipedia #prompt #ia | Bruno De Lièvre | Notebook or My Personal Learning Network | Scoop.it
Le #wikipedia du #prompt pour l #IA - Top
No comment yet.
Scooped by Gilbert C FAURE
November 7, 12:47 PM
Scoop.it!

Micro-station d'épuration individuelle - Eaux usées : oxyfix®

Micro-station d'épuration individuelle - Eaux usées : oxyfix® | Notebook or My Personal Learning Network | Scoop.it
La solution idéale pour le traitement des eaux usées de votre habitation principale. Une micro-station avec plus de 10 ans d'expérience et de satisfaction.
No comment yet.
Scooped by Gilbert C FAURE
November 7, 1:53 AM
Scoop.it!

Transitioning to ‘emeritus professor’ wasn’t always easy. Here’s how I adjusted

No comment yet.