Edit: To be clear, this is not an argument that research quality has declined — if anything, standards for rigor and data quality have increased in many fields. The point is about incentives: how evaluation systems influence where scholars invest their time, attention, and energy.
“Publish or perish” continues to shape academic careers — but increasingly at the expense of quality. It’s been ten years since I was promoted to full professor, and I find myself re-examining what we choose to measure.
When quantity becomes the primary KPI, something important is lost.
Recent reports show that publication pressure is linked to burnout, ethical dilemmas, and rising retractions (Newsletters QS, 2025; Editors Cafe, 2025; Council Science, 2024). At the same time, major academic presses and research organizations are calling for reward systems that value mentorship, collaboration, and scientific culture just as much as publication counts (Inside Higher Ed, 2025; Nature, 2025).
The landscape is shifting — preprints, open peer review, modular formats — but none of this will matter unless universities change how scholars are evaluated and rewarded.
Most researchers already know what meaningful scholarship looks like: • Slow, careful thinking • Genuine collaboration • Time to mentor and develop others • The honesty to say, “This study needs more time.”
If the goal is real impact — not just output — then: Quality must matter more than quantity. Contribution must matter more than performance metrics. This is the conversation we need to have now.
References Council Science. (2024). The ‘publish or perish’ mentality is fuelling research paper retractions. Editors Cafe. (2025). Rethinking ‘Publish or Perish’ in the Age of AI. Inside Higher Ed. (2025). Major Academic Press Calls for “Publish or Perish” Reform. Nature. (2025). Move beyond ‘publish or perish’ by measuring behaviours. Newsletters QS. (2025). How has “publish or perish” become “publish and perish” in academia?
"If you like interesting snippets on all sorts of subjects relevant to academia, information, the world, highly recommended is @grip54 's collection:"
La curation de contenus, la mémoire partagée d'une veille scientifique et sociétale
Gilbert C FAURE's insight:
... designed to collect posts and informations I found and want to keep available but not relevant to the other topics I am curating on Scoop.it (on behalf of ASSIM):
because we have a long standing collaboration through a french speaking medical training program between Faculté de Médecine de Nancy and WuDA, Wuhan university medical school and Zhongnan Hospital
In her Quantitative Science Studies paper, Lauranne Chaignon traces the 20-year evolution of Clarivate’s Highly Cited Researchers (HCR) list: a ranking that once defined academic prestige and still shapes the Shanghai University Rankings.
𝐊𝐞𝐲 𝐅𝐢𝐧𝐝𝐢𝐧𝐠𝐬 𝐓𝐡𝐫𝐞𝐞 𝐝𝐢𝐬𝐭𝐢𝐧𝐜𝐭 𝐞𝐫𝐚𝐬 (2001–2023): ➡️ 𝐃𝐚𝐭𝐚𝐛𝐚𝐬𝐞 𝐞𝐫𝐚 (2001–2011): Created by Eugene Garfield’s Institute for Scientific Information (ISI) as a rich, biographical database of influential scientists ➡️ 𝐈𝐧𝐝𝐢𝐜𝐚𝐭𝐨𝐫 𝐞𝐫𝐚 (2012–2018): Under Thomson Reuters and Clarivate, the list became an annual metric of research excellence, stripped of biography and tightly linked to university rankings ➡️ 𝐈𝐧𝐭𝐞𝐠𝐫𝐢𝐭𝐲 𝐜𝐫𝐢𝐬𝐢𝐬 (2019–2023): Growing cases of self-citation, manipulation, and fake affiliations forced Clarivate to adopt “qualitative filters” and partnerships with watchdogs like Retraction Watch to exclude fraudulent entries (over 13% in 2023)
➡️ Changing purpose: Once a tool for scholarly networking, the list is now a symbol of academic reputation and competition, with major policy and funding implications
➡️ Crisis of credibility: Scandals (e.g. Saudi universities paying foreign researchers for nominal affiliations) have exposed how metrics can be gamed, threatening Clarivate’s authority
𝐓𝐡𝐞 𝐅𝐮𝐭𝐮𝐫𝐞? After removing mathematics entirely from the 2023 list due to manipulation, Clarivate faces a critical question: can citation-based metrics still define true research influence?
Interesting insights into how a bibliometric tool became both a global status symbol and a cautionary tale about measurement, integrity, and the commercialization of scientific prestige.
🎥✈️ Une vidéo impressionnante de 1919 d’un aviateur français
Un an après la fin de la Grande Guerre, le pilote français Jacques Trolley de Prévaux entreprend un vol exceptionnel : à bord de son dirigeable, il survole les anciens champs de bataille depuis la côte belge jusqu’à Verdun.
Sous lui, un paysage apocalyptique — villages effacés, forêts rasées, tranchées à perte de vue — mais aussi le théâtre des exploits de millions de soldats qui ont tenu, avancé, résisté.
Ces images, tournées en 1919 et restaurées en couleur et en haute définition, redonnent vie à ces lieux où la France s’est battue pied à pied pour sa survie. -- Si ce post vous a plu, restez en alerte et abonnez-vous à notre lettre d'information exclusive : https://lnkd.in/dwQnfhw4 | 77 comments on LinkedIn
The editors of the non predator scientific journals are often doing a good job but without the free help of the scientific community it would not be possible. However the huge profit they make (at least 32% of their revenue) is not acceptable as it is made with money of the taxpayer or of donators. It should change…
🧠📚L’un de mes premiers souvenirs marquants de contact avec le monde de la publication scientifique remonte à ma première année de licence. Un professeur nous avait montré une image frappante : si l’on empilait toutes les publications scientifiques produites chaque jour dans le monde, on atteindrait des distances astronomiques… jusqu’à la Lune, voire le Soleil. Cette métaphore m’a suivie tout au long de mon parcours. Pendant ma thèse, j’ai vite compris à quel point rester à jour sur la bibliographie de son propre domaine est un défi colossal. Et j’ai découvert une frustration bien connue des chercheurs : plus on lit, plus on réalise l’immensité de ce qu’il nous reste à lire et à comprendre.
📅 La semaine dernière, j’ai eu le plaisir de participer à une formation animée par Assia ASRIR, PhD sur l’outil Opscidia. Une vraie révélation.
✨ Opscidia, c’est une IA fiable, exhaustive, qui ne génère pas de sources fictives. Le rêve de toute personne ayant déjà tenté de réaliser un état de l’art rigoureux. Un outil modulable, qui permet de gagner du temps sans sacrifier la rigueur, tout en gardant la main sur le processus de rédaction. C’est aussi un excellent moyen de rester à jour sur les sujets que l'on maîtrise… mais surtout sur ceux que l'on rêve d’approfondir.
🙏 Merci Assia pour cette découverte ! J’ai hâte de continuer à explorer les possibilités de cet outil.
La solution idéale pour le traitement des eaux usées de votre habitation principale. Une micro-station avec plus de 10 ans d'expérience et de satisfaction.
💙 🤍 ❤️ MedGPT a un mois ! Et on n’aurait jamais espéré un tel succès. Ce qui devait être une simple bêta est devenu un mouvement 🧑🧑🧒🧒
Quelques chiffres pour l'illustrer : ➡️ 615 professionnels de santé nous ont écrit spontanément pour notamment proposer de participer à son élaboration ! Une communauté se forme déjà.
➡️ 35.000 décisions cliniques accompagnées ! Ramené à la population de professionnels de santé, ce n'est "que" 15 fois moins que OpenEvidence sur la même période. A notre rythme de croissance actuel, on vise le même ratio d'utilisation national qu'OpenEvidence dans 5 mois. Les US ont pris une longueur d'avance, mais la France sait courir vite 🏃♂️➡️
➡️ Des centaines de retours positifs, des encouragements et plusieurs dizaines d'articles dans la presse.
Et MedGPT ne va pas s'arrêter là, des nouveautés arrivent : ) Pour tous ceux qui n'ont pas encore essayé le produit : c'est dispo et c'est gratuit, allez-y ! | 15 comments on LinkedIn
14 Go, c’est le poids du modèle d’IA que je fais tourner… sur mon ordinateur, en local 💻
Pas sur les serveurs d’OpenAI, pas dans le cloud de Google... mais bien sur mon MacBook personnel. Et honnêtement, ça change pas mal de choses dans ma manière d’utiliser l’IA au quotidien.
Depuis plusieurs mois, je teste Ollama, un outil qui permet d’installer des modèles open source directement sur sa machine. Llama 3.2 (Meta), Mistral ou GPT-OSS, le modèle open source d’OpenAI… tout fonctionne en local, sans connexion internet, sans transfert de données et sans aucun abonnement mensuel. C’est simple à installer et, surtout, très confortable à l’usage.
Concrètement, voilà ce que j’y gagne : → Mes documents sensibles restent sur ma machine et n’en sortent jamais → Le coût mensuel tombe à… 0 € (pas d'abonnement à payer) → L’outil fonctionne partout, même hors ligne → Les modèles récents sont plutôt rapides et réactifs → L’impact environnemental est bien plus faible que dans le cloud
Attention, il y a quand même quelques limites à garder en tête : → Une machine avec 16 Go de RAM reste idéale pour une expérience fluide → Les modèles peuvent peser lourd (jusqu'à 65 Go pour les plus puissants) → On ne remplace pas les tout derniers grands modèles pour les tâches plus complexes ou spécialisées
Pour le reste, c’est-à-dire environ 80 % de mes usages quotidiens (aide à la rédaction, correction, résumé de documents, code simple…), l’IA locale fait plutôt bien le travail et apporte même une vraie sensation de maîtrise... et de liberté !
On retrouve un contrôle qu’on avait clairement perdu avec les plateformes cloud, tout en gagnant en sobriété (je ne sollicite pas un data center à chaque requête et ça change vraiment la donne) et en confidentialité.
Je ne pense pas que l’IA locale remplacera les grands modèles hébergés dans le cloud, mais elle offre une alternative plus autonome, plus sobre et plus respectueuse de la vie privée. Et je suis convaincu qu’on va en voir de plus en plus dans les mois à venir.
Je vous partage une courte vidéo pour montrer concrètement ce que ça donne avec quelques tests simples.
Et si ça vous intéresse, j’en parle plus en détail dans ma dernière newsletter : https://lnkd.in/eTz2anJ4
Certains d’entre vous utilisent déjà l’IA en local ? Vos retours m’intéressent vraiment 👇 | 28 comments on LinkedIn
Claude Vanony fête ses 90 ans sur scène ce samedi 22 et dimanche 23 novembre à l'Espace L.A.C de Gérardmer ! ICI Lorraine lui consacre cette semaine spéciale et vous invite à son spectacle.
Pourquoi le New York Times mise tout sur le « temps d’attention »
Comment mieux mesurer l’impact réel d’un article ? Pour le NYT, la réponse ne se trouve plus dans les simples clics, mais dans le temps passé par les lecteurs sur chaque contenu. Un changement stratégique, qui redéfinit la manière dont la rédaction s’aligne sur les objectifs de l’entreprise.
1️⃣ Une métrique devenue centrale
En 2024, le New York Times a placé le temps d’attention au cœur de son pilotage éditorial. L’objectif ? Créer des habitudes de lecture plus profondes. Pour Hayley Arader, directrice exécutive data et insights pour la newsroom : « le projet autour du temps d’attention a permis de cultiver le comportement que nous recherchions chez les lecteurs, ce que le simple suivi des pages vues ne permet pas ».
Le choix de cette métrique n’est pas anodin : il répond à deux finalités claires. Côté rédaction, il s’agit de mieux comprendre les préférences des lecteurs. Côté business, le but est de prolonger le temps passé sur la plateforme.
2️⃣ Un cadre d’analyse rigoureux
Pour que cette donnée soit utile, encore faut-il l’interpréter dans le bon contexte. Le Times a mis au point un modèle permettant de comparer la durée moyenne passée sur un article selon :
▪️sa longueur, ▪️son thème, ▪️sa promotion sur le site, ▪️la source du trafic, ▪️et même les fuseaux horaires des lecteurs.
Grâce à ces modèles, chaque article est positionné au-dessus ou en dessous de la moyenne attendue. Ce benchmark permet de ne pas tirer de conclusions hâtives sur les performances.
3️⃣ Une stratégie visuelle et pédagogique
Le tps d’attention est aujourd’hui affiché tout en haut du tableau de bord des audiences pour chaque article. Mais le Times a refusé toute approche culpabilisante. Pas de texte en rouge ou vert, mais du noir uniquement. « Nous voulons que ce soit un outil d’apprentissage, pas une grille de performance ».
💎 Pour accompagner ce changement, la rédaction a diffusé un guide complet, avec une FAQ accessible à tous. Et surtout, ce changement a été porté autant par la direction que par les équipes. « Cela a marché car c’est venu du haut comme du bas ».
4️⃣ Une lecture enrichie par les formats
Autre constat clé : le multimédia joue un rôle déterminant. Vidéos, photos, interactifs… influencent fortement le temps passé. Le Times a donc intégré ces formats dans ses modèles, pour suivre précisément leur impact. « C’est essentiel pour être pertinent dans le nouvel Internet ».
Comprendre comment les lecteurs naviguent sur les pages, interagissent avec les formats et reviennent ou non, devient vital pour créer des récits plus immersifs et engageants.
5️⃣ Une culture data au service du journalisme
Comme le relève Hayley Arader : « nous répétons sans cesse que le jugement éditorial passe en premier. C’est ce qui nous a permis de réussir dans l’utilisation des données ».
Edit: To be clear, this is not an argument that research quality has declined — if anything, standards for rigor and data quality have increased in many fields. The point is about incentives: how evaluation systems influence where scholars invest their time, attention, and energy.
“Publish or perish” continues to shape academic careers — but increasingly at the expense of quality. It’s been ten years since I was promoted to full professor, and I find myself re-examining what we choose to measure.
When quantity becomes the primary KPI, something important is lost.
Recent reports show that publication pressure is linked to burnout, ethical dilemmas, and rising retractions (Newsletters QS, 2025; Editors Cafe, 2025; Council Science, 2024). At the same time, major academic presses and research organizations are calling for reward systems that value mentorship, collaboration, and scientific culture just as much as publication counts (Inside Higher Ed, 2025; Nature, 2025).
The landscape is shifting — preprints, open peer review, modular formats — but none of this will matter unless universities change how scholars are evaluated and rewarded.
Most researchers already know what meaningful scholarship looks like: • Slow, careful thinking • Genuine collaboration • Time to mentor and develop others • The honesty to say, “This study needs more time.”
If the goal is real impact — not just output — then: Quality must matter more than quantity. Contribution must matter more than performance metrics. This is the conversation we need to have now.
References Council Science. (2024). The ‘publish or perish’ mentality is fuelling research paper retractions. Editors Cafe. (2025). Rethinking ‘Publish or Perish’ in the Age of AI. Inside Higher Ed. (2025). Major Academic Press Calls for “Publish or Perish” Reform. Nature. (2025). Move beyond ‘publish or perish’ by measuring behaviours. Newsletters QS. (2025). How has “publish or perish” become “publish and perish” in academia?
THE INTERNET IS EATING ITSELF The Internet Is Now 52% AI-Generated Content And It's Training On Itself
New research just dropped numbers that should terrify anyone who cares about truth:
**52% of all internet content is now AI-generated.**¹ In 2022, it was 10%.
But here's where it gets insane (actually it's all insane TBH):
**74% of ALL NEW web pages contain AI-generated content.**² The internet added 3-5 billion pages monthly in 2024 most of it synthetic.³
The internet isn't just being eaten. It's being mass-produced by the thing that's eating it.
Why This Matters
Large Language Models aren't brains. They're giant stomachs. They consume everything. Digest nothing. Excrete more content, which gets consumed again an infinite feedback loop of synthetic regurgitation.
Here's what happens when AI trains on AI:
→ Model collapse: Recursive training causes "irreversible performance decay."⁴ → Narrowing of knowledge: Models reflect themselves, not reality → Death of originality: A hall of mirrors, each reflection dimmer than the last
We're replacing:
Human nuance Cultural context Real expertise Original thought The truth
With statistically probable simulations.
The Economics
Licensing real content costs billions. Synthetic data? Almost nothing. So they choose cheap scale over real knowledge. No regulation. No transparency. No tracking.
OpenAI doesn't ask permission to train on Anthropic's outputs. They just scrape the web.
Competition accelerates the collapse. Every AI company races to build bigger models.
They need more data. Synthetic data looks like a shortcut. Collectively, they're destroying the foundation their business depends on: real human knowledge.
We've Already Passed the Tipping Point
What happens when:
→ Medical information trains on synthetic medical papers? → Children learn history from recursive AI summaries? → Scientific research builds on fabricated datasets?
We don't just lose quality. We lose the ability to know what's real. The internet was humanity's collective memory. Now it's becoming humanity's collective hallucination.
The Bottom Line
LLMs are giant stomachs, not brains. They consume. They excrete. They consume again. ******************************************************************************** The trick with technology is to avoid spreading darkness at the speed of light Stephen Klein | Founder & CEO, Curiouser.AI | Teaches AI Ethics at UC Berkeley | Raising on WeFunder | Would your support (LINK IN COMMENTS)
Footnotes:
¹ Graphite Research (2025). Analysis of 65,000 URLs from Common Crawl. ² Ahrefs (2025). Analysis of 900,000 newly created web pages in April 2025. ³ Common Crawl Foundation. Database adds 3-5 billion pages monthly. ⁴ Shumailov et al. (2024). "AI models collapse when trained on recursively generated data." Nature, 631, 755-759. | 388 comments on LinkedIn
I discovered that a reading pack for my doctoral leadership subject contained fabricated references. Almost everything listed was AI-generated citations that either didn’t exist or linked to the wrong papers.
When I raised it, the provider confirmed that AI had been used and that the material was shared before human review. They also reminded me that doctoral candidates should be able to verify their own sources.
That response was so disappointing. Doctoral candidates are expected to build on verified scholarship, not correct institutional errors. I’ve asked to withdraw from the course because the university doesn’t seem to understand why this is a serious concern and has pushed the responsibility back on me.
Distributing unverified academic material in a foundation subject is a breach of academic integrity and sets entirely the wrong ethical tone for the course.
Am I overreacting? Or is this yet another symptom of the wider issues that are undermining confidence in the sector? | 306 comments on LinkedIn
My first visit to Tbilisi, Georgia for the International Conference on Medical Education has been incredible and filled with thoughtful discussions, engaged learners, and the perfect mix of local and international perspectives. Thanks to Salome Voronovi for the invitation, and always nice to see David Taylor.
A concept that really struck a chord is what I’ve started calling the Suitcase Paradox:
In lifelong learning or curriculum design, just like when packing for a trip, you can’t keep adding new things unless you take something out first. And you have to fit it into the overhead compartment on a plane and in our anatomical overhead compartment, the brain!
Healthcare professionals must continually unlearn outdated practices to make room for new evidence, new technologies, and new ways of thinking.
That’s what lifelong learning, and particularly continuing professional development (CPD), is all about.
But to make it work, educators must evolve into learning facilitators, helping learners curate, adapt, and apply knowledge depending on where they are on the learning continuum.
And because healthcare doesn’t happen in silos, neither should learning. Interprofessional education (IPE) brings students from different health professions together.
Interprofessional continuing education (IPCE) extends that collaboration into practice. And when it’s done right, it leads to interprofessional collaborative practice (IPCP), where the ultimate outcome is better patient care.
I even got in a mention of the Donald & Barbara Zucker School of Medicine curriculum!
Plenty more to come: I’ve still got a wine tour 🍷 ahead and a masterclass on lifelong learning and CPD on Monday!
J’ai le plaisir de vous annoncer la tenue de la journée d’étude « Penser l’éducation avec John Dewey : une approche pragmatiste et pluridisciplinaire », qui se déroulera à Paris le 1er décembre 2025: https://lnkd.in/ehh5MbTx
Cet événement, co-organisé par Annabelle Cara, Anne BARRERE et moi-même, avec le soutien du CERLIS, de l’EDA et du Centre de recherche sur les médiations (Crem), proposera un regard croisé sur l’œuvre de Dewey et ses apports pour penser les questions et pratiques éducatives. Avec la participation de Renaud Hétier, Anne Lehmans, Samuel Renier, Sébastien-Akira Alix, Céline Robillard et Arthur Ancelin.
Une étude universitaire américaine met en lumière les limites de l’intelligence artificielle dans le domaine de l’éducation. Menée par les chercheurs Torrey Trust et Robert Maloy de l’Université du Massachusetts Amherst, cette analyse de plus de 300 plans de cours générés par ChatGPT, Gemini et Copilot conclut que l’IA, dans sa forme actuelle, échoue à…
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.