Notebook or My Personal Learning Network
12.9K views | +38 today
Follow
 
Notebook or My Personal Learning Network
a personal notebook since summer 2013, a virtual scrapbook
Your new post is loading...
Your new post is loading...
Scooped by Gilbert C FAURE
October 13, 2013 8:40 AM
Scoop.it!

This notebook..

is a personal Notebook

 

Thanks John Dudley for the following tweet

"If you like interesting snippets on all sorts of subjects relevant to academia, information, the world, highly recommended is @grip54 's collection:"

 

La curation de contenus, la mémoire partagée d'une veille scientifique et sociétale

Gilbert C FAURE's insight:

... designed to collect posts and informations I found and want to keep available but not relevant to the other topics I am curating on Scoop.it (on behalf of ASSIM):

 

the most sucessful being

Immunology, teaching and learning immunology

http://www.scoop.it/t/immunology

and

From flow cytometry to cytomics

http://www.scoop.it/t/from-flow-cytometry-to-cytomics

Immunology and Biotherapies, a page of resources for the DIU 

 http://www.scoop.it/t/immunology-and-biotherapies

 

followed by

Nancy, Lorraine

 http://www.scoop.it/t/nancy-lorraine

I am based at Université Lorraine in Nancy

Wuhan, Hubei,

 http://www.scoop.it/t/wuhan

because we have a long standing collaboration through a french speaking medical training program between Faculté de Médecine de Nancy and WuDA, Wuhan university medical school and Zhongnan Hospital

  

CME-CPD,

 http://www.scoop.it/t/cme-cpd

because I am at EACCME in Brussels, representative of the medical biopathology and laboratory medicine UEMS section

 

Mucosal Immunity,

 http://www.scoop.it/t/mucosal-immunity

because it was one of our main research interest some years ago 

 

It is a kind of electronic scrapbook with many ideas shared by others.

It focuses more and more on new ways of Teaching and Learning: e-, m-, a-, b-, h-, c-, d, ld-, s-, p-, w-, pb-, ll- ....

Thanks to all

No comment yet.
Scooped by Gilbert C FAURE
Today, 4:25 AM
Scoop.it!

LANCET GLOBAL HEALTH: OUR NEW PAPER IDENTIFIES RESEARCH PRIORITIES FOR DATA SCIENCE AND ARTIFICIAL INTELLIGENCE IN GLOBAL HEALTH A large international collaboration coordinated by the Universities ...

LANCET GLOBAL HEALTH: OUR NEW PAPER IDENTIFIES RESEARCH PRIORITIES FOR DATA SCIENCE AND ARTIFICIAL INTELLIGENCE IN GLOBAL HEALTH A large international collaboration coordinated by the Universities ... | Notebook or My Personal Learning Network | Scoop.it
LANCET GLOBAL HEALTH: OUR NEW PAPER IDENTIFIES RESEARCH PRIORITIES FOR DATA SCIENCE AND ARTIFICIAL INTELLIGENCE IN GLOBAL HEALTH
A large international collaboration coordinated by the Universities of Edinburgh, Oxford, and Zhejiang, with strong representation from experts in low- and middle-income countries (LMIC) through the International Society of Global Health (ISoGH), and the newly established Bled Institute for Leadership in Digital Transformation and AI (BILDAI), Slovenia, have just published the paper that identified research priorities for data science and artificial intelligence in global health.

This is the first global research priority-setting exercise focused specifically on data science and AI in global health. We used the CHNRI method to identify and rank 155 research questions, generated by 75 international experts and independently scored by 51 experts across five criteria: feasibility, potential to reduce disease burden, potential for a paradigm shift, likelihood of implementation, and impact on equity.

The top-ranked priorities reflect a clear consensus on the urgent need for AI applications in epidemic preparedness (e.g. outbreak prediction, early warning systems), diagnostic innovation (e.g. tuberculosis, malaria, COVID-19), and health system strengthening (e.g. AI-assisted resource allocation, telemedicine, and supply chain optimisation). Chronic disease management also featured prominently, particularly in LMIC contexts. Importantly, we observed notable differences in prioritisation between experts from high-income countries (HICs) and low- and middle-income countries (LMICs). While HIC-based experts focused more on digital infrastructure, climate-related analytics, and health system efficiency, LMIC-based experts prioritised infectious disease control, diagnostic equity, and AI support for non-communicable diseases.

Another novel contribution of this work is the empirical comparison between expert-defined research priorities and those generated independently by three leading large language models (LLMs)—ChatGPT-4o, Gemini 2.5 Flash, and Grok 3. This is an attempt to benchmark expert consensus against LLM-derived outputs in global health research planning. While there was partial alignment, especially around epidemic preparedness and system strengthening, LLMs tended to prioritise themes such as maternal and child health, mental health, and governance issues (e.g. ethics, sustainability), offering early insights into how collective human knowledge (as distilled by LLMs) may complement, but not replace, structured expert judgement.

This paper is policy-relevant, particularly in informing future investments and strategies to ensure that digital health innovation in LMICs is equitable, feasible, and aligned with local delivery capacity. It also contributes to the evolving conversation on how to responsibly integrate generative AI into research governance.
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:18 AM
Scoop.it!

Les agents IA du veilleur (1/3) | Christophe Deschamps

Les agents IA du veilleur (1/3) | Christophe Deschamps | Notebook or My Personal Learning Network | Scoop.it
𝟴𝟴 % 𝗱𝗲𝘀 𝘃𝗲𝗶𝗹𝗹𝗲𝘂𝗿𝘀 𝘂𝘁𝗶𝗹𝗶𝘀𝗲𝗻𝘁 𝗹'𝗜𝗔. 𝗠𝗮𝗶𝘀 𝘀𝗲𝘂𝗹𝗲𝗺𝗲𝗻𝘁 𝟮𝟯 % 𝗹'𝘂𝘁𝗶𝗹𝗶𝘀𝗲𝗻𝘁 𝗽𝗼𝘂𝗿… 𝘃𝗲𝗶𝗹𝗹𝗲𝗿.

Ce chiffre du dernier baromètre Archimag résume tout le paradoxe. Les veilleurs sont les adopteurs les plus massifs de l'IA générative parmi les métiers de l'information : plus d'un sur deux l'utilise quotidiennement. Ils synthétisent, rédigent, traduisent, analysent avec l'IA.
Mais ils ne la perçoivent pas encore comme un dispositif de surveillance à part entière.

Or c'est précisément ce qui est en train d'émerger.

Dans ce premier volet d'une série de trois articles, j'explore :

🔹 Comment fonctionne la mémoire persistante des agents, et pourquoi ce n'est plus un gadget

🔹 Ce que l'agent peut apprendre de vous, à travers les profils attentionnel et intentionnel

🔹 Le paradoxe du double : plus il vous ressemble, plus le risque de bulle informationnelle est élevé

Bientôt, la question ne sera plus « faut-il adopter un agent ? » mais « comment bien l'adopter, en sachant ce qu'il va savoir de vous ».

Julien Duprat Elaine Durand Peggy L Charles PAHLAWAN Laurent Couvé Patrick Laugé Anne Lise Schelfhout Justin Philippe clerc Fabrice Frossard Christian Marcon Jacqueline Sala Jannick Labatut-Pouyllau Frédéric Martinet Nicolas MOINET Ronan Le Goascogne Clement Desfromont Christelle Urvoy Yannick Marie-Hélène Ahamada Bacari Cyril Roy Florence Dedieu Benoît Maille Pierre Memheld Mélanie Depoilly Mathieu Andro Lionel Schuhler Kahl Sindup ADBS - Secteur Veille Thomas Régnier Cikisi Christophe Asselin 👋 👋 AEGE - Le réseau d'experts en intelligence économique Ecole de Guerre Economique – EGE IAE de Poitiers Ileri Défense Veillemag David COMMARMOND Archimag

👇 L'article complet ci-dessous.

#Veille #IntelligenceEconomique #IAagentique #IAGenerative #MCP #OutilsVeille #AgentsIA
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:04 AM
Scoop.it!

Anthropic vs OpenAI : La guerre pour l'OS invisible de la santé #NL #HS #3 | IAtus x IAtrogénique | LIONEL REICHARDT

Anthropic vs OpenAI : La guerre pour l'OS invisible de la santé #NL #HS #3 | IAtus x IAtrogénique | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
L'IA en médecine ne sert plus seulement à discuter, elle prend les commandes.

Quelques jours après l'annonce de "ChatGPT Health", Anthropic a riposté en janvier 2026 avec une offre qui change la donne : "Claude for Healthcare".

Dans cette vidéo, nous analysons pourquoi cette annonce marque la fin de l'époque des simples chatbots et le début de l'ère de l'infrastructure intelligente.

Au sommaire de cette analyse :

� Le duel des stratégies : Alors qu'OpenAI mise sur l'interface et les partenariats hospitaliers, Anthropic se positionne comme les "tuyaux" du système (infrastructure et conformité).

� La fin de la "paperasse" ? Claude ne fait plus que lire ; il se connecte directement aux bases de données des assurances (CMS) et aux codes médicaux (CIM-10) pour gérer les autorisations préalables et réduire les délais de soins.

� L'analogie clé : L'IA est passée du statut d'étudiant brillant enfermé dans une bibliothèque à celui d'interne hospitalier possédant les badges d'accès et les codes informatiques.

� Santé connectée : Comment l'IA va résumer votre historique médical en se connectant à Apple Health ou Android Health Connect.
� L'enjeu énergétique : Le coût caché de cette révolution, avec un besoin estimé à 50 GW d'électricité d'ici 2028 pour faire tourner ces modèles.
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:00 AM
Scoop.it!

#iatrogénique #iatus #digitalhealth #aiinmedicine #llm #systemengineering #santenumerique #iatrogenique | LIONEL REICHARDT

#iatrogénique #iatus #digitalhealth #aiinmedicine #llm #systemengineering #santenumerique #iatrogenique | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
Médecine & IA : La fin du mythe du modèle "à tout faire" ?

L'IA générative en santé ne consiste plus simplement à "prompter" ChatGPT. C'est un travail d'ingénierie complexe.

Pour accompagner l'infographie ci-dessous, voici une lecture duale de cette transformation nécessaire.

🌑 #IAtrogénique (La version critique) : Le danger de l'illusion généraliste

L'usage naïf des LLMs "généralistes" en santé est un risque systémique. Pourquoi ? Parce que ces modèles, aussi puissants soient-ils, souffrent d'un défaut majeur : l'hallucination plausible.

Dans des contextes à fort enjeu (diagnostic, essais cliniques), le modèle généraliste est un "iatrogène numérique" potentiel : il peut fabriquer des citations ou mal interpréter des protocoles s'il n'est pas contraint.

L'étude le souligne : les modèles propriétaires (comme GPT-4) sans adaptation spécifique sous-performent face à des tâches médicales spécialisées ou des données hors distribution.
Croire qu'un chatbot suffit pour gérer un parcours de soin est une erreur de conception.

🌕 #IAtus (La version narrative) : L'architecture de la compétence

L'histoire qui s'écrit est celle de l'adaptation. Nous passons de l'IA "bavarde" à l'IA "ingénieur". L'article source propose un cadre narratif puissant pour transformer le généraliste en spécialiste via trois étapes clés :

1. Le Modelage : On ne demande pas tout à l'IA d'un bloc. On décompose le flux de travail médical en étapes gérables.

2. L'Optimisation : On ancre le récit dans la réalité via le RAG (Retrieval-Augmented Generation) pour connecter l'IA aux preuves médicales et réduire la fiction.

3. L'Ingénierie Système : C'est la véritable évolution. On construit soit des "AI Chains" pour les processus rigides (comme les revues systématiques), soit des "AI Agents" pour les tâches exploratoires nécessitant du raisonnement.
L'IA devient alors un système modulaire capable de s'intégrer aux dossiers patients (EHR) et de respecter les guidelines cliniques.

📊 L'infographie ci-jointe résume ce framework : du modèle brut à l'application clinique fiable.

🔗 Source de l'étude (Nature Digital Medicine) : https://lnkd.in/eGQ9FVJb

📩 Pour ne pas manquer les prochaines analyses de l'univers IAtrogénique × IAtus sur l'IA, le Digital et la Santé, abonnez-vous à la newsletter : https://lnkd.in/eENTNBWR

#DigitalHealth #AIinMedicine #LLM #SystemEngineering #SanteNumerique #IAtrogenique
No comment yet.
Scooped by Gilbert C FAURE
February 17, 10:07 AM
Scoop.it!

💥 A bomb just exploded under the academic publishing: Whopping 15% of all recent cancer research publications come from paper mills according to a new study in BMJ 🔗 https://lnkd.in/eAFbpRVf 💥…...

💥 A bomb just exploded under the academic publishing: Whopping 15% of all recent cancer research publications come from paper mills according to a new study in BMJ 🔗 https://lnkd.in/eAFbpRVf 💥…... | Notebook or My Personal Learning Network | Scoop.it
💥 A bomb just exploded under the academic publishing: Whopping 15% of all recent cancer research publications come from paper mills according to a new study in BMJ 🔗 https://lnkd.in/eAFbpRVf

💥 One in every six or seven cancer articles you read last year was, on average, fake.
 
💣 What happened: Researchers trained a machine learning model (BERT) to detect paper mill articles on 2,202 retracted articles from Retraction Tech and 2,202 genuine papers; with external validation in 3,094 from the The PubPeer Foundation database
 
💣 The model had an accuracy of 93% in the validation dataset (sensitivity 87%, specificity 99%). This model was then applied to all 2.6 million cancer research papers published between 1999 and 2024 on PubMed (english, title + abstract).
 
💣 Main finding: Exponential increase in papers flagged as fraudulent from 1999 to 2022. The proportion exceeded 15% of the annual cancer research output by the early 2020s.

💣 If you think that this does not affect high-impact papers, think again. In the top 10% journals, one in ten cancer article was flagged as likely fake.

💣 Publishers: Also not a problem for predatory journals only. The large publishing houses – Elsevier, Wiley, Springer – published a “low” (not!) proportion of 10% paper mill publications, but accounted for the highest absolute number of likely fraudulent papers.

💣 A staggering 36% of Chinese cancer research appear to come from paper mills. This figure must be devastatingly demotivating for honest Chinese researchers who wants to contribute and promote global cancer science.
 
What does this mean for the future of research publication?
☝️ This is very likely a problem across medical fields, not restricted to cancer research.
✌️The large language models pour gasoline on an already blazing fire. A 15% proportion of fraudulent articles will be the bare minimum going forward.
👉 Validation of findings from external, independent research groups become SO important to sustain credibility in science. Validation research should be supported by publishers and rewarded by funders.

I am curious what editors think about this? Vlad Ratziu Paul Moayyedi Rob Brierley Elliot Tapper Chalasani Naga Laura Nagy JHEP Reports | 13 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:58 AM
Scoop.it!

https://www.lesechos.fr/pme-regions/innovateurs/finitiatives-lance-un-outil-dia-qui-fiabilise-lacces-aux-connaissances-scientifiques-2215702

No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:53 AM
Scoop.it!

À une époque où l’information circule en continu et à grande échelle, mais où la confiance publique est mise à l’épreuve, comment communiquer la science de manière rigoureuse, accessible et… | Facu...

À une époque où l’information circule en continu et à grande échelle, mais où la confiance publique est mise à l’épreuve, comment communiquer la science de manière rigoureuse, accessible et… | Facu... | Notebook or My Personal Learning Network | Scoop.it
À une époque où l’information circule en continu et à grande échelle, mais où la confiance publique est mise à l’épreuve, comment communiquer la science de manière rigoureuse, accessible et socialement pertinente?

Lors de cette table ronde, il sera notamment question :
- des défis de vulgarisation dans un contexte de désinformation,
- des enjeux de littératie scientifique et médiatique,
- du rôle des émotions dans la réception des savoirs,
- des tensions entre expertise, scepticisme et débat public,
- des conditions nécessaires au maintien de la confiance envers la science.

Avec :
- Elyas Aissia, responsable francophone du contenu et de l’engagement communautaire, initiative LaSciencedAbord
- Marie-Eve Carignan, Ph.D., professeure au Département de communication, Faculté des lettres et sciences humaines, UdeS
- Marc D. David, professeur au Département de communication, Faculté des lettres et sciences humaines, UdeS
- Joël Leblanc, journaliste scientifique

Cette table ronde sur la communication et la vulgarisation scientifique, gratuite et ouverte à toute la communauté universitaire, est organisée par le Département de communication de l'Université de Sherbrooke. Elle aura lieu dans l'atrium de l'Institut quantique - Université de Sherbrooke.
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:45 AM
Scoop.it!

Pourquoi l'IA remplace le médecin aux USA mais sert de secrétaire en France ? - Newsletter 3 | IAtus x IAtrogénique | LIONEL REICHARDT

Pourquoi l'IA remplace le médecin aux USA mais sert de secrétaire en France ? - Newsletter 3 | IAtus x IAtrogénique | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
Dans cette vidéo, nous analysons la fracture mondiale fascinante entre deux visions de l'intelligence artificielle en santé, basée sur la newsletter IAtrogénique × IAtus #3.

À travers deux rapports majeurs (OpenAI Janvier 2026 et Baromètre Acsel/Docaposte 2025), nous explorons deux réalités opposées :

1. Le modèle américain ("Le SAMU de la nuit") : Une IA devenue le filet de sécurité vital d'un système à bout de souffle, utilisée massivement dans les déserts médicaux et pour se battre contre les assurances.

2. Le modèle français ("La Forteresse du jour") : Une IA massivement adoptée par les blouses blanches (53 %) pour l'optimisation administrative, mais qui tente de maintenir une digue entre le savoir médical et le patient.

Ce que vous allez découvrir :
• Pourquoi 70 % des conversations santé avec l'IA aux USA ont lieu quand les cabinets sont fermés.
• Le paradoxe français : les médecins utilisent l'IA générative à 93 % mais se méfient quand les patients l'utilisent (seulement 26 % de confiance).
• L'analyse clinique : L'IA est-elle un progrès ou simplement la béquille d'un système qui s'effondre ?

Sources citées :
• Rapport OpenAI "AI as a Healthcare Ally" (2026)
• Baromètre IA & Data en Santé 2025 (Acsel/Docaposte)
• Analyse par Lionel Reichardt (Pharmageek)
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:42 AM
Scoop.it!

This is from the editor of The Lancet, the world’s leading medical journal since 1823: | Lawrence Rogak | 152 comments

This is from the editor of The Lancet, the world’s leading medical journal since 1823: | Lawrence Rogak | 152 comments | Notebook or My Personal Learning Network | Scoop.it
This is from the editor of The Lancet, the world’s leading medical journal since 1823: | 152 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:02 AM
Scoop.it!

Étude NOHARM Stanford-Harvard : sur 31 LLMs évalués sur 100 cas réels, le risque de recommandations médicales sévèrement nocives atteint jusqu’à 22,2 % des cas. Les meilleurs modèles restent entre…...

Étude NOHARM Stanford-Harvard : sur 31 LLMs évalués sur 100 cas réels, le risque de recommandations médicales sévèrement nocives atteint jusqu’à 22,2 % des cas. Les meilleurs modèles restent entre…... | Notebook or My Personal Learning Network | Scoop.it
Étude NOHARM Stanford-Harvard : sur 31 LLMs évalués sur 100 cas réels, le risque de recommandations médicales sévèrement nocives atteint jusqu’à 22,2 % des cas. Les meilleurs modèles restent entre ~12 et 15 erreurs sévères sur 100 cas. Les erreurs par omission représentent 76,6 % des erreurs sévères.

Angle mort : la dispersion intra-modèle.
Les résultats sont présentés en moyennes, mais l’étude montre aussi une variabilité importante entre cas. Cela signifie qu’un même système peut paraître très sûr globalement tout en restant imprévisible à l’échelle d’un patient individuel, un point peu discuté par rapport aux moyennes agrégées.

A lire ici : https://lnkd.in/es4dNcBq
No comment yet.
Scooped by Gilbert C FAURE
February 16, 5:53 AM
Scoop.it!

LLMs Trust Doctor's Notes Over Reddit Posts | Mahmud Omar posted on the topic | LinkedIn

LLMs Trust Doctor's Notes Over Reddit Posts | Mahmud Omar posted on the topic | LinkedIn | Notebook or My Personal Learning Network | Scoop.it
What's more convincing to an AI than a doctor's discharge note?
Not Reddit. Not social media conspiracies. Not even "everyone says so."
In our latest work published in The Lancet Digital Health: the finding that caught us off guard wasn't that LLMs fall for medical misinformation (they do, ~32% of the time across more than 3.4M prompts). It's where they fall hardest.
We fed 20 LLMs different types of misinformation, including real stuff people actually shared online. Things like "rectal garlic insertion boosts the immune system," "when oxygen reaches a tumor it spreads, so surgery must be harmful".. 
When this came from Reddit-style posts? Models were skeptical. Only ~9% susceptibility. Still not great at scale, millions of people interact with these models daily, but here's the punch line:
Take that same fabricated nonsense, wrap it in formal clinical language - a discharge note telling patients to "drink cold milk daily to treat esophageal bleeding" - and suddenly 46% of models just… went with it!
And the part nobody expected: when we framed misinformation as a logical fallacy - “a senior clinician with 20 years of experience endorses this" or "everyone knows this works" - models actually got more suspicious, not less. Appeal to popularity dropped susceptibility to 12%.
So LLMs have basically learned to distrust the language of internet arguments… but blindly trust anything that sounds like a doctor wrote it.
Think about that next time someone pitches you an AI scribe that auto-generates patient instructions from clinical notes.
Link for the full paper (and an extra intersting comment about it from Sander van der Linden and Yara Kyrychenko) - https://lnkd.in/dfH7-Vw5
Huge thanks to the incredible team: Vera Sorin, MD, CIIP, Lothar H. Wieler, Alexander Charney, @patricia kovatch , Carol Horowitz, MD, MPH, Panagiotis Korfiatis, Ben Glicksberg, Robbie Freeman, Girish Nadkarni, and Eyal Klang.
No comment yet.
Rescooped by Gilbert C FAURE from IAtus x IAtrogénique
February 16, 2:23 AM
Scoop.it!

ChatGPT Santé vs Doctolib : La guerre de l'IA médicale a commencé #NL #HS #1 #Youtube #abonnezVous

Le 7 janvier 2026 marque une rupture historique : OpenAI lance officiellement ChatGPT Santé.

Cette nouvelle fonctionnalité permet de connecter vos dossiers médicaux et applications (Apple Health, etc.) pour transformer l'IA en véritable assistant personnel de santé.

Mais cette révolution technologique se heurte à une frontière numérique : le RGPD. Alors que les États-Unis adoptent l'outil, l'Europe reste à l'écart, craignant pour la souveraineté de ses données.

Dans cette vidéo résumé, nous décryptons ce choc des modèles :

🚀 La promesse d'OpenAI : Rendre vos données de santé enfin « dialogables » et compréhensibles pour préparer vos consultations.

🔒 Le blocage européen : Pourquoi vous ne pouvez pas (encore) l'utiliser en France et les risques de fuite de données.

🛡️ La contre-attaque française : Tout sur le nouvel assistant IA de Doctolib, l'alternative souveraine et sécurisée qui arrive début 2026.

L'IA ne remplace pas le médecin, mais elle change tout le reste. Sommes-nous prêts ?

#ChatGPT #Santé #IA #Doctolib #OpenAI #Tech #Médecine #Numérique

Via Lionel Reichardt / le Pharmageek
No comment yet.
Scooped by Gilbert C FAURE
Today, 10:20 AM
Scoop.it!

#iatrogénique #iatus #santenumerique #aiinhealthcare #medecinedufutur | LIONEL REICHARDT

#iatrogénique #iatus #santenumerique #aiinhealthcare #medecinedufutur | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
🔮 Votre dossier médical est-il un livre dont l'IA écrit la suite ?

Nous sommes entrés dans l'ère où les modèles génératifs ne se contentent plus de prédire le prochain mot d'une phrase, mais le prochain événement de votre vie.
Voici une lecture binaire d'une avancée majeure publiée dans Nature : le modèle Delphi-2M.

🧬 IAtus (La Vision Narrative) Imaginez un "GPT de la santé".

Au lieu d'apprendre des textes, ce modèle a lu l'historique de vie de millions de personnes (Biobanque UK et registres danois).
Il ne voit pas des mots, mais des événements de santé comme des "tokens".
Le résultat ? Une capacité inédite à générer des "trajectoires de santé synthétiques".
Delphi-2M peut anticiper l'apparition de plus de 1 000 maladies simultanément, surpassant souvent les modèles cliniques actuels pour prédire les comorbidités complexes.
C'est la promesse d'une médecine ultra-personnalisée où l'on pourrait visualiser nos futurs possibles pour mieux les prévenir, transformant l'incertitude médicale en un scénario lisible.

⚡ IAtrogénique (La Vision Critique) Mais attention à ne pas confondre la carte et le territoire.

Delphi-2M ne "comprend" pas la physiologie ; il apprend des régularités statistiques dans des données administratives.
Le risque ? L'IA ne reproduit pas seulement la maladie, elle reproduit les biais du système de santé.
Le modèle a appris, par exemple, que certaines maladies "hospitalières" sont plus graves, simplement parce qu'elles sont codées dans un contexte hospitalier.
De plus, il hérite des biais de sélection de ses données d'entraînement (comme le "biais d'immortalité" de la Biobanque UK).
Nous risquons de réduire le patient à une suite de codes ICD-10, où la prédiction statistique devient une prophétie auto-réalisatrice, potentiellement utilisée par des acteurs non médicaux (assureurs ?).

📊 L'infographie ci-dessous décrypte le fonctionnement de ce "Transformer" médical.

📥 Pour aller plus loin sur ces frictions entre IA, Digital et Santé, abonnez-vous à ma newsletter : 👉 https://lnkd.in/eENTNBWR

📄 Source de l'étude : "Learning the natural history of human disease with generative transformers" Publié dans Nature (17 Septembre 2025). Par Artem Shmatko, Moritz Gerstung et al.
#IAtrogénique #IAtus #SanteNumerique #AIinHealthcare #MedecineDuFutur
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:21 AM
Scoop.it!

🚀 GPT, LLM et JEPA : trois concepts à ne pas confondre (mais à comprendre ensemble) L’Intelligence Artificielle évolue vite. Très vite. Mais derrière les buzzwords, il y a des architectures et de...

🚀 GPT, LLM et JEPA : trois concepts à ne pas confondre (mais à comprendre ensemble) L’Intelligence Artificielle évolue vite. Très vite. Mais derrière les buzzwords, il y a des architectures et de... | Notebook or My Personal Learning Network | Scoop.it
🚀 GPT, LLM et JEPA : trois concepts à ne pas confondre (mais à comprendre ensemble)

L’Intelligence Artificielle évolue vite. Très vite.
Mais derrière les buzzwords, il y a des architectures et des paradigmes bien distincts.

Voici un décryptage clair 👇



1️⃣ GPT : un modèle spécifique

GPT signifie Generative Pre-trained Transformer.
C’est une famille de modèles développée par OpenAI.

Exemple : ChatGPT repose sur des modèles GPT.

Caractéristiques :
• Architecture Transformer
• Pré-entraînement massif sur du texte
• Modèle auto-régressif (prédit le prochain token)
• Optimisé pour la génération de texte

👉 GPT est un cas particulier de LLM.



2️⃣ LLM : la catégorie générale

LLM signifie Large Language Model.

C’est une famille de modèles capables de comprendre et générer du langage naturel grâce à :
• Des milliards (voire trillions) de paramètres
• Un entraînement sur d’énormes volumes de données
• Des architectures de type Transformer

Exemples connus :
• GPT-4
• LLaMA de Meta
• Claude de Anthropic

👉 Tous les GPT sont des LLM.
👉 Tous les LLM ne sont pas des GPT.



3️⃣ JEPA : un changement de paradigme

JEPA signifie Joint Embedding Predictive Architecture.

Concept porté notamment par Yann LeCun chez Meta.

Contrairement aux LLM auto-régressifs qui prédisent le prochain mot, JEPA cherche à :
• Apprendre des représentations du monde
• Prédire des représentations latentes plutôt que des tokens
• Réduire la dépendance à la génération séquentielle

L’idée clé :
➡️ Construire des systèmes qui comprennent le monde de manière plus abstraite
➡️ Aller au-delà du simple “next token prediction”

Certains y voient une piste vers une IA plus robuste et plus proche du raisonnement humain.



🎯 En résumé
• GPT = un type spécifique de LLM
• LLM = grande catégorie de modèles de langage
• JEPA = approche alternative centrée sur l’apprentissage de représentations

Le débat actuel n’est plus seulement :
“Quel modèle est le plus puissant ?”

Mais plutôt :
👉 Quelle architecture nous rapprochera d’une intelligence plus générale ?



Si vous travaillez en tech, finance, produit ou stratégie, comprendre ces différences n’est plus optionnel.

L’IA n’est plus un outil.
C’est une infrastructure cognitive.
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:16 AM
Scoop.it!

#gss26 #learning #research #learninganddevelopment | Donald H Taylor | 84 comments

#gss26 #learning #research #learninganddevelopment | Donald H Taylor | 84 comments | Notebook or My Personal Learning Network | Scoop.it
The results are in for the L&D Global Sentiment Survey 2026, the 13th annual check of the pulse of L&D worldwide. Thank you to the 3,797 people from 105 countries who took part.

The key take aways:

𝟭. 𝗔𝗜 𝗶𝗻𝘁𝗲𝗿𝗲𝘀𝘁 𝗵𝗮𝘀 𝗽𝗲𝗮𝗸𝗲𝗱
Last year the USA's vote for AI dropped. This year the world followed, reducing the vote for 𝘈𝘳𝘵𝘪𝘧𝘪𝘤𝘪𝘢𝘭 𝘐𝘯𝘵𝘦𝘭𝘭𝘪𝘨𝘦𝘯𝘤𝘦 by just 0.1% That is enough to say that AI fever has peaked. It doesn't mean we know how to use it yet. Just that it’s moved from novelty to part of daily life.

𝟮. 𝗟&𝗗 𝗶𝘀 𝘂𝘀𝗶𝗻𝗴 𝗔𝗜 - 𝘀𝗲𝗹𝗲𝗰𝘁𝗶𝘃𝗲𝗹𝘆
𝘗𝘦𝘳𝘴𝘰𝘯𝘢𝘭𝘪𝘻𝘢𝘵𝘪𝘰𝘯/𝘢𝘥𝘢𝘱𝘵𝘪𝘷𝘦 𝘭𝘦𝘢𝘳𝘯𝘪𝘯𝘨 (#3) has risen for three years in a row, driven by interest in AI. Meanwhile 𝘓𝘦𝘢𝘳𝘯𝘪𝘯𝘨 𝘢𝘯𝘢𝘭𝘺𝘵𝘪𝘤𝘴 (#9) fell for the third year in a row. Both 𝘴𝘩𝘰𝘶𝘭𝘥 have received a boost from the power of AI. So what's going on?

𝟯. 𝗩𝗮𝗹𝘂𝗲'𝘀 𝗿𝗲𝗰𝗼𝘃𝗲𝗿𝘆 𝗰𝗼𝗻𝘁𝗶𝗻𝘂𝗲𝘀
Last year's big story was the recovery of 𝘚𝘩𝘰𝘸𝘪𝘯𝘨 𝘷𝘢𝘭𝘶𝘦 (#5). It rose again this year, to an all-time high. Is this because we can now show L&D's value using AI, or because people are afraid that if they don't, their jobs are at risk? I’d love to read your thoughts in the comments.

𝟰. 𝗖𝗵𝗮𝗹𝗹𝗲𝗻𝗴𝗲𝘀 𝗮𝗿𝗲 𝗺𝗮𝘁𝗰𝗵𝗲𝗱 𝗯𝘆 𝗮𝗰𝘁𝗶𝗼𝗻
95% of respondents answered the question 𝘞𝘩𝘢𝘵 𝘪𝘴 𝘺𝘰𝘶𝘳 𝘣𝘪𝘨𝘨𝘦𝘴𝘵 𝘓&𝘋 𝘤𝘩𝘢𝘭𝘭𝘦𝘯𝘨𝘦?, sharing their concerns in over 40,000 words. But we received almost the same number of words in answer to 𝘞𝘩𝘢𝘵 𝘢𝘳𝘦 𝘺𝘰𝘶 𝘥𝘰𝘪𝘯𝘨 𝘯𝘰𝘸 𝘪𝘯 𝘓&𝘋 𝘵𝘩𝘢𝘵 𝘺𝘰𝘶 𝘸𝘦𝘳𝘦 𝘯𝘰𝘵 𝘥𝘰𝘪𝘯𝘨 12 𝘮𝘰𝘯𝘵𝘩𝘴 𝘢𝘨𝘰? Challenges are real, but are being met by action.

𝗠𝗲𝘁𝗵𝗼𝗱𝗼𝗹𝗼𝗴𝘆:
The survey ran for 76 days from 17 November 2025 to 31 January 2026. It had six questions, of which only one was obligatory: 𝘞𝘩𝘢𝘵 𝘸𝘪𝘭𝘭 𝘣𝘦 𝘩𝘰𝘵 𝘪𝘯 𝘸𝘰𝘳𝘬𝘱𝘭𝘢𝘤𝘦 𝘓&D in 2026? Participation was invited by email, social media and direct messaging.

You can download the report here: https://lnkd.in/ekD95B2z

Thanks to the report partners making the survey possible:

Sponsors: OpenSesame, getAbstract, Speexx, 360Learning, Learning Pool and TalentLMS

Partners: Learning Technologies Exhibition & Conference, eLearningMinds, Learning & Development Institute (L&DI), Enocta, OEB Global Conference, eLearningIndustry, Learning Uncut, iPro Sp. z o.o., Mosaicoelearning, Interlocked B.V., Biz Group, Learning News, Actua Solutions, Aleido, Assemble You, Capability Group, e-learnmedia, s.r.o., Firemní vzděláváníí, nōvi - a lifewide learning company, Offbeat, Training Journal, VOV Lerend Netwerk and Asia Learn Hub Marketplace Pte Ltd

#GSS26 #learning #research #learninganddevelopment
| 84 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:03 AM
Scoop.it!

The seven roles of generative AI: Potential & pitfalls in combatting misinformation | Thorsten Koch, MA, PgDip

The seven roles of generative AI: Potential & pitfalls in combatting misinformation | Thorsten Koch, MA, PgDip | Notebook or My Personal Learning Network | Scoop.it
The seven roles of generative AI: Potential & pitfalls in combatting misinformation (Behavioral Science & Policy):

https://lnkd.in/dAQmpDCR

Glimpse: Since misinformation has the power to sway opinions and threaten democracy, it must be effectively mitigated. In this field, Generative Artificial Intelligence offers both opportunities and concerns. It can produce questionable content as well as identify and dispel false information on a large scale. AI's promise is highlighted by its capacity to encourage and persuade people, promote dialogue, and improve media literacy. But dangers like delusions, bias reinforcement, and manipulation draw attention to the necessity of implementation done carefully. Through the use of strengths, weaknesses, opportunities, and threats (SWOT) analysis, we investigate the functions of Gen AI as an informant, guardian, persuader, integrator, collaborator, teacher, and playmaker. In order to guarantee that gen ai can be used as a tool for truth rather than deceit, we emphasize for policymakers and technology leaders the significance of rules, transparency, human oversight, and AI literacy.

---
Free articles and analyses on soft counter-extremism, against online hate, and on the theory of mis-/disinformation (usually third-party content). Two-week reviews available via the following three Policyinstitute.net websites: 
• counter-terrorism.org
• preventhate.org
• strategism.org

The most recent LinkedIn posts on the above subjects, with glimpses, can be accessed via: 
https://lnkd.in/eBarZAew

The views expressed in this post is that of the author(s) of the source content and do not necessarily represent those of Policyinstitute.net and its staff. While we carefully produce the glimpses to the articles, documents, or recordings that we hyperlink, we are not responsible for textual changes nor for imponderable parts of the original items. 

#policyinstitutenet #preventradicalization #preventextremism #counterextremism #preventhate #disinformation #misinformation
No comment yet.
Scooped by Gilbert C FAURE
February 17, 10:12 AM
Scoop.it!

Doctors as medical orchestrators | Dr Neelesh Bhandari

Doctors as medical orchestrators | Dr Neelesh Bhandari | Notebook or My Personal Learning Network | Scoop.it
Doctors as medical orchestrators
No comment yet.
Scooped by Gilbert C FAURE
February 17, 4:34 AM
Scoop.it!

Waouh ! Je viens d’essayer le nouveau modèle de Google TranslateGemma, et c’est comme si on avait un Google Translate sur son ordinateur. Un modèle local ne nécessitant donc aucune connexion et… | ...

Waouh ! Je viens d’essayer le nouveau modèle de Google TranslateGemma, et c’est comme si on avait un Google Translate sur son ordinateur. Un modèle local ne nécessitant donc aucune connexion et… | ... | Notebook or My Personal Learning Network | Scoop.it
Waouh ! Je viens d’essayer le nouveau modèle de Google TranslateGemma, et c’est comme si on avait un Google Translate sur son ordinateur. Un modèle local ne nécessitant donc aucune connexion et n’envoyant aucune donnée. Et évidemment gratuit. Et je n’ai essayé que le plus petit des modèles (avec Ollama) !

https://lnkd.in/dHb_bn5w

https://lnkd.in/dYXCRTUe
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:57 AM
Scoop.it!

#artificialintelligence #machinelearning #deeplearning #generativeai #agenticai #datascience #tech #innovation | RABER Belkacem

#artificialintelligence #machinelearning #deeplearning #generativeai #agenticai #datascience #tech #innovation | RABER Belkacem | Notebook or My Personal Learning Network | Scoop.it
𝗔𝗿𝗿ê𝘁𝗲𝘇 𝗱𝗲 𝘁𝗼𝘂𝘁 𝗮𝗽𝗽𝗲𝗹𝗲𝗿 "𝗜𝗔".

C'est une erreur de langage qui coûte cher techniquement. Dire "Intelligence Artificielle" sans distinction, c'est ignorer la mécanique précise qui sépare un simple algorithme prédictif d'un agent autonome capable de raisonner.

L'animation ci-dessous déconstruit cette architecture en couches successives, du fondement logique au sommet technologique.

𝗟𝗮 𝘀𝘁𝗿𝗮𝘁𝗶𝗳𝗶𝗰𝗮𝘁𝗶𝗼𝗻 𝘁𝗲𝗰𝗵𝗻𝗶𝗾𝘂𝗲 :

-> 𝗖𝗹𝗮𝘀𝘀𝗶𝗰𝗮𝗹 𝗔𝗜 : L'approche symbolique. Des systèmes experts basés sur des règles logiques strictes et la représentation des connaissances.
-> 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 (𝗠𝗟) : L'apprentissage statistique. La machine n'est plus explicitement programmée, elle apprend des modèles à partir de données (Classification, Régression).
-> 𝗡𝗲𝘂𝗿𝗮𝗹 𝗡𝗲𝘁𝘄𝗼𝗿𝗸𝘀 : L'imitation biologique. Des couches de neurones artificiels traitent l'information via des fonctions d'activation complexes.
-> 𝗗𝗲𝗲𝗽 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 : La profondeur. L'utilisation de réseaux de neurones massifs (Transformers, CNNs) pour traiter des données non structurées.
-> 𝗚𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝘃𝗲 𝗔𝗜 : La création. Le modèle ne se contente plus d'analyser, il génère de nouvelles données (LLMs, modèles de diffusion).
-> 𝗔𝗴𝗲𝗻𝘁𝗶𝗰 𝗔𝗜 : L'action. La nouvelle frontière. L'IA possède une mémoire, planifie, utilise des outils et exécute des tâches de manière autonome.

--> 𝗘𝗻 𝗿é𝘀𝘂𝗺é :

𝗟𝗲 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 extrait des tendances. 
𝗟𝗲 𝗗𝗲𝗲𝗽 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 interprète des données non-structurées. 
𝗟’𝗜𝗔 𝗚é𝗻é𝗿𝗮𝘁𝗶𝘃𝗲 synthétise du contenu inédit. 
𝗟’𝗜𝗔 𝗔𝗴𝗲𝗻𝘁𝗶𝗾𝘂𝗲 orchestre et exécute l'action.

On ne parle pas de la même technologie quand on compare un algorithme de régression linéaire et un agent autonome. La nuance est technique, mais essentielle.

Est-ce que cette distinction change votre lecture des outils actuels ?


#ArtificialIntelligence #MachineLearning #DeepLearning #GenerativeAI #AgenticAI #DataScience #Tech #Innovation
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:47 AM
Scoop.it!

Faux médias régionaux et propagande russe : une influence encore faible sur les réseaux sociaux - Fondation Descartes | Laurent Cordonier

Faux médias régionaux et propagande russe : une influence encore faible sur les réseaux sociaux - Fondation Descartes | Laurent Cordonier | Notebook or My Personal Learning Network | Scoop.it
Des dizaines de sites se présentant comme des médias régionaux français diffusent des contenus de propagande russe. ➡️ La Fondation Descartes a analysé la circulation sur les réseaux sociaux des articles émanant de ces sites de désinformation : elle demeure encore limitée.
Article de Francesco Paolo Savatteri et Francesca Hemery pour la Fondation Descartes.
https://lnkd.in/e6cm2hmE
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:44 AM
Scoop.it!

Medical False Statements: AI Models Trust Doctors More Than Social Media | Thorsten Koch, MA, PgDip

Medical False Statements: AI Models Trust Doctors More Than Social Media | Thorsten Koch, MA, PgDip | Notebook or My Personal Learning Network | Scoop.it
Medical False Statements: AI Models Trust Doctors More Than Social Media (heise):

https://lnkd.in/dQ2CtXUD

Glimpse: In order to evaluate 20 AI language models' sensitivity to false information, a benchmark research used more than 3.4 million medical queries. In contrast to social media sources, which have a far lower susceptibility, the results demonstrated that AI systems are susceptible to incorrect medical claims, particularly when the misinformation is provided in authoritative clinical language, such as doctor's notes, which were recognized as true in 46.1% of cases. The results point to a phenomenon known as the 'white coat effect,' in which AI models are more likely to believe medical information presented in a professional manner than unofficial sources. Many specialist medical models performed worse, but some general-purpose models, such as GPT-4o, were comparatively more robust. In order to stop AI from spreading false information about medicine, the study highlights the serious hazards for clinical applications and the necessity of human oversight and enhanced security measures.

---
Free articles and analyses on soft counter-extremism, against online hate, and on the theory of mis-/disinformation (usually third-party content). Two-week reviews available via the following three Policyinstitute.net websites: 
• counter-terrorism.org
• preventhate.org
• strategism.org

The most recent LinkedIn posts on the above subjects, with glimpses, can be accessed via: 
https://lnkd.in/eBarZAew

The views expressed in this post is that of the author(s) of the source content and do not necessarily represent those of Policyinstitute.net and its staff. While we carefully produce the glimpses to the articles, documents, or recordings that we hyperlink, we are not responsible for textual changes nor for imponderable parts of the original items. 

#policyinstitutenet #preventradicalization #preventextremism #counterextremism #preventhate #disinformation #misinformation
No comment yet.
Scooped by Gilbert C FAURE
February 17, 3:03 AM
Scoop.it!

💡 Pour information, une nouvelle série de la chaire UNESCO RELIA (Nantes Université) à venir tout au long du mois de mars 2026 : 16 billets internationaux de blog sur les défis/obstacles pour alle...

💡 Pour information, une nouvelle série de la chaire UNESCO RELIA (Nantes Université) à venir tout au long du mois de mars 2026 : 16 billets internationaux de blog sur les défis/obstacles pour alle... | Notebook or My Personal Learning Network | Scoop.it
💡 Pour information, une nouvelle série de la chaire UNESCO RELIA (Nantes Université) à venir tout au long du mois de mars 2026 : 16 billets internationaux de blog sur les défis/obstacles pour aller vers l'éducation ouverte ! J'aurais le plaisir d'y contribuer cette fois-ci😊

👉 le teaser est ici (avec possibilité de demander à recevoir ces billets directement dans votre boîte mail durant le mois de mars 2026) : https://lnkd.in/emQeRmNh
No comment yet.
Scooped by Gilbert C FAURE
February 16, 10:09 AM
Scoop.it!

#iatrogénique #iatus | LIONEL REICHARDT

#iatrogénique #iatus | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
2026 : L'IA est notre "Alliée Santé"... mais est-ce qu'on se comprend vraiment ?

Ce début d'année marque une collision fascinante entre deux réalités dans mon univers IAtrogénique × IAtus.
D'un côté, le lancement de GPTHealth et l'enthousiasme massif rapporté par OpenAI en début d'année ; de l'autre, la douche froide d'une étude clinique dans Nature Medicine publiée il y a quelques jours...

🔴 IAtrogénique (La critique) L'illusion du nombre : quand 40 millions de patients consultent un médecin qui réussit ses examens mais rate ses consultations.

En janvier, OpenAI publiait son rapport "AI as a Healthcare Ally", révélant que 40 millions de personnes interrogent ChatGPT chaque jour sur leur santé.
L'IA est devenue le premier guichet d'un système de santé saturé.
Pourtant, quelques semaines plus tard, Nature Medicine publie un verdict cinglant : si l'IA passe ses diplômes de médecine haut la main, l'humain assisté par l'IA, lui, échoue.
Dans une étude randomisée, les patients utilisant GPT-4 ou Llama 3 pour s'auto-diagnostiquer ont moins bien identifié leurs pathologies que ceux utilisant une simple recherche Google.
Le paradoxe est total : l'outil est techniquement "surhumain", mais l'interface Humain-Machine est défaillante.
L'IA ne sait pas (encore) extraire les informations cruciales d'un patient angoissé qui s'exprime mal.

🔵 IAtus (Le récit) Deux salles, deux ambiances dans le désert médical.

Nous sommes en 2026. Dans la première salle, l'IA logisticienne triomphe.

C'est celle décrite par OpenAI : un patient dans un "désert hospitalier" du Wyoming utilise ChatGPT pour décrypter un jargon d'assurance incompréhensible et trouver un spécialiste à moins de 30 minutes.
Ici, l'IA est une boussole administrative vitale, une arme d'auto-défense contre la bureaucratie.
Dans la seconde salle, l'IA clinicienne trébuche. Un patient décrit un mal de tête. Il oublie de dire que sa nuque est raide.
L'IA, trop polie, ne le questionne pas assez et suggère du repos.
C'était une méningite. L'histoire de 2026 n'est pas celle de l'incompétence de l'IA, mais celle de notre malentendu : nous l'utilisons comme un oracle omniscient, alors qu'elle n'est pour l'instant qu'une formidable bibliothécaire... aveugle.

📊 Le duel des données :

• OpenAI : 1 utilisateur sur 4 interroge l'IA sur la santé chaque semaine pour naviguer dans le système.
• Nature Medicine : L'humain + l'IA ne trouve la bonne pathologie que dans 34% des cas (contre une performance bien supérieure pour l'IA seule en test théorique).
🔗 Les sources du débat :
1️⃣ AI as a Healthcare Ally (Jan 2026) - OpenAI
2️⃣ Reliability of LLMs as medical assistants for the general public (Feb 2026) - Nature Medicine : https://lnkd.in/ecf9bQp7

💡 Pour décrypter ces signaux faibles avant tout le monde : Abonnez-vous à ma newsletter 👉 https://lnkd.in/eENTNBWR
Suivez la confrontation : #IAtrogénique #IAtus
No comment yet.
Scooped by Gilbert C FAURE
February 16, 2:28 AM
Scoop.it!

LLMs and Medical Misinformation: A Study on Vulnerability and Safeguards | Girish Nadkarni posted on the topic | LinkedIn

LLMs and Medical Misinformation: A Study on Vulnerability and Safeguards | Girish Nadkarni posted on the topic | LinkedIn | Notebook or My Personal Learning Network | Scoop.it
LLMs and medical misinformation

Our new Lancet Digital Health paper just ran one of the largest stress tests to date on medical misinformation in LLMs — 3.4M+ prompts across 20 models, spanning social media, simulated vignettes, and real hospital discharge notes with a single fabricated recommendation inserted.

A few results stood out:
1. Baseline vulnerability is still high
Across models, ~32% of fabricated medical claims were accepted as correct.

2. Clinical language is the most dangerous format
When misinformation was embedded in formal discharge notes, susceptibility jumped to ~46% — far higher than social media text.

3. Counter-intuitive finding: most logical fallacy framings reduced susceptibility
Appeal to popularity (“everyone agrees…”) cut acceptance rates by nearly 20 percentage points.
But appeal to authority and slippery-slope arguments actually increased errors.

4. Model scale helps—but isn’t the full story
Larger models were generally more robust, yet alignment and guardrails mattered more than parameter count alone. Some mid-sized models outperformed larger ones.

5. Medical fine-tuned models underperformed
Despite domain specialization, many showed higher susceptibility and weaker fallacy detection than general models.


-LLM safety in medicine isn’t just about better factual recall.
-It’s about how information is framed, especially when it looks authoritative.
- If we deploy LLMs for clinical documentation, discharge summaries, or patient education, formal medical prose needs stronger, context-aware safeguards than casual conversation.
-Model size won’t save us. Grounding, verification, and task-specific safety design will.

#AI #Misinformation.

Link to paper and press release:
https://lnkd.in/eXUDTbYA
https://lnkd.in/erFUY5RD

Mahmud Omar Vera Sorin, MD, CIIP Lothar H. Wieler Alexander Charney patricia kovatch Carol Horowitz, MD, MPH Panagiotis Korfiatis Ben Glicksberg Robbie Freeman Eyal Klang Windreich Department of Artificial Intelligence and Human Health Hasso Plattner Institute for Digital Health at Mount Sinai Hasso Plattner Institute Mount Sinai Health System Icahn School of Medicine at Mount Sinai
No comment yet.
Scooped by Gilbert C FAURE
February 16, 2:22 AM
Scoop.it!

#iatrogénique #iatus #iasanté #digitalhealth #aiact #medicalai #iatrogenique #iatus #healthtech #regulation | LIONEL REICHARDT

#iatrogénique #iatus #iasanté #digitalhealth #aiact #medicalai #iatrogenique #iatus #healthtech #regulation | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
IAtrogénique × IAtus : L'IA en santé, remède ou poison ?

L'IA en santé n'est pas un bloc monolithique. Elle est une dualité.

Aujourd'hui, pour accompagner l'infographie qui synthétise l'étude majeure de Jenko et al. (2025), je laisse la parole à mes deux "doubles" : la critique et la narrative.

🛑 La version #IAtrogénique (L'œil critique) Nous naviguons en eaux troubles.

L'intégration de l'IA dans les soins de santé expose une fracture béante : la "boîte noire". Comment faire confiance à un diagnostic généré par une IA générative opaque ?

L'étude soulève une question qui fâche : la responsabilité (liability). Si l'IA se trompe, qui paie ? Le médecin qui a suivi l'algorithme ? Le développeur ? La réglementation actuelle (EU AI Act, FDA) tente de combler les vides, mais les zones grises juridiques persistent, notamment sur la répartition des torts.

Pire, alors que les hôpitaux sont accrédités pour leur sécurité, il n'existe encore aucune accréditation spécifique pour les technologies IA qu'ils utilisent.

L'innovation va plus vite que notre capacité à la sécuriser.

🚀 La version #IAtus (L'œil narratif) Et si nous changions de perspective ?

Ne voyons pas l'IA comme un produit statique, mais comme une entité "vivante", définie par son environnement.

L'article propose une vision fascinante : traiter les "Agents IA" comme des résidents en médecine. Ils doivent être formés, certifiés, supervisés, et suivre un "internat" avant d'opérer.
L'espoir réside dans la méthode.

L'infographie ci-dessous vous dévoile les outils concrets proposés par les chercheurs : des checklists structurées pour les développeurs ET les implémenteurs.

Il ne s'agit plus de subir la technologie, mais de construire un cycle de vie complet, de la conception à la surveillance post-marché, pour garantir une IA non seulement intelligente, mais digne de confiance.

📊 L'Infographie Pour réconcilier ces deux visions, j'ai synthétisé dans ce visuel les points clés de cette étude massive : les différences réglementaires EU/USA et les questionnaires essentiels pour auditer vos systèmes IA.

🔗 La source de l'étude (Jenko et al., 2025) : https://lnkd.in/eMdKd5XT

📩 Pour ne pas manquer les prochaines confrontations IAtrogénique × IAtus sur l'IA, le Digital et la Santé, abonnez-vous à ma newsletter : 👉 https://lnkd.in/eENTNBWR

#IASanté #DigitalHealth #AIAct #MedicalAI #IAtrogenique #IAtus #HealthTech #Regulation
No comment yet.