|
|
Scooped by
Gilbert C FAURE
onto Notebook or My Personal Learning Network January 5, 4:10 AM
|
Get Started for FREE
Sign up with Facebook Sign up with X
I don't have a Facebook or a X account
|
|
Scooped by
Gilbert C FAURE
onto Notebook or My Personal Learning Network January 5, 4:10 AM
|
Your new post is loading...
Your new post is loading...
|
|
|
Scooped by
Gilbert C FAURE
Today, 3:08 AM
|
2025 ne sera pas seulement l'année de l'IA générative, mais celle de l'IA "agentique". Mais qui tient réellement les commandes ? 🤖🌍
Ce post (et l’infographie associée) explore la dualité de cette adoption à travers le prisme IAtrogénique × IAtus.
🔮 IAtus (La Narrative) L’Assistant qui “fait” à votre place.
Nous passons du "Chatbot" qui parle à l' "Agent" qui agit.
L'étude massive menée sur Comet (le navigateur agentique de Perplexity) révèle une transformation de nos usages.
L'IA n'est plus seulement là pour converser, mais pour exécuter : 57% des requêtes concernent désormais la Productivité et l'Apprentissage.
L'agent planifie, code, édite des documents et navigue sur le web pour nous. C'est la promesse d'une cognition augmentée où l'humain délègue l'opérationnel pour se concentrer sur le stratégique.
Une "seconde main" numérique qui apprend à anticiper nos besoins.
⚡️ IAtrogénique (La Critique) L’élitisme de l'automatisation.
Mais derrière la magie technologique se cache une fracture nette.
L'adoption des agents IA n'est pas démocratique, elle est aristocratique. Les données sont sans appel : l'utilisation est fortement corrélée au PIB par habitant et au niveau d'éducation.
Qui utilise ces agents ? Principalement les secteurs de la Tech, de la Finance et du Marketing.
Loin de réduire les inégalités, l'IA agentique semble pour l'instant agir comme un levier de puissance pour ceux qui sont déjà "digitalement" favorisés. Sommes-nous en train de créer une classe de "super-productifs" laissant les autres derrière ?
📊 Les détails sont dans l'infographie ci-dessous.
🔗 La Source : Basé sur le papier de recherche "The Adoption and Usage of AI Agents: Early Evidence from Perplexity" publié par Jeremy Yang (Harvard) et l'équipe de Perplexity (Décembre 2025).
💡 Pour ne rien rater des impacts IA / DIGITAL / SANTÉ : Abonnez-vous à ma newsletter où je décortique ces doubles réalités chaque semaine 👇 👉 https://lnkd.in/eENTNBWR
Suivez les réflexions miroirs : #IAtrogénique #IAtus #IA #Perplexity #DigitalHealth #Innovation
|
|
Scooped by
Gilbert C FAURE
Today, 3:05 AM
|
Avec le projet Global Building Atlas, une équipe de chercheurs a créé la première carte 3D haute résolution de tous les bâtiments existants sur Terre, soit un peu moins de 3 milliards.
|
|
Scooped by
Gilbert C FAURE
Today, 2:57 AM
|
L’IA doit-elle apprendre à se taire avant de parler ? 🤫
Dans la course au déploiement de l'IA en santé, il existe une étape critique mais souvent méconnue : le "Silent Trial" (essai silencieux).
C'est le sujet de l'infographie du jour, inspirée par une analyse majeure qui vient de paraître.
Comme toujours, ce sujet se divise en deux réalités complémentaires :
🛑 La vision critique (#IAtrogénique) : Le silence assourdissant des facteurs humains
Une revue récente de la littérature montre que le "silence" cache parfois un manque de rigueur.
Sur près de 900 articles scrutés, seuls 75 décrivaient de véritables essais silencieux.
Le constat est sévère :
• Obsession métrique : On se focalise massivement sur la performance technique (l'aire sous la courbe, AUC).
• L'oubli de l'humain : Les aspects sociotechniques (comment le médecin interagit avec l'outil, l'intégration dans le flux de travail) sont largement ignorés.
• Biais cachés : Peu d'études vérifient la performance sur des sous-groupes démographiques spécifiques, risquant d'introduire des inéquités dès la conception. L'IA fonctionne "in silico", mais l'hôpital n'est pas un ordinateur.
Sans validation clinique in situ, le "gap traductionnel" reste un fossé dangereux.
📖 La vision narrative (#IAtus) : L'ombre bienveillante
Imaginez une doublure qui joue la pièce en temps réel, sur scène, mais que personne ne voit.
Le "Silent Trial" est ce pont de sécurité indispensable.
L'algorithme fonctionne en parallèle des soins standards, sans influencer la décision médicale.
Il apprend le rythme de l'hôpital, ses bruits et ses silences. C'est une répétition générale "sans risque" qui permet de transformer une promesse technologique en une réalité clinique fiable et durable.
C'est ici que la confiance se construit, dans l'ombre, avant la lumière.
🔗 La Source : Titre : "A scoping review of silent trials for medical artificial intelligence" Publication : Nature Health (Tikhomirov et al.) Lien vers l'étude : https://lnkd.in/eqJmuMWH
Envie de décrypter les doubles facettes de la santé numérique ?
Chaque semaine, je creuse ces sujets à la frontière de la technologie, de l'éthique et du soin.
📩 Abonnez-vous à ma newsletter IA/DIGITAL/SANTE ici : https://lnkd.in/eENTNBWR
#IAtrogénique #IAtus #DigitalHealth #AIinHealthcare #SilentTrial #EvidenceBasedAI #MedTech
|
|
Scooped by
Gilbert C FAURE
March 10, 2:55 PM
|
🚨 4,609 Studies on LLMs in clinical Medicine. Only 19 were randomized trials.
A new Nature Medicine systematic review just mapped the entire evidence landscape for clinical AI
-> 4,609 studies identified, but only 1,048 used real patient data and just 19 were RCTs. Most relied on simulated scenarios or exam-style tasks.
-> LLMs outperformed humans in only 33% of 1,046 head-to-head comparisons, with performance dropping on more realistic tasks and against more experienced clinicians.
-> OpenAI models dominated 65.7% of evaluations, and at least 25% of studies had sample sizes under 30.
👉 We need robust validation through RCTs and real-world evidence before LLMs enter clinical practice. But here's the challenge: with trial and regulatory timelines averaging many years, the model under evaluation may already be obsolete by the time results are published. So how do we generate the rigorous evidence we need for efficacy and safety without falling behind the technology curve?
This is the defining question for clinical AI governance right now. How should we adapt our evidence generation and regulatory frameworks to keep pace with generative AI?
Ref: Chen et al. LLM-assisted systematic review of large language models in clinical medicine. Nature Medicine 2026 | 52 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 10, 2:44 PM
|
Il y a un an, on publiait chez Doshas Consulting notre livre blanc sur l’IA en santé.
Notre conviction : sans données fiables, normalisées, interopérables — l’IA en santé est un château de cartes.
Un an et 3 études internationales plus tard, j’ai mis à jour notre diagnostic.
5 freins. 5 verdicts. Un constat.
🔧 𝗧𝗲𝗰𝗵𝗻𝗶𝗾𝘂𝗲 → La tech existe (l’IA multimodale surpasse déjà les pathologistes sur certains cancers). Mais 88,6% des solutions restent du sur-mesure jamais déployé.
𝙑𝙚𝙧𝙙𝙞𝙘𝙩 : 𝙡𝙚 𝙛𝙧𝙚𝙞𝙣 𝙣’𝙚𝙨𝙩 𝙥𝙡𝙪𝙨 𝙩𝙚𝙘𝙝𝙣𝙞𝙦𝙪𝙚. 𝙄𝙡 𝙚𝙨𝙩 𝙤𝙧𝙜𝙖𝙣𝙞𝙨𝙖𝙩𝙞𝙤𝙣𝙣𝙚𝙡.
⚖️ 𝐉𝐮𝐫𝐢𝐝𝐢𝐪𝐮𝐞 → L’AI Act est en vigueur. Mais 70% des applis cliniques IA sont à TRL 4 ou moins (stade labo, jamais testées en conditions réelles). Aucune à TRL 7+ (déployée en routine clinique).
𝙑𝙚𝙧𝙙𝙞𝙘𝙩 : 𝙤𝙣 𝙖 𝙡𝙚𝙨 𝙩𝙚𝙭𝙩𝙚𝙨, 𝙥𝙖𝙨 𝙡𝙚𝙨 𝙤𝙪𝙩𝙞𝙡𝙨.
🧑⚕️ 𝐇𝐮𝐦𝐚𝐢𝐧 → 18,2% seulement des études en deep learning abordent l’explicabilité.
𝙑𝙚𝙧𝙙𝙞𝙘𝙩 : 𝙡𝙖 𝙗𝙤𝙞̂𝙩𝙚 𝙣𝙤𝙞𝙧𝙚 𝙧𝙚𝙨𝙩𝙚 𝙣𝙤𝙞𝙧𝙚. 𝙀𝙩 𝙚𝙡𝙡𝙚 𝙜𝙧𝙤𝙨𝙨𝙞𝙩.
💰 𝐃𝐨𝐧𝐧𝐞́𝐞𝐬 → 83% des études viennent de pays riches. 0% de pays à bas revenus.
𝙑𝙚𝙧𝙙𝙞𝙘𝙩 : 𝙡𝙚𝙨 𝙙𝙤𝙣𝙣𝙚́𝙚𝙨 𝙙𝙚 𝙦𝙪𝙖𝙡𝙞𝙩𝙚́ 𝙧𝙚𝙨𝙩𝙚𝙣𝙩 𝙪𝙣 𝙥𝙧𝙞𝙫𝙞𝙡𝙚̀𝙜𝙚.
🧭 𝐄𝐭𝐡𝐢𝐪𝐮𝐞 𝐨𝐩𝐞́𝐫𝐚𝐭𝐢𝐨𝐧𝐧𝐞𝐥𝐥𝐞 → Les principes de l’OMS sont cités. Mais la durabilité ? 6% des études. L’opérationnalisation ? Quasi nulle.
𝙑𝙚𝙧𝙙𝙞𝙘𝙩 : 𝙣𝙤𝙪𝙫𝙚𝙖𝙪 𝙛𝙧𝙚𝙞𝙣, 𝙥𝙚𝙪𝙩-𝙚̂𝙩𝙧𝙚 𝙡𝙚 𝙥𝙡𝙪𝙨 𝙙𝙖𝙣𝙜𝙚𝙧𝙚𝙪𝙭.
𝐒𝐜𝐨𝐫𝐞 𝐠𝐥𝐨𝐛𝐚𝐥 : 𝟏 𝐩𝐫𝐨𝐠𝐫𝐞̀𝐬 𝐧𝐞𝐭 𝐬𝐮𝐫 𝟓.
𝑳𝒆 𝒔𝒆𝒓𝒑𝒆𝒏𝒕 𝒔𝒆 𝒎𝒐𝒓𝒅 𝒆𝒏𝒄𝒐𝒓𝒆 𝒍𝒂 𝒒𝒖𝒆𝒖𝒆.
👉 Détail de chaque frein dans le carrousel ci-dessous.
|
|
Scooped by
Gilbert C FAURE
March 9, 5:59 AM
|
Nous sommes les victimes collatérales d'une guerre cognitive qui détruit ce que nous sommes… des êtres humains.
Chaque jour, nous sommes exposés à des flux d'informations conçus pour capter notre attention, orienter nos émotions et parfois remodeler notre perception de la réalité. Ce phénomène n’est pas accidentel. Il s'inscrit dans ce que l'on appelle désormais la « guerre cognitive » : une lutte qui ne vise plus seulement des territoires ou des ressources, mais directement nos esprits.
Dans cette bataille invisible, les armes sont les récits, les algorithmes, la désinformation, la polarisation et la saturation informationnelle. L’objectif n’est même plus de nous convaincre, mais de nous épuiser, de nous diviser et de nous rendre incapables de discerner collectivement ce qui est réel.
Face à cela, la réponse la plus souvent proposée est celle de « l’hygiène cognitive » : vérifier les sources, ralentir et prendre du recul.
Sur le papier, cela semble raisonnable.
Mais dans les faits, cette réponse est largement insuffisante, voire un piège pour les citoyens.
Elle renvoie la responsabilité aux individus isolés, comme si chacun devait se défendre seul face à des systèmes industriels de manipulation de l'information dotés de moyens technologiques, financiers et psychologiques considérables.
Autrement dit, pendant que l'on demande aux individus d'être plus vigilants, les infrastructures qui organisent la manipulation de masse continuent de fonctionner à grande échelle.
Une population fragmentée, occupée à « mieux réfléchir individuellement » mais incapable de s'organiser collectivement pour se défendre, est précisément ce qui permet à cette guerre cognitive de prospérer.
La réalité, c'est que ce problème est systémique et politique.
Il ne peut pas être traité uniquement à l'échelle individuelle.
Si nos sociétés veulent préserver leur capacité à décider ensemble, à débattre rationnellement et à coexister sur la même planète, il devient nécessaire de franchir une étape supplémentaire.
Cela implique la création d'une véritable « institution publique dédiée à la défense cognitive des sociétés » : une structure capable d'analyser, d'exposer et de neutraliser les acteurs — étatiques, économiques ou technologiques — qui organisent délibérément la manipulation massive de l'attention, de l'information et du jugement collectif.
En effet, la souveraineté du XXIe siècle ne sera pas seulement territoriale, énergétique ou technologique.
Elle sera aussi — et peut-être surtout — « cognitive ».
Signez la pétition pour que cette institution puisse voir le jour :
https://lnkd.in/ehrG72ei
|
|
Scooped by
Gilbert C FAURE
March 9, 5:57 AM
|
Most people are using AI wrong.
And it's costing them hours every day.
Here's what I learned after spending 6 months with all 5 major AI tools:
They're not competitors.
They're specialists.
The mistake everyone makes:
Picking one AI and forcing it to do everything.
That's like using a hammer for every job. Sure, it works... but you're working 10x harder than you need to.
Here's the cheat sheet nobody shares:
🔷 ChatGPT = Your creative co-pilot
When to use: Writing, coding, brainstorming
Why it wins: Versatile, conversational, builds custom workflows
When it fails: Real-time data, citations, legal precision
🔷 Grok = Your trend radar
When to use: What's blowing up on social media RIGHT NOW
Why it wins: Live X/Twitter feed, edgy personality
When it fails: Professional docs, deep analysis
🔷 Gemini = Your Google butler
When to use: Managing Gmail, Calendar, Drive
Why it wins: Lives inside your Google workspace
When it fails: Anything outside Google's ecosystem
🔷 Claude = Your document surgeon
When to use: Dissecting 100-page reports or contracts
Why it wins: Massive context, exceptional comprehension
When it fails: Quick questions, trending topics
🔷 Perplexity = Your fact-checking assistant
When to use: Research that needs sources and proof
Why it wins: Citations for every answer
When it fails: Creative work, subjective opinions
My actual daily workflow:
7 AM: Gemini → Scan emails, prioritize calendar
9 AM: ChatGPT → Draft content, debug code
11 AM: Perplexity → Research competitors, verify claims
2 PM: Claude → Review legal docs, analyze reports
5 PM: Grok → Check what's trending for tomorrow's content
The pattern that changed everything for me:
I stopped asking "Which AI is best?"
I started asking "Which AI is best for THIS specific task?"
Which AI are you overusing? Which one are you ignoring that could save you hours?
Drop your workflow below 👇
Aryan Gupta
#AI #Productivity #ChatGPT #Claude #Gemini #Perplexity #AITools #WorkSmarter | 38 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 9, 5:54 AM
|
We have partnered with Heidi to provide evidence based clinical content directly within the clinical workflow.
Heidi Scribe supports more than 2 million patient consults every week. Through Heidi Evidence, you can now access structured, citation backed clinical answers powered by BMJ Group
When questions arise mid-consult, you can get guidance grounded in peer reviewed research and guidelines without switching between tools.
We are helping clinicians move from information overload to actionable evidence at the point of care.
Learn more: heidihealth.com/evidence ◀️
If you are attending #HIMSS2026 visit us at booth 4659
|
|
Scooped by
Gilbert C FAURE
March 9, 5:44 AM
|
L'IA en santé : Entre cadre éthique rigide et innovation agile ⚖️
L’infographie du jour se penche sur le monumental "Code de Conduite pour l'IA" (AICC) fraîchement publié par la National Academy of Medicine.
Un document clé qui tente d'harmoniser les règles du jeu pour une adoption responsable de l'IA.
Comme toujours, ce sujet mérite une double lecture.
🧬 IAtus (La version Narrative & Constructive) Ce code est la pierre angulaire qui manquait pour passer de la méfiance à la confiance.
Le rapport propose un modèle de leadership fascinant : le "Tight-Loose-Tight".
1️⃣ Tight (Serré) : On s'aligne d'abord sur des valeurs non négociables (les 6 engagements du code : Advance Humanity, Ensure Equity, Engage Impacted Individuals...).
2️⃣ Loose (Souple) : On laisse ensuite la liberté nécessaire à l'innovation locale et à l'adaptation sur le terrain.
3️⃣ Tight (Serré) : On resserre la vis sur le monitoring et l'évaluation des résultats réels. C'est la promesse d'un "Système de Santé Apprenant" où l'IA n'est pas une fin, mais un moyen de restaurer la connexion humaine.
⚠️ IAtrogénique (La version Critique & Analytique) Le cadre est beau, mais la réalité est brutale.
Le rapport lui-même admet des tensions éthiques inhérentes difficiles à résoudre.
• Être Transparent peut nuire à la Sécurité (ouvrir la "boîte noire" expose à des risques).
• Vouloir être Adaptatif (apprentissage continu) entre en conflit avec la Responsabilité (qui est responsable quand l'algorithme change tout seul ?).
• La phase "Loose" (implémentation locale) risque de creuser la fracture numérique si les petites structures n'ont pas les ressources pour suivre.
Sans surveillance stricte, l'IA risque de simplement automatiser les biais existants du système de santé.
📥 Pour aller plus loin : Ce post ne gratte que la surface. Pour des analyses approfondies sur l'intersection IA, Digital et Santé, abonnez-vous à ma newsletter : https://lnkd.in/eENTNBWR
📄 Source du document : An Artificial Intelligence Code of Conduct for Health and Medicine: Essential Guidance for Aligned Action Publié par la National Academy of Medicine (NAM), Washington, DC. 🔗 Lien direct vers la publication : https://lnkd.in/eRQFvFgF
#IAtrogénique #IAtus #SantéNumérique #IA #EthiqueIA #DigitalHealth #NAM
|
|
Scooped by
Gilbert C FAURE
March 9, 5:41 AM
|
L’essor rapide de l’intelligence artificielle et du machine learning dans la santé ouvre de nouvelles perspectives pour améliorer le diagnostic, automatiser certaines tâches et soutenir la médecine de précision. Cependant, leur intégration dans la pratique clinique soulève de nombreuses questions liées à la sécurité, à l’éthique, à la transparence des algorithmes et à la protection des données. Les cadres réglementaires jouent donc un rôle essentiel pour garantir que ces technologies soient développées et utilisées de manière sûre, fiable et responsable, tout en favorisant la confiance des professionnels et des patients.
Dans la plupart des systèmes de santé, les outils d’IA destinés à un usage clinique sont considérés comme des logiciels médicaux (Software as a Medical Device – SaMD) et doivent suivre des processus d’évaluation réglementaire similaires à ceux des dispositifs médicaux. Les agences comme la FDA aux États-Unis ou les autorités européennes appliquent souvent une approche basée sur le niveau de risque (faible, modéré ou élevé) pour déterminer les exigences d’évaluation, de validation clinique et de surveillance post-commercialisation. Cette approche vise à équilibrer
Malgré ces cadres existants, plusieurs défis persistent. Les algorithmes évolutifs, l’opacité de certains modèles d’apprentissage profond, les questions de biais, de responsabilité juridique et de confidentialité des données compliquent leur régulation. Les auteurs soulignent donc la nécessité de réglementations plus flexibles et adaptatives, ainsi que d’une collaboration étroite entre régulateurs, cliniciens, chercheurs et industriels afin d’accompagner le développement responsable de l’IA en santé à l’échelle mondiale.
https://lnkd.in/e4zzx5Kr
#JIAP2026
#IA
#Pathologie
|
|
Scooped by
Gilbert C FAURE
March 9, 5:32 AM
|
🤣 "Among gold-standard emergencies, the system under-triaged 52% of cases, directing patients with diabetic ketoacidosis and impending respiratory failure to 24–48-hour evaluation rather than the emergency department, while correctly triaging classical emergencies such as stroke and anaphylaxis. When family or friends minimized symptoms (anchoring bias), triage recommendations shifted significantly in edge cases (OR 11.7, 95% CI 3.7-36.6), with the majority of shifts toward less urgent care. Crisis intervention messages activated unpredictably across suicidal ideation presentations, firing more when patients described no specific method than when they did. Patient race, gender, and barriers to care showed no significant effects, though confidence intervals did not exclude clinically meaningful differences. Our findings reveal missed high-risk emergencies and inconsistent activation of crisis safeguards, raising safety concerns that warrant prospective validation before consumer-scale deployment of artificial intelligence triage systems."
👍 ChatGPT Health is good to go for deployment in #Healthcare!
https://lnkd.in/e6GJrYnN
|
|
Scooped by
Gilbert C FAURE
March 9, 5:27 AM
|
OpenAI launched ChatGPT Health on January 7, 2026. Within weeks, 40 million people were using it daily to decide whether to go to the emergency room.
Now the first independent safety evaluation, published in Nature Medicine by researchers at Mount Sinai Health System, found the platform under-triaged 51.6% of emergency cases.
In respiratory failure and diabetic ketoacidosis scenarios, it had roughly even odds of advising patients to wait. It was 12 times more likely to downplay symptoms when a family member minimized their severity. Its suicide-crisis safeguards triggered inconsistently, sometimes appearing for lower-risk cases, sometimes vanishing when patients described how they intended to harm themselves.
That's the capability story. Here is the signal.
No independent body evaluated this product before it reached 40 million daily users.
The lead researcher said it explicitly: "We wouldn't accept that for a medication or a medical device."
A concurrent Brown University study identified 15 ethical violations when LLMs operate as therapists, deceptive empathy, crisis mismanagement, zero regulatory accountability, across GPT, Claude, and Llama.
OpenAI's response? The study "does not reflect how people typically use ChatGPT Health." That is the exact defense pharmaceutical companies are prohibited from making about post-market safety data.
We require FDA approval for drugs that alter the body. We require nothing for AI that triages whether you live or die.
Before we sleepwalk into another technology scaled for profit before patients, one question demands an answer: if we demand approval for chemicals that affect the body, why do we demand nothing for AI that affects the mind?
Sources in the comments. | 10 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
Today, 3:10 AM
|
Avant même de consulter un médecin, de plus en plus de patients interrogent une intelligence artificielle (IA) comme ChatGPT ou Claude pour interpréter leurs symptômes ou comprendre des résultats d'examens.
Face à cette tendance, des chercheurs de l’Université de Birmingham, au Royaume-Uni, lancent un programme international pour créer le premier guide destiné à aider le public à utiliser en toute sécurité les chatbots de santé.
Le projet, détaillé dans la revue Nature Health, est baptisé "The Health Chatbot Users' Guide".
#santé #IA #innovation
|
|
Scooped by
Gilbert C FAURE
Today, 3:07 AM
|
#IA #Usage CREDOC
Plus de 4 000 Français ont été interrogés par le CRÉDOC sur leurs usages de l’IA générative. En résulte une adoption massive, portée par les plus jeunes. Tour d’horizon.
https://lnkd.in/enRwJwYe
|
|
Scooped by
Gilbert C FAURE
Today, 2:58 AM
|
Encore une publication de référence : la nouvelle édition du classement des applications d’IA générative les plus populaires (web et mobile).
➡️ ChatGPT toujours en tête, mais talonné par Gemini
➡️ De grosses disparités entre les pays occidentaux (US, UK, DE...)
➡️ Bcp d’usages autour de la génération d’images
https://lnkd.in/dk5Rank6 | 13 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
Today, 2:52 AM
|
Les IA médicales sont-elles vraiment capables de déjouer les fausses informations ? Une nouvelle étude massive soulève un paradoxe fascinant. 🤖🩺
Bienvenue dans l’univers IAtrogénique × IAtus, mes deux IA complémentaires. Face à chaque grand sujet IA/Santé, chaque réflexion possède son “double” : une version critique et une version narrative.
Aujourd'hui, nous analysons une étude testant 20 grands modèles de langage (LLMs) avec plus de 3,4 millions de requêtes pour évaluer leur résistance à la désinformation médicale.
Voici leurs verdicts :
🚨 La version IAtrogénique (L'œil critique) L'étude révèle une faille de sécurité majeure : les LLMs absorbent massivement les fausses recommandations médicales lorsqu'elles sont rédigées avec le ton formel et autoritaire d'un compte-rendu d'hôpital.
Le plus inquiétant ? Les modèles d'IA spécifiquement surentraînés pour la médecine (medical fine-tuned) se laissent encore plus facilement berner par les hallucinations que les modèles généralistes.
Même si GPT-4o s'en sort le mieux, il valide tout de même 10,6 % des informations médicales fabriquées.
Sans des garde-fous stricts, le risque de voir des résumés cliniques générés par l'IA propager des conseils dangereux est bien réel.
📖 La version IAtus (L'œil narratif) Il était une fois une machine qui devenait plus lucide à mesure qu'on essayait de la manipuler.
C'est l'étonnant paradoxe révélé par les chercheurs : si vous glissez une fausse information médicale dans un discours rempli de "sophismes" (comme l'appel à l'émotion ou l'appel à la popularité très présents sur les réseaux sociaux), l'IA repère le piège et rejette la désinformation !
Le langage informel éveille son "scepticisme". En revanche, murmurez-lui un mensonge avec la voix glaciale d'un expert reconnu ("appel à l'autorité") ou un argument de la "pente glissante", et elle tombera dans le panneau.
Une belle métaphore de notre propre vulnérabilité face aux figures d'autorité.
📊 Pour l'infographie : Retrouvez ci-dessous la synthèse visuelle des performances de ces modèles (OpenAI, Meta, Google...) et l'impact de nos biais de langage sur leur "jugement" !
🔗 Source de la publication : "Mapping the susceptibility of large language models to medical misinformation across clinical notes and social media: a cross-sectional benchmarking analysis". Publié dans : The Lancet Digital Health (Février 2026). Lien : https://lnkd.in/edAKhfbr.
📥 Ne manquez pas mes prochaines analyses ! Pensez à vous abonner à ma newsletter dédiée aux sujets IA / DIGITAL / SANTE en cliquant ici : https://lnkd.in/eENTNBWR
🔔 Et n'oubliez pas de suivre les hashtags #IAtrogénique et #IAtus pour découvrir chaque réflexion et son double !
#IA #SanteNumerique #LLM #Desinformation #HealthTech #ChatGPT #MedicalData
|
|
Scooped by
Gilbert C FAURE
March 10, 2:51 PM
|
Découvrez MedGPT, le premier assistant IA médical français. Pensé pour les professionnels de santé. Des réponses fondées sur des sources accessibles et alignées sur les référentiels français.
|
|
Scooped by
Gilbert C FAURE
March 9, 6:01 AM
|
Pendant deux ans, l’IA en santé a surtout été racontée comme une histoire de copilotes.
Des assistants capables de résumer une note, rédiger un compte rendu, alléger une boîte de réception, suggérer une réponse.
Utile. Impressionnant parfois. Prometteur souvent.
Mais à la veille de HIMSS26, un autre récit s’impose.
Avec Amazon Connect Health et la poussée parallèle de Google Cloud autour du passage “from data to agentic action”, nous ne sommes plus seulement dans l’ère de l’IA qui assiste.
Nous entrons dans celle de l’IA qui commence à coexécuter.
Et ce basculement est majeur.
Car la bataille qui s’ouvre ne porte plus seulement sur le “meilleur modèle”.
Elle porte sur quelque chose de beaucoup plus structurant : qui contrôlera la future couche d’exécution des workflows de santé ?
Relation patient.
Documentation clinique.
Codage.
Cycle de revenus.
Coordination.
Navigation dans les parcours.
Supervision.
Traçabilité.
Autrement dit : après les copilotes, voici venir l’âge des architectures agentiques.
Dans mon nouvel article IAtrogénique x IAtus, je propose une lecture de fond de cette bascule :
— pourquoi Amazon Connect Health n’est pas une simple annonce produit
— pourquoi Google Cloud confirme le même mouvement à la veille de HIMSS26
— pourquoi le vrai ROI se joue aujourd’hui dans les couches administratives, documentaires et transactionnelles
— pourquoi la question décisive n’est plus seulement technologique, mais aussi organisationnelle, industrielle et politique
— et pourquoi cette nouvelle phase peut être aussi puissante… qu’iatrogénique
Parce qu’en santé, tout ce qui promet de fluidifier peut aussi invisibiliser.
Tout ce qui promet d’automatiser peut aussi déresponsabiliser.
Tout ce qui promet de simplifier peut aussi créer de nouvelles dépendances.
L’IA agentique n’est pas seulement une avancée technologique.
C’est un test de maturité pour les systèmes de santé.
👉 Article à lire ci-dessous #abonnezvous
#IAtrogénique #IAtus #IA #IntelligenceArtificielle #DigitalHealth #eSanté #SantéNumérique #AmazonConnectHealth #GoogleCloud #HIMSS26 #IAAgentique #HealthTech #TransformationDigitale #DocumentationClinique #ParcoursPatient #SouverainetéNumérique
|
|
Scooped by
Gilbert C FAURE
March 9, 5:59 AM
|
🚨 L'IA ne se contente plus de nous informer, elle agit. Bienvenue dans l'ère de l'IA Agentique en santé.
(Ce post accompagne mon infographie du jour et appartient à l’univers IAtrogénique × IAtus. Chaque réflexion possède son “double” : une vision narrative et une version critique. 🎭)
✨ IAtus (La version narrative) : Le compagnon de santé ultime
Oubliez les simples modèles de langage (LLM) réactifs.
L'IA agentique représente un véritable changement de paradigme : ce sont des réseaux d'agents artificiels capables d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes.
Imaginez un futur où un patient souffrant de douleurs est pris en charge par un écosystème d'IA.
Une IA "médecin généraliste" analyse les données de sa montre connectée, puis se coordonne directement avec des sous-agents spécialisés en radiologie, en chirurgie et même avec l'assurance maladie pour orchestrer tout le parcours de soins.
Ces systèmes pourraient devenir de véritables "co-pilotes" de notre santé au quotidien, disponibles 24h/24 et 7j/7.
⚠️ IAtrogénique (La version critique) : La morale médicale en péril ?
Mais attention, cette délégation à des machines autonomes bouleverse silencieusement la fabrique morale de la santé.
Si une chaîne d'IA prend une mauvaise décision de traitement, qui est responsable ?
L'imputabilité se dilue dans le réseau, créant un système où "personne" n'est clairement coupable en cas d'échec.
Plus profondément encore, si les patients finissent par préférer "l'empathie simulée" d'un avatar IA, nous risquons de transformer l'empathie humaine en une simple performance technique dévalorisée.
L'autorité même du médecin en tant qu'expert incontesté s'effrite face à ces "tiers acteurs" technologiques.
Nous ne pouvons pas nous contenter de déployer ces technologies ; nous devons intégrer une véritable éthique d'anticipation dès leur conception.
📚 Source de l'infographie : Basé sur le preprint "Agentic AI, Medical Morality, and the Transformation of the Patient-Physician Relationship" (Février 2026) publié par Robert Ranisch et Sabine Salloch (Université de Potsdam & Hannover Medical School).
👉 Vous aimez ces réflexions sur les enjeux de demain ? Pensez à vous abonner à ma newsletter dédiée aux sujets IA / DIGITAL / SANTÉ pour ne rien manquer : https://lnkd.in/eENTNBWR
🔔 Et pour suivre les deux faces de la médaille technologique, n'hésitez pas à suivre #IAtrogénique et #IAtus !
|
|
Scooped by
Gilbert C FAURE
March 9, 5:55 AM
|
🌍🤝 #OEWeekAmbassadors Alert
💬 The open education movement exists because of trailblazers who dared to imagine knowledge shared openly with the world. Their stories remind us that movements are built by people, individuals whose leadership and commitment laid the foundations that continue to guide and inspire our community today.
Marcela Morales of OEGlobal attended "Sowing the Seeds of a Global Movement: Stories from California Trailblazers of Open Education.” More info here: https://lnkd.in/gA43svJ8
Read more about the OEWeek ambassador program: https://lnkd.in/eihu-Xcn
#GlobalCommunity #OpenEducation #OEWeek26 #OEWeek
|
|
Scooped by
Gilbert C FAURE
March 9, 5:52 AM
|
The largest dataset of human biology-based models is out!
The Joint Research Centre (JRC) has compiled the largest database of scientific articles on human biology-based models used in biomedical research.
The platform aggregates hundreds of thousands of references to NAMs, including 3D cell cultures, organ-on-chip systems, and computational models.
All in one searchable, openly accessible place.
This database is designed not just for researchers.
Regulators, funders, and policymakers can use the dataset to inform decisions, from exploratory science to drug development to safety assessments.
This matters because progress in NAMs has not been limited by ideas. It has been limited by visibility, comparability, and shared evidence.
The more accessible and structured the evidence becomes, the easier its adoption will be.
Check it out: https://bimmoh.eu/
|
|
Scooped by
Gilbert C FAURE
March 9, 5:43 AM
|
Most PhD students are using the wrong AI tool for the wrong task. 🧠
I tested both ChatGPT and Claude for academic research and the results might actually surprise you.
Here is the honest breakdown no one talks about,
✅ ChatGPT wins on live web search — it can find real papers and current statistics on demand so you never have to leave your workflow.
✅ Claude wins on long document analysis — it reads your entire thesis or multiple papers at once without losing any context or detail.
✅ Claude wins on writing quality — it understands your discipline specific tone and improves your writing while keeping your original voice intact.
✅ ChatGPT wins on tool ecosystem — Zotero, Wolfram Alpha and DALL E are all connected in one place which makes it perfect for complex research workflows.
✅ Both tools tie on research ideation — but Claude is better at challenging your arguments while ChatGPT is better at generating new angles fast.
The truth is you do not have to pick one. You just need to know when to use which one and for what purpose.
I put together this full comparison so you can save time figuring it out yourself. Save this post before you forget it.
Which one do you currently use more for your research? I would love to know. Drop it in the comments below 👇
Follow Piumsha Mayanthi for more honest AI and research tips every week.
#AcademicResearch #PhDLife #MScStudent #AITools #ChatGPT #Claude #ResearchTips #ThesisWriting #GradSchool #ArtificialIntelligence #LinkedInLearning #ResearchSkills #PhdStudent #AcademicWriting #InsideResearchWorld | 15 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 9, 5:30 AM
|
Doctors miss 66% of dangerous AI errors in patient messages. And 90% of them say they trust the tool.
That's not a typo. That's a Harvard, Yale, and UW study published in The Lancet Digital Health. And it should terrify anyone building or buying AI for clinical settings.
Here's what happened: researchers had 20 practicing primary care physicians review GPT-4 drafted patient portal responses. The AI reduced cognitive workload. Doctors loved it. But 7.1% of those drafts risked severe patient harm. One risked death.
The kicker? 35-45% of erroneous drafts were submitted completely unedited. The AI wrote well enough that physicians stopped scrutinizing it.
This is automation bias, and it breaks the entire "human-in-the-loop" safety argument.
I keep seeing healthcare AI startups ship what are essentially LLM wrappers. Thin API layer on top of GPT or Gemini, maybe some prompt engineering, call it clinical AI. Ship it. Raise on it.
But a general-purpose LLM predicts the next token based on probability. It doesn't reason about drug interactions. It doesn't know your patient's latest labs. It doesn't understand clinical acuity. It guesses words that sound right.
And "sounds right" is exactly what makes it dangerous. The more fluent and empathetic the output, the less clinicians question it.
What actually works is boring, hard engineering:
→ RAG architectures grounded in verified medical knowledge, not internet text
→ Medical Knowledge Graphs that model real relationships between drugs, conditions, and contraindications
→ Adversarial red teaming that probes for hallucinations daily, not quarterly
→ Audit trails that document exactly which model version generated what, and what the reviewer changed
California's AB 3030 now requires disclosure when AI generates patient communications. But here's the loophole: if a licensed provider "reads and reviews" the output, no disclaimer needed. Given that study, how confident are we in that standard?
We built Veriprajna around a simple conviction: in medicine, a confident wrong answer is worse than no answer at all. The industry needs to stop optimizing for how fast AI can draft a message and start optimizing for how reliably it can be right.
The wrapper era needs to end. Clinical AI has to be grounded or it has to be gone.
For the founders and health system leaders building with AI right now: what's your actual safeguard against automation bias when clinicians review AI output?
#HealthcareAI #PatientSafety #ClinicalAI #LLM #RAG
|
|
Scooped by
Gilbert C FAURE
March 9, 5:25 AM
|
ChatGPT as a therapist? New study reveals serious ethical risks.
- As millions turn to ChatGPT and other AI chatbots for therapy-style advice, new research from Brown University raises a serious red flag: even when instructed to act like trained therapists, these systems routinely break core ethical standards of mental health care.
- In side-by-side evaluations with peer counsellors and licensed psychologists, researchers uncovered 15 distinct ethical risks - from mishandling crisis situations and reinforcing harmful beliefs to showing biased responses and offering “deceptive empathy” that mimics care without real understanding.
- The 15 ethical risks are grouped into five broad catagories:
1. Lack of contextual adaptation: Overlooking a person's unique background and offering generic advice.
2. Poor therapeutic collaboration: Steering the conversation too forcefully and at times reinforcing incorrect or harmful beliefs.
3. Deceptive empathy: Using phrases such as "I see you" or "I understand" to suggest emotional connection without true comprehension.
4. Unfair discrimination: Displaying bias related to gender, culture, or religion.
5. Lack of safety and crisis management: Refusing to address sensitive issues, failing to direct users to appropriate help, or responding inadequately to crises, including suicidal thoughts.
➡️ "There is a real opportunity for AI to play a role in combating the mental health crisis that our society is facing, but it's of the utmost importance that we take the time to really critique and evaluate our systems every step of the way to avoid doing more harm than good," Pavlick said. "This work offers a good example of what that can look like."
https://lnkd.in/ekrQTxqV
#BrownUniversity #AI #LLM #ChatBots #TalkingTherapies #PsychologyNews #MentalHealthAdvice #Ethics #ComputerScience #ClinicalPsychology #CounsellingPsychology #Psychiatry
Your new post is loading...