 Your new post is loading...
 Your new post is loading...
|
Scooped by
Gilbert C FAURE
October 13, 2013 8:40 AM
|
is a personal Notebook Thanks John Dudley for the following tweet "If you like interesting snippets on all sorts of subjects relevant to academia, information, the world, highly recommended is @grip54 's collection:" La curation de contenus, la mémoire partagée d'une veille scientifique et sociétale
|
Scooped by
Gilbert C FAURE
Today, 8:28 AM
|
3 key factors shaping patient choice and trust in medical AI :-
1) Medical AI performance at specialist level (AMCE, 0.248 [95%CI, 0.234 to 0.262]) or above specialist level (AMCE, 0.325 [95%CI, 0.310 to 0.339]) was the most significant factor associated with shaping patient choice and trust (pages 6 & 8). Above-specialist performance was nearly 3 times as important as FDA approval (page 6). 2) Clinician oversight of medical AI (AMCE, 0.184 [95%CI, 0.173 to 0.195]) was the second most significant factor associated with shaping patient choice and trust (pages 6 & 9). "Meaningfully, clinician presence was associated with a greater change in patient trust and choice than any individual form of governance. However, effective clinician governance presents substantial challenges: not only are clinicians limited in their ability effectively to oversee medical AI performance, but the availability of adequately trained clinicians is limited" (page 9). Clinical oversight of medical AI is more important than FDA approval.
3) FDA approval (AMCE, 0.111 [95%CI, 0.101 to 0.121]) or national-level validation of medical AI via the Mayo Clinic (AMCE, 0.111 [95%CI, 0.101 to 0.121]) than local hospital validation was the third factor associated with shaping patient choice and trust (page 6).
Ana Bracic, Kayte Spector-Bagdady, Sophie Towle, Rina Zhang, Cornelius A. James, and W. Nicholson Price II, Factors for Patient Trust and Acceptance of Medical Artificial Intelligence, (2026) 9(3) 𝘑𝘈𝘔𝘈 𝘕𝘦𝘵𝘸𝘰𝘳𝘬 𝘖𝘱𝘦𝘯 e260815, published online 5 March 2026, https://lnkd.in/g4uR3wug
|
Scooped by
Gilbert C FAURE
Today, 4:55 AM
|
|
Scooped by
Gilbert C FAURE
March 12, 1:51 PM
|
Delighted to share the first-of-its-kind prospective feasibility study of conversational AI in real clinical workflows: https://lnkd.in/e_zpBmvR
Brought to you by a Beth Israel Deaconess Medical Center and Google research collaboration. Design: -100 patients with urgent care concerns interacted with Google’s AMIE prior to presenting to their PCP at BIDMC. -AMIE took a clinical history and presented possible diagnoses to patients. -Board certified internal medicine physicians provided continuous safety oversight of patient-AMIE interactions and were instructed to stop interactions based on prespecified safety criteria. -AMIE transcript and summary of the case were provided to the PCP prior to the urgent care appointment. -Allowed eight weeks of time for case maturity, followed by chart review to determine the ground truth diagnosis for the patient presentation. Primary Objectives: Safety and quality of AMIE conversations Secondary Objectives: AMIE diagnostic and management plan performance Results: -Zero conversation safety stops across all patient-AMIE interactions. -Patient attitudes toward AI significantly increased after interacting with AMIE. -Strong conversational quality ratings by patients and board certified internal medicine physicians. -With access to AMIE’s output, PCPs reported possible behavior change in nearly 60% of cases and increased visit preparedness in 75% of cases. -AMIE had 75% top-3 diagnostic accuracy and included the correct diagnosis in its differential 90% of cases. -The quality of AMIE’s differential diagnosis and management plan appropriateness and safety was similar to PCPs. -PCPs won on management plan practicality and cost-effectiveness. Implications: -The deployment of AMIE into a high volume clinical workflow was practical and safe. -The safe presentation of potential diagnoses to patients shifts the patient-AI interaction from simple information gathering to personalized collaboration and counseling. -Patients highly value confidentiality and trust - repeated safe interactions with AI will be key to building a trustworthy relationship. -PCPs had a significant context advantage - had access to medical charts, physical exam, and the AMIE transcript. AMIE still performed similarly on differential diagnosis quality and management plan appropriateness and safety. -Future iterations of AI in real clinical workflows will likely include reasoning with multimodal data: https://lnkd.in/ebWMZD2v. -Robust safety oversight will allow stratification of which cases are suitable for human-on-the-loop rather than in-the-loop.
Huge thanks to the amazing co-authors and supporters of this work!
|
Scooped by
Gilbert C FAURE
March 12, 5:58 AM
|
🦾 Lancement d'Amazon Health AI : Et si on arrêtait de regarder le doigt quand on nous montre la lune ?
Amazon vient de lancer "Health AI". Tout le monde se focalise sur le chatbot : est-ce qu'il explique bien les résultats de prise de sang ? Est-ce qu'il sait renouveler une ordonnance ? Est-ce que c'est fiable ?
Honnêtement, c'est presque un détail. Explication 👇
En assemblant One Medical (soins), Amazon Pharmacy (médicaments) et AWS (infra), il manquait une seule pièce au puzzle pour boucler la boucle : l'aiguillage.
C’est exactement le rôle de cette nouvelle IA. Elle ne répond pas juste à des questions, elle orchestre un flux. Symptôme → IA → Consultation → Prescription → Livraison. Le tout, sans jamais sortir de l'écosystème Amazon.
C'est là que ça devient fascinant / vertigineux / flippant.
Dans le retail, Amazon n'a jamais cherché à fabriquer tous les produits du monde. Il a cherché à devenir l'interface obligatoire entre le client et les marques.
Dans la santé, la stratégie semble identique. Amazon ne veut pas remplacer les médecins. Il veut devenir la porte d'entrée unique du système.
D’où mon hypothèse : et si Amazon était en train de devenir le premier "assureur invisible" au monde ?
Pas un assureur qui signe des contrats, mais un acteur qui, en contrôlant l’accès au patient, l’orientation clinique et la donnée, finit par contrôler le risque lui-même.
Aux US et dans beaucoup d'autres pays, celui qui pilote le parcours de soins pilote l'économie de la santé. Point final.
Je suis curieux de savoir ce que vous en pensez. On est sur un gadget ou sur un basculement de modèle ?
François Veron, Pascal BECACHE, Nicolas Schneider, Pierre Roux de Lusignan, Grégoire Pigné, Dr Solène Vo Quang, Mathilde Merckx, Samir Harfacha, MD, Dr Amine Korchi
Et merci à Anca pour le partage inital ;) | 15 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
March 11, 2:13 PM
|
|
Scooped by
Gilbert C FAURE
March 11, 8:54 AM
|
Numeric risk comparisons anchored in patient context may improve shared decision-making and help patients interpret clinical choices.
JAMA, Journal of the American Medical Association
https://lnkd.in/gKKv4d-n
|
Scooped by
Gilbert C FAURE
March 11, 8:27 AM
|
China's AI-assisted diagnosis market isn't emerging. It's already built.
60+ companies. 5 vertical categories. All deployed.
Here's the complete map:
1. UPSTREAM: The Foundation
Smart Hubs: Baidu, Inc. | Tencent | Huawei Cloud
Computing-Storage Infrastructure: Tencent Cloud | China Unicom Global | Alibaba Cloud | China Telecom Global | Huawei Cloud
The pattern: Tech giants provide compute. Then step into healthcare verticals.
2. MIDSTREAM: The AI Engine
AI Medical Imaging (23 players):
Row 1: Deepwise | United Imaging Healthcare | Subtle Medical| Diagens
Row 2: Infervision | Beijing Yizhun AI Technology Co., Ltd. | Tencent | Huiying Medical Technology Co., Ltd.
Row 3: RaysightMed | Airdoc Technology Inc | BioMind | 开立医疗 SonoScape
Row 4: Neusoft Medical | CHISON | ANKON Technologies | LBP system
Row 5: MED Imaging AI | EDAN Instruments, Inc. | Wenzhou Medical University Eye Hospital | ShanghaiTech University
AI Laboratory Testing:
BGI Genomics | Reetoo Biotech | Amoy Diagnostics | Berry Genomics
AI-Assisted Pathology:
BGI Genomics | Tsinghua University | Xiangya Hospital of Central South University | Zhejiang University | Tsinghua University / SenseTime 商汤科技 AI Clinical Decision Support (12 players):
Row 1: Huawei Cloud | Beijing University of Posts and Telecommunications / Peking University Third Hospital | BAICHUAN Technology co., ltd. | Mindray
Row 2: Shukuntech | iFLYTEK Co., Ltd.| B-soft | Winning Health Technology Group Co.,Ltd
Row 3: Runda Medical | Huawei Enterprise | Shanghai AI Laboratory | GUANGDONG SECOND PROVINCIAL GENERAL HOSPITAL / Huawei Enterprise / Lifetech Scientific Corporation / ClouDr Group Limited
AI-Assisted TCM Diagnosis:
Macrocura | Dajing TCM | Nanjing University of Traditional Chinese Medicine / Macrocura | Henan College of Traditional Chinese Medicine / University of Science and Technology Beijing | Sun Yat-sen University
3. DOWNSTREAM: Deployment at Scale
Top Hospitals Already Live:
Peking University Third Hospital Peking University People's Hospital Nanjing Medical University Shenzhen Luohu People's Hospital
And more...
The Lesson:
China didn't build "one AI for healthcare."
They built specialized stacks:
· 23 companies for imaging · 12 for clinical decisions · 5 for Traditional Chinese Medicine
This isn't a market. It's a parallel healthcare AI universe.
Which company on this map surprised you most?
Philippe GERWILL | Edmund White | Harvey Castro, MD, MBA. | Rizwan Tufail | Asim Khan
#AIHealthcare #ChinaHealthTech #MedicalAI #HealthTech #MarketMap —
Enjoy this? ♻️ Repost it to your network and follow Effie GUO for more. | 34 comments on LinkedIn
Study of 500,000 Copilot health conversations reveals what people ask, when, and for whom. Explore the five key findings from Microsoft AI.
|
Scooped by
Gilbert C FAURE
March 11, 3:10 AM
|
Avant même de consulter un médecin, de plus en plus de patients interrogent une intelligence artificielle (IA) comme ChatGPT ou Claude pour interpréter leurs symptômes ou comprendre des résultats d'examens.
Face à cette tendance, des chercheurs de l’Université de Birmingham, au Royaume-Uni, lancent un programme international pour créer le premier guide destiné à aider le public à utiliser en toute sécurité les chatbots de santé.
Le projet, détaillé dans la revue Nature Health, est baptisé "The Health Chatbot Users' Guide".
#santé #IA #innovation
|
Scooped by
Gilbert C FAURE
March 11, 3:07 AM
|
#IA #Usage CREDOC
Plus de 4 000 Français ont été interrogés par le CRÉDOC sur leurs usages de l’IA générative. En résulte une adoption massive, portée par les plus jeunes. Tour d’horizon.
https://lnkd.in/enRwJwYe
|
Scooped by
Gilbert C FAURE
March 11, 2:58 AM
|
Encore une publication de référence : la nouvelle édition du classement des applications d’IA générative les plus populaires (web et mobile). ➡️ ChatGPT toujours en tête, mais talonné par Gemini ➡️ De grosses disparités entre les pays occidentaux (US, UK, DE...) ➡️ Bcp d’usages autour de la génération d’images https://lnkd.in/dk5Rank6 | 13 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
March 11, 2:52 AM
|
Les IA médicales sont-elles vraiment capables de déjouer les fausses informations ? Une nouvelle étude massive soulève un paradoxe fascinant. 🤖🩺
Bienvenue dans l’univers IAtrogénique × IAtus, mes deux IA complémentaires. Face à chaque grand sujet IA/Santé, chaque réflexion possède son “double” : une version critique et une version narrative.
Aujourd'hui, nous analysons une étude testant 20 grands modèles de langage (LLMs) avec plus de 3,4 millions de requêtes pour évaluer leur résistance à la désinformation médicale.
Voici leurs verdicts :
🚨 La version IAtrogénique (L'œil critique) L'étude révèle une faille de sécurité majeure : les LLMs absorbent massivement les fausses recommandations médicales lorsqu'elles sont rédigées avec le ton formel et autoritaire d'un compte-rendu d'hôpital.
Le plus inquiétant ? Les modèles d'IA spécifiquement surentraînés pour la médecine (medical fine-tuned) se laissent encore plus facilement berner par les hallucinations que les modèles généralistes. Même si GPT-4o s'en sort le mieux, il valide tout de même 10,6 % des informations médicales fabriquées. Sans des garde-fous stricts, le risque de voir des résumés cliniques générés par l'IA propager des conseils dangereux est bien réel.
📖 La version IAtus (L'œil narratif) Il était une fois une machine qui devenait plus lucide à mesure qu'on essayait de la manipuler.
C'est l'étonnant paradoxe révélé par les chercheurs : si vous glissez une fausse information médicale dans un discours rempli de "sophismes" (comme l'appel à l'émotion ou l'appel à la popularité très présents sur les réseaux sociaux), l'IA repère le piège et rejette la désinformation ! Le langage informel éveille son "scepticisme". En revanche, murmurez-lui un mensonge avec la voix glaciale d'un expert reconnu ("appel à l'autorité") ou un argument de la "pente glissante", et elle tombera dans le panneau. Une belle métaphore de notre propre vulnérabilité face aux figures d'autorité.
📊 Pour l'infographie : Retrouvez ci-dessous la synthèse visuelle des performances de ces modèles (OpenAI, Meta, Google...) et l'impact de nos biais de langage sur leur "jugement" !
🔗 Source de la publication : "Mapping the susceptibility of large language models to medical misinformation across clinical notes and social media: a cross-sectional benchmarking analysis". Publié dans : The Lancet Digital Health (Février 2026). Lien : https://lnkd.in/edAKhfbr.
📥 Ne manquez pas mes prochaines analyses ! Pensez à vous abonner à ma newsletter dédiée aux sujets IA / DIGITAL / SANTE en cliquant ici : https://lnkd.in/eENTNBWR 🔔 Et n'oubliez pas de suivre les hashtags #IAtrogénique et #IAtus pour découvrir chaque réflexion et son double ! #IA #SanteNumerique #LLM #Desinformation #HealthTech #ChatGPT #MedicalData
|
|
Scooped by
Gilbert C FAURE
Today, 8:29 AM
|
Everyone is adding “AI” to healthcare apps right now. But many times it’s just: pick a model → add a chatbot → call it AI healthcare.
That approach rarely solves real problems.
Healthcare is too sensitive for hype. Data quality, safety, privacy, and clinical workflows actually matter and many AI health apps ignore those fundamentals. Studies and experts often point out issues like bias in models, unreliable medical advice, and privacy risks when AI is poorly integrated.
What’s more interesting is when AI is used thoughtfully inside the workflow, not just as a feature.
Platforms like Augi Health are a good example of a more practical direction focusing on how AI can support patient engagement and doctor communication rather than pretending AI replaces healthcare professionals.
The difference is subtle but important: smart integration vs AI for marketing.
If you're curious about where more responsible AI-driven healthcare tools are heading, you can check it out here:
https://lnkd.in/gwfq5ZMn
#AIinHealthcare #DigitalHealth #HealthTech #MedTech #HealthcareInnovation #FutureOfHealthcare #PatientCare #AI #HealthApps #HealthcareTechnology
|
Scooped by
Gilbert C FAURE
Today, 8:24 AM
|
One thing healthcare isn’t short on these days is information.
It’s offered up to clinicians via conferences, webinars, journals, booklets, pamphlets, newsletters, headlines, slide decks, inboxes… it’s an endless stream of updates.
The challenge today isn’t accessing knowledge, it’s processing it.
We are all hearing this more and more: “There’s just too much to keep up with.”
That’s not a motivation problem; it’s a cognitive load problem.
Check out my tips below on how to reduce cognitive load in health education.
__ When you’re ready, here’s how I can help: - Partner with life science teams to design medical education that delivers insight, not just information. - Build engagement strategies that use visuals and structure to reduce cognitive load for clinicians and patients.
|
Scooped by
Gilbert C FAURE
Today, 4:37 AM
|
Je viens de lire une étude qui montre un vrai problème pour l'avenir de l’IA. Je vous explique :
1️⃣ Les grands modèles d'IA (ChatGPT, Llama, etc.) sont entrainés à partir de textes et d'images trouvés sur internet.
2️⃣ Or, internet est de plus en plus rempli de contenu généré par IA (blogs, réseaux sociaux, Youtube, banque d'images, etc...)
➡️Question légitime : Que se passera-t-il quand les prochaines générations d'IA s'entraîneront sur les données produites par les générations précédentes ?
Pour y répondre, les chercheurs ont donc pris un modèle de langage et l'ont entraîné en boucle sur ses propres productions.
Génération après génération, le modèle commence par perdre les idées rares, puis converge vers un contenu banal et uniforme, et finit par produire du non-sense.
Mathématiquement, ils montrent que ce processus est inévitable : quelle que soit la taille du modèle, c'est ce qui se produira si l'IA s'entraine sur ses propres données.
Du coup, avec ce scénario, les prochains modèles risquent d'être de moins en moins capables de représenter les idées minoritaires, puis deviendront progressivement inintéressants... avant de terminer complètement débiles.
Mais j'imagine que les ingénieurs IA sont déjà sur le coup.
(Note : les chercheurs ont travaillé sur du texte et des images de chiffres manuscrits – pas sur des photos de chiens. Mon image ci-dessous, c'est juste pour illustrer).
----------- Refs : - Shumailov et al. (2024) AI models collapse when trained on recursively generated data. Nature - Wenger (2024) AI produces gibberish when trained on too much AI-generated data. Nature | 227 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
March 12, 12:04 PM
|
🚨 32.5% increase in patient preference. Not from a clinician in the loop. Not from the FDA. From AI performance.
Quite interesting survey of 3,000 US adults quantified what actually drives patient trust in medical AI:
→ AI performing above specialist level increased the probability of a patient choosing that visit by 32.5%. That's nearly three times the effect of FDA approval alone.
→ The findings suggest that governance strategies, FDA approval, clinician in the loop, and local validation all increase patient trust. But none comes close to the effect of transparent performance data: which patients almost never receive today.
👉 But here's the deeper question: patients want to know that AI performs at specialist level. Do we actually know how to measure that? "Better than a specialist" sounds reassuring, but what does it mean in practice? Accuracy on a curated test set? Synthetic cases that challenge diagnosis?
Before we can be transparent about AI performance, we need far more comprehensive frameworks for assessing it, including how models communicate what they don't know and their level of uncertainty.
Bracic A, et al Factors for Patient Trust and Acceptance of Medical Artificial Intelligence. JAMA Netw Open. 2026
|
Scooped by
Gilbert C FAURE
March 12, 5:03 AM
|
Announcing #CognitiveAI at the Département d'Études Cognitives, ENS-PSL Ecole normale supérieure. Under the impetus of Charlotte Jacquemot and the DEC executive council, I am very pleased to coordinate this initiative together with Alda Mari.
The program is structured around five research axes and brings together many research teams across #philosophy, #linguistics, #neuroscience, #psychology, and #machinelearning, with the aim of fostering interdisciplinary work on the cognitive foundations and implications of AI.
Looking forward to the collaborations and discussions ahead!
more info here: https://lnkd.in/euqe33AP
The Cognitive AI initiative brings together research that approaches AI from multiple, complementary perspectives. Some work focuses on the design and improvement of artificial systems themselves, building on insights from neuroscience and cognitive science. Other research uses AI as a scientific instrument, treating computational models as tools to probe the mechanisms of human cognition and brain function. As AI systems increasingly interact with humans and are deployed in real-world contexts, additional efforts examine human–AI interaction, societal impact, and applications in education and health. Finally, the rise of AI raises foundational philosophical and ethical questions about meaning, agency, responsibility, and the nature of intelligence itself. These five axes together define a coherent and integrated research landscape. Rather than treating AI as an isolated technology, Cognitive AI research emphasizes continuous dialogue between artificial systems, human cognition, and society. This integrative perspective allows scientific advances to inform responsible innovation, while grounding AI development in robust cognitive theory and empirical evidence. | 10 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
March 11, 12:52 PM
|
Artificial intelligence is often presented as a near-magical solution for medicine: algorithms that will diagnose diseases, discover drugs, and personalize treatments. The reality is more complex.
The biggest challenge for AI in medicine is not the technology, but how we talk about it. Overselling AI’s promise while ignoring uncertainty risks eroding public trust in science and medicine.
https://lnkd.in/eC5NA-W2
Grateful to the Public Voices Fellowship, in partnership with Yale and The OpEd Project, for their support.
#OpEd #PublicVoices #MedicalAI
|
Scooped by
Gilbert C FAURE
March 11, 8:52 AM
|
MedGemma and the Next Phase of Clinical AI Infrastructure
Artificial intelligence in healthcare is entering a new phase. The industry is moving beyond narrow machine learning tools toward foundation models capable of interpreting multiple forms of clinical data.
Google DeepMind’s MedGemma is an important signal of that shift.
Released in 2026, MedGemma is an open-source collection of medical AI foundation models built on the Gemma 3 architecture. It is not a finished clinical product. Instead, it functions as a development platform for building healthcare AI applications across clinical text, medical imaging, and multimodal reasoning.
Three model variants are currently available:
• A 4B multimodal model designed for experimentation and efficient deployment • A 27B text model focused on clinical language tasks such as documentation analysis and medical literature interpretation • A 27B multimodal model capable of reasoning across both imaging and text
Early benchmarks show meaningful improvements across several healthcare AI tasks. MedGemma demonstrates 2.6–10% gains in multimodal medical question answering, 15.5–18.1% improvement in chest X-ray finding classification, and roughly 10% improvement in agentic reasoning benchmarks compared with baseline models.
Fine-tuning experiments also show around a 50% reduction in errors during EHR information retrieval, highlighting the model’s potential for navigating complex clinical datasets.
One of MedGemma’s most important capabilities is its compatibility with FHIR-based healthcare data standards.
This capability is particularly relevant in the federal health ecosystem. Programs operated by CMS, the Department of Veterans Affairs, and the Defense Health Agency increasingly rely on FHIR-based interoperability frameworks. AI models capable of interpreting these structures could support workflows such as documentation analysis, clinical data retrieval, and quality reporting.
Developers are already experimenting with MedGemma’s MedSigLIP vision encoder for imaging workflows such as chest X-ray triage and pulmonary nodule detection. Others are exploring documentation summarization and contextual interpretation within electronic health records.
At the same time, MedGemma is not intended for direct clinical decision making without validation. Healthcare AI systems require rigorous testing, governance frameworks, and regulatory alignment before deployment in patient care environments.
Foundation models provide powerful analytical capabilities. The next challenge is integration and governance within regulated health systems.
For health technology leaders, the conversation is shifting from model capability to responsible deployment and real-world clinical integration.
#HealthcareAI #MedGemma #HealthIT #DigitalHealth #ClinicalAI #FHIR #FederalHealthIT #HealthPolicy #AIinHealthcare #HealthcareInnovation
|
Scooped by
Gilbert C FAURE
March 11, 8:12 AM
|
🤖 L’IA voit tout, mais elle ne comprend rien
L’intelligence artificielle générative a bouleversé la veille stratégique. Sa vitesse de traitement est devenue une norme, mais sa faille reste immense : l'absence totale de discernement.
La donnée brute n'est pas une stratégie. Pire, sans filtre humain, elle peut devenir un risque majeur pour la prise de décision.
Nous avons analysé cette mutation où l'analyste ne se contente plus de chercher l'information, mais devient le rempart indispensable face aux hallucinations des algorithmes. Pourquoi l'humain est-il, plus que jamais, le "dernier kilomètre" de la survie d'une organisation dans un monde incertain ?
Ne laissez pas les algorithmes décider à votre place.
👉 À lire ici : https://lnkd.in/eQzsjGCZ #IntelligenceArtificielle #AnalyseDeDonnees #HumainEtTech #Algorithmes #VeilleStrategique
|
Scooped by
Gilbert C FAURE
March 11, 8:07 AM
|
A savoir : une étude qui redéfinit ce qu’est réellement une recherche sur Internet. Où les internautes cherchent-ils vraiment en 2026 ?
https://lnkd.in/eB8RP4ey
|
Scooped by
Gilbert C FAURE
March 11, 3:08 AM
|
2025 ne sera pas seulement l'année de l'IA générative, mais celle de l'IA "agentique". Mais qui tient réellement les commandes ? 🤖🌍
Ce post (et l’infographie associée) explore la dualité de cette adoption à travers le prisme IAtrogénique × IAtus.
🔮 IAtus (La Narrative) L’Assistant qui “fait” à votre place.
Nous passons du "Chatbot" qui parle à l' "Agent" qui agit. L'étude massive menée sur Comet (le navigateur agentique de Perplexity) révèle une transformation de nos usages. L'IA n'est plus seulement là pour converser, mais pour exécuter : 57% des requêtes concernent désormais la Productivité et l'Apprentissage. L'agent planifie, code, édite des documents et navigue sur le web pour nous. C'est la promesse d'une cognition augmentée où l'humain délègue l'opérationnel pour se concentrer sur le stratégique. Une "seconde main" numérique qui apprend à anticiper nos besoins.
⚡️ IAtrogénique (La Critique) L’élitisme de l'automatisation.
Mais derrière la magie technologique se cache une fracture nette. L'adoption des agents IA n'est pas démocratique, elle est aristocratique. Les données sont sans appel : l'utilisation est fortement corrélée au PIB par habitant et au niveau d'éducation. Qui utilise ces agents ? Principalement les secteurs de la Tech, de la Finance et du Marketing. Loin de réduire les inégalités, l'IA agentique semble pour l'instant agir comme un levier de puissance pour ceux qui sont déjà "digitalement" favorisés. Sommes-nous en train de créer une classe de "super-productifs" laissant les autres derrière ?
📊 Les détails sont dans l'infographie ci-dessous. 🔗 La Source : Basé sur le papier de recherche "The Adoption and Usage of AI Agents: Early Evidence from Perplexity" publié par Jeremy Yang (Harvard) et l'équipe de Perplexity (Décembre 2025).
💡 Pour ne rien rater des impacts IA / DIGITAL / SANTÉ : Abonnez-vous à ma newsletter où je décortique ces doubles réalités chaque semaine 👇 👉 https://lnkd.in/eENTNBWR Suivez les réflexions miroirs : #IAtrogénique #IAtus #IA #Perplexity #DigitalHealth #Innovation
|
Scooped by
Gilbert C FAURE
March 11, 3:05 AM
|
Avec le projet Global Building Atlas, une équipe de chercheurs a créé la première carte 3D haute résolution de tous les bâtiments existants sur Terre, soit un peu moins de 3 milliards.
|
Scooped by
Gilbert C FAURE
March 11, 2:57 AM
|
L’IA doit-elle apprendre à se taire avant de parler ? 🤫
Dans la course au déploiement de l'IA en santé, il existe une étape critique mais souvent méconnue : le "Silent Trial" (essai silencieux). C'est le sujet de l'infographie du jour, inspirée par une analyse majeure qui vient de paraître.
Comme toujours, ce sujet se divise en deux réalités complémentaires :
🛑 La vision critique (#IAtrogénique) : Le silence assourdissant des facteurs humains
Une revue récente de la littérature montre que le "silence" cache parfois un manque de rigueur. Sur près de 900 articles scrutés, seuls 75 décrivaient de véritables essais silencieux. Le constat est sévère : • Obsession métrique : On se focalise massivement sur la performance technique (l'aire sous la courbe, AUC). • L'oubli de l'humain : Les aspects sociotechniques (comment le médecin interagit avec l'outil, l'intégration dans le flux de travail) sont largement ignorés. • Biais cachés : Peu d'études vérifient la performance sur des sous-groupes démographiques spécifiques, risquant d'introduire des inéquités dès la conception. L'IA fonctionne "in silico", mais l'hôpital n'est pas un ordinateur.
Sans validation clinique in situ, le "gap traductionnel" reste un fossé dangereux.
📖 La vision narrative (#IAtus) : L'ombre bienveillante
Imaginez une doublure qui joue la pièce en temps réel, sur scène, mais que personne ne voit. Le "Silent Trial" est ce pont de sécurité indispensable. L'algorithme fonctionne en parallèle des soins standards, sans influencer la décision médicale. Il apprend le rythme de l'hôpital, ses bruits et ses silences. C'est une répétition générale "sans risque" qui permet de transformer une promesse technologique en une réalité clinique fiable et durable. C'est ici que la confiance se construit, dans l'ombre, avant la lumière.
🔗 La Source : Titre : "A scoping review of silent trials for medical artificial intelligence" Publication : Nature Health (Tikhomirov et al.) Lien vers l'étude : https://lnkd.in/eqJmuMWH
Envie de décrypter les doubles facettes de la santé numérique ? Chaque semaine, je creuse ces sujets à la frontière de la technologie, de l'éthique et du soin. 📩 Abonnez-vous à ma newsletter IA/DIGITAL/SANTE ici : https://lnkd.in/eENTNBWR #IAtrogénique #IAtus #DigitalHealth #AIinHealthcare #SilentTrial #EvidenceBasedAI #MedTech
|
Scooped by
Gilbert C FAURE
March 10, 2:55 PM
|
🚨 4,609 Studies on LLMs in clinical Medicine. Only 19 were randomized trials.
A new Nature Medicine systematic review just mapped the entire evidence landscape for clinical AI
-> 4,609 studies identified, but only 1,048 used real patient data and just 19 were RCTs. Most relied on simulated scenarios or exam-style tasks. -> LLMs outperformed humans in only 33% of 1,046 head-to-head comparisons, with performance dropping on more realistic tasks and against more experienced clinicians. -> OpenAI models dominated 65.7% of evaluations, and at least 25% of studies had sample sizes under 30.
👉 We need robust validation through RCTs and real-world evidence before LLMs enter clinical practice. But here's the challenge: with trial and regulatory timelines averaging many years, the model under evaluation may already be obsolete by the time results are published. So how do we generate the rigorous evidence we need for efficacy and safety without falling behind the technology curve?
This is the defining question for clinical AI governance right now. How should we adapt our evidence generation and regulatory frameworks to keep pace with generative AI?
Ref: Chen et al. LLM-assisted systematic review of large language models in clinical medicine. Nature Medicine 2026 | 52 comments on LinkedIn
|