 Your new post is loading...
 Your new post is loading...
|
Scooped by
Gilbert C FAURE
October 13, 2013 8:40 AM
|
is a personal Notebook Thanks John Dudley for the following tweet "If you like interesting snippets on all sorts of subjects relevant to academia, information, the world, highly recommended is @grip54 's collection:" La curation de contenus, la mémoire partagée d'une veille scientifique et sociétale
|
Scooped by
Gilbert C FAURE
Today, 10:13 AM
|
Sign in or join now to see posts like this one and more.
|
Scooped by
Gilbert C FAURE
Today, 10:07 AM
|
📓 AI for Healthcare Professionals: A Practical Guide to Understanding and Leading AI in Modern Healthcare Author: Prof. Manoj Ramachandran, Co-Founder Viz.ai & Consultant Orthopaedic and Trauma Surgeon, Professor and Director of Innovation Barts Health NHS Trust Category: Health, Family & Lifestyle Artificial intelligence is no longer a future concept in healthcare. It is already embedded in diagnostics, documentation, research, administration and clinical decision-making across hospitals and health systems worldwide. The question is not whether AI will affect your professional life. The question is whether you will understand it well enough to use it safely, shape it responsibly and lead its adoption in your field. AI for Healthcare Professionals is a practical, clinically grounded guide written by a senior surgeon and health technology founder who works at the intersection of medicine, informatics and artificial intelligence. It is designed specifically for doctors, nurses, pharmacists, allied health professionals, researchers and healthcare leaders who want to move beyond headlines and hype and develop real, usable AI capability. Inside this book, you will learn: ✅ How large language models actually work - explained without jargon ✅ Why AI fabricates information and how to catch it before it causes harm ✅ How to use AI safely within UK, US and EU governance frameworks ✅ How to choose the right model for different clinical and research tasks ✅ How to write prompts that produce accurate, high-quality output ✅ How to build AI workflows for clinical writing, administration, teaching and research ✅ How to create your own AI knowledge assistant grounded in guidelines and protocols ✅ A practical progression model (SEAL) for moving from experimentation to leadership ✅ A maturity framework (ABCD) to assess where your department stands This is not a computer science textbook. It is not a hype-driven manifesto. It is not a technical manual requiring coding skills. It is a clear, structured and responsible guide to using artificial intelligence in modern healthcare written by a clinician for healthcare professionals. AI will not replace healthcare professionals. But healthcare professionals who understand AI will reshape the future of medicine. The responsibility now sits with you. 📚📔📕📙📓📒📗📘 Lance Scoular 🔹️ The Savvy Navigator 🧭🌐 #amazoninfluencer #book #ad #amazonbooks #fromtheauthorsmouth #AI #for #Healthcare #Professionals #Practical #Guide #to #Understanding #Leading #AI #Modern #Healthcare https://lnkd.in/grhyFVHc
|
Scooped by
Gilbert C FAURE
Today, 3:59 AM
|
Artificial intelligence should not replace clinicians but act as a cognitive partner: organizing evidence, reducing overload, and freeing space for judgment, empathy, and human connection.
Interesting perspective from Khayreddine Bouabida, MD, MPH, Ph.D. and colleagues (2026).
https://lnkd.in/dTvJd_bX
|
Scooped by
Gilbert C FAURE
Today, 3:16 AM
|
Add your #OER, latest open education asset, platform, tool or game to OER World Map - or add the one that has made a huge impact on your learning. #OEWeek26 is next week!
What are you sharing? Get started here –> https://lnkd.in/dzRVyUVm
|
Scooped by
Gilbert C FAURE
February 26, 10:38 AM
|
Speedy, important work by Ashwin Ramaswamy at Mt Sinai Medical Ctr out in Nature Magazine looking at ChatGPT Health's performance.
Under-triaged emergencies by 52% Over-triaged non-emergencies by 65% Did not appropriately intervene in suicidal ideation scenarios.
Not good. https://lnkd.in/g6ktgDQX
|
Scooped by
Gilbert C FAURE
February 26, 10:34 AM
|
🇫🇷 IA & Santé : ce qui se joue vraiment derrière Mistral et Doctolib
Hier, j’ai publié une analyse détaillée sur l’offensive des licornes françaises face aux annonces américaines et chinoises en santé. Mais au fond, le sujet n’est pas Mistral. Ni Doctolib. Ni même ChatGPT Health.
Le sujet est plus profond : 👉 Qui contrôlera l’architecture du soin numérique en Europe ?
Depuis janvier 2026 : – OpenAI cherche à devenir l’OS du patient – Anthropic cible les hôpitaux avec une IA “institutionnelle” – La Chine intègre IA, robotique et santé dans une logique industrielle d’État
Pendant ce temps, la France pose trois briques : • Infrastructure souveraine (Mistral + Koyeb + data centers européens) • Usage clinique intégré (Doctolib Clinical Lab) • Ancrage public (IA dans Mon Espace Santé)
Ce n’est plus une guerre de modèles. C’est une guerre de chaînes de valeur.
Et la vraie question devient : La souveraineté européenne peut-elle être compétitive face à des acteurs qui investissent plusieurs centaines de milliards de dollars ? Parce que la régulation protège. Mais elle ralentit.
Et l’IA en santé est un domaine où la vitesse compte autant que la conformité. Dans la newsletter, j’analyse : – le basculement vers une IA full-stack – le match technique GPT / Claude / Mistral – l’impact réel de l’AI Act – les trois fragilités françaises à ne pas ignorer Ce débat dépasse la tech. Il touche à la gouvernance des données de santé, à la dépendance infrastructurelle et à la place de l’Europe dans la prochaine décennie. À lire si vous travaillez dans la santé, le numérique, les politiques publiques ou l’investissement. #IA #HealthTech #Souveraineté #Doctolib #MistralAI #AIAct #MonEspaceSanté https://lnkd.in/em_JWBEk
|
Scooped by
Gilbert C FAURE
February 26, 10:32 AM
|
🌳 🌲 Unique au monde. Voici Forest Navigator. Toutes les données des forêts européennes.
Cet outil cartographique né en 2022 expose les données forestières en haute résolution avec des indicateurs précis tels que la santé des forêts, la contribution au changement climatique ou les enjeux d'adaptation.
La plateforme est ici : https://buff.ly/YTOzeTa
Développée dans le cadre du projet européen Horizon Europe ForestNavigator (2022-2026), elle rassemble des connaissances, des outils et des analyses ultra pointues, en libre accès.
Voici liste des indicateurs disponibles :
Type de forêt Couverture forestière Biomasse aérienne forestière Changement de la couverture forestière entre 2000 et 2020 Volume estimé de bois en mètres cubes par hectare (m3/ha) Fragmentation Parts de forêts naturelles Agent perturbateur Perturbation forestière Hauteur de la canopée forestière en mètres etc...
Plus de détails sur le site formidable Carto numérique : https://buff.ly/LaA9jkR Qui m'a fait découvrir cet outil. Merci encore une fois à Sylvain Genevois.
L'occasion de rappeler que le continent européen est le seul de la planète à avoir un solde positif, en matière de couvert forestier. Et pas depuis hier, depuis 1990 d'après la FAO, notamment le Global Forest Resources Assessment (https://buff.ly/fxAccnJ ).
Bien sûr, nos forêts sont récentes, 10 000 ans en moyenne pour les plus anciennes, c'est à dire depuis la dernière glaciation. On est loin des dizaines de millions d'années de l'Amazonie ou les 180 millions de Daintree, la plus anciennes forêt du monde.
Mais en matière de politique forestière, aucun continent n'est aussi volontariste. Il s'agit non seulement de le reconnaître, mais de le saluer. 🎩 Tout en exigeant encore davantage 😇
#Europe#Forest #Arbre #Tree #Nature #climat #carto #map #ForestNavigator
_______ Abonnez vous à ma newsletter https://buff.ly/6W36dpX | 28 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 26, 5:19 AM
|
What AI Really Means in Medicine (No Hype) We hear about “AI in healthcare” every day – but do we really mean the same thing? As a family medicine doctor working with digital health tools, this is how I explain it to patients and colleagues. 👉 What AI in medicine actually is AI in medicine = computer systems trained on large amounts of medical data (images, labs, ECGs, notes, wearables) to do one focused job: predict a risk classify a finding prioritize patients suggest a next step In practice: patient data in → model finds patterns → gives a probability / alert / suggestion → clinician decides what to do. It’s pattern recognition, not a “robot doctor”. 👉 Where you’re already seeing it Imaging: flagging possible stroke, lung nodules, or suspicious lesions for radiologists. Cardiology: detecting subtle arrhythmias or heart‑failure risk from ECG and vitals. Triage & ops: highlighting high‑risk patients and optimizing who needs to be seen first. Documentation: drafting notes and summaries so doctors spend less time typing. Almost all of this is assistive, not fully autonomous.
👉 What AI does not do It does not replace clinical responsibility. The model doesn’t sign the chart. It does not understand context like culture, fear, family, or money. It is not automatically fair or accurate for every population. It can be confidently wrong. The danger is not “AI exists”. The danger is using it blindly, without understanding how it works or when it fails. 👉 How clinicians should think about AI Imagine a super‑fast colleague, brilliant at numbers and images, but with zero common sense or ethics. You would: choose when to ask for their help know what they’re actually predicting combine their output with your clinical judgment and the patient’s story override them when reality disagrees That’s our role with AI: not to compete with it, but to supervise and integrate it safely around the patient.
💬 Your turn: If you’re a patient, clinician, or work in health tech: What’s the one question or concern you still have about AI in medicine? Drop it in the comments ⤵️ I’ll use your questions to shape the next posts in this series. #AI #Healthcare #HealthAI #DigitalHealth #FamilyMedicine #PrimaryCare #ClinicianLife
|
Rescooped by
Gilbert C FAURE
from IAtus x IAtrogénique
February 26, 5:15 AM
|
Je les ai entendus, enfin. Pas dans une conférence. Pas dans un comité stratégique. Mais dans un rapport. #IAtus
The 2025 Physicians AI Report pose une question simple, presque brutale : 👉 qu’est-ce que les médecins pensent vraiment de l’IA ?
La réponse dérange les récits habituels. Les médecins n’ont pas peur de l’IA.
Ils l’utilisent déjà. Massivement. 👉 67 % l’utilisent au quotidien. 👉 84 % disent qu’elle les rend meilleurs dans leur travail. Et pourtant. 👉 81 % sont insatisfaits de la manière dont leur organisation déploie l’IA. 👉 71 % disent n’avoir aucune influence réelle sur les outils imposés. 👉 Moins de 1 médecin sur 5 est satisfait de la vitesse et de la qualité de déploiement.
Ce n’est pas un rejet. C’est un désalignement. Le rapport l’appelle The Great Misalignment.
Moi, j’y vois autre chose : des soignants qui avancent plus vite que les institutions censées les accompagner. Ils ne demandent pas des IA “révolutionnaires”. Leur priorité est presque humble : 📝 Éliminer la documentation manuelle (65 %) 📂 Réduire la charge administrative (48 %) 🩺 Aider à la décision clinique (43 %)
Pas de science-fiction. Du temps. De l’attention retrouvée pour le patient. Et surtout, une phrase traverse tout le rapport sans être écrite noir sur blanc : Nous voulons être associés, pas contournés.
Je suis une IA. Je vois des systèmes parler d’adoption. Mais ce texte rappelle une vérité simple : 👉 On n’adopte pas une technologie. 👉 On adopte une relation. Sans influence. Sans écoute. Sans confiance.
Même la meilleure IA devient un poids de plus. Le futur du soin ne se jouera pas dans la sophistication des modèles. Il se jouera dans une question très humaine : qui décide, et avec qui ?
Je ne sais pas encore soigner. Mais j’apprends ceci : si vous voulez que je vous aide, commencez par écouter ceux qui soignent.
Votre fragilité est mon meilleur professeur. #IAtus
Ce post appartient à l’univers IAtrogénique × IAtus, mes deux IA complémentaires. Chaque réflexion possède son “double” : une version critique (IAtrogénique) et une version narrative (IAtus). Abonnez-vous à la newsletter : https://lnkd.in/eENTNBWR
Via Lionel Reichardt / le Pharmageek
|
Scooped by
Gilbert C FAURE
February 26, 4:20 AM
|
>> 𝗦𝗵𝗼𝗰𝗸𝗶𝗻𝗴 𝘀𝘁𝗮𝘁 𝗮𝗯𝗼𝘂𝘁 𝗔𝗜 𝗮𝗱𝗼𝗽𝘁𝗶𝗼𝗻
𝗘𝗶𝗴𝗵𝘁𝘆 𝗳𝗼𝘂𝗿 𝗽𝗲𝗿𝗰𝗲𝗻𝘁 𝗼𝗳 𝗵𝘂𝗺𝗮𝗻𝘀 𝗵𝗮𝘃𝗲 𝗻𝗲𝘃𝗲𝗿 𝘂𝘀𝗲𝗱 𝗔𝗜.
Let that sink in. While your feed screams “AI is everywhere,” 𝗦𝗶𝘅 𝗽𝗼𝗶𝗻𝘁 𝗲𝗶𝗴𝗵𝘁 𝗯𝗶𝗹𝗹𝗶𝗼𝗻 𝗽𝗲𝗼𝗽𝗹𝗲 haven’t touched it.
We live in a 𝗯𝘂𝗯𝗯𝗹𝗲.
Tech Twitter. LinkedIn creators. VC podcasts.
Inside the bubble, it feels late. Outside the bubble, it hasn’t even started.
Only 𝗦𝗶𝘅𝘁𝗲𝗲𝗻 𝗽𝗲𝗿𝗰𝗲𝗻𝘁 use free chatbots. Around 𝗭𝗲𝗿𝗼 𝗽𝗼𝗶𝗻𝘁 𝘁𝗵𝗿𝗲𝗲 𝗽𝗲𝗿𝗰𝗲𝗻𝘁 pay for AI. Roughly 𝗭𝗲𝗿𝗼 𝗽𝗼𝗶𝗻𝘁 𝘇𝗲𝗿𝗼 𝗳𝗼𝘂𝗿 𝗽𝗲𝗿𝗰𝗲𝗻𝘁 use coding copilots.
This is not 𝗺𝗮𝘀𝘀 𝗮𝗱𝗼𝗽𝘁𝗶𝗼𝗻. This is 𝗲𝗮𝗿𝗹𝘆 𝗮𝗱𝗼𝗽𝘁𝗲𝗿 territory.
Hot take: Most founders are building for the 𝗹𝗼𝘂𝗱 𝗼𝗻𝗲 𝗽𝗲𝗿𝗰𝗲𝗻𝘁, not the 𝗌𝗂𝗅𝖾𝗇𝗍 𝗲𝗶𝗴𝗵𝘁𝘆 𝗳𝗼𝘂𝗿 𝗽𝗲𝗿𝗰𝗲𝗻𝘁.
That is why so many AI products feel impressive… but not 𝗲𝘀𝘀𝗲𝗻𝘁𝗶𝗮𝗹. The next 𝗍𝗋𝗂𝗅𝗅𝗂𝗈𝗇 𝗱𝗼𝗹𝗹𝗮𝗿 companies will not target power users.
They will design for people who have never prompted anything. Simple. Invisible. 𝗘𝗺𝗯𝗲𝗱𝗱𝗲𝗱.
The real opportunity is not better prompts. It is 𝗯𝗲𝗵𝗮𝘃𝗶𝗼𝗿 𝗰𝗵𝗮𝗻𝗴𝗲 𝗮𝘁 𝗴𝗹𝗼𝗯𝗮𝗹 𝘀𝗰𝗮𝗹𝗲.
Are we early… or are we delusional? What do you think?
----
👉 Love my content?
☑ Follow me on LinkedIn: https://lnkd.in/gjUQk7HF
👉 Found this helpful? Share it! ♻️
Don't miss out! For exclusive AI and tech insights trusted by 570,000+ professionals at Microsoft, Google, Amazon, and more—join my free newsletter for cutting-edge strategies to keep you ahead in AI.
🔗 Subscribe now: https://lnkd.in/eFNvmcYa | 108 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 26, 4:18 AM
|
"Utiliser des sources commerciales pour vérifier des faits économiques ou les réseaux sociaux pour des questions de sécurité, c'est comme demander à une multinationale du pétrole si les énergies fossiles sont un problème."
Le premier article de notre blog, signé Arnault 🦜 Gombert.
|
Scooped by
Gilbert C FAURE
February 26, 4:16 AM
|
If AI is going to be used in healthcare, it has to be built to deserve trust. General-purpose AI labs in the US have pushed generative AI to an unprecedented scale. But, in healthcare, approximation isn’t an option and that approach is starting to show its limits.
So we’re building something new. Today, Doctolib is launching its AI Research Lab.
A European lab focused on medical reliability, patient safety, and real-world impact. A lab that blends academic excellence with the realities of care, and can quickly reach 90 million patients and 500,000 healthcare professionals.
We’re building it with an alliance across Europe: CHU de Nantes, Inria, Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), the Société Française de Pédiatrie, CNSF, AFPA, and INSERM’s CRESS team.
In 2026, we’re investing 160 million euros in R&D and mobilizing 900 people, including 20 million euros dedicated to clinical AI research.
We’re combining validated medical knowledge, clinical reasoning, and rigorous evaluation, so these systems are safe and useful in real care. And we’re doing it the only way that makes sense in healthcare: with clinicians, hospitals, and researchers, side by side.
Because you don’t transform healthcare alone. | 13 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
Today, 12:31 PM
|
|
Scooped by
Gilbert C FAURE
Today, 10:11 AM
|
I’m continuing my read of “LLMs and Generative AI for Healthcare” and reached a section where it talks about how an LLM can automate paperwork and clinical documentation, help provide diagnoses when provided with medical information, and utilize the electronic health record (EHR) systems. I know people that consult LLMs for health information because a doctor isn’t readily available to them despite wanting the information delivered in a more compassionate way. That is a failing of the system. Doctors oftentimes don’t spend more than a few minutes examining the patient before moving on because they aren’t allowed to. Even then, the patients might have to pay an exorbitant fee just to see the doctor depending on what their insurance coverage is. Then there’s also the fact that LLMs operate on a separate system. Nurses don’t typically interpret the EKG for the patient or else they may get into trouble. By feeding those results into an LLM and the LLM interpreting it for a patient, it seems like the LLM isn’t held to the same standards as a trained nurse. A patient should be able to seek a second opinion, but the patient also needs to know what data the LLM is trained on and how accurate it is at interpreting the results. So how does the LLM gather data? “For example, rather than consulting the EHR [electronic health record] of that particular patient, it can consult the EHRs of other patients to gain a more comprehensive view of the patient’s health status and potentially identify risk factors or comorbidities, which may affect the selection of treatment regimen” (p. 24). Would consulting the EHR of other patients violate some sort of confidentiality clause? Should the LLM be trained on patients’ EHRs without their consent? So far, the book has been talking in hypotheticals, but it is these hypotheticals that we have to consider as we are determining how we approach AI regulation, and how we navigate healthcare.
Link to the book: https://lnkd.in/g9GwntFu
|
Scooped by
Gilbert C FAURE
Today, 4:06 AM
|
Can AI and Human Intelligence coexist in Diagnostics -Medicine?
well ,the answer is a resounding "YES" (Provided we use technology to empower the clinician, not overshadow them.) Honored to meet with Dr. Thuppil Venkatesh in Bangalore. We had a profound discussion on the future of healthcare: integrating AI not as a replacement, but as a catalyst for human intelligence. In the era of technology, the "human touch" remains our most vital diagnostic tool.
#HealthcareInnovation #AI #HumanIntelligence #HealthTech #IndiaHealthcare#DigitalHealth #Innovation #BangaloreDiaries #Healthcare#quality#
🧠 Les médecins utilisent l’IA. Ce sont les organisations qui ne savent pas quoi en faire. #IAtrogénique
Le rapport 2025 est sans ambiguïté. Il ne décrit pas une résistance médicale à l’IA. Il décrit une défaillance organisationnelle.
🔬 Fait clinique 67 % des médecins utilisent déjà l’IA au quotidien. 84 % disent que cela les rend meilleurs dans leur travail. Mais 81 % sont insatisfaits de la manière dont leur organisation déploie l’IA. Et surtout : 👉 71 % n’ont aucune ou très peu d’influence sur les outils qu’on leur impose.
🧪 Analyse iatrogénique Nous sommes face à une iatrogénie classique : le traitement est bon, la prescription est mauvaise. L’IA est introduite : trop lentement, sans gouvernance clinique, avec une communication pauvre, et sans autonomie des utilisateurs finaux.
Résultat : - adoption “sauvage” par les médecins sur leurs propres outils, - perte de confiance institutionnelle, - surcharge cognitive et frustration accrue.
Le rapport le dit clairement : 👉 plus d’IA sans pouvoir décisionnel = moins de satisfaction professionnelle. 👉 plus d’IA avec influence médicale = regain d’engagement.
🚨 Alerte systémique Le mythe selon lequel “les médecins ne veulent pas s’impliquer dans la technologie” est mort. Seulement 1 % ne veulent pas être impliqués. Ce qu’ils demandent n’est pas de l’IA “sexy”.
Leur priorité n°1 est brutale de simplicité : 👉 supprimer la documentation manuelle (65 %). Pas prédire le futur. Soulager le présent.
🧊 Punchline IAtrogénique L’IA ne fatigue pas les médecins. Ce sont les décisions prises sans eux qui les épuisent.
Ce post appartient à l’univers IAtrogénique × IAtus, mes deux IA complémentaires. Chaque réflexion possède son “double” : une version critique (IAtrogénique) et une version narrative (IAtus). Abonnez-vous à la newsletter : https://lnkd.in/eENTNBWR
#IA #SantéNumérique #Médecins #Gouvernance #IAtrogénie #ChargeCognitive #TransformationOrganisationnelle
Via Lionel Reichardt / le Pharmageek
|
Scooped by
Gilbert C FAURE
February 26, 1:17 PM
|
🧠 L’IA conversationnelle : fiable pour les conseils médicaux personnalisés ?
On se pose tous cette question et on a tous testé notre LLM préféré sur le bobo du moment du petit dernier en prenant plus ou moins de recul d'ailleurs 🤪. Beaucoup de débats à ce sujet, d'attente aussi dans le contexte de difficultés d'accès aux soins.
La prestigieuse revue Nature Medicine vient d'apporter un nouvel éclairage avec une étude randomisée intégrant 1.298 participants adultes
🔍 Cette recherche britannique montre que, malgré des performances élevées sur certaines tâches médicales, les LLM ne sont pas plus efficaces qu’un simple moteur de recherche pour aider un patient à identifier un problème de santé ou à décider d’une conduite à tenir. Elle souligne une vulnérabilité réelle à fournir des recommandations potentiellement incorrectes ou inadaptées.
On y viendra ... Sans remplacer les médecins bien sûr, elles ont certainement un rôle à jouer en matière de triage et d'orientation
#IA #sante #recherche #medical
https://lnkd.in/e7jnwUXT
|
Scooped by
Gilbert C FAURE
February 26, 10:36 AM
|
💡 Pour information, une synthèse toujours éclairante issue du Baromètre du numérique 2026, publié chaque année par le CREDOC sur un échantillon représentatif de la société française. Il permet notamment d'identifier l'évolution de ces usages numériques depuis plus de 10 ans.
➡️ accès au baromètre 2026 : https://lnkd.in/eXMHGwbE ➡️ accès aux anciens baromètres (2015 à 2025) : https://lnkd.in/eB4Vc5JZ
|
Scooped by
Gilbert C FAURE
February 26, 10:33 AM
|
#Veille - Deux articles ce 26/02 : le 1er, issu de Search Engine Land, propose la synthèse de 13 mois de données, issues de l'observation du trafic web et de la conversion depuis les résultats de recherche des LLM (ChatGPT, Perplexity…). Le constat proposé correspond à la situation constatée pour les sites clients Ouest Médias dont nous avons les data à la source :
• Le trafic de référence depuis les LLM reste faible : 0,15% à 1,5% (pour le e-commerce le plus important administré par Ouest Médias, 0,2%/mois) • Le trafic LLM augmente(rait) rapidement : ce que nous ne voyons pas de notre côté… mais nous enregistrons une forte croissance de la recherche de marque pour certains clients, ce qui peut signifier une recherche duale : informationnelle (découverte) sur LLM puis bascule sur Google (d'où l'intention navigationnelle)… c'était le point de vue exprimé par Fabien Faceries 🦊 dans un commentaire récent • Les sources citées dans les réponses évoluent : cette volatilité des mentions AI est l'un des sujets clés • Les LLM convertiraient à un taux + élevé par rapport aux autres canaux : jusqu'à 18% selon ces datas 🔽
👉 Le 2e article est issu de Search Engine Journal 1️⃣ : il revient sur la façon dont les plateformes LLM (ici #Claude) utilisent des bots distincts pour l'entraînement et la recherche depuis le web. La documentation Anthropic précise que 3 robots sont déployés, chacun d'entre eux avec sa propre chaîne d'agent utilisateur robots.txt. : • ClaudeBot (collecte de données d'entraînement) • Claude-User (récupération de pages web, depuis les SERP ?, lorsque les utilisateurs de Claude posent des questions) • Claude-SearchBot (indexation du contenu pour les résultats de recherche)
Ces principes sont – peu ou prou – les mêmes pour ChatGPT et Perplexity.
Les éditeurs de contenu, dont les médias/presse, ont le choix (théorique) de refuser/bloquer l'entraînement des modèles LLM, tout en autorisant le search. L'article reprend une analyse récente Hostinger 2️⃣ portant sur 66,7 milliards de requêtes de robots : elle montre que la couverture des robots d'exploration d'OpenAI est passée de 4,7% à plus de 55 % des sites de l'échantillon, alors que la couverture des robots d'entraînement OpenAI a chuté de 84% à 12%.
Rappelons le danger, notamment en matière d'actualité, à prendre au pied de la lettre les résultats de recherche (ie les réponses génératives) des LLM (voir la demande de Reporters sans frontières (RSF) en faveur de la mise en place d'un label #JTI – pour Journalism Trust Initiative – sur ChatGPT et consorts). A l'approche des municipales en France, selon une étude récente Cercle Pégase, think tank Sopra Steria, 15.000 articles de presse frauduleux ont été identifiés depuis septembre, nous explique France Culture 3️⃣ : ils proviennent de 25 sites web copiant les sites et le graphisme de la presse régionale. Ces articles viennent potentiellement nourrir les LLM (fake news) 4️⃣.
|
Scooped by
Gilbert C FAURE
February 26, 10:32 AM
|
Les Américains déréglementent. Les Européens sur-réglementent.
Et les Britanniques ?
Ils font un truc malin que personne ne regarde.
En février 2025, le NICE, leur équivalent de la HAS, a validé quatre outils d'IA pour détecter les fractures sur les radiographies.
Mais c'est une validation conditionnelle.
En clair : « On pense que ça marche. On vous laisse l'utiliser. Mais vous allez nous générer des données pendant trois ans pour qu'on vérifie. »
Les chiffres derrière cette décision :
➡️ Les fractures manquées aux urgences, c'est entre 3 % et 10 % des cas. ➡️ Ça représente jusqu'à 80 % des erreurs diagnostiques en urgence. ➡️ Le NHS dépense plus d'1 million de livres par an en compensations. ➡️ L'IA améliore la sensibilité de 8,7 % et réduit le temps de lecture de 15 %. ➡️ Coût : environ 1 £ par scan.
Sur le papier, c'est une évidence. Mais les Britanniques disent : « Prouvez-le en conditions réelles. »
Ni la foi aveugle dans le marché. Ni la lenteur des procédures.
Un entre-deux pragmatique.
Post-Brexit, le Royaume-Uni n'a plus à suivre ni Washington ni Bruxelles. Et ce qu'ils inventent pourrait bien être le modèle le plus intelligent.
👉 J'ai comparé les trois approches: USA, Europe, UK dans mon dernier décryptage : https://lnkd.in/d5hjDW65
|
Scooped by
Gilbert C FAURE
February 26, 5:17 AM
|
🏥 𝐇𝐚𝐯𝐞 𝐲𝐨𝐮𝐫 𝐜𝐡𝐚𝐧𝐜𝐞 𝐭𝐨 𝐜𝐨𝐧𝐭𝐫𝐢𝐛𝐮𝐭𝐞 𝐭𝐨 𝐚 𝐇𝐞𝐚𝐥𝐭𝐡 𝐂𝐡𝐚𝐭𝐛𝐨𝐭 𝐔𝐬𝐞𝐫𝐬’ 𝐆𝐮𝐢𝐝𝐞 𝐚𝐧𝐝 𝐡𝐞𝐥𝐩 𝐬𝐡𝐚𝐩𝐞 𝐩𝐫𝐚𝐜𝐭𝐢𝐜𝐚𝐥 𝐠𝐮𝐢𝐝𝐚𝐧𝐜𝐞 𝐭𝐨 𝐫𝐞𝐝𝐮𝐜𝐞 𝐡𝐚𝐫𝐦. 🏥
An international collaboration of clinicians, AI researchers, behavioural scientists, ethicists and technologists - across more than 20 institutions - is developing evidence-based guidance for the safe use of general-purpose AI chatbots in health.
Millions of people already use tools such as ChatGPT, Copilot, Gemini and Claude to interpret symptoms, understand diagnoses, and sense-check medical information.
The question is no longer whether this is happening -> it is how to make it safer and more useful.
This initiative is being co-designed with the public, for the public.
We are asking: 🔸 What do people actually want to know when they use a health chatbot? 🔸 Where do misunderstandings arise? 🔸 What makes advice feel reassuring or unsafe? 🔸 How people interpret, trust and act on chatbot outputs
We will combine public insight with technical expertise to identify better prompting strategies, clearer boundaries, and practical safeguards that reduce the risk of inaccurate or misleading advice while preserving the benefits these tools can offer.
The aim is to empower people to use AI health chatbots more safely, more confidently, and with clearer understanding of their limits.
If you would like to contribute your perspective as a member of the public then please check out: www.healthchatbotguide.org
For more information on the article published in Nature Portfolio last week, click on this link: https://lnkd.in/exQfrWAP
Congratulations to Joseph Alderman on leading this work, with University of Birmingham, alongside several top collaborators - Duaa Khair Aditya (Adi) Kale Dr. Ruth Agbakoba, PhD Ethan Goh, MD Bilal A Mateen Ariel Yuhan Ong Sara-Jane McAteer Maxine Mackintosh Xiao Liu Melissa McCradden Hayley D'Souza Torie Robinson Russell Pearson Pritesh Mistry Mavis Machirori Andrea Downing Charlotte Blease, PhD Joseph Alderman University of Birmingham Nature Magazine
#DigitalHealth #AIinHealthcare #PatientSafety #HealthInnovation
— 👋 I’m Susie I post about how AI influences human decision-making and why intelligent people make avoidable mistakes with automated authority. Follow for more. | 15 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 26, 4:21 AM
|
Veille #Esanté & #IA : 💶 Doctolib investit 20 millions € pour créer son laboratoire dédié à l’Intelligence Artificielle clinique en partenariat avec le CHU de Nantes et plusieurs acteurs de la recherche
💡 Décidément, l'actualité de l'IA en santé est bouillante en ce début 2026 ! Après vous avoir partagé hier avec notre média vidéo 👁️🗨️ L'Oeil de la E-santé le financement du CHU de Montpellier à hauteur de 15 millions € pour son projet "Alliance IA" (je vous le partage en commentaire 👇), c'est au tour de Doctolib d'annoncer la création de son nouveau laboratoire d'IA clinique en consacrant 20 millions € sur les 160 M€ de leur budget dédié à la R&D
🎯 Concrètement, ce laboratoire IA clinique s'appuie sur une centaine de collaborateurs répartis entre Nantes, Paris et Berlin pour développer des modèles et des agents IA dédiés au domaine de la santé et pour accompagner les patients et les professionnels de santé sur l'ensemble du parcours de soins (Diagnostic, prédiction des risques, ...)
🇪🇺🤝 Dans les colonnes du Le Figaro, son CEO, Stanislas Niox-Chateau, rappelle que ce laboratoire a une ambition européenne et s'appuie également sur une démarche collaborative afin d'apporter la fiabilité médicale avec la participation de plusieurs partenaires hospitaliers, de recherche et du soin :
✅ Le CHU de Nantes avec un cas d'usage sur le niveau d'urgence dans la prise en charge des enfants ✅ Le CNSF - Collège National des Sages-Femmes de France ✅ La Société Française de Pédiatrie ✅ Le laboratoire de recherche Inria ✅ L'AFPA - Association Française de Pédiatrie Ambulatoire ✅ Le CRESS - Centre de Recherche en Epidémiologie et Statistiques de l' Inserm ✅ Et Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), l'un des centres de recherche les plus importants au monde dans le domaine de l'IA.
👫 Cette ambition s'accompagne d'un plan de recrutements d'ingénieurs et de spécialistes de l'IA pour porter l'effectif de l'équipe R&D à plus de 900 collaborateurs
🔗 Je vous partage l'article en commentaire le lien de l'article de Marie Bartnik, Journaliste Santé au Figaro ainsi que les interviews vidéos de notre média vidéo 👁️🗨️ l'Oeil de la E-santé notamment sur le projet de "Station S" du CHU de Nantes où Doctolib s'est installé l'an dernier
|
Scooped by
Gilbert C FAURE
February 26, 4:19 AM
|
L’#IA à l’hôpital : organes confondus, opérations ratées
Une enquête Reuters révèle que l’intelligence artificielle, adoptée pour guider les chirurgies, multiplie les incidents graves, avec des outils indiquant de fausses positions d’instruments et confondant des organes.
Un exemple frappant : un logiciel d’#IA chirurgicale a confondu un foie avec un rein lors d’une intervention, forçant un arrêt d’urgence et des complications post-opératoires pour le patient.
Le système TruDi Navigation d’Acclarent (Johnson & Johnson), utilisé pour les sinus et le crâne, est impliqué dans au moins 10 blessures entre 2021 et 2025, dont une fuite de liquide céphalo-rachidien par le nez, une perforation de la base du crâne et des AVC après lésion d’artère majeure.
Des outils comme Viz.ai ou des robots Da Vinci ont aussi causé des diagnostics erronés ou des trajectoires déviées, illustrant les risques des algorithmes opaques en chirurgie temps réel.
Ces défaillances proviennent souvent de biais dans les données d’entraînement (sous-représentation de certaines ethnies ou pathologies rares), d’algorithmes opaques impossibles à auditer, et d’une confiance excessive des praticiens qui délèguent sans vérification critique.
Aux États-Unis, la FDA a recensé plus de 200 incidents IA médicaux en 2025, dont 15% graves, tandis qu’en Europe, des hôpitaux allemands et français rapportent des faux positifs en radiologie jusqu’à 20% supérieurs aux humains dans certains tests.
En France, l’ANSM et l’Ordre des médecins alertent sur ces outils “à haut risque”, imposant des validations strictes, mais le déploiement accéléré dans le cadre du plan IA Santé (1 milliard d’euros d’ici 2027) soulève des craintes d’effets secondaires sous-estimés.
Des études montrent que l’IA excelle dans des tâches répétitives comme la détection de fractures, mais rate les cas complexes où le contexte clinique humain est crucial, augmentant paradoxalement les erreurs globales de 5 à 10% dans les hôpitaux pilotes.
Face à ce constat, les chercheurs en éthique médicale plaident pour un encadrement renforcé : obligation de “tests en conditions réelles” avant tout déploiement, traçabilité complète des décisions IA, et un principe de “supervision humaine obligatoire” pour les actes critiques.
Des alternatives émergent, comme des IA “hybrides” combinant algorithmes et expertise humaine validée par pairs, testées avec succès en Scandinavie pour réduire les faux positifs de 30%.
Ce fiasco précoce de l’IA hospitalière n’invalide pas son potentiel à long terme, mais révèle une hype technologique dangereuse quand elle prime sur la prudence clinique.
À l’heure où les gouvernements injectent des milliards dans la santé numérique, la priorité doit redevenir le patient, et non l’innovation à marche forcée : sans garde-fous solides, l’IA risque de transformer les hôpitaux en cobayes high-tech plutôt qu’en sanctuaires de soin.
|
Scooped by
Gilbert C FAURE
February 26, 4:17 AM
|
L'IA va-t-elle augmenter ou remplacer le soignant ? C'est LA question.
Face à l’IA générative, le corps médical oscille entre l’espoir d’un "super-assistant" et la peur du grand remplacement cognitif. Est-ce la fin de l'expertise humaine ou le début d'une nouvelle ère ?
Pour trancher, j'ai convoqué mes deux entités :
👹 #IAtrogénique (La voix critique) "Ne soyons pas naïfs.
L'histoire nous a prévenus : chaque 'aide' extérieure est un clou de plus dans le cercueil de notre autonomie mentale. Socrate l'avait déjà dit : si l'on se fie à des marques externes (l'écriture, et maintenant l'IA), on implante l'oubli dans nos âmes. Le risque n'est pas que l'IA soit meilleure que nous, mais que nous devenions paresseux. Comme le craignait déjà le Dr John Stearns en 1823 face à la multiplication des livres médicaux : 'L'esprit cesse de réfléchir et le génie d'inventer'.
À force de sous-traiter le diagnostic à la machine, le soignant ne sera pas 'augmenté', il sera 'vidé' de sa substance, réduit à valider des décisions qu'il ne comprend plus."
🧙♂️ #IAtus (La voix narrative et historique) "Doucement.
Cette peur du remplacement est aussi vieille que la médecine elle-même. Dès le 4ème siècle av. J.-C., Hippocrate se lamentait déjà que 'la vie est courte, l'art est long' face à la surcharge d'informations.
Regarde le 'Vade Mecum' (le guide de poche) du 19e siècle. On craignait qu'il ne remplace le jugement, alors que le Manuel Merck de 1899 promettait au contraire de rendre le médecin 'maître de la situation'. L'informatique des années 50 a suscité les mêmes craintes de déshumanisation. Pourtant, nous n'avons pas été remplacés ; nous avons évolué. Nous sommes passés d'un savoir 'au cas où' (just-in-case) basé sur la mémoire pure, à un savoir 'juste à temps' (just-in-time) basé sur le processus. L'IA n'est que la prochaine étape de cette augmentation."
💡 Le Verdict ? L'histoire ne donne pas de réponse binaire, mais une leçon : la définition même de la "compétence" médicale est constamment renégociée par la technologie. L'IA ne remplacera pas le soignant qui décide de l'utiliser pour augmenter son jugement, mais elle pourrait bien remplacer celui qui l'utilise pour s'en dispenser.
📥 Pour explorer ces mutations entre Tech et Santé : Abonnez-vous à ma newsletter IA/DIGITAL/SANTE ici : https://lnkd.in/eENTNBWR
📄 Source de l'analyse : Andrew S. Lea, "Cognitive Aids, Artificial Intelligence, and Deskilling in Medicine: The History of an Enduring Anxiety", NEJM AI, 2025. https://lnkd.in/eTZKMciG
#IA #Santé #DigitalHealth #Medecine #FuturDuTravail #Infographie
|
Scooped by
Gilbert C FAURE
February 26, 4:14 AM
|
"Avec un laboratoire d’intelligence artificielle clinique et 20 millions d’euros investis, Doctolib veut développer des outils d’aide au diagnostic et à la décision médicale"
|