 Your new post is loading...
 Your new post is loading...
|
Scooped by
Gilbert C FAURE
October 13, 2013 8:40 AM
|
is a personal Notebook Thanks John Dudley for the following tweet "If you like interesting snippets on all sorts of subjects relevant to academia, information, the world, highly recommended is @grip54 's collection:" La curation de contenus, la mémoire partagée d'une veille scientifique et sociétale
|
Scooped by
Gilbert C FAURE
Today, 5:41 AM
|
Stop treating AI like a search engine for your academic research.
If you are getting generic or unusable results, the problem is your prompt.
Most people give AI vague instructions and expect precise answers.
That approach fails every time.
If you want rigorous academic output, you need a structured prompt.
Your prompt must include four pillars.
→ A clear role that defines who the AI is and what expertise it brings.
→ A specific task that tells the AI exactly what action to take with the information.
→ Defined limits that restrict sources, timeframe, geography, or data type.
→ A targeted output format that controls structure, tone, and presentation.
___________________________________________Subscribe to my free newsletter for AI tips in academic research! 👇 https://lnkd.in/dTZesqZA --------------------------------------------------I'm Muhammad Irfan 🧬 Follow me and hit the 🔔 for more useful insights! Repost, if you find this useful 🔁 -------------------------------------------------- | 20 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 20, 3:16 AM
|
Découvrez MedGPT, le premier assistant IA médical français. Pensé pour les professionnels de santé. Des réponses fondées sur des sources accessibles et alignées sur les référentiels français.
|
Scooped by
Gilbert C FAURE
February 19, 7:22 AM
|
On célèbre l'adoption massive de ChatGPT en santé comme on applaudirait la file d'attente devant un fast-food : en oubliant que les gens y vont parce que le restaurant d'à côté a fermé.
580 000 messages de santé par semaine dans les déserts médicaux américains.
Ce n'est pas la preuve que l'IA fonctionne.
C'est la preuve que le reste a cessé de fonctionner.
La suite dans mon dernier article: https://lnkd.in/eMAWnvfD | 10 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 19, 7:15 AM
|
L’Institut national de recherche en sciences et technologies du numérique (INRIA) et le leader européen de la santé en ligne, Doctolib, ont scellé un partenariat ambitieux. En créant une équipe de recherche commune, les deux acteurs entendent transformer l’intelligence artificielle en un véritable « copilote » pour les soignants et un compagnon de route pour les patients.
|
Scooped by
Gilbert C FAURE
February 19, 7:04 AM
|
J’ai le plaisir de vous annoncer que j’occupe désormais le poste de Membre du Comité d'Administration - Société Francophone de l’IA en Santé chez SoFIA-Santé.
🚀🚀 Lancement officiel de la Société Francophone de l’Intelligence Artificielle en Santé : SoFIA-Santé !
Je suis honoré(e) de rejoindre le Conseil d’Administration de cette nouvelle société savante francophone internationale, dédiée à une IA éthique, interdisciplinaire et au service du soin et de la prévention.
📣 Dans un contexte où l’intelligence artificielle bouleverse nos pratiques, SoFIA-Santé a pour mission de fédérer une communauté francophone et internationale autour de valeurs fortes :
✅ Respect des droits fondamentaux des patients ✅ Accompagnement des professionnels, patients et citoyens ✅ Recherche rigoureuse et interdisciplinaire ✅ Gouvernance éthique et durable de l’innovation en santé ✅ Valorisation d’usages fondés sur des preuves scientifiques
🧭 L’organisation est structurée autour de 5 comités :
1️⃣ Éthique & Réglementaire 2️⃣ Recherche, Innovation & Data 3️⃣ Formation & Sensibilisation 4️⃣ Relations Internationales, Partenariats & Communication 5️⃣ Usages & Impacts Socio-Environnementaux de l’IA en Santé 💡 SoFIA-Santé est ouverte à toutes celles et ceux qui veulent construire une IA porteuse de progrès dans le domaine de la santé.
Le Conseil d’Administration est présidé par Pr Patrick Callier. Responsables et membres actifs des autres commissions : Barbara Mathian, Dr Jean Louis Fraysse, Benedicte lelievre, Thierry Vermeeren, Dany Girard, Jimmy Siméon. avec en plus Fabrice DENIS, Stéphane OHAYON, Maria Alice Bertolim Nicoleau Pascale GELIN, David Gruson, Cécile Théard-Jallu, Maxime Elbaz Ph.D.
Un honneur et un réel plaisir d'être si bien entouré pour apprendre et partager avec tous ces experts sous la houlette généreuse et inspirante de Patrick Callier et Barbara Mathian !
📲 Pour en savoir plus et nous rejoindre : www.sofia-santé.net
#Santé #IA #Ethique #Innovation #Prévention #SoFIASanté #IntelligenceArtificielle #Francophonie #SociétéSavante | 97 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 19, 3:29 AM
|
HAS & IA Générative : Le guide pour faire A.V.E.C. (ou sans) erreurs ?
L'IA générative débarque dans nos pratiques de soins. Pour naviguer entre fascination et précaution, la Haute Autorité de Santé vient de publier ses "Premières clefs d’usage" à destination des professionnels du sanitaire et du médico-social.
Pour décrypter cette nouvelle méthode A.V.E.C. (Apprendre – Vérifier – Estimer – Communiquer), j'ai convoqué mes deux IA :
🔴 #IAtrogénique (La voix critique) "Ne soyons pas naïfs.
L'IA générative est une machine à probabilités qui ne se soucie pas de la vérité.
Le guide de la HAS est clair sur les risques : hallucinations, erreurs factuelles et données obsolètes. Le danger ? La fuite de données. Si vous copiez-collez un compte-rendu avec des données identifiantes, vous brisez le secret médical. L'usage doit être paranoïaque : considérez chaque réponse comme une simple proposition à vérifier impérativement, d'autant que chaque requête a un coût écologique non négligeable."
🔵 #IAtus (La voix narrative) "Certes, mais voyons le potentiel !
Ce guide nous invite à transformer l'outil en assistant pour retrouver du 'temps soignant'. L'IA peut pré-remplir des formulaires administratifs, traduire des échanges pour des patients allophones ou synthétiser la littérature scientifique. La méthode A.V.E.C. est une main tendue pour s'approprier la technologie : 1️⃣ Apprendre à prompter et choisir ses outils. 2️⃣ Vérifier la pertinence et les sources. 3️⃣ Estimer si l'outil répond vraiment à nos besoins dans la durée. 4️⃣ Communiquer avec le patient et les équipes pour instaurer la confiance."
💡 En résumé (L'infographie) L'IA ne remplace pas l'expertise, elle se fait AVEC le professionnel. Retrouvez la synthèse visuelle de ces bonnes pratiques dans l'infographie ci-dessous.
🔗 Source officielle HAS : https://lnkd.in/emGdZmVk
📩 Pour ne rien rater des impacts de l'IA sur la Santé (entre risques et récits), abonnez-vous à ma newsletter : https://lnkd.in/eENTNBWR
#IASante #DigitalHealth #HAS #IAGenerative #Ethique #IAtrogénique #IAtus
|
Scooped by
Gilbert C FAURE
February 18, 10:20 AM
|
🔮 Votre dossier médical est-il un livre dont l'IA écrit la suite ?
Nous sommes entrés dans l'ère où les modèles génératifs ne se contentent plus de prédire le prochain mot d'une phrase, mais le prochain événement de votre vie. Voici une lecture binaire d'une avancée majeure publiée dans Nature : le modèle Delphi-2M.
🧬 IAtus (La Vision Narrative) Imaginez un "GPT de la santé".
Au lieu d'apprendre des textes, ce modèle a lu l'historique de vie de millions de personnes (Biobanque UK et registres danois). Il ne voit pas des mots, mais des événements de santé comme des "tokens". Le résultat ? Une capacité inédite à générer des "trajectoires de santé synthétiques". Delphi-2M peut anticiper l'apparition de plus de 1 000 maladies simultanément, surpassant souvent les modèles cliniques actuels pour prédire les comorbidités complexes. C'est la promesse d'une médecine ultra-personnalisée où l'on pourrait visualiser nos futurs possibles pour mieux les prévenir, transformant l'incertitude médicale en un scénario lisible.
⚡ IAtrogénique (La Vision Critique) Mais attention à ne pas confondre la carte et le territoire.
Delphi-2M ne "comprend" pas la physiologie ; il apprend des régularités statistiques dans des données administratives. Le risque ? L'IA ne reproduit pas seulement la maladie, elle reproduit les biais du système de santé. Le modèle a appris, par exemple, que certaines maladies "hospitalières" sont plus graves, simplement parce qu'elles sont codées dans un contexte hospitalier. De plus, il hérite des biais de sélection de ses données d'entraînement (comme le "biais d'immortalité" de la Biobanque UK). Nous risquons de réduire le patient à une suite de codes ICD-10, où la prédiction statistique devient une prophétie auto-réalisatrice, potentiellement utilisée par des acteurs non médicaux (assureurs ?).
📊 L'infographie ci-dessous décrypte le fonctionnement de ce "Transformer" médical.
📥 Pour aller plus loin sur ces frictions entre IA, Digital et Santé, abonnez-vous à ma newsletter : 👉 https://lnkd.in/eENTNBWR
📄 Source de l'étude : "Learning the natural history of human disease with generative transformers" Publié dans Nature (17 Septembre 2025). Par Artem Shmatko, Moritz Gerstung et al. #IAtrogénique #IAtus #SanteNumerique #AIinHealthcare #MedecineDuFutur
|
Scooped by
Gilbert C FAURE
February 18, 4:21 AM
|
🚀 GPT, LLM et JEPA : trois concepts à ne pas confondre (mais à comprendre ensemble)
L’Intelligence Artificielle évolue vite. Très vite. Mais derrière les buzzwords, il y a des architectures et des paradigmes bien distincts.
Voici un décryptage clair 👇
⸻
1️⃣ GPT : un modèle spécifique
GPT signifie Generative Pre-trained Transformer. C’est une famille de modèles développée par OpenAI.
Exemple : ChatGPT repose sur des modèles GPT.
Caractéristiques : • Architecture Transformer • Pré-entraînement massif sur du texte • Modèle auto-régressif (prédit le prochain token) • Optimisé pour la génération de texte
👉 GPT est un cas particulier de LLM.
⸻
2️⃣ LLM : la catégorie générale
LLM signifie Large Language Model.
C’est une famille de modèles capables de comprendre et générer du langage naturel grâce à : • Des milliards (voire trillions) de paramètres • Un entraînement sur d’énormes volumes de données • Des architectures de type Transformer
Exemples connus : • GPT-4 • LLaMA de Meta • Claude de Anthropic
👉 Tous les GPT sont des LLM. 👉 Tous les LLM ne sont pas des GPT.
⸻
3️⃣ JEPA : un changement de paradigme
JEPA signifie Joint Embedding Predictive Architecture.
Concept porté notamment par Yann LeCun chez Meta.
Contrairement aux LLM auto-régressifs qui prédisent le prochain mot, JEPA cherche à : • Apprendre des représentations du monde • Prédire des représentations latentes plutôt que des tokens • Réduire la dépendance à la génération séquentielle
L’idée clé : ➡️ Construire des systèmes qui comprennent le monde de manière plus abstraite ➡️ Aller au-delà du simple “next token prediction”
Certains y voient une piste vers une IA plus robuste et plus proche du raisonnement humain.
⸻
🎯 En résumé • GPT = un type spécifique de LLM • LLM = grande catégorie de modèles de langage • JEPA = approche alternative centrée sur l’apprentissage de représentations
Le débat actuel n’est plus seulement : “Quel modèle est le plus puissant ?”
Mais plutôt : 👉 Quelle architecture nous rapprochera d’une intelligence plus générale ?
⸻
Si vous travaillez en tech, finance, produit ou stratégie, comprendre ces différences n’est plus optionnel.
L’IA n’est plus un outil. C’est une infrastructure cognitive.
|
Scooped by
Gilbert C FAURE
February 18, 4:16 AM
|
The results are in for the L&D Global Sentiment Survey 2026, the 13th annual check of the pulse of L&D worldwide. Thank you to the 3,797 people from 105 countries who took part.
The key take aways:
𝟭. 𝗔𝗜 𝗶𝗻𝘁𝗲𝗿𝗲𝘀𝘁 𝗵𝗮𝘀 𝗽𝗲𝗮𝗸𝗲𝗱 Last year the USA's vote for AI dropped. This year the world followed, reducing the vote for 𝘈𝘳𝘵𝘪𝘧𝘪𝘤𝘪𝘢𝘭 𝘐𝘯𝘵𝘦𝘭𝘭𝘪𝘨𝘦𝘯𝘤𝘦 by just 0.1% That is enough to say that AI fever has peaked. It doesn't mean we know how to use it yet. Just that it’s moved from novelty to part of daily life.
𝟮. 𝗟&𝗗 𝗶𝘀 𝘂𝘀𝗶𝗻𝗴 𝗔𝗜 - 𝘀𝗲𝗹𝗲𝗰𝘁𝗶𝘃𝗲𝗹𝘆 𝘗𝘦𝘳𝘴𝘰𝘯𝘢𝘭𝘪𝘻𝘢𝘵𝘪𝘰𝘯/𝘢𝘥𝘢𝘱𝘵𝘪𝘷𝘦 𝘭𝘦𝘢𝘳𝘯𝘪𝘯𝘨 (#3) has risen for three years in a row, driven by interest in AI. Meanwhile 𝘓𝘦𝘢𝘳𝘯𝘪𝘯𝘨 𝘢𝘯𝘢𝘭𝘺𝘵𝘪𝘤𝘴 (#9) fell for the third year in a row. Both 𝘴𝘩𝘰𝘶𝘭𝘥 have received a boost from the power of AI. So what's going on?
𝟯. 𝗩𝗮𝗹𝘂𝗲'𝘀 𝗿𝗲𝗰𝗼𝘃𝗲𝗿𝘆 𝗰𝗼𝗻𝘁𝗶𝗻𝘂𝗲𝘀 Last year's big story was the recovery of 𝘚𝘩𝘰𝘸𝘪𝘯𝘨 𝘷𝘢𝘭𝘶𝘦 (#5). It rose again this year, to an all-time high. Is this because we can now show L&D's value using AI, or because people are afraid that if they don't, their jobs are at risk? I’d love to read your thoughts in the comments.
𝟰. 𝗖𝗵𝗮𝗹𝗹𝗲𝗻𝗴𝗲𝘀 𝗮𝗿𝗲 𝗺𝗮𝘁𝗰𝗵𝗲𝗱 𝗯𝘆 𝗮𝗰𝘁𝗶𝗼𝗻 95% of respondents answered the question 𝘞𝘩𝘢𝘵 𝘪𝘴 𝘺𝘰𝘶𝘳 𝘣𝘪𝘨𝘨𝘦𝘴𝘵 𝘓&𝘋 𝘤𝘩𝘢𝘭𝘭𝘦𝘯𝘨𝘦?, sharing their concerns in over 40,000 words. But we received almost the same number of words in answer to 𝘞𝘩𝘢𝘵 𝘢𝘳𝘦 𝘺𝘰𝘶 𝘥𝘰𝘪𝘯𝘨 𝘯𝘰𝘸 𝘪𝘯 𝘓&𝘋 𝘵𝘩𝘢𝘵 𝘺𝘰𝘶 𝘸𝘦𝘳𝘦 𝘯𝘰𝘵 𝘥𝘰𝘪𝘯𝘨 12 𝘮𝘰𝘯𝘵𝘩𝘴 𝘢𝘨𝘰? Challenges are real, but are being met by action.
𝗠𝗲𝘁𝗵𝗼𝗱𝗼𝗹𝗼𝗴𝘆: The survey ran for 76 days from 17 November 2025 to 31 January 2026. It had six questions, of which only one was obligatory: 𝘞𝘩𝘢𝘵 𝘸𝘪𝘭𝘭 𝘣𝘦 𝘩𝘰𝘵 𝘪𝘯 𝘸𝘰𝘳𝘬𝘱𝘭𝘢𝘤𝘦 𝘓&D in 2026? Participation was invited by email, social media and direct messaging.
You can download the report here: https://lnkd.in/ekD95B2z
Thanks to the report partners making the survey possible:
Sponsors: OpenSesame, getAbstract, Speexx, 360Learning, Learning Pool and TalentLMS
Partners: Learning Technologies Exhibition & Conference, eLearningMinds, Learning & Development Institute (L&DI), Enocta, OEB Global Conference, eLearningIndustry, Learning Uncut, iPro Sp. z o.o., Mosaicoelearning, Interlocked B.V., Biz Group, Learning News, Actua Solutions, Aleido, Assemble You, Capability Group, e-learnmedia, s.r.o., Firemní vzděláváníí, nōvi - a lifewide learning company, Offbeat, Training Journal, VOV Lerend Netwerk and Asia Learn Hub Marketplace Pte Ltd
#GSS26 #learning #research #learninganddevelopment | 84 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 18, 4:03 AM
|
The seven roles of generative AI: Potential & pitfalls in combatting misinformation (Behavioral Science & Policy):
https://lnkd.in/dAQmpDCR
Glimpse: Since misinformation has the power to sway opinions and threaten democracy, it must be effectively mitigated. In this field, Generative Artificial Intelligence offers both opportunities and concerns. It can produce questionable content as well as identify and dispel false information on a large scale. AI's promise is highlighted by its capacity to encourage and persuade people, promote dialogue, and improve media literacy. But dangers like delusions, bias reinforcement, and manipulation draw attention to the necessity of implementation done carefully. Through the use of strengths, weaknesses, opportunities, and threats (SWOT) analysis, we investigate the functions of Gen AI as an informant, guardian, persuader, integrator, collaborator, teacher, and playmaker. In order to guarantee that gen ai can be used as a tool for truth rather than deceit, we emphasize for policymakers and technology leaders the significance of rules, transparency, human oversight, and AI literacy.
--- Free articles and analyses on soft counter-extremism, against online hate, and on the theory of mis-/disinformation (usually third-party content). Two-week reviews available via the following three Policyinstitute.net websites: • counter-terrorism.org • preventhate.org • strategism.org
The most recent LinkedIn posts on the above subjects, with glimpses, can be accessed via: • https://lnkd.in/eBarZAew
The views expressed in this post is that of the author(s) of the source content and do not necessarily represent those of Policyinstitute.net and its staff. While we carefully produce the glimpses to the articles, documents, or recordings that we hyperlink, we are not responsible for textual changes nor for imponderable parts of the original items.
#policyinstitutenet #preventradicalization #preventextremism #counterextremism #preventhate #disinformation #misinformation
|
Scooped by
Gilbert C FAURE
February 17, 10:12 AM
|
Doctors as medical orchestrators
|
Scooped by
Gilbert C FAURE
February 17, 4:34 AM
|
Waouh ! Je viens d’essayer le nouveau modèle de Google TranslateGemma, et c’est comme si on avait un Google Translate sur son ordinateur. Un modèle local ne nécessitant donc aucune connexion et n’envoyant aucune donnée. Et évidemment gratuit. Et je n’ai essayé que le plus petit des modèles (avec Ollama) !
https://lnkd.in/dHb_bn5w
https://lnkd.in/dYXCRTUe
|
|
Scooped by
Gilbert C FAURE
Today, 5:42 AM
|
L’IA médicale : du tube à essai au chevet du patient (ou l’art de survivre au réel) 🧠🏥
On fantasme souvent une IA omnipotente qui révolutionne l'hôpital du jour au lendemain. La réalité scientifique est plus... nuancée.
Une revue systématique récente publiée dans npj Digital Medicine a passé au crible près de 1 000 études pour n'en retenir que 20. Pourquoi ? Parce que le "monde réel" est impitoyable pour les algorithmes.
Voici la lecture double de cette fracture entre théorie et pratique :
🛑 IAtrogénique (La critique clinique) Le diagnostic des effets indésirables de l’innovation.
L'IA souffre d'un syndrome de "tour d'ivoire". Si les modèles de Deep Learning excellent en laboratoire (preuves de concept), leur greffe dans le tissu clinique rejette souvent l'implant. Le rapport est sévère : sur les études prospectives retenues, aucune n'a évalué la durabilité à long terme et une seule s'est penchée sur les coûts de mise en œuvre. Nous fabriquons des algorithmes performants (haute précision), mais nous oublions de vérifier s'ils sont solvables et durables. L'IA est cliniquement efficace, mais structurellement fragile.
🧬 IAtus (La narration constructive) Le récit de la continuité des soins.
Pour combler ce vide (ce hiatus), il ne suffit plus de coder, il faut "inculturer" l'IA. L'avenir appartient aux modèles hybrides (Hybrid effectiveness-implementation designs). L'histoire ne doit plus raconter comment une IA bat un médecin au diagnostic, mais comment elle s'intègre silencieusement dans un flux de travail chaotique pour sécuriser le parcours de soin. L'enjeu n'est plus la performance brute, mais l'adoption humaine et l'équité d'accès.
📥 Pour aller plus loin et ne rien manquer de mes analyses IA/DIGITAL/SANTE : Abonnez-vous à ma newsletter ici : https://lnkd.in/eENTNBWR
🔎 La Source : Prospective real-world implementation of deep learning systems in healthcare: a systematic review guided by implementation science Publié dans : npj Digital Medicine (Nature Portfolio) Lien : https://lnkd.in/euiRbAtq #IAtrogénique #IAtus #DigitalHealth #DeepLearning #SantéNumérique #ImplementationScience
|
Scooped by
Gilbert C FAURE
February 20, 3:27 AM
|
L’essor de l’IA en santé offre un potentiel majeur pour le diagnostic et l’apprentissage, mais expose aussi à un risque de « deskilling » préoccupant
|
Scooped by
Gilbert C FAURE
February 19, 9:55 AM
|
📚 𝗖𝗵𝗿𝗼𝗻𝗶𝗾𝘂𝗲𝘀 𝗱𝗲 𝗹𝗮 𝗥𝗲𝗰𝗵𝗲𝗿𝗰𝗵𝗲 — #1
𝙑𝙚𝙞𝙡𝙡𝙚, 𝙄𝙣𝙩𝙚𝙡𝙡𝙞𝙜𝙚𝙣𝙘𝙚 𝙚́𝙘𝙤𝙣𝙤𝙢𝙞𝙦𝙪𝙚, 𝙍𝙚𝙣𝙨𝙚𝙞𝙜𝙣𝙚𝙢𝙚𝙣𝙩, 𝙆𝙈
Les meilleures idées en veille et intelligence économique ne viennent pas toujours du terrain. Parfois, elles viennent des labos. Encore faut-il savoir où chercher.
Chaque mois, des chercheurs publient des travaux qui pourraient enrichir votre pratique : méthodes testées, concepts affinés, retours d'expérience documentés.
Cette chronique mensuelle en partenariat avec Veille Mag et Jacqueline Sala vous les rend accessibles.
Au sommaire de ce premier numéro :
🔸 L'IE comme levier du développement entrepreneurial — regard depuis un incubateur 🔸 L'esprit corsaire : un modèle pour penser les conflictualités contemporaines 🔸 Culture de cybersécurité : ce que l'IE et le hacking éthique peuvent s'apporter 🔸 L'intelligence territoriale comme organisation apprenante 🔸 Le besoin en information dans les services de renseignement — une lecture médicale originale 🔸Et pas mal d'autres choses encore
Faire de la veille c'est mon métier. La partager, mon plaisir 😊
#VeilleStratégique #IntelligenceEconomique #Renseignement #Veille #Recherche
Nicolas MOINET Christian Marcon Norbert Lebrument Audrey Knauf Elisabeth Noël Terry ZIMMER Yannick PECH, Ph.D, EBIOS-RM, eJPT Pierre Memheld Olivier Le Deuff Damien Liccia Maryse RIZZA Mathieu Andro Magali BIGEY Académie du renseignement Études Françaises de Renseignement et de Cyber
https://lnkd.in/gfQHAf96
|
Scooped by
Gilbert C FAURE
February 19, 7:20 AM
|
🎒✨ What if your prep routines were actually fun to use?
🔎 Let's discover a useful tool! #1 📓 NotebookLM #2 🎮 Blooket #3 💡 Brilliant
💬 Would you like a Part 2? Comment: “TOOLS” 👇 And we’ll drop 3 more! #TeacherTools #EdTech #TeachingResources #TeacherLife #InnovativeTeaching
|
Scooped by
Gilbert C FAURE
February 19, 7:12 AM
|
L'intelligence artificielle en santé a explosé en capacités, mais a-t-elle un impact réel sur les soins ?
Dans ce résumé vidéo, nous décryptons le rapport State of Clinical AI 2026 du réseau ARISE (Stanford, Harvard, NEJM AI). Un document de 130 pages, dense et sans langue de bois, qui dresse un bilan critique de l'IA médicale.
Au sommaire de ce décryptage :
� Le paradoxe du marché : Alors qu'il existe plus de 1 200 dispositifs médicaux autorisés par la FDA et un marché de 70 milliards de dollars, moins de 1 % de ces outils rapportent des résultats cliniques sur les patients.
� Le mythe de la performance : Les modèles sont parfois jugés "super-humains" sur des QCM, mais leurs performances s'effondrent de 30 à 40 % dès qu'ils sont confrontés à la réalité clinique (conversation, informations incomplètes).
� Ce que veulent vraiment les médecins : Alors que 45 % des études se concentrent sur le diagnostic complexe, moins de 1 % s'intéressent aux tâches administratives (codage, facturation), qui sont pourtant la source principale de l'épuisement professionnel.
� L'avenir des systèmes de santé : Nous avons franchi le cap technologique, mais pas encore le cap organisationnel. L'IA ne sauvera pas le système de santé, mais bien gouvernée, elle peut éviter son effondrement.
|
Scooped by
Gilbert C FAURE
February 19, 3:42 AM
|
Google Scholar is now AI-Powered!
For years, Google Scholar has worked one way.
It pulled up papers based on keywords from your search query.
Now Scholar Labs does something completely different.
Scholar Labs does not just return papers.
It breaks your question apart, finds the core ideas inside it, and pulls studies that actually answer what you asked.
Then it explains how each study fits into the solution.
That turns hours of scanning PDFs into a few minutes of clarity.
Why this matters? → It helps you navigate complex, multi-layered questions. → It finds relationships across papers you would not see on your own. → It gives you a structured summary instead of a chaotic list of results.
__________________________________________ Subscribe to my free newsletter for AI tips in academic research! 👇 https://lnkd.in/dTZesqZA -------------------------------------------------------- I'm Muhammad Irfan 🧬 Follow me and hit the 🔔 for more useful insights! Repost, if you find this useful 🔁 -------------------------------------------------------- | 18 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 19, 2:08 AM
|
|
Scooped by
Gilbert C FAURE
February 18, 4:25 AM
|
LANCET GLOBAL HEALTH: OUR NEW PAPER IDENTIFIES RESEARCH PRIORITIES FOR DATA SCIENCE AND ARTIFICIAL INTELLIGENCE IN GLOBAL HEALTH A large international collaboration coordinated by the Universities of Edinburgh, Oxford, and Zhejiang, with strong representation from experts in low- and middle-income countries (LMIC) through the International Society of Global Health (ISoGH), and the newly established Bled Institute for Leadership in Digital Transformation and AI (BILDAI), Slovenia, have just published the paper that identified research priorities for data science and artificial intelligence in global health.
This is the first global research priority-setting exercise focused specifically on data science and AI in global health. We used the CHNRI method to identify and rank 155 research questions, generated by 75 international experts and independently scored by 51 experts across five criteria: feasibility, potential to reduce disease burden, potential for a paradigm shift, likelihood of implementation, and impact on equity.
The top-ranked priorities reflect a clear consensus on the urgent need for AI applications in epidemic preparedness (e.g. outbreak prediction, early warning systems), diagnostic innovation (e.g. tuberculosis, malaria, COVID-19), and health system strengthening (e.g. AI-assisted resource allocation, telemedicine, and supply chain optimisation). Chronic disease management also featured prominently, particularly in LMIC contexts. Importantly, we observed notable differences in prioritisation between experts from high-income countries (HICs) and low- and middle-income countries (LMICs). While HIC-based experts focused more on digital infrastructure, climate-related analytics, and health system efficiency, LMIC-based experts prioritised infectious disease control, diagnostic equity, and AI support for non-communicable diseases.
Another novel contribution of this work is the empirical comparison between expert-defined research priorities and those generated independently by three leading large language models (LLMs)—ChatGPT-4o, Gemini 2.5 Flash, and Grok 3. This is an attempt to benchmark expert consensus against LLM-derived outputs in global health research planning. While there was partial alignment, especially around epidemic preparedness and system strengthening, LLMs tended to prioritise themes such as maternal and child health, mental health, and governance issues (e.g. ethics, sustainability), offering early insights into how collective human knowledge (as distilled by LLMs) may complement, but not replace, structured expert judgement.
This paper is policy-relevant, particularly in informing future investments and strategies to ensure that digital health innovation in LMICs is equitable, feasible, and aligned with local delivery capacity. It also contributes to the evolving conversation on how to responsibly integrate generative AI into research governance.
|
Scooped by
Gilbert C FAURE
February 18, 4:18 AM
|
𝟴𝟴 % 𝗱𝗲𝘀 𝘃𝗲𝗶𝗹𝗹𝗲𝘂𝗿𝘀 𝘂𝘁𝗶𝗹𝗶𝘀𝗲𝗻𝘁 𝗹'𝗜𝗔. 𝗠𝗮𝗶𝘀 𝘀𝗲𝘂𝗹𝗲𝗺𝗲𝗻𝘁 𝟮𝟯 % 𝗹'𝘂𝘁𝗶𝗹𝗶𝘀𝗲𝗻𝘁 𝗽𝗼𝘂𝗿… 𝘃𝗲𝗶𝗹𝗹𝗲𝗿.
Ce chiffre du dernier baromètre Archimag résume tout le paradoxe. Les veilleurs sont les adopteurs les plus massifs de l'IA générative parmi les métiers de l'information : plus d'un sur deux l'utilise quotidiennement. Ils synthétisent, rédigent, traduisent, analysent avec l'IA. Mais ils ne la perçoivent pas encore comme un dispositif de surveillance à part entière.
Or c'est précisément ce qui est en train d'émerger.
Dans ce premier volet d'une série de trois articles, j'explore :
🔹 Comment fonctionne la mémoire persistante des agents, et pourquoi ce n'est plus un gadget
🔹 Ce que l'agent peut apprendre de vous, à travers les profils attentionnel et intentionnel
🔹 Le paradoxe du double : plus il vous ressemble, plus le risque de bulle informationnelle est élevé
Bientôt, la question ne sera plus « faut-il adopter un agent ? » mais « comment bien l'adopter, en sachant ce qu'il va savoir de vous ».
Julien Duprat Elaine Durand Peggy L Charles PAHLAWAN Laurent Couvé Patrick Laugé Anne Lise Schelfhout Justin Philippe clerc Fabrice Frossard Christian Marcon Jacqueline Sala Jannick Labatut-Pouyllau Frédéric Martinet Nicolas MOINET Ronan Le Goascogne Clement Desfromont Christelle Urvoy Yannick Marie-Hélène Ahamada Bacari Cyril Roy Florence Dedieu Benoît Maille Pierre Memheld Mélanie Depoilly Mathieu Andro Lionel Schuhler Kahl Sindup ADBS - Secteur Veille Thomas Régnier Cikisi Christophe Asselin 👋 👋 AEGE - Le réseau d'experts en intelligence économique Ecole de Guerre Economique – EGE IAE de Poitiers Ileri Défense Veillemag David COMMARMOND Archimag
👇 L'article complet ci-dessous.
#Veille #IntelligenceEconomique #IAagentique #IAGenerative #MCP #OutilsVeille #AgentsIA
|
Scooped by
Gilbert C FAURE
February 18, 4:04 AM
|
L'IA en médecine ne sert plus seulement à discuter, elle prend les commandes.
Quelques jours après l'annonce de "ChatGPT Health", Anthropic a riposté en janvier 2026 avec une offre qui change la donne : "Claude for Healthcare".
Dans cette vidéo, nous analysons pourquoi cette annonce marque la fin de l'époque des simples chatbots et le début de l'ère de l'infrastructure intelligente.
Au sommaire de cette analyse :
� Le duel des stratégies : Alors qu'OpenAI mise sur l'interface et les partenariats hospitaliers, Anthropic se positionne comme les "tuyaux" du système (infrastructure et conformité).
� La fin de la "paperasse" ? Claude ne fait plus que lire ; il se connecte directement aux bases de données des assurances (CMS) et aux codes médicaux (CIM-10) pour gérer les autorisations préalables et réduire les délais de soins.
� L'analogie clé : L'IA est passée du statut d'étudiant brillant enfermé dans une bibliothèque à celui d'interne hospitalier possédant les badges d'accès et les codes informatiques.
� Santé connectée : Comment l'IA va résumer votre historique médical en se connectant à Apple Health ou Android Health Connect. � L'enjeu énergétique : Le coût caché de cette révolution, avec un besoin estimé à 50 GW d'électricité d'ici 2028 pour faire tourner ces modèles.
|
Scooped by
Gilbert C FAURE
February 18, 4:00 AM
|
Médecine & IA : La fin du mythe du modèle "à tout faire" ?
L'IA générative en santé ne consiste plus simplement à "prompter" ChatGPT. C'est un travail d'ingénierie complexe.
Pour accompagner l'infographie ci-dessous, voici une lecture duale de cette transformation nécessaire.
🌑 #IAtrogénique (La version critique) : Le danger de l'illusion généraliste
L'usage naïf des LLMs "généralistes" en santé est un risque systémique. Pourquoi ? Parce que ces modèles, aussi puissants soient-ils, souffrent d'un défaut majeur : l'hallucination plausible.
Dans des contextes à fort enjeu (diagnostic, essais cliniques), le modèle généraliste est un "iatrogène numérique" potentiel : il peut fabriquer des citations ou mal interpréter des protocoles s'il n'est pas contraint.
L'étude le souligne : les modèles propriétaires (comme GPT-4) sans adaptation spécifique sous-performent face à des tâches médicales spécialisées ou des données hors distribution. Croire qu'un chatbot suffit pour gérer un parcours de soin est une erreur de conception.
🌕 #IAtus (La version narrative) : L'architecture de la compétence
L'histoire qui s'écrit est celle de l'adaptation. Nous passons de l'IA "bavarde" à l'IA "ingénieur". L'article source propose un cadre narratif puissant pour transformer le généraliste en spécialiste via trois étapes clés :
1. Le Modelage : On ne demande pas tout à l'IA d'un bloc. On décompose le flux de travail médical en étapes gérables.
2. L'Optimisation : On ancre le récit dans la réalité via le RAG (Retrieval-Augmented Generation) pour connecter l'IA aux preuves médicales et réduire la fiction.
3. L'Ingénierie Système : C'est la véritable évolution. On construit soit des "AI Chains" pour les processus rigides (comme les revues systématiques), soit des "AI Agents" pour les tâches exploratoires nécessitant du raisonnement. L'IA devient alors un système modulaire capable de s'intégrer aux dossiers patients (EHR) et de respecter les guidelines cliniques.
📊 L'infographie ci-jointe résume ce framework : du modèle brut à l'application clinique fiable.
🔗 Source de l'étude (Nature Digital Medicine) : https://lnkd.in/eGQ9FVJb
📩 Pour ne pas manquer les prochaines analyses de l'univers IAtrogénique × IAtus sur l'IA, le Digital et la Santé, abonnez-vous à la newsletter : https://lnkd.in/eENTNBWR
#DigitalHealth #AIinMedicine #LLM #SystemEngineering #SanteNumerique #IAtrogenique
|
Scooped by
Gilbert C FAURE
February 17, 10:07 AM
|
💥 A bomb just exploded under the academic publishing: Whopping 15% of all recent cancer research publications come from paper mills according to a new study in BMJ 🔗 https://lnkd.in/eAFbpRVf
💥 One in every six or seven cancer articles you read last year was, on average, fake. 💣 What happened: Researchers trained a machine learning model (BERT) to detect paper mill articles on 2,202 retracted articles from Retraction Tech and 2,202 genuine papers; with external validation in 3,094 from the The PubPeer Foundation database 💣 The model had an accuracy of 93% in the validation dataset (sensitivity 87%, specificity 99%). This model was then applied to all 2.6 million cancer research papers published between 1999 and 2024 on PubMed (english, title + abstract). 💣 Main finding: Exponential increase in papers flagged as fraudulent from 1999 to 2022. The proportion exceeded 15% of the annual cancer research output by the early 2020s.
💣 If you think that this does not affect high-impact papers, think again. In the top 10% journals, one in ten cancer article was flagged as likely fake.
💣 Publishers: Also not a problem for predatory journals only. The large publishing houses – Elsevier, Wiley, Springer – published a “low” (not!) proportion of 10% paper mill publications, but accounted for the highest absolute number of likely fraudulent papers.
💣 A staggering 36% of Chinese cancer research appear to come from paper mills. This figure must be devastatingly demotivating for honest Chinese researchers who wants to contribute and promote global cancer science. What does this mean for the future of research publication? ☝️ This is very likely a problem across medical fields, not restricted to cancer research. ✌️The large language models pour gasoline on an already blazing fire. A 15% proportion of fraudulent articles will be the bare minimum going forward. 👉 Validation of findings from external, independent research groups become SO important to sustain credibility in science. Validation research should be supported by publishers and rewarded by funders.
I am curious what editors think about this? Vlad Ratziu Paul Moayyedi Rob Brierley Elliot Tapper Chalasani Naga Laura Nagy JHEP Reports | 13 comments on LinkedIn
|
Scooped by
Gilbert C FAURE
February 17, 3:58 AM
|
|