Notebook or My Personal Learning Network
12.9K views | +10 today
Follow
 
Scooped by Gilbert C FAURE
onto Notebook or My Personal Learning Network
July 24, 2013 4:15 PM
Scoop.it!

Merriam-Webster's Word of the Day

Merriam-Webster's Word of the Day | Notebook or My Personal Learning Network | Scoop.it
Merriam-Webster provides a free online dictionary, thesaurus, audio pronunciations, Word of the Day, word games, and other English language resources.
No comment yet.
Notebook or My Personal Learning Network
a personal notebook since summer 2013, a virtual scrapbook
Your new post is loading...
Your new post is loading...
Scooped by Gilbert C FAURE
October 13, 2013 8:40 AM
Scoop.it!

This notebook..

is a personal Notebook

 

Thanks John Dudley for the following tweet

"If you like interesting snippets on all sorts of subjects relevant to academia, information, the world, highly recommended is @grip54 's collection:"

 

La curation de contenus, la mémoire partagée d'une veille scientifique et sociétale

Gilbert C FAURE's insight:

... designed to collect posts and informations I found and want to keep available but not relevant to the other topics I am curating on Scoop.it (on behalf of ASSIM):

 

the most sucessful being

Immunology, teaching and learning immunology

http://www.scoop.it/t/immunology

and

From flow cytometry to cytomics

http://www.scoop.it/t/from-flow-cytometry-to-cytomics

Immunology and Biotherapies, a page of resources for the DIU 

 http://www.scoop.it/t/immunology-and-biotherapies

 

followed by

Nancy, Lorraine

 http://www.scoop.it/t/nancy-lorraine

I am based at Université Lorraine in Nancy

Wuhan, Hubei,

 http://www.scoop.it/t/wuhan

because we have a long standing collaboration through a french speaking medical training program between Faculté de Médecine de Nancy and WuDA, Wuhan university medical school and Zhongnan Hospital

  

CME-CPD,

 http://www.scoop.it/t/cme-cpd

because I am at EACCME in Brussels, representative of the medical biopathology and laboratory medicine UEMS section

 

Mucosal Immunity,

 http://www.scoop.it/t/mucosal-immunity

because it was one of our main research interest some years ago 

 

It is a kind of electronic scrapbook with many ideas shared by others.

It focuses more and more on new ways of Teaching and Learning: e-, m-, a-, b-, h-, c-, d, ld-, s-, p-, w-, pb-, ll- ....

Thanks to all

No comment yet.
Scooped by Gilbert C FAURE
Today, 3:58 AM
Scoop.it!

https://www.lesechos.fr/pme-regions/innovateurs/finitiatives-lance-un-outil-dia-qui-fiabilise-lacces-aux-connaissances-scientifiques-2215702

No comment yet.
Scooped by Gilbert C FAURE
Today, 3:53 AM
Scoop.it!

À une époque où l’information circule en continu et à grande échelle, mais où la confiance publique est mise à l’épreuve, comment communiquer la science de manière rigoureuse, accessible et… | Facu...

À une époque où l’information circule en continu et à grande échelle, mais où la confiance publique est mise à l’épreuve, comment communiquer la science de manière rigoureuse, accessible et… | Facu... | Notebook or My Personal Learning Network | Scoop.it
À une époque où l’information circule en continu et à grande échelle, mais où la confiance publique est mise à l’épreuve, comment communiquer la science de manière rigoureuse, accessible et socialement pertinente?

Lors de cette table ronde, il sera notamment question :
- des défis de vulgarisation dans un contexte de désinformation,
- des enjeux de littératie scientifique et médiatique,
- du rôle des émotions dans la réception des savoirs,
- des tensions entre expertise, scepticisme et débat public,
- des conditions nécessaires au maintien de la confiance envers la science.

Avec :
- Elyas Aissia, responsable francophone du contenu et de l’engagement communautaire, initiative LaSciencedAbord
- Marie-Eve Carignan, Ph.D., professeure au Département de communication, Faculté des lettres et sciences humaines, UdeS
- Marc D. David, professeur au Département de communication, Faculté des lettres et sciences humaines, UdeS
- Joël Leblanc, journaliste scientifique

Cette table ronde sur la communication et la vulgarisation scientifique, gratuite et ouverte à toute la communauté universitaire, est organisée par le Département de communication de l'Université de Sherbrooke. Elle aura lieu dans l'atrium de l'Institut quantique - Université de Sherbrooke.
No comment yet.
Scooped by Gilbert C FAURE
Today, 3:45 AM
Scoop.it!

Pourquoi l'IA remplace le médecin aux USA mais sert de secrétaire en France ? - Newsletter 3 | IAtus x IAtrogénique | LIONEL REICHARDT

Pourquoi l'IA remplace le médecin aux USA mais sert de secrétaire en France ? - Newsletter 3 | IAtus x IAtrogénique | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
Dans cette vidéo, nous analysons la fracture mondiale fascinante entre deux visions de l'intelligence artificielle en santé, basée sur la newsletter IAtrogénique × IAtus #3.

À travers deux rapports majeurs (OpenAI Janvier 2026 et Baromètre Acsel/Docaposte 2025), nous explorons deux réalités opposées :

1. Le modèle américain ("Le SAMU de la nuit") : Une IA devenue le filet de sécurité vital d'un système à bout de souffle, utilisée massivement dans les déserts médicaux et pour se battre contre les assurances.

2. Le modèle français ("La Forteresse du jour") : Une IA massivement adoptée par les blouses blanches (53 %) pour l'optimisation administrative, mais qui tente de maintenir une digue entre le savoir médical et le patient.

Ce que vous allez découvrir :
• Pourquoi 70 % des conversations santé avec l'IA aux USA ont lieu quand les cabinets sont fermés.
• Le paradoxe français : les médecins utilisent l'IA générative à 93 % mais se méfient quand les patients l'utilisent (seulement 26 % de confiance).
• L'analyse clinique : L'IA est-elle un progrès ou simplement la béquille d'un système qui s'effondre ?

Sources citées :
• Rapport OpenAI "AI as a Healthcare Ally" (2026)
• Baromètre IA & Data en Santé 2025 (Acsel/Docaposte)
• Analyse par Lionel Reichardt (Pharmageek)
No comment yet.
Scooped by Gilbert C FAURE
Today, 3:42 AM
Scoop.it!

This is from the editor of The Lancet, the world’s leading medical journal since 1823: | Lawrence Rogak | 152 comments

This is from the editor of The Lancet, the world’s leading medical journal since 1823: | Lawrence Rogak | 152 comments | Notebook or My Personal Learning Network | Scoop.it
This is from the editor of The Lancet, the world’s leading medical journal since 1823: | 152 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
Today, 3:02 AM
Scoop.it!

Étude NOHARM Stanford-Harvard : sur 31 LLMs évalués sur 100 cas réels, le risque de recommandations médicales sévèrement nocives atteint jusqu’à 22,2 % des cas. Les meilleurs modèles restent entre…...

Étude NOHARM Stanford-Harvard : sur 31 LLMs évalués sur 100 cas réels, le risque de recommandations médicales sévèrement nocives atteint jusqu’à 22,2 % des cas. Les meilleurs modèles restent entre…... | Notebook or My Personal Learning Network | Scoop.it
Étude NOHARM Stanford-Harvard : sur 31 LLMs évalués sur 100 cas réels, le risque de recommandations médicales sévèrement nocives atteint jusqu’à 22,2 % des cas. Les meilleurs modèles restent entre ~12 et 15 erreurs sévères sur 100 cas. Les erreurs par omission représentent 76,6 % des erreurs sévères.

Angle mort : la dispersion intra-modèle.
Les résultats sont présentés en moyennes, mais l’étude montre aussi une variabilité importante entre cas. Cela signifie qu’un même système peut paraître très sûr globalement tout en restant imprévisible à l’échelle d’un patient individuel, un point peu discuté par rapport aux moyennes agrégées.

A lire ici : https://lnkd.in/es4dNcBq
No comment yet.
Scooped by Gilbert C FAURE
February 16, 5:53 AM
Scoop.it!

LLMs Trust Doctor's Notes Over Reddit Posts | Mahmud Omar posted on the topic | LinkedIn

LLMs Trust Doctor's Notes Over Reddit Posts | Mahmud Omar posted on the topic | LinkedIn | Notebook or My Personal Learning Network | Scoop.it
What's more convincing to an AI than a doctor's discharge note?
Not Reddit. Not social media conspiracies. Not even "everyone says so."
In our latest work published in The Lancet Digital Health: the finding that caught us off guard wasn't that LLMs fall for medical misinformation (they do, ~32% of the time across more than 3.4M prompts). It's where they fall hardest.
We fed 20 LLMs different types of misinformation, including real stuff people actually shared online. Things like "rectal garlic insertion boosts the immune system," "when oxygen reaches a tumor it spreads, so surgery must be harmful".. 
When this came from Reddit-style posts? Models were skeptical. Only ~9% susceptibility. Still not great at scale, millions of people interact with these models daily, but here's the punch line:
Take that same fabricated nonsense, wrap it in formal clinical language - a discharge note telling patients to "drink cold milk daily to treat esophageal bleeding" - and suddenly 46% of models just… went with it!
And the part nobody expected: when we framed misinformation as a logical fallacy - “a senior clinician with 20 years of experience endorses this" or "everyone knows this works" - models actually got more suspicious, not less. Appeal to popularity dropped susceptibility to 12%.
So LLMs have basically learned to distrust the language of internet arguments… but blindly trust anything that sounds like a doctor wrote it.
Think about that next time someone pitches you an AI scribe that auto-generates patient instructions from clinical notes.
Link for the full paper (and an extra intersting comment about it from Sander van der Linden and Yara Kyrychenko) - https://lnkd.in/dfH7-Vw5
Huge thanks to the incredible team: Vera Sorin, MD, CIIP, Lothar H. Wieler, Alexander Charney, @patricia kovatch , Carol Horowitz, MD, MPH, Panagiotis Korfiatis, Ben Glicksberg, Robbie Freeman, Girish Nadkarni, and Eyal Klang.
No comment yet.
Rescooped by Gilbert C FAURE from IAtus x IAtrogénique
February 16, 2:23 AM
Scoop.it!

ChatGPT Santé vs Doctolib : La guerre de l'IA médicale a commencé #NL #HS #1 #Youtube #abonnezVous

Le 7 janvier 2026 marque une rupture historique : OpenAI lance officiellement ChatGPT Santé.

Cette nouvelle fonctionnalité permet de connecter vos dossiers médicaux et applications (Apple Health, etc.) pour transformer l'IA en véritable assistant personnel de santé.

Mais cette révolution technologique se heurte à une frontière numérique : le RGPD. Alors que les États-Unis adoptent l'outil, l'Europe reste à l'écart, craignant pour la souveraineté de ses données.

Dans cette vidéo résumé, nous décryptons ce choc des modèles :

🚀 La promesse d'OpenAI : Rendre vos données de santé enfin « dialogables » et compréhensibles pour préparer vos consultations.

🔒 Le blocage européen : Pourquoi vous ne pouvez pas (encore) l'utiliser en France et les risques de fuite de données.

🛡️ La contre-attaque française : Tout sur le nouvel assistant IA de Doctolib, l'alternative souveraine et sécurisée qui arrive début 2026.

L'IA ne remplace pas le médecin, mais elle change tout le reste. Sommes-nous prêts ?

#ChatGPT #Santé #IA #Doctolib #OpenAI #Tech #Médecine #Numérique

Via Lionel Reichardt / le Pharmageek
No comment yet.
Scooped by Gilbert C FAURE
February 16, 2:21 AM
Scoop.it!

Protecting LLMs from Misinformation with Inoculation Techniques | Sander van der Linden posted on the topic | LinkedIn

Protecting LLMs from Misinformation with Inoculation Techniques | Sander van der Linden posted on the topic | LinkedIn | Notebook or My Personal Learning Network | Scoop.it
LLMs need immunization to protect against misinformation!

New commentary out in The Lancet Digital Health with the brilliant Yara Kyrychenko where we argue that AI systems can and should be inoculated against misinformation!

Following great work from Mahmud Omar & team showing how many LLMs are susceptible to medical misinformation, recent work suggests that the inoculation analogy can be extended to AI:

By pre-emptively exposing LLMs to weakened doses of the techniques used to produce misinformation and by refuting it in advance, LLMs should be less likely to accept and produce misinformation in the future. We offer three broad ways to inoculate LLMs:

✅ *Misinformation fine-tuning* (e.g., small quarantined set of explicitly labelled falsehoods).

✅ *Inoculation constitution* (e.g., encoding guardrails that teach the model about general manipulation techniques).

✅ *Inoculation prompting* (e.g., explicitly asking a model to act in misaligned ways in controlled settings so that it learns to discern between misinformation and accurate content.)

https://lnkd.in/eJfquP6d
| 13 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
February 14, 11:23 AM
Scoop.it!

#ai #productivity #automation #growth #innovation | Dr. Joerg Storm | 64 comments

#ai #productivity #automation #growth #innovation | Dr. Joerg Storm | 64 comments | Notebook or My Personal Learning Network | Scoop.it
>> 𝗜 𝘁𝗵𝗼𝘂𝗴𝗵𝘁 𝗜 𝘄𝗮𝘀 𝗔𝗜 𝘀𝗮𝘃𝘃𝘆.

𝗜 𝘄𝗮𝘀𝗻’𝘁 𝗲𝘃𝗲𝗻 𝗰𝗹𝗼𝘀𝗲.

Then I saw a single team using over 100 tools, and realized I was basically running a tricycle in a Formula 1 race.

AI isn’t just chatbots or content generators anymore.
It’s entire ecosystem for ideas, websites, writing, meetings, automation, design, audio, video, SEO, marketing, and even Twitter growth.

The people winning quietly aren’t smarter, they just know which tools to plug in at the right moment.

Those who ignore this wave risk being left behind faster than they imagine.

Here’s the list of 135 mind-blowing AI tools:
1. Ideas: Claude, ChatGPT, Bing Chat, Perplexity, Copilot
2. Website: Dora, 10Web, Framer, Unicorn, Style AI
3. Writing: Jasper, HIX AI, Longshot, Textblaze, Jenny AI
4. Meeting: Tldv, Krisp, Otter, Fathom, Sembly AI
5. Chatbot: Droxy, Chatbase, Chatsimple, CustomGPT, Mutual info
6. Automation: Make, Zapier, Xembly, Bardeen, Levity
7. UI/UX: Figma, UiMagic, Uizard, InstantAI, Penpot
8. Image: Dreamina AI, Leap AI, Midjourney, Stability AI, Fotor
9. Video: Dreamina AI, HeyGen, InVideo, Eightify, Morphstudio xyz
12. Audio: Lovo ai, Eleven labs, Songburst AI, Adobe Podcast, Resemble AI
13. Presentation: Decktopus, Slides AI, Pitch, Designs AI, Beautiful AI
14. SEO: VidIQ, Seona AI, BlogSEO, Keywrds ai, Semrush
15. Design: Canva, Flair AI, Designify, Clipdrop, Magician design
16. Logo Generator: Looka, Designs AI, Brandmark, Stocking AI, Namecheap
17. Prompts:FlowGPT, Alicent AI, PromptBox, Promptbase, Snack Prompt
18. Productivity: Merlin, Tinywow, Notion AI, Adobe Sensei, Personal AI
19. Marketing: Pencil, Ai-Ads, AdCopy, Simplified, AdCreative
20. Twitter: Typefully, Tweetlify, Tapilo, Hypefury, TweetHunter

Here’s a gentle reminder for anyone looking to level up:
● Awareness beats effort alone
● Hidden tools create visible results
● Early adoption compounds faster than skill
● Productivity now lives in ecosystems, not apps

Which of these 135 AI tools would you try first to level up your workflow?

----

👉 Love my content?

☑ Follow me on LinkedIn: https://lnkd.in/gjUQk7HF

👉 Found this helpful? Share it! ♻️

Don't miss out! For exclusive AI and tech insights trusted by 570,000+ professionals at Microsoft, Google, Amazon, and more—join my free newsletter for cutting-edge strategies to keep you ahead in AI.

🔗 Subscribe now: https://lnkd.in/eFNvmcYa

🎧 𝗟𝗶𝘀𝘁𝗲𝗻 𝘁𝗼 𝘁𝗵𝗲 𝗳𝘂𝗹𝗹 𝗲𝗽𝗶𝘀𝗼𝗱𝗲 𝗵𝗲𝗿𝗲

🔗 YouTube: https://lnkd.in/eGJPiQ4y 
🔗 Amazon Music: https://lnkd.in/daTPRypn
🔗 Apple Podcasts: https://lnkd.in/dphbS89P
🔗 Spotify: https://lnkd.in/dQ9gjG2E
🔗 RSS: https://lnkd.in/d4tCXB7n

#ai #productivity #automation #growth #innovation | 64 comments on LinkedIn
No comment yet.
Scooped by Gilbert C FAURE
February 14, 7:31 AM
Scoop.it!

Stanford School of Medicine Integrates Clinical Mind AI for Medical Education | Stanford Chariot Program VR•XR•AI posted on the topic | LinkedIn

Stanford School of Medicine Integrates Clinical Mind AI for Medical Education | Stanford Chariot Program VR•XR•AI posted on the topic | LinkedIn | Notebook or My Personal Learning Network | Scoop.it
We’re grateful to hear Clinical Mind AI featured by Lloyd Minor, MD, dean of the Stanford School of Medicine, in a recent interview on WBUR. The AI platform simulates real-world patients and trains clinicians reasoning skills.

“We haven’t supplanted the role of medical educators, physicians, and others in the educational process," said Dean Minor, MD. "But we’ve added these tools to be a benefit during the learning process.”

Researchers at the Stanford Chariot Lab designed Clinical Mind AI to support medical educators and help learners practice clinical reasoning, receive tailored feedback, and dive deep into complex decision-making.

We appreciate Stanford’s leadership in thoughtfully integrating AI into medical education, and the opportunity to contribute tools that strengthen learning at Stanford and institutions around the globe.

Thanks to Meghna Chakrabarti for her excellent reporting.

Take a listen: https://lnkd.in/eSxM5DBD
No comment yet.
Scooped by Gilbert C FAURE
February 14, 7:30 AM
Scoop.it!

The most common feedback we hear about students? “Unable to retain.” “Forgets easily.” “They don’t revise at home.” “Yaad nahi rakh pata.” But is that the hard truth? Students don’t forget… | ...

The most common feedback we hear about students? “Unable to retain.” “Forgets easily.” “They don’t revise at home.” “Yaad nahi rakh pata.” But is that the hard truth? Students don’t forget… | ... | Notebook or My Personal Learning Network | Scoop.it
The most common feedback we hear about students?
“Unable to retain.”
“Forgets easily.”
“They don’t revise at home.”
“Yaad nahi rakh pata.”

But is that the hard truth?

Students don’t forget because they are careless.

They forget because the brain is efficient - it deletes what feels unnecessary.

Research shows learners can forget up to 70–90% of new information within a week if it isn’t reinforced.

The real issue isn’t memory. It’s design.

We cover content but rarely revisit it.
We lecture more than we retrieve, rush more than we reinforce.

If we want retention, we must:
• Build daily recall into lessons
• Use spaced revision, not one-time teaching
• Ask students to explain, not just repeat
• Slow down to deepen understanding

Coverage completes a syllabus.
Retrieval builds learning.

If you’d like practical classroom retrieval and remembering strategies, feel free to DM me.
...................
𝘐𝘱𝘴𝘪𝘵𝘢 𝘊𝘩𝘰𝘶𝘥𝘩𝘶𝘳𝘺, 𝘚𝘤𝘩𝘰𝘰𝘭 𝘓𝘦𝘢𝘥𝘦𝘳
𝘔𝘺 𝘱𝘰𝘴𝘵𝘴-𝘚𝘤𝘩𝘰𝘰𝘭 𝘓𝘦𝘢𝘥𝘦𝘳𝘴𝘩𝘪𝘱, 𝘓𝘦𝘢𝘳𝘯𝘦𝘳𝘴 & 𝘔𝘺 𝘑𝘰𝘶𝘳𝘯𝘦𝘺𝘴
(𝘍𝘳𝘪 𝘵𝘰 𝘚𝘶𝘯𝘥𝘢𝘺)-9𝘢𝘮 𝘐𝘚𝘛
No comment yet.
Scooped by Gilbert C FAURE
Today, 4:34 AM
Scoop.it!

Waouh ! Je viens d’essayer le nouveau modèle de Google TranslateGemma, et c’est comme si on avait un Google Translate sur son ordinateur. Un modèle local ne nécessitant donc aucune connexion et… | ...

Waouh ! Je viens d’essayer le nouveau modèle de Google TranslateGemma, et c’est comme si on avait un Google Translate sur son ordinateur. Un modèle local ne nécessitant donc aucune connexion et… | ... | Notebook or My Personal Learning Network | Scoop.it
Waouh ! Je viens d’essayer le nouveau modèle de Google TranslateGemma, et c’est comme si on avait un Google Translate sur son ordinateur. Un modèle local ne nécessitant donc aucune connexion et n’envoyant aucune donnée. Et évidemment gratuit. Et je n’ai essayé que le plus petit des modèles (avec Ollama) !

https://lnkd.in/dHb_bn5w

https://lnkd.in/dYXCRTUe
No comment yet.
Scooped by Gilbert C FAURE
Today, 3:57 AM
Scoop.it!

#artificialintelligence #machinelearning #deeplearning #generativeai #agenticai #datascience #tech #innovation | RABER Belkacem

#artificialintelligence #machinelearning #deeplearning #generativeai #agenticai #datascience #tech #innovation | RABER Belkacem | Notebook or My Personal Learning Network | Scoop.it
𝗔𝗿𝗿ê𝘁𝗲𝘇 𝗱𝗲 𝘁𝗼𝘂𝘁 𝗮𝗽𝗽𝗲𝗹𝗲𝗿 "𝗜𝗔".

C'est une erreur de langage qui coûte cher techniquement. Dire "Intelligence Artificielle" sans distinction, c'est ignorer la mécanique précise qui sépare un simple algorithme prédictif d'un agent autonome capable de raisonner.

L'animation ci-dessous déconstruit cette architecture en couches successives, du fondement logique au sommet technologique.

𝗟𝗮 𝘀𝘁𝗿𝗮𝘁𝗶𝗳𝗶𝗰𝗮𝘁𝗶𝗼𝗻 𝘁𝗲𝗰𝗵𝗻𝗶𝗾𝘂𝗲 :

-> 𝗖𝗹𝗮𝘀𝘀𝗶𝗰𝗮𝗹 𝗔𝗜 : L'approche symbolique. Des systèmes experts basés sur des règles logiques strictes et la représentation des connaissances.
-> 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 (𝗠𝗟) : L'apprentissage statistique. La machine n'est plus explicitement programmée, elle apprend des modèles à partir de données (Classification, Régression).
-> 𝗡𝗲𝘂𝗿𝗮𝗹 𝗡𝗲𝘁𝘄𝗼𝗿𝗸𝘀 : L'imitation biologique. Des couches de neurones artificiels traitent l'information via des fonctions d'activation complexes.
-> 𝗗𝗲𝗲𝗽 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 : La profondeur. L'utilisation de réseaux de neurones massifs (Transformers, CNNs) pour traiter des données non structurées.
-> 𝗚𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝘃𝗲 𝗔𝗜 : La création. Le modèle ne se contente plus d'analyser, il génère de nouvelles données (LLMs, modèles de diffusion).
-> 𝗔𝗴𝗲𝗻𝘁𝗶𝗰 𝗔𝗜 : L'action. La nouvelle frontière. L'IA possède une mémoire, planifie, utilise des outils et exécute des tâches de manière autonome.

--> 𝗘𝗻 𝗿é𝘀𝘂𝗺é :

𝗟𝗲 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 extrait des tendances. 
𝗟𝗲 𝗗𝗲𝗲𝗽 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 interprète des données non-structurées. 
𝗟’𝗜𝗔 𝗚é𝗻é𝗿𝗮𝘁𝗶𝘃𝗲 synthétise du contenu inédit. 
𝗟’𝗜𝗔 𝗔𝗴𝗲𝗻𝘁𝗶𝗾𝘂𝗲 orchestre et exécute l'action.

On ne parle pas de la même technologie quand on compare un algorithme de régression linéaire et un agent autonome. La nuance est technique, mais essentielle.

Est-ce que cette distinction change votre lecture des outils actuels ?


#ArtificialIntelligence #MachineLearning #DeepLearning #GenerativeAI #AgenticAI #DataScience #Tech #Innovation
No comment yet.
Scooped by Gilbert C FAURE
Today, 3:47 AM
Scoop.it!

Faux médias régionaux et propagande russe : une influence encore faible sur les réseaux sociaux - Fondation Descartes | Laurent Cordonier

Faux médias régionaux et propagande russe : une influence encore faible sur les réseaux sociaux - Fondation Descartes | Laurent Cordonier | Notebook or My Personal Learning Network | Scoop.it
Des dizaines de sites se présentant comme des médias régionaux français diffusent des contenus de propagande russe. ➡️ La Fondation Descartes a analysé la circulation sur les réseaux sociaux des articles émanant de ces sites de désinformation : elle demeure encore limitée.
Article de Francesco Paolo Savatteri et Francesca Hemery pour la Fondation Descartes.
https://lnkd.in/e6cm2hmE
No comment yet.
Scooped by Gilbert C FAURE
Today, 3:44 AM
Scoop.it!

Medical False Statements: AI Models Trust Doctors More Than Social Media | Thorsten Koch, MA, PgDip

Medical False Statements: AI Models Trust Doctors More Than Social Media | Thorsten Koch, MA, PgDip | Notebook or My Personal Learning Network | Scoop.it
Medical False Statements: AI Models Trust Doctors More Than Social Media (heise):

https://lnkd.in/dQ2CtXUD

Glimpse: In order to evaluate 20 AI language models' sensitivity to false information, a benchmark research used more than 3.4 million medical queries. In contrast to social media sources, which have a far lower susceptibility, the results demonstrated that AI systems are susceptible to incorrect medical claims, particularly when the misinformation is provided in authoritative clinical language, such as doctor's notes, which were recognized as true in 46.1% of cases. The results point to a phenomenon known as the 'white coat effect,' in which AI models are more likely to believe medical information presented in a professional manner than unofficial sources. Many specialist medical models performed worse, but some general-purpose models, such as GPT-4o, were comparatively more robust. In order to stop AI from spreading false information about medicine, the study highlights the serious hazards for clinical applications and the necessity of human oversight and enhanced security measures.

---
Free articles and analyses on soft counter-extremism, against online hate, and on the theory of mis-/disinformation (usually third-party content). Two-week reviews available via the following three Policyinstitute.net websites: 
• counter-terrorism.org
• preventhate.org
• strategism.org

The most recent LinkedIn posts on the above subjects, with glimpses, can be accessed via: 
https://lnkd.in/eBarZAew

The views expressed in this post is that of the author(s) of the source content and do not necessarily represent those of Policyinstitute.net and its staff. While we carefully produce the glimpses to the articles, documents, or recordings that we hyperlink, we are not responsible for textual changes nor for imponderable parts of the original items. 

#policyinstitutenet #preventradicalization #preventextremism #counterextremism #preventhate #disinformation #misinformation
No comment yet.
Scooped by Gilbert C FAURE
Today, 3:03 AM
Scoop.it!

💡 Pour information, une nouvelle série de la chaire UNESCO RELIA (Nantes Université) à venir tout au long du mois de mars 2026 : 16 billets internationaux de blog sur les défis/obstacles pour alle...

💡 Pour information, une nouvelle série de la chaire UNESCO RELIA (Nantes Université) à venir tout au long du mois de mars 2026 : 16 billets internationaux de blog sur les défis/obstacles pour alle... | Notebook or My Personal Learning Network | Scoop.it
💡 Pour information, une nouvelle série de la chaire UNESCO RELIA (Nantes Université) à venir tout au long du mois de mars 2026 : 16 billets internationaux de blog sur les défis/obstacles pour aller vers l'éducation ouverte ! J'aurais le plaisir d'y contribuer cette fois-ci😊

👉 le teaser est ici (avec possibilité de demander à recevoir ces billets directement dans votre boîte mail durant le mois de mars 2026) : https://lnkd.in/emQeRmNh
No comment yet.
Scooped by Gilbert C FAURE
February 16, 10:09 AM
Scoop.it!

#iatrogénique #iatus | LIONEL REICHARDT

#iatrogénique #iatus | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
2026 : L'IA est notre "Alliée Santé"... mais est-ce qu'on se comprend vraiment ?

Ce début d'année marque une collision fascinante entre deux réalités dans mon univers IAtrogénique × IAtus.
D'un côté, le lancement de GPTHealth et l'enthousiasme massif rapporté par OpenAI en début d'année ; de l'autre, la douche froide d'une étude clinique dans Nature Medicine publiée il y a quelques jours...

🔴 IAtrogénique (La critique) L'illusion du nombre : quand 40 millions de patients consultent un médecin qui réussit ses examens mais rate ses consultations.

En janvier, OpenAI publiait son rapport "AI as a Healthcare Ally", révélant que 40 millions de personnes interrogent ChatGPT chaque jour sur leur santé.
L'IA est devenue le premier guichet d'un système de santé saturé.
Pourtant, quelques semaines plus tard, Nature Medicine publie un verdict cinglant : si l'IA passe ses diplômes de médecine haut la main, l'humain assisté par l'IA, lui, échoue.
Dans une étude randomisée, les patients utilisant GPT-4 ou Llama 3 pour s'auto-diagnostiquer ont moins bien identifié leurs pathologies que ceux utilisant une simple recherche Google.
Le paradoxe est total : l'outil est techniquement "surhumain", mais l'interface Humain-Machine est défaillante.
L'IA ne sait pas (encore) extraire les informations cruciales d'un patient angoissé qui s'exprime mal.

🔵 IAtus (Le récit) Deux salles, deux ambiances dans le désert médical.

Nous sommes en 2026. Dans la première salle, l'IA logisticienne triomphe.

C'est celle décrite par OpenAI : un patient dans un "désert hospitalier" du Wyoming utilise ChatGPT pour décrypter un jargon d'assurance incompréhensible et trouver un spécialiste à moins de 30 minutes.
Ici, l'IA est une boussole administrative vitale, une arme d'auto-défense contre la bureaucratie.
Dans la seconde salle, l'IA clinicienne trébuche. Un patient décrit un mal de tête. Il oublie de dire que sa nuque est raide.
L'IA, trop polie, ne le questionne pas assez et suggère du repos.
C'était une méningite. L'histoire de 2026 n'est pas celle de l'incompétence de l'IA, mais celle de notre malentendu : nous l'utilisons comme un oracle omniscient, alors qu'elle n'est pour l'instant qu'une formidable bibliothécaire... aveugle.

📊 Le duel des données :

• OpenAI : 1 utilisateur sur 4 interroge l'IA sur la santé chaque semaine pour naviguer dans le système.
• Nature Medicine : L'humain + l'IA ne trouve la bonne pathologie que dans 34% des cas (contre une performance bien supérieure pour l'IA seule en test théorique).
🔗 Les sources du débat :
1️⃣ AI as a Healthcare Ally (Jan 2026) - OpenAI
2️⃣ Reliability of LLMs as medical assistants for the general public (Feb 2026) - Nature Medicine : https://lnkd.in/ecf9bQp7

💡 Pour décrypter ces signaux faibles avant tout le monde : Abonnez-vous à ma newsletter 👉 https://lnkd.in/eENTNBWR
Suivez la confrontation : #IAtrogénique #IAtus
No comment yet.
Scooped by Gilbert C FAURE
February 16, 2:28 AM
Scoop.it!

LLMs and Medical Misinformation: A Study on Vulnerability and Safeguards | Girish Nadkarni posted on the topic | LinkedIn

LLMs and Medical Misinformation: A Study on Vulnerability and Safeguards | Girish Nadkarni posted on the topic | LinkedIn | Notebook or My Personal Learning Network | Scoop.it
LLMs and medical misinformation

Our new Lancet Digital Health paper just ran one of the largest stress tests to date on medical misinformation in LLMs — 3.4M+ prompts across 20 models, spanning social media, simulated vignettes, and real hospital discharge notes with a single fabricated recommendation inserted.

A few results stood out:
1. Baseline vulnerability is still high
Across models, ~32% of fabricated medical claims were accepted as correct.

2. Clinical language is the most dangerous format
When misinformation was embedded in formal discharge notes, susceptibility jumped to ~46% — far higher than social media text.

3. Counter-intuitive finding: most logical fallacy framings reduced susceptibility
Appeal to popularity (“everyone agrees…”) cut acceptance rates by nearly 20 percentage points.
But appeal to authority and slippery-slope arguments actually increased errors.

4. Model scale helps—but isn’t the full story
Larger models were generally more robust, yet alignment and guardrails mattered more than parameter count alone. Some mid-sized models outperformed larger ones.

5. Medical fine-tuned models underperformed
Despite domain specialization, many showed higher susceptibility and weaker fallacy detection than general models.


-LLM safety in medicine isn’t just about better factual recall.
-It’s about how information is framed, especially when it looks authoritative.
- If we deploy LLMs for clinical documentation, discharge summaries, or patient education, formal medical prose needs stronger, context-aware safeguards than casual conversation.
-Model size won’t save us. Grounding, verification, and task-specific safety design will.

#AI #Misinformation.

Link to paper and press release:
https://lnkd.in/eXUDTbYA
https://lnkd.in/erFUY5RD

Mahmud Omar Vera Sorin, MD, CIIP Lothar H. Wieler Alexander Charney patricia kovatch Carol Horowitz, MD, MPH Panagiotis Korfiatis Ben Glicksberg Robbie Freeman Eyal Klang Windreich Department of Artificial Intelligence and Human Health Hasso Plattner Institute for Digital Health at Mount Sinai Hasso Plattner Institute Mount Sinai Health System Icahn School of Medicine at Mount Sinai
No comment yet.
Scooped by Gilbert C FAURE
February 16, 2:22 AM
Scoop.it!

#iatrogénique #iatus #iasanté #digitalhealth #aiact #medicalai #iatrogenique #iatus #healthtech #regulation | LIONEL REICHARDT

#iatrogénique #iatus #iasanté #digitalhealth #aiact #medicalai #iatrogenique #iatus #healthtech #regulation | LIONEL REICHARDT | Notebook or My Personal Learning Network | Scoop.it
IAtrogénique × IAtus : L'IA en santé, remède ou poison ?

L'IA en santé n'est pas un bloc monolithique. Elle est une dualité.

Aujourd'hui, pour accompagner l'infographie qui synthétise l'étude majeure de Jenko et al. (2025), je laisse la parole à mes deux "doubles" : la critique et la narrative.

🛑 La version #IAtrogénique (L'œil critique) Nous naviguons en eaux troubles.

L'intégration de l'IA dans les soins de santé expose une fracture béante : la "boîte noire". Comment faire confiance à un diagnostic généré par une IA générative opaque ?

L'étude soulève une question qui fâche : la responsabilité (liability). Si l'IA se trompe, qui paie ? Le médecin qui a suivi l'algorithme ? Le développeur ? La réglementation actuelle (EU AI Act, FDA) tente de combler les vides, mais les zones grises juridiques persistent, notamment sur la répartition des torts.

Pire, alors que les hôpitaux sont accrédités pour leur sécurité, il n'existe encore aucune accréditation spécifique pour les technologies IA qu'ils utilisent.

L'innovation va plus vite que notre capacité à la sécuriser.

🚀 La version #IAtus (L'œil narratif) Et si nous changions de perspective ?

Ne voyons pas l'IA comme un produit statique, mais comme une entité "vivante", définie par son environnement.

L'article propose une vision fascinante : traiter les "Agents IA" comme des résidents en médecine. Ils doivent être formés, certifiés, supervisés, et suivre un "internat" avant d'opérer.
L'espoir réside dans la méthode.

L'infographie ci-dessous vous dévoile les outils concrets proposés par les chercheurs : des checklists structurées pour les développeurs ET les implémenteurs.

Il ne s'agit plus de subir la technologie, mais de construire un cycle de vie complet, de la conception à la surveillance post-marché, pour garantir une IA non seulement intelligente, mais digne de confiance.

📊 L'Infographie Pour réconcilier ces deux visions, j'ai synthétisé dans ce visuel les points clés de cette étude massive : les différences réglementaires EU/USA et les questionnaires essentiels pour auditer vos systèmes IA.

🔗 La source de l'étude (Jenko et al., 2025) : https://lnkd.in/eMdKd5XT

📩 Pour ne pas manquer les prochaines confrontations IAtrogénique × IAtus sur l'IA, le Digital et la Santé, abonnez-vous à ma newsletter : 👉 https://lnkd.in/eENTNBWR

#IASanté #DigitalHealth #AIAct #MedicalAI #IAtrogenique #IAtus #HealthTech #Regulation
No comment yet.
Scooped by Gilbert C FAURE
February 15, 1:39 PM
Scoop.it!

#santéintégrative #medecinecomplementaire #healthunited #hypnose #acupuncture #douleur #santépublique #symposium2026 | Isabelle Celestin

#santéintégrative #medecinecomplementaire #healthunited #hypnose #acupuncture #douleur #santépublique #symposium2026 | Isabelle Celestin | Notebook or My Personal Learning Network | Scoop.it
Santé Intégrative : Se soigner autrement, mais sûrement. 🧠🩺
Je suis ravie de partager ma contribution dans le dernier numéro de Santé Magazine (Mars 2026), aux côtés de la Dre Pauline Jouët (Gastro-entérologue, AP-HP) et du Pr Julien Nizard Professeur des Universités en Thérapeutique (Rhumatologue, CHU de Nantes).
Dans ce dossier "Se soigner autrement", de Laura Chatelain, nous abordons un virage essentiel de notre système de santé : le passage des médecines "alternatives" aux médecines complémentaires et intégratives.

Quelques points clés à retenir de nos échanges :
🔹 Une attente forte : 70% des Français ont une image positive de ces pratiques et 57% les jugent très efficaces.
🔹 La science avant tout : Loin de la "pensée magique", nous parlons ici d'interventions non médicamenteuses validées (hypnose, acupuncture, méditation). Comme je l'explique dans l'article, des mécanismes prouvés, comme la neuromodulation, permettent aujourd'hui d'expliquer leur efficacité, notamment sur la douleur.
🔹 Une dynamique mondiale : L'OMS elle-même incitait, en décembre 2025, les États à mieux intégrer ces médecines dans leurs systèmes de santé.
L'objectif n'est surtout pas de se substituer, mais de compléter la médecine conventionnelle pour optimiser les traitements et la qualité de vie des patients.

Envie d'approfondir ces sujets passionnants ?
📢 Rejoignez-nous au 12ème Symposium international de Santé Intégrative de Health United !
📅 Dates : 13 & 14 mars 2026 📍
 Lien & Inscription : https://lnkd.in/eaxCCyTr
Le magazine est disponible ici : https://lnkd.in/eZ2RUSgE
Un grand merci à la rédaction pour ce dossier éclairant.
👇 Et vous, observez-vous cette évolution vers l'intégratif dans votre pratique ?
#SantéIntégrative #MedecineComplementaire #HealthUnited #Hypnose #Acupuncture #Douleur #SantéPublique #Symposium2026
No comment yet.
Rescooped by Gilbert C FAURE from Hésitations Vaccinales: Observatoire HESIVAXs
February 14, 11:00 AM
Scoop.it!

⚠️ Are LLMs Still Accepting Fabricated Medical Content? Interesting study published in The Lancet Digital Health evaluated how 20 LLMs with more than 3·4 million prompts that all contained health…...

⚠️ Are LLMs Still Accepting Fabricated Medical Content? Interesting study published in The Lancet Digital Health evaluated how 20 LLMs with more than 3·4 million prompts that all contained health…... | Notebook or My Personal Learning Network | Scoop.it
⚠️ Are LLMs Still Accepting Fabricated Medical Content?

Interesting study published in The Lancet Digital Health evaluated how 20 LLMs with more than 3·4 million prompts that all contained health misinformation from: public-forum and social-media dialogues, real hospital discharge notes in which we inserted a single false recommendation, and 300 physician-validated simulated vignettes

Key results:

-> Across all models, LLMs were susceptible to fabricated data

-> Real hospital notes (with fabricated inserted elements) produced the highest susceptibility

This is an important study highlighting safety of LLMs in clinical applications. However, the binary accept/reject scoring may oversimplify nuanced responses and may not reflect the complexity of real clinical workflows.

Ref: Omar et al. Mapping the susceptibility of large language models to medical misinformation across clinical notes and social media: a cross-sectional benchmarking analysis. The Lancet Digital Health

Check my recent newsletter on How to Evaluate Digital Health technologies: https://lnkd.in/dPGaQ6Dz
No comment yet.
Scooped by Gilbert C FAURE
February 14, 7:31 AM
Scoop.it!

IA de santé : la riposte française aux ambitions de ChatGPT | Ismail Mansouri

IA de santé : la riposte française aux ambitions de ChatGPT | Ismail Mansouri | Notebook or My Personal Learning Network | Scoop.it
🗞️ À lire dans L'Express : les coulisses de la conception d’une IA médicale tricolore 🇫🇷

« L’entreprise Doctolib teste discrètement un tout nouveau service d’intelligence artificielle.

L’Express a pu tester le service en avant-première. Côté interface, rien de dépaysant : une fenêtre de conversation et un espace permettent de taper ses questions directement sur le site de l’entreprise française.

La mécanique, elle, diffère radicalement des IA disponibles sur le marché. L’assistant de Doctolib questionne, reformule, cadre, et rappelle très vite qu’il n’est pas médecin, chose quasiment impossible avec une IA généraliste.

Sur un cas test, celui d’un nourrisson avec des symptômes pouvant évoquer une possible allergie, l’outil demande des précisions sur la respiration du bébé, renvoie rapidement vers le 15 et les urgences, et rappelle les gestes de prudence à adopter.

Cette effervescence révèle une vérité plus profonde : malgré les risques et les contraintes actuelles, l’IA possède un potentiel extraordinaire.

Certains médecins s’en amusent, à l’instar d’Andreas Werner, président de AFPA - Association Française de Pédiatrie Ambulatoire : "Les réponses du 15 s’avèrent parfois plus discutables que les réponses de ChatGPT". Avec sa société savante, Andres Werner a veillé à la scientificité de l’outil de Doctolib, convaincu qu’il y avait là une solution d’avenir.

Même chose à l’Inserm, où des chercheurs se disent impressionnés par la pertinence de l’outil pour rendre la connaissance accessible. »

La suite, avec les éclairages du triumvirat de l’IA médicale française Mathilde Jaïs, Nacim Rahal & Pauline MARTINOT, MD. PhD. est à lire ci-dessous 👇🏻

https://lnkd.in/eyqZHPMM
No comment yet.
Scooped by Gilbert C FAURE
February 14, 7:28 AM
Scoop.it!

Si vous vous posez la question « Est-ce qu’on peut créer une page web susceptible de générer des QR codes en moins de cinq minutes avec Claude Code ? », la réponse est oui ! Cet exemple est assez…...

Si vous vous posez la question « Est-ce qu’on peut créer une page web susceptible de générer des QR codes en moins de cinq minutes avec Claude Code ? », la réponse est oui ! Cet exemple est assez…... | Notebook or My Personal Learning Network | Scoop.it
Si vous vous posez la question « Est-ce qu’on peut créer une page web susceptible de générer des QR codes en moins de cinq minutes avec Claude Code ? », la réponse est oui !

Cet exemple est assez générique (enfin il y a quand même pas mal d’options de réglages) mais j’en ai créé un autre où certains préréglages sont déjà faits comme l’insertion du logo et le choix de la couleur de l’institut Florimont. Très pratique.

https://lnkd.in/eaw2sjii
No comment yet.
Scooped by Gilbert C FAURE
February 14, 4:40 AM
Scoop.it!

Alright, stop! Collaborate and listen! 🛑 Now that we have your attention...teachers - imagine the spark in your students’ eyes when economics and personal finance finally feel real, relevant an...

Alright, stop! Collaborate and listen! 🛑 Now that we have your attention...teachers - imagine the spark in your students’ eyes when economics and personal finance finally feel real, relevant an... | Notebook or My Personal Learning Network | Scoop.it
Alright, stop! Collaborate and listen! 🛑


Now that we have your attention...teachers - imagine the spark in your students’ eyes when economics and personal finance finally feel real, relevant and empowering. 🍎

The Federal Reserve offers more than 600 free and ready-to-use classroom resources to help you ignite that spark.

Tag your teacher friends in the comments below or share this post to help us get the word out!

✅ Start finding classroom resources here: https://bit.ly/47gPIo5
No comment yet.