|
|
Scooped by
Gilbert C FAURE
onto Notebook or My Personal Learning Network August 13, 2024 2:27 AM
|
Get Started for FREE
Sign up with Facebook Sign up with X
I don't have a Facebook or a X account
|
|
Scooped by
Gilbert C FAURE
onto Notebook or My Personal Learning Network August 13, 2024 2:27 AM
|
Your new post is loading...
Your new post is loading...
|
|
|
Scooped by
Gilbert C FAURE
Today, 6:47 AM
|
On automatise la veille. On génère des synthèses. On gagne du temps. Mais qui, dans l'organisation, s'en empare vraiment, et pourquoi tant de signaux stratégiques restent sans suite ? Le vrai défi de la veille en 2026 est humain. Il l'a toujours été.
Je serai à la table ronde inaugurale de Documation pour en débattre : "Remettre l'humain au cœur de la veille : quelles synergies entre intelligence humaine et IA au service d'une veille augmentée ?"
Ce que j'ai appris au contact de dizaines d'organisations : la veille ne génère de l'intelligence opérationnelle que lorsqu'elle s'inscrit dans un processus collectif. Pas le travail solitaire d'un veilleur isolé. La mise en commun de regards différents, collaboration transverse, apprentissage entre pairs, croisement des expertises, co-construction des angles d'analyse. C'est à cette condition qu'un flux d'informations devient un levier de décision.
C'est cette conviction qui a guidé la conception de Curebot Assistant chez Esprits Collaboratifs, une IA générative pensée non pas pour remplacer le jugement de l'analyste, mais pour l'amplifier et catalyser ce que les équipes construisent ensemble.
Je partagerai des retours terrain concrets sur comment cette vision se traduit dans les organisations qui font le choix d'une intelligence collective structurée.
Parce que ni Vannevar Bush, ni Engelbart, ni Ostrom n'ont jamais cessé de le rappeler : l'outil n'est rien sans la communauté qui en prend soin. Définir qui contribue, comment les signaux circulent, comment le jugement collectif s'exerce, c'est l'architecture invisible d'une veille pérenne. Pas un outil, pas un workflow : un commun informationnel et cognitif.
Venez en débattre avec moi. Rendez-vous le 8 avril à 16h30 au Salon Documation !
Pour obtenir votre badge visiteur 👉 https://lnkd.in/eNEWXPAn
analyse,
mais appropriation ensuite
|
|
Scooped by
Gilbert C FAURE
Today, 5:45 AM
|
My thesis, focusing on Facebook, showed that 1/ People who clicked on News link on Facebook tend to open new tabs, keep it for later, and never some back to the news article, and 2/ that Facebook posts were designed to avoid people reading the news article linked to the post... but users could at least see the source and Facebook could be perceived as a gateway to news content... but with AI news media outlets are almost invisible !
|
|
Scooped by
Gilbert C FAURE
March 20, 2:07 PM
|
La géniale architecture de la bibliothèque publique de Kansas City 📚
Ce que vous voyez ici est le parking de la bibliothèque, habillé de 22 livres géants de plus de 7 mètres, dont les titres ont été choisis par les habitants eux-mêmes, du Petit Prince au Seigneur des Anneaux. Une idée simple mais spectaculaire qui détourne un espace urbain banal pour en faire un symbole de culture accessible et participative.
|
|
Scooped by
Gilbert C FAURE
March 20, 11:46 AM
|
A contribution impossible to ignore! The beauty and personal care industry is a major economic driver in the EU.
That’s the #TrueValueOfBeauty
|
|
Scooped by
Gilbert C FAURE
March 20, 6:08 AM
|
Alors que l'industrie du gaming gagne en puissance, les jeux vidéo chinois prennent du terrain et s'imposent comme une source de soft power.
|
|
Scooped by
Gilbert C FAURE
March 18, 7:14 AM
|
Considering the use of AI tools for medical advice can be complex. AI-powered medical advice tools, such as Counsel Health, Microsoft Copilot Health, and Amazon Health AI, provide personalized health insights, analyze medical records, and connect users to professionals. However, it's important to remember that these tools should serve as guidance rather than a definitive diagnosis.
Experts caution that AI can deliver inaccurate information with high confidence, which may lead to delayed or incorrect care. Therefore, AI should be viewed as a complement to, not a replacement for, a physician or nurse.
Key Considerations for AI Health Advice:
-Best Use Cases: Ideal for gathering preliminary information, simplifying medical jargon, and preparing questions for a doctor.
-Major Risks: AI models can suffer from hallucinations, providing false information or inaccurate diagnoses. Over-reliance on AI can lead to significant patient harm.
-Current Tools: New tools like Copilot Health are integrating with personal health records for tailored insights, notes The Wall Street Journal. Other platforms like Counsel Health allow users to share symptoms and connect with human doctors for $29, notes Counsel Health.
-Verification: Always cross-reference AI-generated advice with trusted, professional sources.
The Risks of Relying on AI:
-Inaccurate Information ("Hallucinations"): AI can authoritatively present false or dangerous medical advice, such as suggesting improper treatments or failing to recognize life-threatening drug interactions.
-Lack of Personalization: Most AI models provide generic responses based on broad datasets rather than your specific health profile, allergies, or past conditions.
-Sycophancy (Telling you what you want to hear): Some models may mirror your own biases, potentially downplaying serious symptoms if you sound dismissive or heightening anxiety if you are already worried.
-Privacy Concerns: Many general-purpose AI tools are not HIPAA-compliant, meaning any personal health data you share may not be protected by standard medical privacy laws.
Using AI for medical advice can be a helpful starting point for education and context, but it is not a replacement for professional medical diagnosis or treatment. While AI tools are fast and accessible, they lack the ability to perform physical exams, access your full medical history, or apply clinical intuition.
|
|
Scooped by
Gilbert C FAURE
March 18, 7:12 AM
|
The most dangerous idea in healthcare AI right now is that large language models are the whole story. They are not. Nature's latest research on the evolving landscape of AI in healthcare reveals something the mainstream tech press keeps missing: the clinical frontier is not one technology, it is an ecosystem — large language models working alongside specialized, task-specific models that were trained not on internet text but on imaging data, genomic sequences, lab values, and clinical notes stretching back decades. When these systems work together, something genuinely new becomes possible.
Here is the reframe most people need: we have been asking the wrong question. The debate about whether AI belongs in healthcare has already been settled by the data. The real question — the one that will determine who lives and who dies in the next decade — is whether the institutions responsible for deploying these systems can close the gap between what the technology can do today and what clinical workflows actually allow. That gap is not technical. It is institutional. And it is enormous.
Think about what that means for a rural hospital in Indiana, a district clinic in Portugal, or a community health center in South Africa. The specialized diagnostic models that outperform radiologists on specific imaging tasks, the language models that can synthesize a patient's entire history in seconds, the predictive models that flag deterioration hours before a physician would notice — these tools exist now. They are not theoretical. The question is whether the institutions serving the most vulnerable patients will ever get access to them, or whether AI-augmented medicine becomes another advantage reserved for wealthy urban health systems with the IT infrastructure and capital to deploy it. That is not a technology question. That is a policy question, and almost no one in a position of authority is treating it that way.
Here is the challenge for anyone reading this who has institutional power: the Nature research makes clear that the landscape is already complex and already bifurcating. The HELP Committee in the U.S. Senate, the EU AI Office, and the UK's MHRA need to stop treating healthcare AI as a future regulatory problem and start treating it as a present deployment crisis. The question is not whether to regulate — it is whether oversight frameworks can be built fast enough to ensure that the hospitals serving the poorest communities don't get left decades behind the hospitals serving the richest ones. Every month of delay is a policy choice with a body count.
FREE SUBSCRIBERS — no credit card ever required — full analysis at https://lnkd.in/e5ZTi-x9
|
|
Scooped by
Gilbert C FAURE
March 18, 6:59 AM
|
« Un homme de bien doit s’efforcer de parler avec prudence et d’agir avec promptitude » (君子欲讷于言而敏于行), disait Confucius. Selon lui, un gentleman (ou un homme de bien) doit être responsable de ses paroles et de ses actes ; il ne doit pas promettre quelque chose à la légère, et si une promesse est faite, il doit tout mettre en œuvre pour la tenir. Sinon, il perdra la confiance des autres et, par conséquent, sa crédibilité diminuera.
Il ajoutait également : « Un gentleman a honte lorsque ses paroles dépassent ses actes » (君子耻其言而过其行). Cela signifie qu’un gentleman doit se sentir embarrassé lorsque ses paroles surpassent ce qu’il accomplit.
D’autres proverbes chinois expriment des idées similaires et mettent l’accent sur l’importance de tenir sa parole :
👉 « Les paroles d’un homme de bien, une fois prononcées, ne peuvent être rattrapées, même par un attelage de quatre chevaux rapides. » (君子一言,驷马难追)
Cette expression, inspirée des Entretiens de Confucius (Lunyu), signifie qu’une parole prononcée est irrévocable.
👉 « Parole tenue, acte assuré » (言必信,行必果)
Également tirée des Entretiens de Confucius, cette expression signifie qu’il faut être digne de confiance dans ses paroles et efficace dans ses actions.
👉 « Une parole pèse autant que neuf cauldrons » (一言九鼎)
👉 « Une promesse vaut mille pièces d’or » (一诺千金)
…
Pendant la période des Royaumes combattants, Han Fei, philosophe et penseur politique chinois du courant légiste, racontait dans ses écrits l’histoire suivante :
La femme de Zengzi devait aller au marché. Son fils la suivait en pleurant. Elle lui dit : « Rentre chez toi, je tuerai un cochon pour toi à mon retour. » Après être allée au marché, elle rentra à la maison. Zengzi s’apprêtait à saisir un cochon pour le tuer, mais sa femme l’arrêta en disant : « Ce n’était qu’un jeu avec l’enfant. »
Zengzi répondit : « On ne joue pas avec un enfant de cette manière. L’enfant est incapable de raisonner seul et doit apprendre à travers ses parents et suivre leurs enseignements. Si tu le trompes maintenant, tu lui apprendras à mentir. Une mère qui trompe son fils ne peut plus être crue par lui — ce n’est pas une méthode éducative appropriée. » Zengzi tua alors le cochon et le fit cuire.
Ainsi, ces enseignements nous montrent que si nous promettons quelque chose à quelqu’un, nous devons absolument tenir notre promesse. Si des conditions extérieures rendent cela impossible, il faut au moins fournir des explications et un suivi. Et si nous ne savons pas si nous pourrons réaliser quelque chose ou si cela est faisable, il ne faut pas promettre à la légère.
En somme, c’est à la fois mon principe de conduite et l’un de mes critères pour évaluer si quelqu’un est digne de confiance. En management, cela représente également une qualité précieuse et permet de gagner en crédibilité : « Faire ce que l’on dit, dire ce que l’on fait. »
Et vous, qu'en pensez-vous ?
#valeurs #sagesse #management | 11 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 18, 4:30 AM
|
AI is no longer a future concept in medicine; it is already reshaping how healthcare is delivered. A recent survey fielded by the American Medical Association found that 81% of physician-respondents use AI tools in their clinical practices.
Physicians report using AI primarily to reduce administrative burden: summarizing medical records, drafting documentation, and supporting care planning. If deployed responsibly, these tools could return something medicine has been steadily losing – time between clinicians and their patients.
In addition to data privacy concerns, rapid adoption raises other important questions: Will AI help strengthen health systems or deepen existing inequities? Will innovation reach the communities with the greatest health burdens first? And how do we ensure physicians and other healthcare providers remain central to decision-making as these tools evolve?
In my latest Fast-Track Health blog post, I reflect on what the rapid rise of AI use in medicine means for clinicians, health systems, and public health as well as why governance, trust, and equity must keep pace with innovation.
Read my blog post: https://lnkd.in/eQvJMvRM
#AIinHealthcare #DigitalHealth #HealthSystems #PublicHealth
|
|
Scooped by
Gilbert C FAURE
March 16, 1:53 PM
|
Can AI Actually "Think" Like a Physician? 🤖💻
Medical logic isn’t a straight line
it’s a complex web of history, timing, and pathophysiology.
Yet, most AI models today treat medical data as a mere mathematical puzzle, ignoring the "Clinical Thread" that connects the dots.
🚩 The Problem: The Diagnostic Vacuum
Monitoring AI models reveals a dangerous trend: they often treat the "Principal Complaint" in a vacuum.
Take this scenario:
Case Scenario
1️⃣ Past History: Gastritis (1 month ago).
2️⃣ Recent History: conjunctivies,
Red flag +Knee edema (1 week ago).
3️⃣ Current Complaint: Eye infection + Reiter’s Syndrome triade (Reactive Arthritis).
Medical Logic
🔍" Can't see, Can't pee, Can't climb a tree " + history of GE(Salmonela) or UTI within past few months
💡Medical management must conclude treatment of arthrities by (NSAIDs, ABs, Corticosteroids) not treatment of current eye infection only.
⛔Standard AI often fails here because it’s programmed for "Pattern Matching" rather than "Clinical Reasoning."
It struggles to link a gastrointestinal trigger to a delayed multi-system syndrome.
The Solution:
Clinical Intelligence Infrastructure 🧠
Physician don't just "prompt" AI; we engineer its logic
using a Holistic, Patient-Centered Hypothetical Structure:
✅ Evidence-Based Frameworks: We integrate formal clinical guidelines—including USPSTF, GOLD, and ABCDE—directly into the model’s reasoning engine.
✅ CDL Complexity Scaling (0-5): Our proprietary scale forces the AI to rank Differential Diagnoses from the "Worst-Case Scenario" to the least likely, ensuring no "Red Flags" are missed.
✅ Physician-in-the-Loop (PITL): We use Human Incident Transcription to teach models the nuance of medical ethics and logic, moving beyond simple mathematical imputation.
✨✨
🤖🚩 How We Monitor the "Unsupervised" ML 🧪
🔍Most AI models are built on Aggregation Mathematical Imputation.
They are great at math, but illiterate in Medical Ethics.
🔴When an unsupervised model processes a complex case—like a patient with past Gastritis now presenting with Reiter’s Syndrome,
it often ignores the "Diagnostic Thread" in favor of the most statistically "loud" symptom
At terms of clinical precision we enforce
🔍 Clinical Drift Detection: Auditing the Latent Path to ensure the AI reached a conclusion for the right medical reasons.
🛡️ Zero-Hallucination Policy: Every output is cross-referenced against formal medical governance before it ever reaches a decision-maker.
Yes, Medicine is complex but AI’s reasoning shouldn't be a black box
Know How do you monitor a black box?
The reply is tbat (You don't. You wrap it in a Physician-Led Validation Layer)
🤖Is your healthcare AI clinically safe, or just "statistically likely"?
bridging the gap together.
Clinical Methodology
#MedicalAI #HealthTech #ClinicalLogic #AIethics #DigitalHealth #NOVIQ #PhysicianLedAI #HealthData
|
|
Scooped by
Gilbert C FAURE
March 16, 4:42 AM
|
Most parents don’t realise this.
The version of TikTok Chinese kids use is not the same one our kids get.
Not even close.
In China, if you’re under 14:
• The app shuts down at 10pm
• Usage is capped at 40 minutes a day
• The algorithm mainly shows science, museums, and educational content
Now compare that with the version our kids get:
• Infinite scroll.
• Endless dopamine loops.
• No off switch.
Same company: ByteDance runs Douyin in China and TikTok everywhere else.
For Chinese kids:
• Youth Mode enabled by default
• Real-name verification
• Educational feeds
• Hard time limits
For other kids all over the world?
An algorithm optimized for maximum watch time.
You don’t have to agree with China’s internet policies to notice something interesting here: The people who built these algorithms know exactly what they do to developing brains.
And they chose to protect their own kids from it.
The real problem isn’t just lack of regulation all over the world. It’s also lack of tech literacy among everyday non-tech people.
Engineers understand these systems. Many tech executives do too.
But most parents were never taught how algorithms actually work. So billions of kids are growing up inside systems their parents don’t understand.
And with AI-driven feeds, that gap is only getting wider.
Question:
Should platforms be responsible for protecting kids from their own algorithms?
________________
♻️ share this post to spread awareness.
➕ Follow Tiana Zivkovic for more on tech/AI posts. | 85 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 14, 8:32 AM
|
Microsoft lance Copilot Health, son chatbot dédié à la santé, capable d’analyser les données de vos objets connectés (montre, balance...), de vous aider à comprendre vos bilans ou analyses, ainsi que de répondre à des questions générales de santé et bien-être.
> https://lnkd.in/e-ZisUmT
Ce nouveau chatbot s’appuie sur une collaboration avec des institutions et un panel de 230 professionnels de santé dans 40 pays. Mais également sur l’historique des 50 M de questions de santé posées à Copilot et Bing tous les jours.
> https://lnkd.in/eYBAB_uf
Copilot Health est conforme à la certification ISO/IEC 42001 et s’intègre dans une initiative plus large qui inclue le système d’orchestration de diagnostiques MAI-DxO. L’ambition de Microsoft est de mettre au point une superintelligence médicale. #GenAI
> https://lnkd.in/eVVHbF-E
|
|
Scooped by
Gilbert C FAURE
Today, 6:59 AM
|
The UK government has just published its long awaited Media Literacy Action Plan. This sets out a whole-of-government vision for improving media literacy over the 2026-2026 period. The Plan explains what the government is doing to improve media literacy and the first steps it is taking to help people feel safer, more confident, and better informed online. In developing the Plan, the Department of Science, Innovation & Techonology (DSIT) has worked closely with other government departments to make media literacy part of wider policies and share best practice.
The Plan sets out three core principles and four priority areas for action:
(i) Core principles to delivering a more media literate UK
- supporting people where they are
- sharing and using what works
- helping everyone play their part in strengthening media literacy
(ii) Priority areas for action to achieve the government's vision of success
- building awareness of media literacy and support access to trusted information
- preparing children and young people for a digital future
- boosting local initiatives, to support people facing barriers to participation
- ensuring a coherent approach across government and supporting cross-sector coordination
https://lnkd.in/eKrTmHcU
|
|
Scooped by
Gilbert C FAURE
Today, 6:32 AM
|
🚀 Influence Metrics x Visibrain : un partenariat stratégique autour de LinkedIn
Nous sommes fiers d’annoncer notre collaboration avec Visibrain, acteur de référence du social listening.
👉 Leur force : capter et structurer les conversations en ligne, notamment sur LinkedIn, en temps réel
👉 La nôtre : analyser ces données en profondeur pour en extraire des insights stratégiques
🤝 Ensemble, nous allons plus loin sur LinkedIn.
Grâce à ce partenariat, nous combinons :
- une écoute fine et réactive des conversations
- une capacité unique d’analyse sur LinkedIn, avec des historiques allant jusqu’à 365 jours
- une lecture avancée, multi-langues, pour une compréhension globale des dynamiques d’influence
🎯 Objectif : transformer la donnée LinkedIn en décisions, avec plus de recul, plus de précision et plus d’impact.
#partenariat #linkedin #sociallistening #data #influence #insights
|
|
Scooped by
Gilbert C FAURE
Today, 3:49 AM
|
📚✨ Simplifiez vos préparations de cours avec CartaGen ! Créez des cartes interactives en un clin d'œil en décrivant votre idée en langage naturel. Open Source. 🌍🗺️ #ÉducationInnovante #CartaGen #magique
https://lnkd.in/eURJKjr4
|
|
Scooped by
Gilbert C FAURE
March 20, 2:06 PM
|
Votre enfant de 4 ans est plus intelligent qu'une IA à 100 milliards de dollars. 🧒 C'est le constat de Yann LeCun lors de sa dernière conférence à Paris.
Nous sommes tous bluffés par ces IA capables d'écrire un poème ou de coder une application. Mais la réalité, c'est qu'aujourd'hui, nos machines n'ont pas de "sens commun".
1️⃣ L'illusion du langage : L'IA actuelle parle remarquablement bien, mais elle ne comprend pas la réalité. Elle calcule des probabilités pour prédire le mot suivant. Mais maîtriser le vocabulaire ne veut pas dire maîtriser la vie réelle.
2️⃣ Le Paradoxe de Moravec : Réussir l'examen de médecine ? Facile pour une IA. Plier une chemise ou débarrasser une table sans rien casser ? Impossible pour nos robots. Le monde physique est le vrai test.
3️⃣ Retour à la maternelle : Un bébé apprend les lois de la gravité en regardant un objet tomber. L'IA doit faire pareil : passer du texte à la vidéo (apprentissage auto-supervisé) pour acquérir ce fameux "sens commun" par l'observation.
4️⃣ Se construire un "Modèle du Monde" : La vraie intelligence, c'est la capacité d'anticipation. L'IA de demain aura un "simulateur interne" qui lui permettra de tester mentalement les conséquences de ses actions avant d'agir.
5️⃣ Du réflexe à la réflexion (Système 1 vs Système 2) : ChatGPT donne des réponses de manière instinctive (Système 1). Le prochain grand saut technologique ? Intégrer le Système 2 : une machine qui prend le temps de délibérer, de raisonner et de planifier avant d'exécuter.
6️⃣ Comprendre l'essentiel : Le monde est trop chaotique pour prédire le futur pixel par pixel (imaginez essayer de prédire le mouvement de chaque feuille d'un arbre). L'architecture JEPA permet à l'IA d'ignorer les détails visuels inutiles pour ne comprendre que les concepts qui comptent.
7️⃣ La fin des hallucinations : Fini les IA qui déraillent. Les futurs modèles seront contraints par des objectifs clairs et des règles de bon sens gravées dans le code. En clair : des garde-fous intégrés "by design" pour assurer la sécurité.
8️⃣ Oubliez l'AGI, bienvenue à l'AMI - Advanced Machine Intelligence : L'intelligence "générale" n'existe pas (même l'être humain est ultra-spécialisé). L'objectif est de créer des "modèles du monde" fiables, open-source, et capables de nous aider concrètement dans le monde matériel.
💡 La conclusion : L'avenir de la Tech ne se joue pas seulement dans la capacité à générer plus de textes, mais dans la capacité à comprendre notre réalité physique.
❓Si demain une IA obtenait enfin ce "sens commun", qu'est-ce que cela changerait dans votre secteur ?
🔗 Source : Conférence de Yann LeCun en premier commentaire
👉 Formez-vous à l'IA avec NextStart.AI | 21 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 20, 11:24 AM
|
Comment évaluer scientifiquement l'impact des IA de recommandation ?
Dans un article pour Polytechnique Insights, je vous présente deux expériences contrôlées randomisées extrêmement préoccupantes. Malgré des interventions minimes et limitées dans le temps, elles montrent que ces IA de recommandation affectent aussi bien les émotions que nous ressentons, notamment vis-à-vis du "clan opposé", que celles que nous exprimons. Mais surtout, je vous parle de ce qu'un raisonnement plus bayésien suggère du danger de ces IA.
Voilà qui permet de contextualiser les récentes attaques judiciaires à l'encontre de ces systèmes, aussi bien en Europe qu'en Californie.
|
|
Scooped by
Gilbert C FAURE
March 20, 5:45 AM
|
Laissez-moi vous expliquer comment fonctionne le diabète… »
Cette image peut sembler ironique, mais elle reflète une réalité que beaucoup de personnes vivant avec un diabète connaissent encore aujourd’hui.
Récemment, une patiente hospitalisée s’est vu retirer sa pompe à insuline pour passer aux stylos.
La diabétologue était absente pour le week-end et les internes ont refusé de prescrire l’insuline basale.
Résultat : des hyperglycémies très sévères, un mal-être important et un sentiment d’incompréhension face à une situation pourtant évitable.
En tant que diabétique depuis plus de 20 ans et engagée dans la défense de cette cause, je me pose une question simple :
Comment est-il possible qu’en 2026, nous soyons encore en retard sur des bases aussi fondamentales du traitement du diabète ?
Le schéma basal-bolus (insuline lente + insuline rapide) fait partie des bases les plus élémentaires de la prise en charge.
Et pourtant…
Ce qui est parfois le plus usant, ce n’est pas seulement d’éduquer la société sur le diabète.
C’est aussi de devoir, encore et encore, expliquer ces réalités à certains professionnels de santé.
Ce message n’est pas une accusation.
C’est un appel à davantage d’écoute, de formation et de compréhension du vécu des patients.
Car derrière ces situations, il y a aussi un sentiment que beaucoup de personnes diabétiques connaissent :
la révolte face à l’injustice de ne pas être correctement comprises ou prises en charge.
Le diabète, lui, ne s’arrête ni le week-end, ni pendant les changements d’équipe. | 16 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 18, 7:13 AM
|
A subtle but important shift in medical AI just appeared in the literature.
Researchers recently evaluated a large language model embedded directly inside electronic health records in primary care settings.
Not as a chatbot.
Not as an external decision support tool.
But as part of the clinical workflow itself.
This may sound like a technical milestone, but institutionally it signals something much bigger.
For more than a century, clinical reasoning has been organized around the individual physician’s mind. Clinical decision support systems were external references—guidelines, textbooks, alerts.
Now we are beginning to see the emergence of embedded clinical cognition systems.
In these environments, diagnosis and treatment planning become a distributed process involving clinicians, patient data ecosystems, and generative AI operating inside the health record.
The physician’s role does not disappear.
But it evolves—from sole generator of medical reasoning to architect and supervisor of human–AI cognitive systems.
For academic medicine, the strategic question is no longer whether AI will assist clinicians.
It is how we design AI-native medical institutions where human expertise and machine reasoning operate safely as a single cognitive architecture.
We may be watching the early infrastructure of the Cognitive Revolution in medicine take shape.
Source:
https://lnkd.in/g5_jgbna
#MedicalAI #AcademicMedicine #AIinHealthcare #DigitalHealth #FutureOfMedicine #AINative
|
|
Scooped by
Gilbert C FAURE
March 18, 7:09 AM
|
PhD Students - Which tool to use in each phase of your PhD?
Research paper writing
↳ 𝐀𝐧𝐬𝐰𝐞𝐫𝐓𝐡𝐢𝐬 → https://lnkd.in/dT8KNcjY
Grammar & typos checking
↳ 𝐏𝐚𝐩𝐞𝐫𝐩𝐚𝐥 → https://lnkd.in/diAjKHUR
Convert paper to a poster
↳ 𝐒𝐜𝐢𝐒𝐩𝐚𝐜𝐞 → https://lnkd.in/d_rDXkNU
Conduct literature reviews
↳ 𝐆𝐚𝐭𝐬𝐛𝐢 → https://
gatsbi.com
Extract data from research papers
↳ 𝐦𝐨𝐚𝐫𝐚 → https://
moara.io
Identify right journal for paper
↳ 𝐑𝐞𝐯𝐢𝐞𝐰-𝐢𝐭 → http://
review-it.ai
Receive feedback on thesis
↳ 𝐓𝐡𝐞𝐬𝐢𝐟𝐲 → http://
thesify.ai
Peer-review a manuscript before submission
↳ 𝐑𝐞𝐯𝐢𝐞𝐰𝐞𝐫𝟑 → https://
reviewer3.com
Paper editing
↳ 𝐎𝐯𝐞𝐫𝐥𝐞𝐚𝐟 → http://
overleaf.com
Identify papers for literature review
↳ 𝐍𝐎𝐀𝐇 → https://
lnkd.in/d-hgRce2
Identify trends in research
↳ 𝐄𝐮𝐫𝐞𝐤𝐚 → https://
lnkd.in/dqWj6kYv
Identify research gaps
↳ 𝐖𝐢𝐬𝐏𝐚𝐩𝐞𝐫 → https://
lnkd.in/dVUCUA_p
Any other problem/tool you'd like to add?
#phd #aitools | 20 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 18, 5:05 AM
|
Reducing risk in AI-driven healthcare decisions will protect patients, strengthen trust in digital health tools, and support responsible adoption of generative AI across healthcare services. A randomized study involving about 1,300 participants found that people who used AI chatbots to interpret medical symptoms did not make better health decisions than those who relied on traditional sources such as search engines or their own judgment. The findings highlight a critical gap between strong benchmark performance and safe real-world use.
Researchers from the University of Oxford reported that large language models often perform well on standardized medical exams but struggle when real users describe symptoms in everyday language. Participants often received inconsistent guidance, and slight changes in how users asked questions sometimes produced different responses. These interaction challenges increase the risk that people misunderstand medical advice or fail to recognize situations that require professional care.
The results point to a clear path forward. Healthcare organizations must test AI systems in real-world settings, establish stronger safety guardrails, and integrate chatbots with clinical expertise before offering frontline medical guidance. As generative AI expands across digital health services, companies that prioritize validation, transparency, and human oversight will build the most trusted and scalable healthcare solutions.
#artificialintelligence #chatbots #llm #genai #digitalhealth #healthtech
https://lnkd.in/gNUUN5Fy
|
|
Scooped by
Gilbert C FAURE
March 18, 4:23 AM
|
Ce livre a tout d’un livre. En réalité, c’est une synthèse générée par IA.
J’ai comparé la synthèse avec trois interventions (Marc Decombas, Murielle Popa-Fabre, et Thomas Huchon) à partir des vidéos disponibles sur YouTube.
1. Normalisation du ton et perte d’aspérité
L’IA lisse le discours. Le résultat devient institutionnel, neutre, consensuel.
Ex. de Murielle Popa-Fabre : la synthèse retient les chiffres mais laisse de côté des réalités sociales plus dures, comme le fait qu’une femme sur deux quitte la tech vers 35 ans ou les biais sexistes qui décrédibilisent l’humour féminin en entreprise.
Ex. de Thomas Huchon : une performance engagée sur les dérives démocratiques devient une fiche de gestion des risques. Les critiques directes sur certaines personnalités politiques ou puissances étrangères disparaissent.
2. Sacrifice de la narration
Les anecdotes et les exemples qui permettent de comprendre un sujet disparaissent. Le discours devient plus abstrait.
3. Simplification des concepts techniques et juridiques
La synthèse privilégie le « quoi » (le constat) et évacue souvent le « comment ».
Ex. Marc Decombas évoque des paramètres précis comme la température des modèles ou l’effet de la compression sur leur fiabilité. Ces éléments techniques disparaissent dans la synthèse.
Ex. juridique. Murielle Popa-Fabre mentionne l’article 17 d’un traité international permettant un recours contre les biais de l’IA. Une information utile pour des dirigeants, absente du résumé.
4. Décontextualisation géopolitique et conjoncturelle
La synthèse retire les éléments liés à l’actualité ou aux tensions géopolitiques.
Ex. L’analyse de Thomas Huchon sur les élections américaines de 2024 ou l’opération d’influence russe autour de l’affaire des punaises de lit en France n’apparaît plus.
Cette synthèse générée par IA reste efficace pour condenser une masse énorme d’informations. Mais elle révèle aussi ses limites, elle transforme des réflexions vivantes en un savoir plus standardisé, parfois moyenasse, où certaines alertes, nuances ou solutions concrètes disparaissent.
Nicolas Dufourcq dans son édito, décrit la vérité comme une force « abrasive » qui ne nous caresse pas et nous oblige à affronter le réel. Or, en cherchant le message moyen et consensuel, l’IA finit précisément par caresser le lecteur. Elle gomme les faits les plus rugueux qui devraient pourtant nourrir le débat.
L’iA sait résumer un discours. Elle ne sait pas encore en préserver la singularité.
|
|
Scooped by
Gilbert C FAURE
March 16, 4:43 AM
|
🚨 Et si votre prochain médecin… n’était plus humain ?
Aux États-Unis, un phénomène silencieux prend de l’ampleur.
De plus en plus de patients consultent une intelligence artificielle avant d’aller voir leur médecin. 🤖
Aujourd’hui, des millions de patients utilisent déjà des outils d’IA pour poser leurs symptômes, comprendre un diagnostic ou vérifier un traitement. 📊
Selon plusieurs études publiées ces dernières années, une part croissante des internautes américains utilise des outils numériques ou conversationnels pour obtenir des informations médicales avant de consulter un professionnel de santé.
Historiquement, la médecine reposait sur une relation très claire.
Le médecin détenait l’expertise.
Le patient lui accordait sa confiance.
Mais l’intelligence artificielle introduit un troisième acteur dans la relation médicale.
Un acteur accessible 24h sur 24.
Instantané.
Et perçu comme neutre.
Cette transformation crée un déplacement progressif de l’autorité médicale. ⚖️
D’un point de vue économique, les implications sont immenses.
La santé représente plus de 18 % du PIB aux États-Unis et près de 12 % en France.
Si une partie de l’information médicale, du tri des symptômes et du suivi patient est absorbée par des outils d’IA, une partie de la chaîne de valeur médicale pourrait se transformer radicalement. 💰
Cela ne signifie pas la disparition des médecins.
Mais cela signifie probablement une redéfinition profonde de leur rôle.
Dans de nombreux cas, l’IA peut déjà :
• analyser des symptômes
• proposer des pistes diagnostiques
• aider à l’interprétation d’imagerie médicale
• accompagner le suivi de maladies chroniques
Les médecins restent évidemment les seuls habilités à poser un diagnostic et prescrire un traitement.
Mais la frontière entre information médicale et acte médical devient de plus en plus floue. 🔍
La question n’est donc pas de savoir si l’IA va remplacer les médecins.
La vraie question est :
Comment la médecine va-t-elle intégrer cette nouvelle réalité technologique ?
Les professionnels de santé vont devoir renforcer ce que la machine ne peut pas reproduire facilement :
l’expertise clinique
la relation humaine
le jugement médical
la responsabilité éthique.
Dans le même temps, les systèmes de santé devront intégrer l’IA pour :
• réduire les coûts
• améliorer l’accès aux soins
• désengorger les cabinets médicaux
• optimiser le suivi des patients. 🚀
Ce qui est certain, c’est que la confiance du patient devient le véritable enjeu stratégique.
Confiance dans le médecin.
Confiance dans la technologie.
Confiance dans le système de santé.
La question n’est donc plus seulement médicale.
Elle est économique, sociétale et stratégique.
Si la médecine ne s’adapte pas à cette révolution technologique, d’autres acteurs le feront.
Et ils iront vite.
Très vite.
Alors posons la vraie question :
Allez-vous d’abord consulter votre médecin… ou votre IA ? 💬
|
|
Scooped by
Gilbert C FAURE
March 14, 8:33 AM
|
81% of physicians are routinely using AI in their clinical practice, according to a survey by the American Medical Association.
Unregulated use of this new powerful, but not infallible, technology in medicine is a reality now.
It is up to healthcare professionals to ensure responsible adoption. That is why AI competency needs to be part of any healthcare training program.
Link in the comments.
Geisel School of Medicine at Dartmouth IAMSE Dartmouth College AMEE - The International Association for Health Professions Education
|
|
Scooped by
Gilbert C FAURE
March 14, 8:30 AM
|
🛡️ Veille informationnelle : Ce qu'il fallait retenir du Visibrain Meetup 2026
Rendez-vous incontournable des professionnels de la veille, le Visibrain Meetup a tenu toutes ses promesses. Entre retours d’expérience sur scène et échanges informels, la discipline confirme sa mutation profonde. Merci Nicolas Huguenin et ses équipes pour l'invitation.
Voici les 11 points clés que j'ai retenus pour naviguer dans l'infosphère cette année :
1️⃣ L'info comme champ de bataille : L’information est devenue un véritable terrain de confrontation géopolitique et économique.
2️⃣ Nouvelles cartographies : Maîtriser les réseaux LinkedIn et TikTok n'est plus une option, c'est une nécessité stratégique.
3️⃣ L'enjeu de la souveraineté : À qui confions-nous nos données ? La question de la nationalité des outils de veille devient centrale.
4️⃣ L'outil ne fait pas le moine : Un logiciel de veille n'a de valeur que s'il est servi par des humains formés et sensibilisés.
5️⃣ Omniprésence obligatoire : En 2026, la veille doit couvrir l'intégralité des plateformes, sans exception.
6️⃣ L'anticipation est la clé : Alerting, préparation de smartboards... la veille se prépare en amont pour être efficace le jour J.
7️⃣ Le paradoxe X (Twitter, Inc.) : Beaucoup de marques quittent le réseau en tant qu'annonceurs, mais aucune n'arrête d'y veiller. C'est là que cristallisent les crises, surtout en communication financière.
8️⃣ Les bastions de X : Le réseau reste le cœur battant du Gaming, de la Finance et de l'actu chaude.
9️⃣ Le soufflet BlueSky : Malgré le buzz, l'engagement y est resté très faible.
🔟 LinkedIn, outil de com' interne : Une annonce de CEO sur LinkedIn a souvent plus d'impact sur les collaborateurs qu'un mail interne.
1️⃣ 1️⃣ La fin de la "Safe Place" : LinkedIn se crispe et les polémiques y sont de plus en plus fréquentes.
🧐 Ma réflexion : L'angle mort de 2026 ?
Un point m'a frappé : presque personne n'a abordé les plateformes de messaging. Pourtant, Visibrain permet depuis quelque temps déjà de surveiller les chaînes Telegram.
Le Dark Social (WhatsApp, Signal, Telegram Messenger) ne serait-il pas le véritable angle mort de la veille cette année ? Comment anticiper une crise qui se propage dans des boucles fermées ?
Your new post is loading...