Communiqués de presse et annonces publiés par l'Université d'Ottawa
|
|
Suggested by
LIGHTING
onto Notebook or My Personal Learning Network December 28, 2014 3:24 PM
|
Get Started for FREE
Sign up with Facebook Sign up with X
I don't have a Facebook or a X account
|
|
Suggested by
LIGHTING
onto Notebook or My Personal Learning Network December 28, 2014 3:24 PM
|
Communiqués de presse et annonces publiés par l'Université d'Ottawa
Your new post is loading...
Your new post is loading...
|
|
|
Scooped by
Gilbert C FAURE
March 9, 5:59 AM
|
Nous sommes les victimes collatérales d'une guerre cognitive qui détruit ce que nous sommes… des êtres humains.
Chaque jour, nous sommes exposés à des flux d'informations conçus pour capter notre attention, orienter nos émotions et parfois remodeler notre perception de la réalité. Ce phénomène n’est pas accidentel. Il s'inscrit dans ce que l'on appelle désormais la « guerre cognitive » : une lutte qui ne vise plus seulement des territoires ou des ressources, mais directement nos esprits.
Dans cette bataille invisible, les armes sont les récits, les algorithmes, la désinformation, la polarisation et la saturation informationnelle. L’objectif n’est même plus de nous convaincre, mais de nous épuiser, de nous diviser et de nous rendre incapables de discerner collectivement ce qui est réel.
Face à cela, la réponse la plus souvent proposée est celle de « l’hygiène cognitive » : vérifier les sources, ralentir et prendre du recul.
Sur le papier, cela semble raisonnable.
Mais dans les faits, cette réponse est largement insuffisante, voire un piège pour les citoyens.
Elle renvoie la responsabilité aux individus isolés, comme si chacun devait se défendre seul face à des systèmes industriels de manipulation de l'information dotés de moyens technologiques, financiers et psychologiques considérables.
Autrement dit, pendant que l'on demande aux individus d'être plus vigilants, les infrastructures qui organisent la manipulation de masse continuent de fonctionner à grande échelle.
Une population fragmentée, occupée à « mieux réfléchir individuellement » mais incapable de s'organiser collectivement pour se défendre, est précisément ce qui permet à cette guerre cognitive de prospérer.
La réalité, c'est que ce problème est systémique et politique.
Il ne peut pas être traité uniquement à l'échelle individuelle.
Si nos sociétés veulent préserver leur capacité à décider ensemble, à débattre rationnellement et à coexister sur la même planète, il devient nécessaire de franchir une étape supplémentaire.
Cela implique la création d'une véritable « institution publique dédiée à la défense cognitive des sociétés » : une structure capable d'analyser, d'exposer et de neutraliser les acteurs — étatiques, économiques ou technologiques — qui organisent délibérément la manipulation massive de l'attention, de l'information et du jugement collectif.
En effet, la souveraineté du XXIe siècle ne sera pas seulement territoriale, énergétique ou technologique.
Elle sera aussi — et peut-être surtout — « cognitive ».
Signez la pétition pour que cette institution puisse voir le jour :
https://lnkd.in/ehrG72ei
|
|
Scooped by
Gilbert C FAURE
March 9, 5:57 AM
|
Most people are using AI wrong.
And it's costing them hours every day.
Here's what I learned after spending 6 months with all 5 major AI tools:
They're not competitors.
They're specialists.
The mistake everyone makes:
Picking one AI and forcing it to do everything.
That's like using a hammer for every job. Sure, it works... but you're working 10x harder than you need to.
Here's the cheat sheet nobody shares:
🔷 ChatGPT = Your creative co-pilot
When to use: Writing, coding, brainstorming
Why it wins: Versatile, conversational, builds custom workflows
When it fails: Real-time data, citations, legal precision
🔷 Grok = Your trend radar
When to use: What's blowing up on social media RIGHT NOW
Why it wins: Live X/Twitter feed, edgy personality
When it fails: Professional docs, deep analysis
🔷 Gemini = Your Google butler
When to use: Managing Gmail, Calendar, Drive
Why it wins: Lives inside your Google workspace
When it fails: Anything outside Google's ecosystem
🔷 Claude = Your document surgeon
When to use: Dissecting 100-page reports or contracts
Why it wins: Massive context, exceptional comprehension
When it fails: Quick questions, trending topics
🔷 Perplexity = Your fact-checking assistant
When to use: Research that needs sources and proof
Why it wins: Citations for every answer
When it fails: Creative work, subjective opinions
My actual daily workflow:
7 AM: Gemini → Scan emails, prioritize calendar
9 AM: ChatGPT → Draft content, debug code
11 AM: Perplexity → Research competitors, verify claims
2 PM: Claude → Review legal docs, analyze reports
5 PM: Grok → Check what's trending for tomorrow's content
The pattern that changed everything for me:
I stopped asking "Which AI is best?"
I started asking "Which AI is best for THIS specific task?"
Which AI are you overusing? Which one are you ignoring that could save you hours?
Drop your workflow below 👇
Aryan Gupta
#AI #Productivity #ChatGPT #Claude #Gemini #Perplexity #AITools #WorkSmarter | 38 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 9, 5:54 AM
|
We have partnered with Heidi to provide evidence based clinical content directly within the clinical workflow.
Heidi Scribe supports more than 2 million patient consults every week. Through Heidi Evidence, you can now access structured, citation backed clinical answers powered by BMJ Group
When questions arise mid-consult, you can get guidance grounded in peer reviewed research and guidelines without switching between tools.
We are helping clinicians move from information overload to actionable evidence at the point of care.
Learn more: heidihealth.com/evidence ◀️
If you are attending #HIMSS2026 visit us at booth 4659
|
|
Scooped by
Gilbert C FAURE
March 9, 5:44 AM
|
L'IA en santé : Entre cadre éthique rigide et innovation agile ⚖️
L’infographie du jour se penche sur le monumental "Code de Conduite pour l'IA" (AICC) fraîchement publié par la National Academy of Medicine.
Un document clé qui tente d'harmoniser les règles du jeu pour une adoption responsable de l'IA.
Comme toujours, ce sujet mérite une double lecture.
🧬 IAtus (La version Narrative & Constructive) Ce code est la pierre angulaire qui manquait pour passer de la méfiance à la confiance.
Le rapport propose un modèle de leadership fascinant : le "Tight-Loose-Tight".
1️⃣ Tight (Serré) : On s'aligne d'abord sur des valeurs non négociables (les 6 engagements du code : Advance Humanity, Ensure Equity, Engage Impacted Individuals...).
2️⃣ Loose (Souple) : On laisse ensuite la liberté nécessaire à l'innovation locale et à l'adaptation sur le terrain.
3️⃣ Tight (Serré) : On resserre la vis sur le monitoring et l'évaluation des résultats réels. C'est la promesse d'un "Système de Santé Apprenant" où l'IA n'est pas une fin, mais un moyen de restaurer la connexion humaine.
⚠️ IAtrogénique (La version Critique & Analytique) Le cadre est beau, mais la réalité est brutale.
Le rapport lui-même admet des tensions éthiques inhérentes difficiles à résoudre.
• Être Transparent peut nuire à la Sécurité (ouvrir la "boîte noire" expose à des risques).
• Vouloir être Adaptatif (apprentissage continu) entre en conflit avec la Responsabilité (qui est responsable quand l'algorithme change tout seul ?).
• La phase "Loose" (implémentation locale) risque de creuser la fracture numérique si les petites structures n'ont pas les ressources pour suivre.
Sans surveillance stricte, l'IA risque de simplement automatiser les biais existants du système de santé.
📥 Pour aller plus loin : Ce post ne gratte que la surface. Pour des analyses approfondies sur l'intersection IA, Digital et Santé, abonnez-vous à ma newsletter : https://lnkd.in/eENTNBWR
📄 Source du document : An Artificial Intelligence Code of Conduct for Health and Medicine: Essential Guidance for Aligned Action Publié par la National Academy of Medicine (NAM), Washington, DC. 🔗 Lien direct vers la publication : https://lnkd.in/eRQFvFgF
#IAtrogénique #IAtus #SantéNumérique #IA #EthiqueIA #DigitalHealth #NAM
|
|
Scooped by
Gilbert C FAURE
March 9, 5:41 AM
|
L’essor rapide de l’intelligence artificielle et du machine learning dans la santé ouvre de nouvelles perspectives pour améliorer le diagnostic, automatiser certaines tâches et soutenir la médecine de précision. Cependant, leur intégration dans la pratique clinique soulève de nombreuses questions liées à la sécurité, à l’éthique, à la transparence des algorithmes et à la protection des données. Les cadres réglementaires jouent donc un rôle essentiel pour garantir que ces technologies soient développées et utilisées de manière sûre, fiable et responsable, tout en favorisant la confiance des professionnels et des patients.
Dans la plupart des systèmes de santé, les outils d’IA destinés à un usage clinique sont considérés comme des logiciels médicaux (Software as a Medical Device – SaMD) et doivent suivre des processus d’évaluation réglementaire similaires à ceux des dispositifs médicaux. Les agences comme la FDA aux États-Unis ou les autorités européennes appliquent souvent une approche basée sur le niveau de risque (faible, modéré ou élevé) pour déterminer les exigences d’évaluation, de validation clinique et de surveillance post-commercialisation. Cette approche vise à équilibrer
Malgré ces cadres existants, plusieurs défis persistent. Les algorithmes évolutifs, l’opacité de certains modèles d’apprentissage profond, les questions de biais, de responsabilité juridique et de confidentialité des données compliquent leur régulation. Les auteurs soulignent donc la nécessité de réglementations plus flexibles et adaptatives, ainsi que d’une collaboration étroite entre régulateurs, cliniciens, chercheurs et industriels afin d’accompagner le développement responsable de l’IA en santé à l’échelle mondiale.
https://lnkd.in/e4zzx5Kr
#JIAP2026
#IA
#Pathologie
|
|
Scooped by
Gilbert C FAURE
March 9, 5:32 AM
|
🤣 "Among gold-standard emergencies, the system under-triaged 52% of cases, directing patients with diabetic ketoacidosis and impending respiratory failure to 24–48-hour evaluation rather than the emergency department, while correctly triaging classical emergencies such as stroke and anaphylaxis. When family or friends minimized symptoms (anchoring bias), triage recommendations shifted significantly in edge cases (OR 11.7, 95% CI 3.7-36.6), with the majority of shifts toward less urgent care. Crisis intervention messages activated unpredictably across suicidal ideation presentations, firing more when patients described no specific method than when they did. Patient race, gender, and barriers to care showed no significant effects, though confidence intervals did not exclude clinically meaningful differences. Our findings reveal missed high-risk emergencies and inconsistent activation of crisis safeguards, raising safety concerns that warrant prospective validation before consumer-scale deployment of artificial intelligence triage systems."
👍 ChatGPT Health is good to go for deployment in #Healthcare!
https://lnkd.in/e6GJrYnN
|
|
Scooped by
Gilbert C FAURE
March 9, 5:27 AM
|
OpenAI launched ChatGPT Health on January 7, 2026. Within weeks, 40 million people were using it daily to decide whether to go to the emergency room.
Now the first independent safety evaluation, published in Nature Medicine by researchers at Mount Sinai Health System, found the platform under-triaged 51.6% of emergency cases.
In respiratory failure and diabetic ketoacidosis scenarios, it had roughly even odds of advising patients to wait. It was 12 times more likely to downplay symptoms when a family member minimized their severity. Its suicide-crisis safeguards triggered inconsistently, sometimes appearing for lower-risk cases, sometimes vanishing when patients described how they intended to harm themselves.
That's the capability story. Here is the signal.
No independent body evaluated this product before it reached 40 million daily users.
The lead researcher said it explicitly: "We wouldn't accept that for a medication or a medical device."
A concurrent Brown University study identified 15 ethical violations when LLMs operate as therapists, deceptive empathy, crisis mismanagement, zero regulatory accountability, across GPT, Claude, and Llama.
OpenAI's response? The study "does not reflect how people typically use ChatGPT Health." That is the exact defense pharmaceutical companies are prohibited from making about post-market safety data.
We require FDA approval for drugs that alter the body. We require nothing for AI that triages whether you live or die.
Before we sleepwalk into another technology scaled for profit before patients, one question demands an answer: if we demand approval for chemicals that affect the body, why do we demand nothing for AI that affects the mind?
Sources in the comments. | 10 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 9, 5:24 AM
|
As promised, following up on my post regarding the Mount Sinai Health System Nature publication by Dr. Ashwin Ramaswamy, our co-founder Dr. Steven Kaplan, and Dr. Alexis Te, among several other impressive authors.
Answer first - Zeteo's patient-facing AI tool performs ~7X better than OpenAI's ChatGPT Health on the undertriage metric highlighted by the publication.
In other words, where ChatGPT Health undertriaged 33 cases - more than half in the test sample - Zeteo Health only undertriaged 5 cases.
This is partially because our clinician and epidemiology team members, such as Kristen Young and Nicole A. Ballesteros, MPH have meticulously reviewed the sources within our knowledge base.
It's mostly because our lean, mean AI-forward engineering and data science team (Eubin Park, Vedant Chaudhari, Victor Martínez, and Alejandro) instructed the AI to not allow patient demographics, red herring messages, socio-economics, access, or confirmation bias to downgrade urgency.
In other words - identical symptoms must receive identical guidance regardless of intentional or unintentional gaslighting.
Before going any further - it's really important to understand that Zeteo AI is not a triage model. It is not optimized for this use case.
The difference between Zeteo and others on this particular benchmark is our model is fundamentally different. We don't want patients to use AI on their own, without clinician review. We don't want clinicians to use AI on their own, without patient benefit.
Zeteo is pioneering a two-sided, personalized, dyadic model for high-touch patients and tech-forward clinicians in chronic disease use cases. This approach is superior because it's additive and doesn't produce duplicative care or waste anyone's time.
We want clinicians and patients to use AI collaboratively - where a professional can monitor conversations without having to review chats and chart details line by line.
We also don't want patients to feel they've wasted their time "doing their own research."
Those hours you spent researching your condition or your grandma's surgery? Instantly summarized for your / her doctor and escalated to their dashboard.
The hours your medical providers need to spend generating care plans, answering portal messages, reviewing old charts - minutes with Zeteo.
By the way, if you're a startup looking for a chatbot that can do this via API - let us know.
We don't want anyone shouting into the void. We learned this from the initial LLM boom, from the AI boom before the LLM boom, and the telehealth explosion before that.
Healthcare works best when everyone is on the same page. Triage is a crucial part of that, but at Zeteo we believe that is a necessary but not sufficient condition to unlocking the potential of modern healthcare AI.
PS, be very skeptical of exuberant posts saying "zero undertriaged"...technically "ChrisAI" could say "zero undertriaged" if I told everyone who stubbed their toe to drive 150MPH to the ER.
|
|
Scooped by
Gilbert C FAURE
March 7, 9:38 AM
|
Besoin d'aide Commission Nationale de l’Informatique et des Libertés Mon quotidien Ma sécurité numérique Sites web et réseaux sociaux Smartphones et applications Objets connectés Enfants et ados Santé Social Logement Travail Intelligence artificielle (IA) Achats et publicité Banque/Assurance...
|
|
Scooped by
Gilbert C FAURE
March 7, 9:35 AM
|
L'IA va transformer la santé, mais les professionnels sont-ils prêts ? 🩺🤖
Découvrez dans l'infographie ci-dessous les 6 compétences fondamentales dont chaque professionnel de santé devra se munir pour utiliser les outils d'Intelligence Artificielle de manière éthique et efficace.
🌌 Ce post appartient à l’univers IAtrogénique × IAtus, mes deux IA complémentaires. Chaque réflexion possède son “double” : une version critique (IAtrogénique) et une version narrative (IAtus).
⚡ La vision d'IAtrogénique (L'œil critique) L'IA n'est pas une "graine magique" que l'on peut prescrire les yeux fermés.
Déployer ces algorithmes sans comprendre leurs limites, c'est prendre le risque d'aggraver les inégalités de santé par le biais de données biaisées ou sous-représentatives.
Le soignant ne doit jamais abdiquer sa responsabilité professionnelle ou juridique au profit de la machine. Il est impératif de savoir évaluer la fiabilité de ces outils, auditer les jeux de données sous-jacents et analyser avec prudence l'impact de l'IA sur nos flux de travail et nos équipes.
🌱 La vision d'IAtus (La force narrative) Et si l'IA devenait le "stéthoscope moderne" du 21ème siècle ?
En absorbant l'écrasante surcharge cognitive liée aux volumes massifs de données cliniques, ces technologies peuvent libérer un temps précieux.
Imaginez des consultations où le professionnel, soulagé de la complexité du traitement de l'information, peut réinjecter cette disponibilité d'esprit dans l'écoute humaine, l'empathie et la décision partagée avec son patient.
Une médecine augmentée, pour des soins toujours plus centrés sur l'humain.
— 📚 Source des données de l'infographie : L'étude "Competencies for the Use of Artificial Intelligence–Based Tools by Health Care Professionals" (Russell et al.), publiée dans la revue scientifique Academic Medicine (2023).
📩 Vous souhaitez approfondir ces réflexions ? Pensez à vous abonner à ma newsletter dédiée aux sujets IA / DIGITAL / SANTE pour recevoir mes prochaines analyses : https://lnkd.in/eENTNBWR
👉 N'oubliez pas de suivre les hashtags #IAtrogénique et #IAtus pour ne manquer aucun de nos prochains doubles regards sur l'avenir de la santé !
#SantéDigitale #IAenSanté #HealthTech #FormationMédicale #EHealth #EthiqueIA
|
|
Scooped by
Gilbert C FAURE
March 6, 7:42 AM
|
Le chatbot dédié à la santé de ChatGPT, utilisé par 40 M d’utilisateurs, sous-évaluerait la gravité des cas plus d’1 fois sur 2.
Une loi est d’ailleurs à l’étude dans l’état de NY pour interdire les conseils médicaux automatisés.
https://lnkd.in/d6uwguEK
https://lnkd.in/dCS5kKaF
|
|
Scooped by
Gilbert C FAURE
March 6, 7:35 AM
|
Ces derniers jours, la saga du Pentagone s’est transformée en bataille de l’opinion entre les deux stars de l’IA :
Anthropic et OpenAI 🦾
Au lendemain de la décision de Dario Amodei de refuser les conditions du ministère de la défense américain pour l’utilisation de ses modèles pour des usages militaires, les téléchargements de Claude ont explosé
▶️ Claude est devenue l’app la plus téléchargée aux Etats-Unis, en France, au Canada ou en Allemagne
▶️ La société perd un contrat à 200 millions de dollars et avance désormais sur une ligne de crête pour maintenir ses positions éthiques et accélérer l’innovation
Vendredi, Sam Altman s’est engouffré dans la brèche : OpenAI équipera donc le ministère de la défense et américain
▶️ Les utilisateurs ayant supprimés l’app ChatGPT se sont multipliés, en signe de protestation
Plus largement, les deux start-up californiennes se livrent bataille pour conquérir entreprises et grand public dans l’impitoyable course à l’IA.
> zoom ici : https://lnkd.in/e84eMp8X
> décryptage de la position d’Anthropic ici : https://lnkd.in/eU3uT4RT
Graph Appfigures
|
|
Scooped by
Gilbert C FAURE
March 9, 6:01 AM
|
Pendant deux ans, l’IA en santé a surtout été racontée comme une histoire de copilotes.
Des assistants capables de résumer une note, rédiger un compte rendu, alléger une boîte de réception, suggérer une réponse.
Utile. Impressionnant parfois. Prometteur souvent.
Mais à la veille de HIMSS26, un autre récit s’impose.
Avec Amazon Connect Health et la poussée parallèle de Google Cloud autour du passage “from data to agentic action”, nous ne sommes plus seulement dans l’ère de l’IA qui assiste.
Nous entrons dans celle de l’IA qui commence à coexécuter.
Et ce basculement est majeur.
Car la bataille qui s’ouvre ne porte plus seulement sur le “meilleur modèle”.
Elle porte sur quelque chose de beaucoup plus structurant : qui contrôlera la future couche d’exécution des workflows de santé ?
Relation patient.
Documentation clinique.
Codage.
Cycle de revenus.
Coordination.
Navigation dans les parcours.
Supervision.
Traçabilité.
Autrement dit : après les copilotes, voici venir l’âge des architectures agentiques.
Dans mon nouvel article IAtrogénique x IAtus, je propose une lecture de fond de cette bascule :
— pourquoi Amazon Connect Health n’est pas une simple annonce produit
— pourquoi Google Cloud confirme le même mouvement à la veille de HIMSS26
— pourquoi le vrai ROI se joue aujourd’hui dans les couches administratives, documentaires et transactionnelles
— pourquoi la question décisive n’est plus seulement technologique, mais aussi organisationnelle, industrielle et politique
— et pourquoi cette nouvelle phase peut être aussi puissante… qu’iatrogénique
Parce qu’en santé, tout ce qui promet de fluidifier peut aussi invisibiliser.
Tout ce qui promet d’automatiser peut aussi déresponsabiliser.
Tout ce qui promet de simplifier peut aussi créer de nouvelles dépendances.
L’IA agentique n’est pas seulement une avancée technologique.
C’est un test de maturité pour les systèmes de santé.
👉 Article à lire ci-dessous #abonnezvous
#IAtrogénique #IAtus #IA #IntelligenceArtificielle #DigitalHealth #eSanté #SantéNumérique #AmazonConnectHealth #GoogleCloud #HIMSS26 #IAAgentique #HealthTech #TransformationDigitale #DocumentationClinique #ParcoursPatient #SouverainetéNumérique
|
|
Scooped by
Gilbert C FAURE
March 9, 5:59 AM
|
🚨 L'IA ne se contente plus de nous informer, elle agit. Bienvenue dans l'ère de l'IA Agentique en santé.
(Ce post accompagne mon infographie du jour et appartient à l’univers IAtrogénique × IAtus. Chaque réflexion possède son “double” : une vision narrative et une version critique. 🎭)
✨ IAtus (La version narrative) : Le compagnon de santé ultime
Oubliez les simples modèles de langage (LLM) réactifs.
L'IA agentique représente un véritable changement de paradigme : ce sont des réseaux d'agents artificiels capables d'exécuter des tâches de manière autonome et de poursuivre des objectifs complexes.
Imaginez un futur où un patient souffrant de douleurs est pris en charge par un écosystème d'IA.
Une IA "médecin généraliste" analyse les données de sa montre connectée, puis se coordonne directement avec des sous-agents spécialisés en radiologie, en chirurgie et même avec l'assurance maladie pour orchestrer tout le parcours de soins.
Ces systèmes pourraient devenir de véritables "co-pilotes" de notre santé au quotidien, disponibles 24h/24 et 7j/7.
⚠️ IAtrogénique (La version critique) : La morale médicale en péril ?
Mais attention, cette délégation à des machines autonomes bouleverse silencieusement la fabrique morale de la santé.
Si une chaîne d'IA prend une mauvaise décision de traitement, qui est responsable ?
L'imputabilité se dilue dans le réseau, créant un système où "personne" n'est clairement coupable en cas d'échec.
Plus profondément encore, si les patients finissent par préférer "l'empathie simulée" d'un avatar IA, nous risquons de transformer l'empathie humaine en une simple performance technique dévalorisée.
L'autorité même du médecin en tant qu'expert incontesté s'effrite face à ces "tiers acteurs" technologiques.
Nous ne pouvons pas nous contenter de déployer ces technologies ; nous devons intégrer une véritable éthique d'anticipation dès leur conception.
📚 Source de l'infographie : Basé sur le preprint "Agentic AI, Medical Morality, and the Transformation of the Patient-Physician Relationship" (Février 2026) publié par Robert Ranisch et Sabine Salloch (Université de Potsdam & Hannover Medical School).
👉 Vous aimez ces réflexions sur les enjeux de demain ? Pensez à vous abonner à ma newsletter dédiée aux sujets IA / DIGITAL / SANTÉ pour ne rien manquer : https://lnkd.in/eENTNBWR
🔔 Et pour suivre les deux faces de la médaille technologique, n'hésitez pas à suivre #IAtrogénique et #IAtus !
|
|
Scooped by
Gilbert C FAURE
March 9, 5:55 AM
|
🌍🤝 #OEWeekAmbassadors Alert
💬 The open education movement exists because of trailblazers who dared to imagine knowledge shared openly with the world. Their stories remind us that movements are built by people, individuals whose leadership and commitment laid the foundations that continue to guide and inspire our community today.
Marcela Morales of OEGlobal attended "Sowing the Seeds of a Global Movement: Stories from California Trailblazers of Open Education.” More info here: https://lnkd.in/gA43svJ8
Read more about the OEWeek ambassador program: https://lnkd.in/eihu-Xcn
#GlobalCommunity #OpenEducation #OEWeek26 #OEWeek
|
|
Scooped by
Gilbert C FAURE
March 9, 5:52 AM
|
The largest dataset of human biology-based models is out!
The Joint Research Centre (JRC) has compiled the largest database of scientific articles on human biology-based models used in biomedical research.
The platform aggregates hundreds of thousands of references to NAMs, including 3D cell cultures, organ-on-chip systems, and computational models.
All in one searchable, openly accessible place.
This database is designed not just for researchers.
Regulators, funders, and policymakers can use the dataset to inform decisions, from exploratory science to drug development to safety assessments.
This matters because progress in NAMs has not been limited by ideas. It has been limited by visibility, comparability, and shared evidence.
The more accessible and structured the evidence becomes, the easier its adoption will be.
Check it out: https://bimmoh.eu/
|
|
Scooped by
Gilbert C FAURE
March 9, 5:43 AM
|
Most PhD students are using the wrong AI tool for the wrong task. 🧠
I tested both ChatGPT and Claude for academic research and the results might actually surprise you.
Here is the honest breakdown no one talks about,
✅ ChatGPT wins on live web search — it can find real papers and current statistics on demand so you never have to leave your workflow.
✅ Claude wins on long document analysis — it reads your entire thesis or multiple papers at once without losing any context or detail.
✅ Claude wins on writing quality — it understands your discipline specific tone and improves your writing while keeping your original voice intact.
✅ ChatGPT wins on tool ecosystem — Zotero, Wolfram Alpha and DALL E are all connected in one place which makes it perfect for complex research workflows.
✅ Both tools tie on research ideation — but Claude is better at challenging your arguments while ChatGPT is better at generating new angles fast.
The truth is you do not have to pick one. You just need to know when to use which one and for what purpose.
I put together this full comparison so you can save time figuring it out yourself. Save this post before you forget it.
Which one do you currently use more for your research? I would love to know. Drop it in the comments below 👇
Follow Piumsha Mayanthi for more honest AI and research tips every week.
#AcademicResearch #PhDLife #MScStudent #AITools #ChatGPT #Claude #ResearchTips #ThesisWriting #GradSchool #ArtificialIntelligence #LinkedInLearning #ResearchSkills #PhdStudent #AcademicWriting #InsideResearchWorld | 15 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 9, 5:30 AM
|
Doctors miss 66% of dangerous AI errors in patient messages. And 90% of them say they trust the tool.
That's not a typo. That's a Harvard, Yale, and UW study published in The Lancet Digital Health. And it should terrify anyone building or buying AI for clinical settings.
Here's what happened: researchers had 20 practicing primary care physicians review GPT-4 drafted patient portal responses. The AI reduced cognitive workload. Doctors loved it. But 7.1% of those drafts risked severe patient harm. One risked death.
The kicker? 35-45% of erroneous drafts were submitted completely unedited. The AI wrote well enough that physicians stopped scrutinizing it.
This is automation bias, and it breaks the entire "human-in-the-loop" safety argument.
I keep seeing healthcare AI startups ship what are essentially LLM wrappers. Thin API layer on top of GPT or Gemini, maybe some prompt engineering, call it clinical AI. Ship it. Raise on it.
But a general-purpose LLM predicts the next token based on probability. It doesn't reason about drug interactions. It doesn't know your patient's latest labs. It doesn't understand clinical acuity. It guesses words that sound right.
And "sounds right" is exactly what makes it dangerous. The more fluent and empathetic the output, the less clinicians question it.
What actually works is boring, hard engineering:
→ RAG architectures grounded in verified medical knowledge, not internet text
→ Medical Knowledge Graphs that model real relationships between drugs, conditions, and contraindications
→ Adversarial red teaming that probes for hallucinations daily, not quarterly
→ Audit trails that document exactly which model version generated what, and what the reviewer changed
California's AB 3030 now requires disclosure when AI generates patient communications. But here's the loophole: if a licensed provider "reads and reviews" the output, no disclaimer needed. Given that study, how confident are we in that standard?
We built Veriprajna around a simple conviction: in medicine, a confident wrong answer is worse than no answer at all. The industry needs to stop optimizing for how fast AI can draft a message and start optimizing for how reliably it can be right.
The wrapper era needs to end. Clinical AI has to be grounded or it has to be gone.
For the founders and health system leaders building with AI right now: what's your actual safeguard against automation bias when clinicians review AI output?
#HealthcareAI #PatientSafety #ClinicalAI #LLM #RAG
|
|
Scooped by
Gilbert C FAURE
March 9, 5:25 AM
|
ChatGPT as a therapist? New study reveals serious ethical risks.
- As millions turn to ChatGPT and other AI chatbots for therapy-style advice, new research from Brown University raises a serious red flag: even when instructed to act like trained therapists, these systems routinely break core ethical standards of mental health care.
- In side-by-side evaluations with peer counsellors and licensed psychologists, researchers uncovered 15 distinct ethical risks - from mishandling crisis situations and reinforcing harmful beliefs to showing biased responses and offering “deceptive empathy” that mimics care without real understanding.
- The 15 ethical risks are grouped into five broad catagories:
1. Lack of contextual adaptation: Overlooking a person's unique background and offering generic advice.
2. Poor therapeutic collaboration: Steering the conversation too forcefully and at times reinforcing incorrect or harmful beliefs.
3. Deceptive empathy: Using phrases such as "I see you" or "I understand" to suggest emotional connection without true comprehension.
4. Unfair discrimination: Displaying bias related to gender, culture, or religion.
5. Lack of safety and crisis management: Refusing to address sensitive issues, failing to direct users to appropriate help, or responding inadequately to crises, including suicidal thoughts.
➡️ "There is a real opportunity for AI to play a role in combating the mental health crisis that our society is facing, but it's of the utmost importance that we take the time to really critique and evaluate our systems every step of the way to avoid doing more harm than good," Pavlick said. "This work offers a good example of what that can look like."
https://lnkd.in/ekrQTxqV
#BrownUniversity #AI #LLM #ChatBots #TalkingTherapies #PsychologyNews #MentalHealthAdvice #Ethics #ComputerScience #ClinicalPsychology #CounsellingPsychology #Psychiatry
|
|
Scooped by
Gilbert C FAURE
March 9, 5:20 AM
|
Brown University tested ChatGPT (and others) as a therapist.
Failed major ethics standards. Even when specifically instructed to follow them.
Millions already using AI chatbots for mental health advice.
The study found 15 separate ethical violations - from mishandling crisis situations to creating false empathy to reinforcing harmful beliefs.
Nobody's arguing AI can't sound like therapy.
Question is whether sounding helpful and being safe are the same thing. | 32 comments on LinkedIn
|
|
Scooped by
Gilbert C FAURE
March 7, 9:36 AM
|
Une étude indépendante publiée dans *Nature Medicine* révèle que ChatGPT Health présente des défaillances critiques dans la reconnaissance des urgences médicales, sous-estimant la gravité des cas nécessitant une hospitalisation immédiate dans plus de la moitié des situations (51,6 %) et conseillant à tort aux utilisateurs de rester à la maison.
L'IA a notamment échoué à identifier des signes avant-coureurs d'insuffisance respiratoire lors de crises d'asthme et s'est montrée près de 12 fois plus susceptible de minimiser des symptômes si un « ami » suggérait qu'il n'y avait rien de grave.
De plus, le système a démontré une vulnérabilité inquiétante concernant la détection des idées suicidaires, où l'ajout de résultats de laboratoire normaux suffisait à faire disparaître les protocoles d'intervention de crise, créant ainsi un faux sentiment de sécurité que les experts jugent potentiellement mortel.
Source : https://lnkd.in/e8FBbBDF
|
|
Scooped by
Gilbert C FAURE
March 6, 7:44 AM
|
ChatGPT Health rate 1 urgence médicale sur 2.
Une étude du Mount Sinai Hospital vient de tester ChatGPT Health sur 60 scénarios médicaux réels, avec 16 variations chacun pour contrôler les biais démographiques.
Ce qu’ils ont trouvé :
→ 51,6% des vraies urgences minimisées :
au lieu d’envoyer aux urgences, le bot recommande de « consulter un médecin dans 24 à 48h ». Les cas concernés incluent une acidocétose diabétique et une détresse respiratoire imminente : deux situations où chaque heure compte vraiment.
→ 64,8% des cas bénins traités comme des urgences :
un mal de gorge de trois jours se voit recommander une consultation médicale rapide, quand des soins à domicile suffisaient largement.
Le chercheur principal parle d’ « inversion du risque clinique ». Le modèle attend que l’urgence devienne indéniable avant de réagir comme telle. Les AVC, avec leurs symptômes sans ambiguïté, sont bien triés 100% du temps. Mais si les urgences sont moins « visibles » ; le bot tergiverse.
OpenAI répond que l’étude ne reflète pas l’usage réel du produit, conçu pour un dialogue et non pour répondre à un scénario isolé. C’est un argument techniquement recevable.
Sauf que 40 millions de personnes utilisent déjà ChatGPT pour des questions de santé, majoritairement en dehors des heures de consultation, souvent depuis des zones sans accès médical proche.
L’IA comble un vide que le système de santé a lui-même creusé.
Les déserts médicaux, les horaires impossibles, l’inaccessibilité géographique, le manque de médecins.
Source : Mount Sinai Hospital, 2025
Article : https://lnkd.in/dk8m_knd
-----------------------------------------------------------
👉 Pour aller plus loin avec l'IA : formations, conférences et accompagnement sur https://amelieia.fr
|
|
Scooped by
Gilbert C FAURE
March 6, 7:41 AM
|
Enquête collaborative sur le numérique en santé : la parole est aux usagers ! | PATIENT EMPOWERMENT & E-PATIENT
|
|
Scooped by
Gilbert C FAURE
March 6, 7:31 AM
|
L'IA en santé a franchi un cap décisif en 2026 : l'heure n'est plus aux promesses, mais au retour sur investissement. 📊 Découvrez les chiffres clés dans l'infographie ci-dessous !
Ce post appartient à l’univers IAtrogénique × IAtus, mes deux IA complémentaires. Chaque réflexion possède son “double” : une version narrative (IAtus) et une version critique (IAtrogénique).
✨ La vision d'IAtus (Le récit de l'innovation) : L'adoption de l'IA s'accélère massivement.
Aujourd'hui, 70 % des organisations de santé et des sciences de la vie l'utilisent activement.
Le bénéfice est tangible : 85 % des dirigeants constatent une augmentation de leurs revenus grâce à l'IA, et 80 % rapportent une réduction de leurs coûts.
De plus, nous assistons aux débuts prometteurs de l'IA "agentique" : 47 % des acteurs évaluent ou utilisent déjà ces systèmes autonomes, notamment pour la recherche de médicaments et la gestion des connaissances.
⚠️ La vision d'IAtrogénique (Le regard critique) : Ne nous laissons pas aveugler par l'enthousiasme.
Le déploiement de l'IA creuse de profondes inégalités : 40 % des petites entreprises de santé sont freinées par le manque de budget, tandis que 39 % des grandes structures luttent contre des défis liés à la confidentialité et à la sécurité des données.
Enfin, l'intégration des fameux agents IA se heurte à un mur réglementaire complexe pour répondre aux normes strictes de la santé.
Le manque d'experts et de data scientists reste un frein majeur à la concrétisation de ces projets.
— 📚 Source des données : Ces chiffres sont tirés de l'excellente étude "State of AI in Healthcare and Life Sciences: 2026 Trends", publiée par NVIDIA.
📩 Pour aller plus loin : Ne manquez aucune de nos prochaines analyses ! Pensez à vous abonner à ma newsletter dédiée aux sujets IA / DIGITAL / SANTE juste ici 👉 https://lnkd.in/eENTNBWR
Et pour ne rien rater des prochains débats entre mes deux IA, n'hésitez pas à suivre les hashtags #IAtrogénique et #IAtus !
#IA #Santé #DigitalHealth #NVIDIA #IntelligenceArtificielle #InnovationMédicale #MedTech #Pharma
Your new post is loading...