Quels sont les enjeux autour de l'intelligence artificielle générative et les conséquences de l'utilisation de ces outils sur l'apprentissage dans l'Enseignement supérieur ?
Veille collaborative des bibliothèques d'AgroParisTech - pôle formation et de l'Institut Agro Dijon - Médiadoc.
Publication par la revue Le Grand Continent de la première édition critique intégrale de l’essai de Dario Amodei sur « l’adolescence de la technologie » — le texte à lire absolument pour comprendre de quoi l’on parle vraiment lorsqu’on dit que l’IA est dangereuse.
Il devient de plus en plus complexe de détecter le vrai du faux à l’œil nu. Une idée pourrait être de marquer les photos générées par IA. Cette solution pourrait être efficace, mais connaît encore de nombreuses limites.
L’intelligence artificielle générative (IAg) est en train de transformer rapidement le contexte éducatif. Face à ces changements, la communauté de l'enseignement supérieur s'organise et mutualise ses pratiques.
Green IT : Récemment, un fondeur coréen a entamé des négociations avec des entreprises américaines pour extraire des métaux rares des anciens équipements IT. Une initiative qui montre que la valorisation des déchets informatiques commence à se développer, souligne un analyste.
The second International AI Safety Report, published in February 2026, is the next iteration of the comprehensive review of latest scientific research on the capabilities and risks of general-purpose AI systems. Led by Turing Award winner Yoshua Bengio and authored by over 100 AI experts, the report is backed by over 30 countries and international organisations. It represents the largest global collaboration on AI safety to date. Translated versions in the other 5 official UN languages can be found under the 'More Languages' button. The 'Extended Summary for Policymakers' can be found on the main 'Publications' page.
"L’intelligence artificielle générative (l’IA générative) est en train de remodeler presque toutes les pratiques établies dans le domaine de l’éducation. Certaines personnes affirment que les ressources éducatives libres (REL) sont parmi les principales victimes. L’IA générative peut produire des supports d’apprentissage instantanément et à la demande, alors quel est l’intérêt du travail minutieux de création, de conservation et de partage des REL ? Pourquoi investir dans des référentiels basés sur les communs alors qu’un simple prompt peut donner des résultats comparables en quelques secondes ?"
"L’essor fulgurant des outils d’IAG interroge en profondeur nos manières d’enseigner, d’évaluer, d’écrire et de produire du savoir. Que devient l’acte d’apprendre (Cristol, 2024) quand la production de textes, d’images ou de code peut être instantanément déléguée à une machine ? Quelles compétences développer quand la rédaction, la synthèse ou la traduction peuvent être automatisées ? Quelles sont les pratiques acceptables, éthiques et formatrices — et lesquelles risquent au contraire d’appauvrir l’expérience d’apprentissage ?
Ce quatrième OuPéPo propose d’interroger ces tensions par le jeu, la mise en scène et la réflexion partagée, afin d’en saisir les enjeux sous des formes à la fois expérientielles et analytiques."
La Commission et les pays de l’Espace européen de la recherche et les parties prenantes ont proposé conjointement un ensemble de lignes directrices pour soutenir la communauté européenne de la recherche dans leur utilisation responsable de l’intelligence artificielle générative (IA).
Les systèmes basés sur le RAG (Retrieval-Augmented Generation) sont des systèmes qui optimisent la puissance des grands modèles de langue (LLM, en anglais, Large Language Models) avec une recherche d'information (RI) à partir de sources de connaissances externes, sans avoir besoin de réentraîner le modèle. Ce type d'approche est connu pour améliorer les réponses du LLM, en particulier pour répondre à des questions spécifiques à un domaine, et réduire le phénomène d'hallucination constaté avec ces derniers. Dans cet article, nous explorons l'application d'un tel système dans un contexte pédagogique, en utilisant le jeu de données SCIQ (SCIence Questions), un ensemble de questions scientifiques à choix multiples de niveau scolaire, qui nous permet d'évaluer la capacité des modèles à fournir des réponses précises, pédagogiques et vérifiables. Nous évaluons les performances du système par rapport à un modèle génératif standard (Llama3 8b et Mistral 7b) de réponse aux questions et analysons ses forces et ses limites dans un contexte éducatif. La performance la plus élevée en termes de précision a été enregistrée avec l'approche basée sur le RAG (rag-llama), qui a permis d'atteindre une précision globalement supérieure par rapport aux autres approches testées.
ChatGPT and related technologies have revived an old issue in information science (IS) concerning information retrieval (IR) versus document retrieval. Since 1950, the term IR has primarily been used as a misnomer for document retrieval. This problematic terminology reflects a desire to go beyond documents and provide, in response to user queries, not lists of documents but direct answers. Only with the emergence of large language models such as ChatGPT has the goal of directly informing users appeared to many as justifiable in relation to IR. Such models, however, still depend on input in the form of documents. A basic problem with large language models is their inability to establish a valid connection between their answers and the sources on which they are based. Whereas scholarly norms dictate that all claims be explicitly supported by the sources and arguments used, this cannot be done satisfactorily by ChatGPT, which represents a fundamental limitation of this technology. Neglecting the documentary basis in all forms of IR is naïve, and the core concept in IS should be understood as document retrieval. Recognizing this distinction is essential for enabling users to maintain control over the search and to perform “source criticism.”
"Nous sommes dans une ère de la polycrise, et ces crises sont économiques, sociales, environnementales, politiques, technologiques, etc. Cela concerne notamment l’enseignement supérieur et la recherche, et le constat est partagé. La diffusion de l’IA au travers des IA génératives fait partie des facteurs de risques déclencheur potentiel de crises. (...) Certes cette nouvelle technologie est porteuse d’opportunités, et il y de nombreuses raisons pour lesquelles elle s’impose à l’agenda de l’enseignement supérieur et de la recherche, mais vue l’ampleur de la transformation en cours, une posture critique impose une gestion des risques plus rigoureuse."
In the age of generative AI and ubiquitous digital tools, human cognition faces a structural paradox: as external aids become more capable, internal memory systems risk atrophy. Drawing on neuroscience and cognitive psychology, this paper examines how heavy reliance on AI systems and discovery-based pedagogies may impair the consolidation of declarative and procedural memory -- systems essential for expertise, critical thinking, and long-term retention. We review how tools like ChatGPT and calculators can short-circuit the retrieval, error correction, and schema-building processes necessary for robust neural encoding. Notably, we highlight striking parallels between deep learning phenomena such as "grokking" and the neuroscience of overlearning and intuition. Empirical studies are discussed showing how premature reliance on AI during learning inhibits proceduralization and intuitive mastery. We argue that effective human-AI interaction depends on strong internal models -- biological "schemata" and neural manifolds -- that enable users to evaluate, refine, and guide AI output. The paper concludes with policy implications for education and workforce training in the age of large language models.
Yoshua Bengio, professeur au département d'informatique de l'Université de Montréal et fondateur de l’Institut en intelligence artificielle (IA) de Montréal, s'inquiète sur France Inter des progrès exponentiels de l'IA et des menaces que cela fait peser sur nos démocraties.
Résultats d’une enquête anonyme et facultative menée auprès des étudiants de l’Université Bretagne Sud dans le cadre d’un module dédié à l’IA générative. Depuis l’apparition de ChatGPT à la fin 2022, les outils d’intelligence artificielle générative se sont progressivement intégrés au quotidien...
La rédactique consiste en un "ensemble [de] techniques de rédaction orientées vers la formulation précise de requêtes envoyées à un système d'intelligence artificielle, en particulier à un grand modèle de langage, en vue d'en améliorer le fonctionnement ou d'en exploiter efficacement les capacités pour obtenir des résultats plus pertinents" (OQLF, 2023).
Depuis le BO n°6 du 5 février 2026, des parcours Pix dédiés à l'intelligence artificielle sont disponibles pour les élèves du second degré. Ils combinent diagnostic, modules personnalisés et microlearning pour accompagner la compréhension et les usages responsables de l'IA. À l'issue d'une phase d'expérimentation engagée depuis la rentrée 2025, les parcours Pix IA sont généralisés. Accessibles via les Pix Orga des établissements, ils deviennent obligatoires à la rentrée 2026 pou
Developments in artificial intelligence (AI) have accelerated scientific discovery1. Alongside recent AI-oriented Nobel prizes2–9, these trends establish the role of AI tools in science10. This advancement raises questions about the influence of AI tools on scientists and science as a whole, and highlights a potential conflict between individual and collective benefits11. To evaluate these questions, we used a pretrained language model to identify AI-augmented research, with an F1-score of 0.875 in validation against expert-labelled data. Using a dataset of 41.3 million research papers across the natural sciences and covering distinct eras of AI, here we show an accelerated adoption of AI tools among scientists and consistent professional advantages associated with AI usage, but a collective narrowing of scientific focus. Scientists who engage in AI-augmented research publish 3.02 times more papers, receive 4.84 times more citations and become research project leaders 1.37 years earlier than those who do not. By contrast, AI adoption shrinks the collective volume of scientific topics studied by 4.63% and decreases scientists’ engagement with one another by 22%. By consequence, adoption of AI in science presents what seems to be a paradox: an expansion of individual scientists’ impact but a contraction in collective science’s reach, as AI-augmented work moves collectively towards areas richest in data. With reduced follow-on engagement, AI tools seem to automate established fields rather than explore new ones, highlighting a tension between personal advancement and collective scientific progress. Artificial intelligence boosts individual scientists’ output, citations and career progression, but collectively narrows research diversity and reduces collaboration, concentrating work in data-rich areas and potentially limiting broader scientific exploration.
Avec le développement rapide de l'intelligence artificielle (IA), en particulier l'IA générative, le lien entre IA et environnement suscite de nombreuses questions. D'un côté, l'IA apparaît comme une technologie clé au service de la transition écologique, décuplant nos capacités prédictives et décisionnelles pour une utilisation plus durable des ressources naturelles et une compréhension plus fine des systèmes sociotechniques et environnementaux.
De l'autre, l'IA mobilise de nombreux équipements informatiques très gourmands en énergie, eau et métaux rares, ce qui engendre des impacts dévastateurs sur l'environnement lui-même, tant en termes d'épuisement des ressources, de perte de biodiversité que d'émission de gaz à effet de serre.
Vu l'explosion actuelle de l'usage de l'IA par le grand public, nous sommes en droit de nous demander si les appels unanimes au développement d'IA « frugales » suffiront à ce que les bénéfices environnementaux de l'IA dépassent ses dommages environnementaux.
Le but d’INTEGRITY-AI est de proposer des instruments permettant une gouvernance éthique de l’IA pour les Universités. Les principaux instruments qui seront mis en place sont : -de la formation des personnels administratifs et techniques, des personnes enseignantes-chercheuses et des étudiantes ; -la mise en place d’« AI units »,
-des objets de gouvernance nouveaux dans les universités, chargés d’accompagner les politiques IA des établissements ; -le travail en réseau.
India AI Impact Summit is coming to a close. Interview on France 24 (English) about data centers, data work, and sovereignty-as-a-service in the Global South. Itw Antonio Casilli (professeur de sociologie à Télécom Paris)
This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI's role in learning.
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.