 Your new post is loading...
|
Scooped by
AgroParisTech_Pôle Formation
February 24, 3:27 AM
|
Publication par la revue Le Grand Continent de la première édition critique intégrale de l’essai de Dario Amodei sur « l’adolescence de la technologie » — le texte à lire absolument pour comprendre de quoi l’on parle vraiment lorsqu’on dit que l’IA est dangereuse.
La Commission et les pays de l’Espace européen de la recherche et les parties prenantes ont proposé conjointement un ensemble de lignes directrices pour soutenir la communauté européenne de la recherche dans leur utilisation responsable de l’intelligence artificielle générative (IA).
Publications scientifiques, nouvelles pistes de recherche, évaluation des pairs… l’IA s’est désormais immiscée dans tous les pans de la recherche.
Les systèmes basés sur le RAG (Retrieval-Augmented Generation) sont des systèmes qui optimisent la puissance des grands modèles de langue (LLM, en anglais, Large Language Models) avec une recherche d'information (RI) à partir de sources de connaissances externes, sans avoir besoin de réentraîner le modèle. Ce type d'approche est connu pour améliorer les réponses du LLM, en particulier pour répondre à des questions spécifiques à un domaine, et réduire le phénomène d'hallucination constaté avec ces derniers. Dans cet article, nous explorons l'application d'un tel système dans un contexte pédagogique, en utilisant le jeu de données SCIQ (SCIence Questions), un ensemble de questions scientifiques à choix multiples de niveau scolaire, qui nous permet d'évaluer la capacité des modèles à fournir des réponses précises, pédagogiques et vérifiables. Nous évaluons les performances du système par rapport à un modèle génératif standard (Llama3 8b et Mistral 7b) de réponse aux questions et analysons ses forces et ses limites dans un contexte éducatif. La performance la plus élevée en termes de précision a été enregistrée avec l'approche basée sur le RAG (rag-llama), qui a permis d'atteindre une précision globalement supérieure par rapport aux autres approches testées.
ChatGPT and related technologies have revived an old issue in information science (IS) concerning information retrieval (IR) versus document retrieval. Since 1950, the term IR has primarily been used as a misnomer for document retrieval. This problematic terminology reflects a desire to go beyond documents and provide, in response to user queries, not lists of documents but direct answers. Only with the emergence of large language models such as ChatGPT has the goal of directly informing users appeared to many as justifiable in relation to IR. Such models, however, still depend on input in the form of documents. A basic problem with large language models is their inability to establish a valid connection between their answers and the sources on which they are based. Whereas scholarly norms dictate that all claims be explicitly supported by the sources and arguments used, this cannot be done satisfactorily by ChatGPT, which represents a fundamental limitation of this technology. Neglecting the documentary basis in all forms of IR is naïve, and the core concept in IS should be understood as document retrieval. Recognizing this distinction is essential for enabling users to maintain control over the search and to perform “source criticism.”
|
Scooped by
AgroParisTech_Pôle Formation
March 12, 6:05 AM
|
"Nous sommes dans une ère de la polycrise, et ces crises sont économiques, sociales, environnementales, politiques, technologiques, etc. Cela concerne notamment l’enseignement supérieur et la recherche, et le constat est partagé. La diffusion de l’IA au travers des IA génératives fait partie des facteurs de risques déclencheur potentiel de crises. (...) Certes cette nouvelle technologie est porteuse d’opportunités, et il y de nombreuses raisons pour lesquelles elle s’impose à l’agenda de l’enseignement supérieur et de la recherche, mais vue l’ampleur de la transformation en cours, une posture critique impose une gestion des risques plus rigoureuse."
|
Scooped by
AgroParisTech_Pôle Formation
March 12, 5:55 AM
|
In the age of generative AI and ubiquitous digital tools, human cognition faces a structural paradox: as external aids become more capable, internal memory systems risk atrophy. Drawing on neuroscience and cognitive psychology, this paper examines how heavy reliance on AI systems and discovery-based pedagogies may impair the consolidation of declarative and procedural memory -- systems essential for expertise, critical thinking, and long-term retention. We review how tools like ChatGPT and calculators can short-circuit the retrieval, error correction, and schema-building processes necessary for robust neural encoding. Notably, we highlight striking parallels between deep learning phenomena such as "grokking" and the neuroscience of overlearning and intuition. Empirical studies are discussed showing how premature reliance on AI during learning inhibits proceduralization and intuitive mastery. We argue that effective human-AI interaction depends on strong internal models -- biological "schemata" and neural manifolds -- that enable users to evaluate, refine, and guide AI output. The paper concludes with policy implications for education and workforce training in the age of large language models.
|
Scooped by
AgroParisTech_Pôle Formation
March 12, 4:18 AM
|
À travers le lancement du MOOC « Ton Futur parle IA », destiné aux moins de 20 ans et aux éducateurs, Tawhid Chtioui entend combler un angle mort de la formation en transmettant une véritable culture de l’IA pour former des citoyens et des décideurs capables de comprendre ces technologies.
|
Scooped by
AgroParisTech_Pôle Formation
March 10, 10:13 AM
|
La DGESIP a le plaisir de vous convier à la cinquième séance du webinaire IA Sup le mercredi 25 mars 2026 de 16h30 à 18h00, organisée en partenariat avec la fédération ILaaS. Sujets abordés lors de ce webinaire : 1-« Infras » pour l’IA : de quoi parle-t-on ? 2-La fédération ILaaS : présentation et avancement, ainsi que deux expérimentations utilisant les infrastructures ILaaS ; 3-L’expérimentation Amue/Mistral : avancement. Pour participer, l’inscription est nécessaire via le lien suivant : https://edurl.fr/lxCrs7A8 Le programme détaillé et le lien de connexion seront communiqués après l’inscription.
|
Scooped by
AgroParisTech_Pôle Formation
March 9, 9:05 AM
|
Découvrez Former à l’IA pour en faire un usage éclairé : ce que disent les étudiants sur le site www.amue.fr
|
Scooped by
AgroParisTech_Pôle Formation
March 9, 8:55 AM
|
"For years, AI in education hummed quietly in the background. It powered grading systems, adaptive tests and learning analytics but few outside the edtech field ever noticed. Then came generative AI, and everything shifted. Unlike earlier tools, GenAI didn’t arrive through ministries or school procurement plans. It landed straight on students’ phones and teachers’ laptops. That changed everything."
"Présentation de l’article du GTnum #IA2GE : “Les professeurs des écoles en France et l’intelligence artificielle : y a-t-il une influence d’ordre éthique sur les intentions d’usage et l’utilisation effective ?” (Trestini et Zeyringer, 2026)."
Une étudiante de la Sorbonne a fait rédiger son mémoire de fin d'étude par une IA. Faute de règles préalables précisant les modalités d'utilisation acceptables par l'université, un tribunal lui a donné raison. Explications.
|
Le RAG (Retrieval Augmented Generation) est probablement à ce jour le use-case d’inférence sur des LLM le plus populaire.
Developments in artificial intelligence (AI) have accelerated scientific discovery1. Alongside recent AI-oriented Nobel prizes2–9, these trends establish the role of AI tools in science10. This advancement raises questions about the influence of AI tools on scientists and science as a whole, and highlights a potential conflict between individual and collective benefits11. To evaluate these questions, we used a pretrained language model to identify AI-augmented research, with an F1-score of 0.875 in validation against expert-labelled data. Using a dataset of 41.3 million research papers across the natural sciences and covering distinct eras of AI, here we show an accelerated adoption of AI tools among scientists and consistent professional advantages associated with AI usage, but a collective narrowing of scientific focus. Scientists who engage in AI-augmented research publish 3.02 times more papers, receive 4.84 times more citations and become research project leaders 1.37 years earlier than those who do not. By contrast, AI adoption shrinks the collective volume of scientific topics studied by 4.63% and decreases scientists’ engagement with one another by 22%. By consequence, adoption of AI in science presents what seems to be a paradox: an expansion of individual scientists’ impact but a contraction in collective science’s reach, as AI-augmented work moves collectively towards areas richest in data. With reduced follow-on engagement, AI tools seem to automate established fields rather than explore new ones, highlighting a tension between personal advancement and collective scientific progress. Artificial intelligence boosts individual scientists’ output, citations and career progression, but collectively narrows research diversity and reduces collaboration, concentrating work in data-rich areas and potentially limiting broader scientific exploration.
Avec le développement rapide de l'intelligence artificielle (IA), en particulier l'IA générative, le lien entre IA et environnement suscite de nombreuses questions. D'un côté, l'IA apparaît comme une technologie clé au service de la transition écologique, décuplant nos capacités prédictives et décisionnelles pour une utilisation plus durable des ressources naturelles et une compréhension plus fine des systèmes sociotechniques et environnementaux. De l'autre, l'IA mobilise de nombreux équipements informatiques très gourmands en énergie, eau et métaux rares, ce qui engendre des impacts dévastateurs sur l'environnement lui-même, tant en termes d'épuisement des ressources, de perte de biodiversité que d'émission de gaz à effet de serre. Vu l'explosion actuelle de l'usage de l'IA par le grand public, nous sommes en droit de nous demander si les appels unanimes au développement d'IA « frugales » suffiront à ce que les bénéfices environnementaux de l'IA dépassent ses dommages environnementaux.
Le but d’INTEGRITY-AI est de proposer des instruments permettant une gouvernance éthique de l’IA pour les Universités. Les principaux instruments qui seront mis en place sont : -de la formation des personnels administratifs et techniques, des personnes enseignantes-chercheuses et des étudiantes ; -la mise en place d’« AI units », -des objets de gouvernance nouveaux dans les universités, chargés d’accompagner les politiques IA des établissements ; -le travail en réseau.
India AI Impact Summit is coming to a close. Interview on France 24 (English) about data centers, data work, and sovereignty-as-a-service in the Global South. Itw Antonio Casilli (professeur de sociologie à Télécom Paris)
|
Scooped by
AgroParisTech_Pôle Formation
March 12, 5:55 AM
|
This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI's role in learning.
|
Scooped by
AgroParisTech_Pôle Formation
March 12, 4:37 AM
|
|
Scooped by
AgroParisTech_Pôle Formation
March 10, 11:37 AM
|
Par Nicolas Vayatis, professeur à l'ENS Paris-Saclay, le lundi 23 mars à 11h30 à l'ENS. Cette conférence soutenue par DATAIA (https://www.dataia.eu/)est également le point de départ d'un ensemble de formations proposées aux enseignants dans le cadre du projet FormIA. La conférence aura lieu le lundi 23 mars à 11h30 en amphi 1B26 à l'ENS. S'en suivra un moment d'échanges avec les participants, autour d'un buffet dans l'espace Simondon situé en face de l'amphi 1B26.
|
Scooped by
AgroParisTech_Pôle Formation
March 10, 9:36 AM
|
Le débat sur l’IA à l’université se focalise sur la tricherie. Mais le véritable enjeu est ailleurs : c’est tout l’écosystème de formation et de production du savoir qui pourrait être fragilisé.
|
Scooped by
AgroParisTech_Pôle Formation
March 9, 8:59 AM
|
L'intelligence artificielle à l'université : rupture pédagogique ou continuité numérique ?
|
Scooped by
AgroParisTech_Pôle Formation
March 9, 8:45 AM
|
Découvrez #IA4Sup : La communauté de veille collaborative autour de l'intelligence artificielle dans l'enseignement supérieur sur le site www.amue.fr
"L'essor de l'intelligence artificielle générative (IAGen) transforme les pratiques d'apprentissage et suscite la nécessité d'une Generative AI Literacy chez les étudiants de l'enseignement supérieur. Cette étude vise à identifier les représentations spontanées des étudiants concernant l'IAGen, afin de caractériser les modèles mentaux initiaux et de proposer des axes pour la conception didactique. Un corpus de 245 définitions ouvertes a été analysé selon la théorie des représentations sociales et le cadre des modèles mentaux. L'analyse inductive a permis d'identifier cinq profils".
|
Scooped by
AgroParisTech_Pôle Formation
March 9, 6:14 AM
|
|