Pour comprendre comment améliorer notre sobriété numérique face au défi de préservation de la planète nous avons besoin de faits et d’information. Chiara Giraudo, Ingénieure Pédagogique au CNRS et Jean-Marc Pierson, Professeur en informatique et Directeur de l'IRIT, dans le cadre du programme Alt Impact, partagent ici, dans le cadre du programme Alt Impact [0] …
Quels sont les enjeux autour de l'intelligence artificielle générative et les conséquences de l'utilisation de ces outils sur l'apprentissage dans l'Enseignement supérieur ?
Veille collaborative des bibliothèques d'AgroParisTech - pôle formation et de l'Institut Agro Dijon - Médiadoc.
Dans le cadre de son colloque de rentrée 2025-2026 le Collège de France a organisé les jeudi 16 octobre et vendredi 17 octobre 2025 un ensemble de communications présentant, dans une perspective interdisciplinaire, des réflexions autour d’une question centrale : comment les mutations actuelles de l’IA peuvent-elles se nouer avec la compréhension, en longue durée, de l’idée que l’on se fait des formes de l’intelligence – c’est-à-dire, plus précisément, des rapports entre apprentissage, connaissance et déduction.
"Le GTNUM IA2GE est porté par le laboratoire LISEC en collaboration avec la DRANE Grand-Est, dans le cadre plus large des GTNUM impulsés par la DNE du ministère de l’éducation nationale. Il a pour but d’étudier les usages (et les non-usages) des IA génératives (IAG) des enseignants et des élèves de la région Grand Est du primaire et du secondaire en regard des apports des connaissances scientifiques actuelles sur les phénomènes pédagogiques, didactiques, d’apprentissage et d’éducation. Son objectif est d’identifier des obstacles, des conflits et des leviers dans le contexte des usages des IA génératives pour produire des ressources pratiques relevant des ingénieries pédagogique, didactique et de formation mais aussi de la démarche prospective de développement d’outils futurs en vue d’accompagner les enseignants. Le présent document est une publication des tris à plat (statistiques) issus de l’enquête menée dans la région académique Grand Est en décembre 2024 et janvier 2025."
"Comment l’ESCP intègre l’IA dans l’enseignement supérieur ? Louis-David Benyayer partage sa stratégie pour former les étudiants aux usages responsables de l’IA."
"La 2ᵉ édition des Rendez-vous de l’Amue, organisée du 14 au 16 octobre 2025, a réuni près de 3300 participants autour d’un thème au cœur de l’actualité : l’intelligence artificielle dans l’enseignement supérieur et la recherche."
"Comment intégrer l’intelligence artificielle en éducation sans perdre l’essence même de l’enseignement ?
Cette question cruciale était au cœur d’une classe de maîtres de l’UNESCO, qui a rassemblé en direct, en octobre 2025, plus de 800 membres du corps enseignant de 97 pays pour explorer les défis et opportunités de l’IA en classe."
"L'université de Brest réfléchit à l'utilisation de l'IA dans la pédagogie et les études. L’intelligence artificielle est de plus en plus présente dans nos quotidiens. Aux côtés des classiques recherches sur internet ou des livres, elle est devenue un outil incontournable pour certains étudiants. Quels changements, quels usages apporte-t-elle dans l’apprentissage et l’enseignement universitaire ?"
Et si les principes de l’éducation ouverte permettaient de rendre le développement et l’utilisation de l’IA plus axés sur le bien-être des humains plutôt que sur la recherche du profit ? C’est la réflexion que proposent Amiel, Cox et de la Higuera dans un article en anglais publié sur le site de...
"À partir d’une enquête menée dans un lycée de la banlieue parisienne, cet article analyse les usages de l’intelligence artificielle générative (IAG) par les élèves et les inégalités qu’ils révèlent. L’étude combine un questionnaire (n = 664) et 26 entretiens semi-directifs. Elle montre que si l’IAG est largement utilisée, ses usages sont socialement différenciés. Trois profils d’élèves émergent : les « engagés réflexifs », les « occasionnels légalistes » et les « scolaires opportunistes ». Ces différences traduisent des rapports inégaux à l’école, aux normes implicites du travail scolaire, et aux outils numériques : certains élèves parviennent à inscrire l’IAG dans une logique d’apprentissage, quand d’autres l’utilisent comme un outil de réponse immédiate."
" (...) Résultats d’un atelier d’écriture mené dans une formation professionnalisante de niveau Master 2 où les étudiantes et étudiants étaient libres d’utiliser ou non une IA générative de texte. L’analyse de cette séquence pédagogique (...) permet (...) aux étudiantes et étudiants d’évaluer les opportunités et limites des IAg et de les emmener vers un usage critique et raisonné de ces outils."
"Les étudiants se sont emparés de l’IA. Nous le voyons, le lisons dans leurs travaux et dans les médias. Cependant, entre ce constat empirique et le bruit médiatique, nous n’en savons pas plus sur cette adoption."
Lors de vos premières connexions au PIAG, si vous hésitez quant à la façon de transmettre vos demandes pour obtenir une réponse de la part des modèles de langage, vous pouvez venir piocher dans les prompts.
L’Institut Mines-Télécom a annoncé des partenariats avec la startup Mistral AI, la fédération ILaaS et le label Ekitia. L’Institut Mines-Télécom est le premier groupe public de Grandes Écoles d’ingénieurs et de management en France.
The EU’s approach to artificial intelligence centers on excellence and trust, aiming to boost research and industrial capacity while ensuring safety and fundamental rights.
The recent rise in artificial intelligence systems, such as ChatGPT, poses a fundamental problem for the educational sector. In universities and schools, many forms of assessment, such as coursework, are completed without invigilation. Therefore, students could hand in work as their own which is in fact completed by AI. Since the COVID pandemic, the sector has additionally accelerated its reliance on unsupervised ‘take home exams’. If students cheat using AI and this is undetected, the integrity of the way in which students are assessed is threatened. We report a rigorous, blind study in which we injected 100% AI written submissions into the examinations system in five undergraduate modules, across all years of study, for a BSc degree in Psychology at a reputable UK university. We found that 94% of our AI submissions were undetected. The grades awarded to our AI submissions were on average half a grade boundary higher than that achieved by real students. Across modules there was an 83.4% chance that the AI submissions on a module would outperform a random selection of the same number of real student submissions.
Depuis novembre 2022, et la sortie publique de ChatGPT d’OpenAI, la question de l’impact de ce type d’outil sur toute une gamme de métiers n’a cessé de se poser. ChatGPT et les IA génératives bouleversent les rapports à la langue, en particulier à l’écrit, suscitant espoirs (par exemple de gain de productivité) et craintes (par exemple de pertes de compétences). Les métiers de la recherche entretiennent un rapport très étroit avec l’écrit : les chercheurs (mais aussi les personnels administratifs) passent une grande partie de leur temps à lire des documents (articles, rapports, dossier, mail), à en rédiger et parfois à les évaluer. Pour ces activités, l’apport de ChatGPT peut ainsi apparaître comme un gain potentiel aussi bien d’un point de vue quantitatif que qualitatif. De plus, dans un monde où la langue dominante est l’anglais, l’apport de ChatGPT permet de simplifier la diffusion de documents à l’aide de traductions automatiques. Enfin, l’IA générative n’est pas limitée à l’écrit et s’étend aussi à la génération de code ou d’image qui sont également centraux dans les métiers de la recherche en informatique. Ainsi, Inria n’est pas épargné par ces questionnements et ces bouleversements : des personnels des services ou des équipes font déjà usage de l’IA générative dans des tâches quotidiennes, ce qui soulève des questionnements éthiques, techniques et pratiques. La Commission d’Évaluation estime, de par son expertise de l’évaluation et sa couverture unique des thèmes et des métiers d’Inria, qu’elle joue pleinement son rôle en proposant un ensemble de réflexions, de guides et de recommandations sur l’usage responsable de l’IA générative dans les métiers de la recherche.
" Les revues Open Access aux pratiques douteuses représentent un défi croissant pour l'intégrité scientifique. Il est de plus en plus difficile de les identifier en raison de la diversification et de la sophistication de leurs pratiques (revues au comportement "prédateur", frauduleuses, aux services de piètre qualité...). Alors pourquoi ne pas utiliser l'intelligence artificielle pour tenter de les identifier ? "
Depuis 2022, le réseau IA4sup réunit des enseignants et personnels d'universités qui s'investissent dans le développement de l'IA, pour partager leurs ressources et pogresser ensemble. Des premières rencontres ont même eu lieu pour aller plus loin.
Avec Olivier Babeau, économiste à l’université de Bordeaux, fondateur de l’Institut Sapiens, auteur de “Ne faites plus d’études ! Apprendre autrement à l’ère de l’IA” (Buchet-Chastel) et Anne Alombert, philosophe, maîtresse de conférences à Paris-VIII, auteure de “De la bêtise artificielle” (Allia).
To get content containing either thought or leadership enter:
To get content containing both thought and leadership enter:
To get content containing the expression thought leadership enter:
You can enter several keywords and you can refine them whenever you want. Our suggestion engine uses more signals but entering a few keywords here will rapidly give you great content to curate.