IA: comment trouver la voie d'un modèle responsable
L’IA générative souffre de plusieurs types de biais, reflets des travers humains. Comment ne pas se laisser piéger?
Get Started for FREE
Sign up with Facebook Sign up with X
I don't have a Facebook or a X account
L’IA générative souffre de plusieurs types de biais, reflets des travers humains. Comment ne pas se laisser piéger?
Patrick Loiseau est directeur de recherche à l’Inria. Avec l’équipe du projet Fairplay, il explore les dispositifs d’intelligence artificielle sous les aspects d’équité (fairness) et de vie privée (privacy). Dans le viseur des chercheur·ses : les problématiques d’enchères et d’appariement, soit la façon dont on alloue des ressources.
Depuis l’émergence de ChatGPT et des IA génératives en général, l’intelligence artificielle (IA) est au cœur des débats, oscillant entre promesses révolutionnaires et inquiétudes quant à ses impacts. Le flou du débat public est aggravé par un manque de données fiables sur les effets réels de l’IA, notamment en matière de productivité et d’environnement. L’urgence est de détechniciser et de politiser le sujet, en intégrant des réflexions sociales et environnementales au-delà des seules considérations économiques et juridiques.
Dans un papier en pre-print publié sur SSRN, “Who is an AI Ethicist? An Empirical Study of Expertise, Skills, and Profiles to Build a Competency Framework”, des chercheurs s’interrogent sur les profils des éthiciens de l’intelligence artificielle : qui sont-ils ? Ou plutôt, quelles devraient être leurs compétences, démontre plutôt l’article, qui amorce une discussion plutôt rare, en comparant l’expertise des éthiciens de l’IA à celle des consultants en éthique dans les contextes clinique et de la santé. Quelques éléments sur ce travail exploratoire.
Le journaliste Thibault Prévost affirme que les d’IA génératives ne sont pas fiables (et ne le seront sans doute jamais), nuisent à la planète, alimentent une probable bulle financière et perpétuent les biais sexistes et racistes.
Réservé aux agents Cnaf
Le Comité économique et social européen (CESE) a adopté un avis qui recommande la prudence dans la création des algorithmes pour éviter les biais et les discriminations. Il estime de plus que des informations claires doivent être délivrées aux fonctionnaires et au public sur les systèmes déployés, et que des plans de formation doivent être mis en place. Enfin, il rappelle la nécessité d'apporter une protection adéquate des données sensibles utilisées par ces systèmes d'IA.
Le député écologiste européen David Cormand dénonce, dans une tribune au « Monde », le recours à l’intelligence artificielle pour permettre une surveillance de masse, qui plus est ciblée sur les groupes les plus fragiles de la société, ceux que la société est pourtant censée aider.
Accès réservé aux agents Cnaf (contacter le Pôle Veille Ressources information)
À propos de : David Robinson, Voices in the code. A story about people, their values, and the algorithm they made, - Comment peut-on créer des algorithmes qui soient aussi justes qu'efficaces ? David Robinson propose des pistes de réflexion et tire les conséquences d'une expérience collective.
Le contrôleur européen de la protection des données (CEPD), l'autorité contrôlant les usages des données personnelles des institutions européennes, a publié des recommandations sur l'usage de l'intelligence artificielle générative. Une source d'inspiration pour les collectivités souhaitant encadrer l'usage de cette technologie.
L'État de la situation sur les impacts sociétaux de l'intelligence artificielle et du numérique fait état des connaissances actuelles sur les impacts sociétaux de l'IA et du numérique, structurées autour des sept axes de recherche de l'Obvia : santé, éducation, travail et emploi, éthique et gouvernance, droit, arts et médias, et transition socio-écologique. Hypertrucages, désinformation, empreinte environnementale, droit d'auteur, évolution des conditions de travail… Le document recense les grandes questions de recherche soulevées par le déploiement progressif de ces nouvelles technologies, auxquelles viennent s'ajouter des cas d'usages et de pistes d'action. Il s'impose ainsi comme un outil complet et indispensable pour accompagner la prise de décision dans tous les secteurs bouleversés par ces changements.
Répondre aux questions posées par le développement de l’IA sur la protection des données et de la vie privée L’année 2022 a été marquée le déploiement et l’utilisation de systèmes d’IA par et pour le grand public. La CNIL a pu observer, depuis, une accélération de la volonté d’adoption de ces technonologies, et cela dans tous les secteurs d’activités : santé, services publics, sécurité publique, etc. Elle est consciente que l’adoption de cette technologie est, pour la France, un facteur majeur de compétitivité, d’innovation et de souveraineté pour les prochaines années.
Make.org, Sciences Po, Sorbonne Université et le CNRS annoncent le lancement du programme de recherche "Communs Démocratiques". Ce projet vise à exploiter le potentiel de l'IA générative pour préserver et renforcer les fondements de la démocratie dans un monde confronté à une crise de confiance institutionnelle sans précédent et à une guerre informationnelle croissante.
Engagée dans l’innovation technologique, La Poste souhaite saisir les opportunités offertes par l’intelligence artificielle (IA) en le faisant à sa manière : avec des projets « ethics by design » respectant ses valeurs de confiance et d’intégrité. Dans ce contexte, le groupe s’est doté d’une nouvelle charte data & IA encadrant la conception et le développement de projets […]
Depuis que les experts de la Commission européenne ont publié des lignes directrices en matière d’éthique pour une IA digne de confiance en 2019, une importante documentation sur le sujet a été émise et partagée par tous les acteurs de ce domaine. Qu’en est-il, aujourd’hui, des initiatives européennes pour fédérer autour de ce sujet et quel est l’impact sur le monde de la recherche ? Tour d’horizon sur les dernières avancées.
L’IA, de la transformation de notre quotidien aux mutations du travail Dans nos moteurs de recherche, dans nos playlists ou pour nous conseiller le prochain film à regarder, l’IA est déjà omniprésente pour améliorer le confort de notre quotidien. Depuis quelques années, notamment avec l’arrivée fracassante et gratuite du robot conversationnel ChatGPT, le grand public s’empare rapidement et massivement des intelligences artificielles génératives.
Le projet de loi avait été présenté au Conseil des ministres du 10 mai 2023 par Bruno Le Maire, ministre de l’économie, des finances et de la souveraineté industrielle et numérique et par Jean-Noël Barrot, ministre délégué chargé du numérique. Il avait été adopté en première lecture, avec modifications, par le Sénat le 5 juillet 2023, puis par l'Assemblée nationale le 17 octobre 2023. Après accord trouvé en commission mixte paritaire le 26 mars 2024, le Sénat avait voté la version finale du projet de loi le 2 avril 2024. Le gouvernement avait engagé la procédure accélérée sur le texte.
La CADA a publié son rapport annuel d’activité retraçant les principales évolutions de sa doctrine et les éléments relatifs à son activité, en vertu des dispositions de l’article R. 341-17 du code des relations entre le public et l’administration.
Concilier le développement de systèmes d’IA avec les enjeux de protection de la vie privée De nombreux acteurs ont fait part à la CNIL de questionnements concernant l’application du règlement général sur la protection des données (RGPD) à l’intelligence artificielle (IA), en particulier depuis l’émergence de systèmes d’IA génératives (« Generative AI systems »).