Reconnaissance faciale : Microsoft va tuer son IA pour des raisons éthiques
Sans doute inquiet des dérives éthiques de son intelligence artificielle, Microsoft s'apprête à la supprimer.
Get Started for FREE
Sign up with Facebook Sign up with X
I don't have a Facebook or a X account
Sans doute inquiet des dérives éthiques de son intelligence artificielle, Microsoft s'apprête à la supprimer.
Beltug, Cigref, CIO Platform Nederland et Voice représentent ensemble plusieurs milliers d’organisations privées et publiques en Belgique, en France, aux Pays-Bas et en Allemagne. Elles constatent que de nombreuses organisations dépendent des services de cloud computing. De ce fait, les relations entre les fournisseurs et leurs clients conduisent certaines fois à des pratiques déloyales.
Identification biométrique à distance dans l'espace public, notation sociale ("social scoring")... La Commission nationale consultative des droits de l’homme (CNCDH) recommande d'interdire certains usages de l’intelligence artificielle susceptibles de porter atteinte aux droits fondamentaux.
Dans un avis publié le 7 avril, la Commission nationale consultative des droits de l’Homme alerte sur l’impact de l’intelligence artificielle (IA) sur les droits fondamentaux. Elle recommande notamment d’interdire purement et simplement certains usages de l’IA, comme la notation sociale des individus ou la reconnaissance faciale dans l’espace public.
Alors que les recherches sur l’intelligence artificielle (IA) et la mise en œuvre de ses applications pratiques se développent, la réglementation actuelle demeure lacunaire pour endiguer les atteintes possiblement majeures aux droits fondamentaux. Dans le contexte de l’adoption prochaine de la proposition de règlement de l’UE sur le sujet, et des travaux en cours au sein du Conseil de l’Europe, la CNCDH invite les pouvoirs publics à promouvoir un encadrement juridique ambitieux en la matière.
Elle recommande, d’une part, d’interdire certains usages de l’IA jugés trop attentatoires aux droits fondamentaux, tels que le scoring social ou l’identification biométrique à distance des personnes dans l’espace public et les lieux accessibles au public. D’autre part, elle recommande de faire peser sur les utilisateurs d’un système d’IA des exigences en mesure de garantir le respect des droits fondamentaux : une étude d’impact, une consultation des parties prenantes, une supervision du système tout au long de son cycle de vie. La CNCDH appelle enfin à reconnaître des droits aux personnes ayant fait l’objet d’une décision impliquant un algorithme, notamment le droit à une intervention humaine dans le processus de décision, ou encore un droit au paramétrage des critères de fonctionnement du système d’IA.
Les algorithmes jouent un rôle croissant dans la sphère publique, qu’il s’agisse de calculer le montant d’une aide sociale, d’attribuer une place en crèche ou d’évaluer les risques de défaillance des entreprises. De nombreux travaux et rapports ont souligné la diversité des enjeux liés au déploiement de ces systèmes, susceptibles d’influencer voire d’automatiser des décisions pouvant affecter négativement les individus, comme par exemple en matière d’autonomie ou d’équité;
Nous republions ici une tribune initiée par le collectif Changer de Cap et que nous avons signée. Elle est parue le 5 avril dans Basta!. Nous appelons à signer et faire circuler l'appel correspondant. Contrôles abusifs des allocataires, suspension des versements, harcèlement des plus précaires… La
Pour mieux cerner les enjeux de l’apprentissage fédéré, approche décrite dans un article dédié, LINC a interrogé Aurélien Bellet et Marc Tommasi, chercheurs au sein de l’équipe Magnet (Machine Learning in Information Network), par laquelle collaborent Inria et l’université de Lille afin de résoudre certains problèmes éthiques liés à l’apprentissage machine.
Lire l'ouvrage Civilisation numérique. Ouvrons le débat !
Lire le communiqué de presse
LE NUMÉRIQUE, UN ENJEU MAJEUR À FAIRE ÉMERGER DANS LE DÉBAT PUBLIC