Robots et éthique
29 views | +0 today
Follow
Your new post is loading...

La eternidad virtual: se puede morir pero no desaparecer por completo

Las fotos, los videos, los mensajes y las conversaciones que circulan por Internet se convierten en un legado que sigue disponible, más allá de nuestra existencia.
Scoop.it!
No comment yet.

Will Digital Immortality Enable Us to Live Forever? 

Artificial intelligence is changing the way we live, connect, and grieve.
Scoop.it!
No comment yet.

Muerte: Bienvenido al nuevo cementerio llamado internet

En el año 2100, Europa tendrá a 254 millones de usuarios muertos flotando en el interior de las redes sociales.
Scoop.it!
No comment yet.

Robots tueurs : Boston Dynamics et 5 autres industriels s'engagent à ne jamais armer leurs créations

Les dirigeants de Boston Dynamics et de cinq autres entreprises du secteur de la robotique ont signé, ce jeudi, une lettre ouverte dans laquelle ils s'engagent à ne jamais faire de leurs créations des armes.
Scoop.it!
No comment yet.

Les chatbots peuvent-ils vraiment nous influencer ?

Quand nous discutons avec une machine, nous projetons un certain nombre de nos représentations et émotions humaines.
Scoop.it!
No comment yet.

How ‘Zero-Shot’ AI Is Poised To Revolutionize The Chatbot Industry

"AI will change the way that we work and run our businesses.Those who are best prepared, and who take advantage of new opportunities now, will reap the rewards."...
Scoop.it!
No comment yet.

Robotique développementale, ou l’étude du développement des connaissances dans une Intelligence Artificielle –

Intelligences naturelles et artificielles peuvent apprendre les unes des autres. De nombreux algorithmes s’inspirent de notre compréhension des mécanismes du vivant et les modèles utilisés en intelligence artificielle peuvent en retour permettre d’avancer dans la compréhension du vivant.
Scoop.it!
No comment yet.

Meta's Cicero chatbot can probably beat you at Diplomacy • The Register

AI agent proves better than most people in classic game of trust and betrayal...
Scoop.it!
No comment yet.

REPORTAGE. La cyberguerre a déjà commencé

Un reportage de Sciences et Avenir près de Rennes, au cœur de la cyberdéfense française.
Scoop.it!
No comment yet.

Robotique développementale, ou l’étude du développement des connaissances dans une Intelligence Artificielle (IA) - Intelligence mécanique

Robotique développementale, ou l’étude du développement des connaissances dans une Intelligence Artificielle (IA) 18.10.2022 | par Ikram Chraibi Kaadoud | Comprendre la science tou-te-s ensemble, Intelligence artificielle, Interface Humain-Machine, modélisation de la cognition, sciences cognitives, Sciences cognitives, Sciences du Numérique Public ciblé : Tout public Dernière mise à jour : 18/10/2022 Cet article est également co-publié sur le Blog Binaire, blog de médiation du journal "lemonde.fr" qui nous offre ce texte en partage. Une version en anglais est disponible en cliquant ici. Intelligences naturelles et artificielles peuvent apprendre les unes des autres. De nombreux algorithmes s’inspirent de notre compréhension des mécanismes du vivant et les modèles utilisés en intelligence artificielle peuvent en retour permettre d’avancer dans la compréhension du vivant. Mais comment s’y retrouver ? Donnons la parole à Ikram CHRAIBI KAADOUD qui nous offre ici un éclairage. Pascal Guitton et Thierry Viéville. Apprendre à apprendre, une problématique IA mais pas seulement Il est souvent dit et admis que de nombreux algorithmes s’inspirent du vivant et qu’inversement l’artificiel peut permettre d’avancer la compréhension du vivant. S’inscrivant dans cette démarche, le développement des connaissances chez les humains est un domaine qui a été largement étudié par exemple, par des méthodes informatiques utilisant des approches d'apprentissage automatique (Machine Learning) ou encore des approches robotiques (Cangelosi, 2018). L’objectif: réaliser des algorithmes ou robots flexibles et performants capables d’interagir efficacement avec les humains et leur environnement. L’un des défis principaux qui existe lors d’une interaction humain-machine est la prise en compte de la variabilité de l’environnement. Autrement dit l’évolution du contexte de l’interaction. Une réponse d’une machine pertinente à un instant donné, ne sera peut-être plus la bonne quelques instants plus tard. Cela peut être dû à l’environnement (changement de lieu, d’horaire) ou à l’individu avec lequel la machine interagit. Par exemple, si je vous dis « Mon train est dans 10 min » et que je suis à l’autre bout de la ville (la gare étant à l’opposé de ma localisation), il est évident que celui-ci partira sans moi. Si je suis devant la gare, alors il serait adéquat de me dépêcher ! Enfin si je suis dans le train au moment où je prononce ces mots, alors tout est bon pour moi !* *Merci au Dr. Yannis Haralambous, chercheur en Traitement du langage naturel, fouille de textes et grapho linguistique de IMT atlantique et l’équipe DECIDE du LAB-STICC, CNRS pour le partage de cet exemple La compréhension du contexte et son assimilation est un sujet à part entière entre humains et par extension, également entre Humains et Machine. Alors comment faire pour qu’une machine apprenne seule à interagir avec un environnement changeant ? Autrement dit, comment faire pour que cet agent apprenne à raisonner : analyser la situation, déduire ou inférer un comportement, exécuter ce dernier, analyser les résultats et apprendre de sa propre interaction ? Il existe déjà nombre de travaux dans les domaines de l’apprentissage par renforcement en IA qui s’intéressent aux développements d’agents artificiels, ou encore de la cobotique où le système robotique doit prendre en compte la localisation des opérateurs humains pour ne pas risquer de les blesser. Mais il existe aussi des approches qui tendent à s’inspirer de la cognition et notamment de celle des enfants : les approches de robotique développementale. “L’un des paradigmes les plus récents, la robotique développementale, propose de s’intéresser non pas à l’intelligence « adulte » d’un individu capable de résoudre a priori une large classe de problèmes, mais plutôt d’étudier la manière dont cette intelligence se constitue au cours du développement cognitif et sensori moteur de l’individu. On ne cherche pas à reproduire un robot immédiatement intelligent, mais un robot qui va être capable d’apprendre, en partant au départ avec un nombre réduit de connaissances innées. Le robot apprend à modéliser son environnement, les objets qui l’entourent, son propre corps, il apprend des éléments de langage en partant du lexique jusqu’à la grammaire, tout cela en interaction forte à la fois avec le monde physique qui l’entoure mais également au travers d’interactions sociales avec les humains ou même d’autres robots. Le modèle qui préoccupe le chercheur en intelligence artificielle n’est plus le joueur d’échec, mais tout simplement le bébé et le jeune enfant, capable d’apprendre et de se développer cognitivement.” Extrait de la page de présentation d’une série de conférences sur ce sujet en 2013 : https://x-recherche.polytechnique.org/post/Conf%C3%A9rence-Robotique-D%C3%A9veloppementale Quelques définitions avant d’aller plus loin ! Reprenons d'abord quelques définitions avant d’aborder ce sujet passionnant de cognition artificielle. Alors qu’est-ce que l’apprentissage par renforcement, ou Reinforcement Learning ? Il s’agit d’un domaine de l’apprentissage automatique, Machine Learning, qui se concentre sur la façon dont les agents artificiels entreprennent des actions dans un environnement par la recherche d'un équilibre entre l'exploration (par exemple, d'un territoire inexploré) et l'exploitation (par exemple, de la connaissance actuelle des sources de récompense)(Chraibi Kaadoud et al, 2022). Ce domaine aborde la question de la conception d'agents autonomes qui peuvent évoluer par l'expérience et l'interaction (Sutton, Barto, et al., 1998). Le second concept à éclaircir est celui de Robotique : La robotique est un domaine scientifique et industriel qui a pour objet d’étude le robot en lui-même. Cela englobe, ses performances, ses caractéristiques énergétiques, électroniques, mécaniques et même automatiques. La cobotique est un domaine scientifique qui étudie les systèmes hommes-robots collaboratifs. Un cobot se définit donc comme un robot collaboratif travaillant dans le même espace de travail que l’humain. Par exemple, un robot jouet ou robot d'accueil. La cobotique est très proche de la robotique, cependant elle n’englobe pas toutes les problématiques de la robotique. En effet, en cobotique, le cœur du sujet est la perception du cobot de son environnement, son interaction avec l’humain et inversement, la perception, l’interaction et l’acceptabilité de l’humain de son cobot. La cobotique se distingue par un volet ergonomie et ingénierie cognitique, absente de la robotique. La cobotique est donc de nature pluridisciplinaire et se situe à l’intersection de trois domaines : robotique, ergonomie et cognitique (Salotti et al, 2018). Notons que la cobotique n’est pas directement liée au sujet de la robotique développementale mais il est essentiel de distinguer ces deux sujets, d’où cette petite parenthèse. Enfin cela nous amène à la robotique développementale ou Developmental robotics. Ce domaine est aussi connu sous d’autres synonymes : cognitive developmental robotics, autonomous mental development, ainsi que epigenetic robotics. Ce champ de recherche est dédié à l’étude de la conception de capacités comportementales et cognitives des agents artificiels de manière autonome. Autrement dit, ce domaine s’intéresse au développement des comportements de robots et de leur représentation du monde avec lequel ils interagissent et de tout ce qui a trait à leur connaissance. Intrinsèquement interdisciplinaire, ce domaine s'inspire directement des principes et mécanismes de développement observés dans les systèmes cognitifs naturels des enfants. En effet, quoi de plus curieux et autonome qu’un enfant dans la découverte de son monde ? Ce domaine tend ainsi à s’inspirer du développement des processus cognitifs des enfants pour concevoir des agents artificiels qui apprennent à explorer et à interagir avec le monde comme le font les enfants (Lungarella, 2003; Cangelosi, 2018). Comment ? L'approche traditionnelle consiste à partir des théories du développement humain et des animaux appartenant aux domaines de la psychologie du développement, des neurosciences, du développement, de la biologie évolutive, et de la linguistique pour ensuite les formaliser et implémenter dans des robots ou agents artificiels. Attention, précisons que la robotique développementale est disjointe de la robotique évolutionnelle qui utilise des populations de robots interagissant entre eux et qui évoluent dans le temps. En quoi la robotique développementale est intéressante ? Afin d’avoir des agents artificiels qui évoluent et s’adaptent au fur et à mesure de leur expérience, des chercheurs se sont attelés à observer des enfants à différents stade de leur apprentissage et le développement de cette capacité d’apprentissage. Les nourrissons en particulier créent et sélectionnent activement leur expérience d’apprentissage en étant guidés par leur curiosité. Des travaux se sont donc penchés sur la modélisation de la curiosité en IA afin de déterminer l’impact de celle-ci sur l’évolution des capacités d’apprentissage des agents artificiels (Oudeyer et Smith, 2016). Les domaines d’applications sont nombreux et peuvent permettre par exemple la conception de robots capables d’apprendre des choses sur le long terme et d’évoluer dans leur apprentissage ou encore des algorithmes performants capables de générer des explications adaptées au contexte en langage naturel par exemple. Au-delà de la conception d’agents intelligents, l’expérimentation de ces modèles artificiels dans des robots permet aux chercheurs de confronter leur théorie sur la psychologie du développement à la réalité et ainsi confirmer ou infirmer leur hypothèse sur le développement des enfants par exemple. La robotique développementale peut ainsi être un outil d’expérimentation scientifique et d’exploration de nouvelles hypothèses sur les théories du développement humain et animal. Un outil au service de l’enfant, s’inspirant de ce dernier. Une meilleure compréhension du développement cognitif humain et animal, peut permettre alors de concevoir des machines (robots, agents artificiels) adaptées à l’interaction avec des enfants au fur et à mesure qu’ils grandissent et que leur contexte évolue. Cela permet également de créer des applications plus adaptées aux enfants dans les technologies éducatives comme le montre le schéma “Qu’est ce que la robotique développementale ?”. Au-delà de l’interaction humain-machine, ce domaine passionnant amène à se poser également des questions sur la curiosité artificielle, la créativité artificielle et même celle de la question de la motivation d’un agent artificiel ou robot ! Autrement dit, la robotique développementale permet également des découvertes scientifiques au service de la compréhension du développement cognitif des enfants et celui de la conception d’agents ou machines artificiels qui apprennent à apprendre tout au long de leur expérience. Que retenir ? La conception d’une interaction humain-machine réussie est une quête en soit pour laquelle différentes approches sont possibles : celle de l’apprentissage par renforcement qui se focalise sur l’agent artificiel comme objet d’étude dans un contexte donné, celle de la robotique qui se focalise sur le robot en tant que sujet d’étude d’un point de vue mécanique et logiciel, et enfin celle de la robotique développementale qui s’inspire du développement cognitif des enfants afin de créer des machine/agents artificiels flexibles, adaptée et adaptable qui évoluent. Cette épopée en est à ses prémisses et de nombreuses découvertes sont encore à venir. Toutefois retenons une chose : comment apprendre à apprendre est bien une question autant d'humains que de robots ! Références & pour en savoir plus : Cangelosi, A., Schlesinger, M., 2018. From babies to robots: the contribution of developmental robotics to developmental psychology. Child Development Perspectives 12, 183–188. Chraibi Kaadoud, I., Bennetot, A., Mawhin, B., Charisi, V. & Díaz-Rodríguez, N. (2022). “Explaining Aha! moments in artificial agents through IKE-XAI: Implicit Knowledge Extraction for eXplainable AI”. Neural Networks, 155, p.95-118. 10.1016/j.neunet.2022.08.002 Droniou, A. (2015). Apprentissage de représentations et robotique développementale: quelques apports de l'apprentissage profond pour la robotique autonome (Doctoral dissertation, Université Pierre et Marie Curie-Paris VI). Lungarella, M., Metta, G., Pfeifer, R., Sandini, G., 2003. Developmental robotics: a survey. Connection science 15,151–190. Oudeyer, P. Y., & Smith, L. B. (2016). How evolution may work through curiosity‐driven developmental process. Topics in Cognitive Science, 8(2), 492-502. Padois Vincent (2011) Dossier « iCub et les robots de services » pour le site www.Futura-sciences.com URL : https://www.futura-sciences.com/tech/dossiers/robotique-icub-robots-service-1143/ Salotti, J. M., Ferreri, E., Ly, O., & Daney, D. (2018). Classification des systèmes cobotiques. Ingénierie cognitique, 1(1). https://hal.archives-ouvertes.fr/hal-01943946
Scoop.it!
No comment yet.

Fear injections? A wearable soft robot can ease your aversion to needles

The overall assessment was that the robot helped relieve the experience for patients based on feelings of well-being activated by the robot.
Scoop.it!
No comment yet.

Agents conversationnels en classe

Un rapport du Conseil scientifique de l'éducation nationale...
Scoop.it!
No comment yet.

Ces scientifiques qui redoutent une catastrophe à cause des l'IA

Selon une enquête menée par l’Université de New York, 36% des chercheurs interrogés pensent une catastrophe possible à cause des IA.
Scoop.it!
No comment yet.

Débourser 10 dollars seulement pour créer un chatbot IA d'un proche décédé, comment un logiciel peut aider certains à faire leur deuil, en perturber d'autres

Chacun fait l'expérience du deuil à un moment donné de sa vie et nombreux sont ceux qui trouvent du réconfort dans le fait de garder vivants les souvenirs de l'être aimé, d'une manière ou d'une autre.
Scoop.it!
No comment yet.

Google teste un nouveau robot capable de se programmer lui-même, pour effectuer une variété de tâches simples et complexes sans entraînement spécifique

Google a présenté lors de son événement consacré à l'IA au début du mois de nouvelles recherches qui proposent de laisser les systèmes robotiques écrire leur propre code. La société affirme que le concept a été élaboré pour éviter aux développeurs humains de devoir reprogrammer les choses à mesure...
Scoop.it!
No comment yet.

Tesla et Elon Musk présentent un robot humanoïde

Elon Musk promet que le robot Optimus sera disponible sur le marché "d'ici 3 à 5 ans" et que des fonctionnalités de sécurité éviteront un "scénario à la Terminator".
Scoop.it!
No comment yet.

San Francisco va permettre à la police de déployer des robots capables de tuer des humains et ravive le débat mondial sur la possibilité d'une utilisation éthique de tels outils

Le Comité de surveillance de la ville de San Francisco a voté pour donner à la police la possibilité de déployer des robots capables de tuer des humains. Le Département de police de la ville pourra donc lancer ces outils pour tuer des suspects que les forces de l’ordre considèrent comme une menace...
Scoop.it!
No comment yet.

#OnetoOneBiarritz Comment bien co-évoluer avec les agents conversationnels ?

Si la relation client intègre de plus en plus les interactions humain-machine, les échanges se veulent davantage humanisés, grâce à la capacité des agents conversationnels à être de plus en plus dans l'émotionnel et dans l'empathie. Explications avec Laurence Devillers, professeur en intelligence artificielle (IA), à l'occasion du One to One Biarritz. "Êtes-vous humain ?" C'est la question qui suivra bientôt un "Bonjour, comment allez-vous ?", selon Laurence Devillers, professeur en intelligence artificielle (IA) à la Sorbonne Université et chercheuse au CNRS, spécialiste des interactions affectives humain-machine, dans un contexte où les échanges entre marques et consommateurs sont de plus en plus automatisés. Car les bots conversationnels font désormais partie intégrante de la relation client, que ce soit à l'oral ou à l'écrit : en première intention, bien souvent, pour apporter un premier niveau d'information à toute heure, ou à n'importe quel jour de la semaine, et participer ainsi à une plus grande disponibilité des marques. Pour autant, à force que la frontière entre interactions humaines et machine s'estompe, la pérennité d'une relation marque-client saine peut être remise en question.Des robots qui s'adaptent en fonction de leur interlocuteur"La tendance est à une détection plus fine de tout l'implicite et des émotions par les agents conversationnels, lors d'un appel notamment, ceci afin de mieux personnaliser les interactions et s'adapter à "l'humeur" du client. L'IA est ainsi plus humanisée, dans le sens où elle donne l'impression de comprendre et d'entrer en résonance avec ce qu'exprime le client", explique Laurence Devillers, rencontrée à l'occasion du One to One Biarritz. L'experte de l'IA cite 3 éléments indispensables pour qu'un robot conversationnel puisse être dans l'empathie : la présence de capteurs pour détecter les émotions, celle de processeurs pour analyser les paramètres recueillis et prendre une décision et, enfin, des "actionneurs" pour agir avec le monde réel et exprimer une réponse émotionnelle."Pour autant, rappelle Laurence Devillers, l'intelligence artificielle n'a aucune conscience, ni aucune morale. C'est un fait qu'il faut toujours garder en tête !" Mieux vaut donc ne pas trop s'attacher ou attribuer à l'IA une quelconque faculté de sentiment. Une "dérive" que l'on retrouve pourtant, au Japon notamment, avec l'initiative Gatebox qui propose d'acheter une assistante intelligente présentée sous la forme d'hologramme enfermée dans une box et qui peut rapidement être considérée comme une "copine virtuelle" après quelques semaines d'utilisation. Lire aussi : Les Français exigent plus de transparence de la part des marques sur leurs data Nudge marketing : opportunité ou risque ?"Du fait que l'intelligence artificielle s'adapte en continu à ses interlocuteurs, l'enjeu est désormais de s'assurer qu'il s'agit bien de la considération d'un contexte, de façon éthique, et non une incitation à un comportement en particulier, comme le passage à l'achat par exemple", poursuit la chercheuse. Les équipes en charge de l'élaboration et du suivi des agents conversationnels doivent donc toujours être vigilantes quant aux réponses apportées aux clients, pour s'assurer d'une bonne pertinence d'une part mais aussi de la non-présence d'une certaine manipulation naissante vers un type de réaction ou de comportement.De l'importance de normaliser les pratiquesRisque d'effet "black box", biais possibles liés à une non-parité homme / femme - 90 % des codeurs sont des hommes tandis que 80 % des IA ont un nom féminin - ou encore à une qualité médiocre de données présentées pour l'apprentissage... "Les travers liés à l'utilisation de l'IA en relation client sont multiples, d'où l'importance de mettre en place des règles valables pour tous. Une des propositions est notamment d'effectuer un naming genré de façon aléatoire lorsque l'on crée un agent conversationnel, qui pourra ainsi être soit masculin ou féminin selon le tirage, mais de fait, cela remet une certaine équité", propose Laurence Deviller. Et de conclure : "Dans un monde futur où nous serons de plus en plus amenés à converser avec des intelligences artificielles, l'enjeu global est réellement celui d'une sensibilisation de la population, adultes comme enfants, sur ce qu'est une intelligence artificielle. Il faut sans cesse, rappeler, que même si la machine semble de plus en plus incarnée, elle n'en reste pas moins dépourvue de conscience et de sentiment".
Scoop.it!
No comment yet.

​​4 applications concrètes de l’IA en éducation et 6 considérations éthiques

L’Association Edteq a tenu une conférence le mercredi 5 octobre portant sur l’aspect éthique que revêt l’intelligence artificielle en éducation. La conférence a été animée par Carolanne Tremblay, directrice du secteur technopédagogique de la plateforme Dalia chez Optania et Simon Collin, professeur à la Faculté des sciences de l’éducation de l’Université du Québec à Montréal, titulaire de la Chaire de recherche du Canada sur l’équité numérique en éducation et chercheur au Centre de recherche interuniversitaire sur la formation et la pratique enseignante. En voici un résumé.
Scoop.it!
No comment yet.

​​4 applications concrètes de l’IA en éducation et 6 considérations éthiques

L’Association Edteq a tenu une conférence le mercredi 5 octobre portant sur l’aspect éthique que revêt l’intelligence artificielle en éducation. La conférence a été animée par Carolanne Tremblay, directrice du secteur technopédagogique de la plateforme Dalia chez Optania et Simon Collin,...
Scoop.it!
No comment yet.

Heard on the Street – 11/29/2022

Welcome to insideBIGDATA’s “Heard on the Street” round-up column! In this regular feature, we highlight thought-leadership commentaries from members of the big data ecosystem. Each edition covers the trends of the day with compelling perspectives that can provide important insights to give you a...
Scoop.it!
No comment yet.