cedric sileo : ingénieur, intelligence artificielle, docteur en sciences

dimanche | 23 juillet 2017

Dilemme de robot

Un robot face à un dilemme

INFOGRAPHIE - Invité à décider lequel sauver entre deux humains, un robot est resté tétanisé. La machine capable de choix « éthiques » n'est pas encore née.

Imaginez un robot devant un grand trou. S'il avance, il tombe ; s'il part à gauche, il est sauf ; s'il part à droite, il se cogne contre un humain qui se précipite vers le trou mais l'empêche ainsi de tomber.

 

 

En menant cette expérience avec de petits e-pucks (des robots reprogrammables conçus pour la recherche), Alan Winfield, du laboratoire de robotique de Bristol, et ses confrères de l'université de Berlin ont poussé la machine à risquer ses circuits pour sauver la peau d'autrui. Ont-ils inventé un robot éthique? Non. Les chercheurs ont simplement programmé un ordinateur pour qu'il obéisse à une règle simple: sauver l'humain prime toujours, fût-ce au prix d'une collision. Le robot obéit ainsi à la première des lois de la robotique imaginées en 1942 par l'auteur de science-fiction Isaac Asimov: un robot ne peut jamais, par son action ou sa passivité, nuire à un être humain.

«Imaginer» les conséquences de ses actes

Placé seul dans un environnement donné avec pour objectif de rejoindre un point situé de l'autre côté du trou, un robot A (comme Asimov) savait sans problème contourner ce trou. Quand les chercheurs ont ajouté un robot H (comme humain) ignorant l'emplacement du trou, le robot A n'avait aucune difficulté à le sauver. Il a donc montré sa capacité à «imaginer» les conséquences de ses actes et de ceux de son camarade, et négliger momentanément son objectif premier pour en remplir un autre jugé supérieur.

Entre deux maux, la machine avait su choisir le moindre. Les chercheurs ont failli s'arrêter là, avant de s'interroger: que ferait A face à un dilemme, avec deux missions d'égales valeurs?

Sur son chemin, ils ont donc placé deux «humains», H1 et H2. Sur 33 essais, le robot A en a arrêté un 16 fois, et par 3 fois il a été assez rapide pour sauver les deux. Mais à 14 reprises il a… hésité! Non parce qu'il se fichait comme d'une guigne du sort de ses camarades, mais parce qu'il était déchiré par un choix impossible: les robots «humains» modifiant sans cesse les données en avançant, A ne parvenait plus à décider lequel était le plus en danger. Une vidéo nous le montre avancer vers H1, se tourner vers H2, reculer, regarder à nouveau H1 et s'en approcher avant de retourner vers H2… Le temps qu'il se décide, les deux autres sont au bord du gouffre. Le robot rejoint alors son objectif sans remords. Foutus pour foutus, plus besoin de pleurer sur le sort des copains.

Robots militaires éthiques

Ronald Arkin, de l'institut Georgia Tech à Atlanta, a mis au point des algorithmes permettant à des robots militaires de prendre des décisions d'ordre éthique, comme ne pas tirer à proximité d'un hôpital. Mais il reconnaît que les lois de la guerre, «connues depuis des centaines d'années et définies par des traités», sont relativement simples à modéliser.

Il en va autrement de nos vies. L'expérience menée par Alan Winfield «suppose que l'on puisse décrire le monde et prédire tout ce qui peut arriver de façon exacte», explique Olivier Pietquin, chercheur au laboratoire d'informatique fondamentale à l'université de Lille. Plutôt que l'idée de reproduire l'intelligence humaine dans un ordinateur, Pietquin croit plutôt à «des machines capables de réaliser des tâches spécifiques en diverses circonstances, mais pas d'en apprendre de nouvelles de leur propre initiative. Un logiciel de reconnaissance des visages n'apprendra pas tout seul à faire le café!»

Les choix d'un robot ne sont que le fruit «d'un calcul fait selon une règle codée par un être humain», précise Olivier Pietquin. Pour que la machine procède à des choix éthiques, il faudrait donc pouvoir, à l'avance, hiérarchiser les valeurs de chaque action, de chaque être et de chaque objet existants dans le monde. Qui dira à la voiture sans chauffeur s'il vaut mieux sauver ses occupants ou ceux de la voiture d'en face? Renverser la vieille dame qui arrive par la gauche ou le petit garçon qui vient de la droite? Qui jugera de la moralité du robot chargé de soigner un malade? «Si cela devait se faire un jour, insiste Olivier Pietquin, ce ne serait certainement pas le travail des ingénieurs, mais celui des éthiciens.»

(Source Le Figaro)

 

chef de projet web technologies intelligence information formation chef projet artificielle doctorat informatique maîtrise développement thèse université systèmes recherche société temps base machines machine problèmes connaissances problème techniques exemple système règles internet définition