Allen Institute-Seattle
Un laboratoire de Seattle affirme avoir réussi à doter une intelligence artificielle d’une morale propre pour l’aider à faire les bons choix. Un débat qui reste d’actualité depuis les premières créations de l’intelligence artificielle est de savoir si les informations programmées sont de la vraie connaissance ou simplement du calcul et donc si la connaissance programmée peut permettre à l’intelligence artificielle de raisonner et prendre des décisions éthiques ou si elle est limitée à décider à partir du codage et du calcul.
De manière plus précise, si l’intelligence artificielle comprend, par exemple, l’idée que nuire intentionnellement à un être humain est mauvais, il est aussi nécessaire de se poser la question de savoir si l’intelligence artificielle est en capacité de comprendre pourquoi c’est mauvais et si elle peut s’abstenir d’agir sans savoir pourquoi.
Ces questionnements reviennent à s’interroger sur la capacité de l’intelligence artificielle à développer sa propre moralité. Selon les chercheurs du Allen Institute for IA de Seattle, une moralité propre est possible et ils indiquent avoir réussi à développer une machine avec un sens moral. Le laboratoire a appelé cette machine Delphi en référence à l’oracle de Delphes et a mis en ligne le site Ask Delphi qui permet de solliciter une réponse morale.
Le site a reçu plusieurs millions de visiteurs dont Joseph Austerweil, psychologue à l’université du Wisconsin-Madison qui a testé la moralité des réponses apportées en fonction des questions. Parmi les réponses concernées, on trouve une réponse négative à la question de savoir s’il faut tuer une personne pour en sauver une autre ou une réponse affirmative pour savoir s’il est acceptable de tuer une personne pour en sauver 100.
Il s’agit selon le psychologue d’une première étape pour rendre les systèmes d’intelligence artificielle mieux informés sur le plan éthique, socialement conscient et culturellement inclusif. Yejin Choi, le chercheur à l’Allen Institute for IA qui a dirigé le projet, indique qu’un jour cette moralité pourrait équiper des systèmes d’intelligence artificielle, des assistants virtuels ou des voitures autonomes pour les aider à faire le bon choix.
Deux théories permettent de mieux comprendre si la moralité que développe Delphi est la sienne propre ou seulement le reflet de celle de ses créateurs avec d’un côté la thèse développée par le professeur Daniel N. Robinson de la faculté de philosophie de l’université d’oxford, appelée IA forte et de l’autre le théorème d’incomplétude, dit théorème de Gödel.
Selon la thèse de l’IA forte, il pourrait exister des processus informatiques qui permettent de créer une intentionnalité, c’est-à-dire prendre une décision délibérée et consciente qui implique un raisonnement et un sens des valeurs. Cela serait possible si un programmeur arrive à développer un programme qui exécute des tâches complexes de niveau expert et impossibles à distinguer de celles d’un humain.
Le théorème de Gödel, développé par Kurt Gödel, stipule que tout système formel est incomplet car il dépend d’un théorème ou d’un axiome qui est extérieur au système lui-même, la seule exception étant l’intelligence humaine. L’intelligence humaine, en raison de sa rationalité et de son mode de fonctionnement, serait ainsi le seul système qu’il n’est pas possible de transformer en code et donc ne peut être ni limitée, ni modélisée sur une base informatique.
Si la théorie de Gödel est juste, une intelligence artificielle ne pourra jamais acquérir sa propre moralité puisque l’intelligence humaine n’est pas une intelligence basée sur le calcul. Si la théorie de l’IA forte, soutenue par le laboratoire de Seattle, est dans le vrai, l’intelligence artificielle pourrait prochainement rivaliser avec l’intelligence humaine.
Comment here