Accueil / Résidents / Patrick Haggard

Patrick Haggard

Professeur
University College de Londres
La responsabilité à l'ère de l'intelligence artificielle
01 janvier 2020 -
31 juillet 2020
Neurosciences
FacebookTwitter

Chaire Jean-D'Alembert Paris-Saclay - IEA de Paris

Patrick Haggard étudie les mécanismes cognitifs et neuronaux de l'action volontaire humaine. Il a obtenu son doctorat à l'Université de Cambridge et une bourse postdoctorale à l'Université d'Oxford. Il a rejoint le département de psychologie de l'University College de Londres en 1995 et dirige maintenant un groupe de recherche à l'Institute of Cognitive Neuroscience de l'UCL. Ses recherches ont été financées par plusieurs agences nationales et internationales, dont le Conseil européen de la recherche. Il a récemment publié un article dans l’Annual Review of Psychology sur "Les bases neurocognitives de la volonté humaine" (2019).

Sujets de recherche

Action et agentivité humaine, responsabilité, sensation corporelle, conscience de soi

La responsabilité à l'ère de l'intelligence artificielle

Toutes les sociétés humaines ont une certaine conception de la responsabilité de l'action, qui sert généralement de base à l'ordre social et moral. La responsabilité implique que les gens sont conscients de leurs actions et choisissent de les réaliser - c'est donc un concept psychologique, mais aussi sociologique et juridique. La créativité humaine permet d'automatiser de plus en plus les décisions, de sorte que les événements qui comptent pour les gens sont décidés par des systèmes d'intelligence artificielle (IA) qui manquent de conscience. Cette situation crée un défi important pour notre vie mentale et pour le bien-être de la société.

Mon projet se concentre spécifiquement sur l'importance de l'explicabilité et de la fixabilité dans la façon dont nous définissons la responsabilité des agents humains et des machines. Des études chez l'homme montrent que les mécanismes cérébraux d'apprentissage et d'ajustement de nos actions contribuent à notre sens de l'action et permettent ainsi l'attribution des responsabilités. Ce projet examine comment l'explicabilité et la fixabilité apparaissent dans les systèmes d'IA actuels, tels que les réseaux neuronaux d'apprentissage profond. Quelle est la relation entre la possibilité d'expliquer les erreurs, la possibilité de les corriger et la responsabilité ? Par exemple, lorsqu'un véhicule autonome écrase quelqu'un et le tue, nous voulons identifier qui est responsable - mais quel rôle devrait jouer l'explicabilité et la fixabilité du système dans ce processus ? Nous pouvons cohabiter avec d'autres personnes en grande partie parce que nous pouvons expliquer leur comportement, et ils peuvent expliquer le nôtre. Ce projet étudie comment les capacités cognitives humaines de base guideront notre cohabitation future avec des machines intelligentes.

20618
2019-2020
Autre
Monde ou sans région