«Les robots sont inconsciemment considérés avec empathie.»

Dr Kate Darling
Kate Darling est une éminente spécialiste en roboéthique. Elle est chercheuse au Media Lab du Massachusetts Institute of Technology (MIT), où elle étudie les rapports de la société avec la robotique et les interactions homme-robot. Kate Darling explore notamment le lien émotionnel entre l’humain et les machines semblables à l’homme, en vue d’influer sur la direction des politiques et sur la conception des technologies. Ses écrits et ses recherches abordent les questions difficiles auxquelles les législateurs, les ingénieurs et le grand public seront confrontés au fil de l’évolution des relations homme-robot durant les décennies à venir.

Intéressée depuis toujours par les interactions entre technologie et société, Kate a suivi une formation en droit, en économie et en propriété intellectuelle. Elle a étudié les incitations économiques dans les systèmes de droit d’auteur et de brevet et a occupé le poste d’experte en propriété intellectuelle dans plusieurs institutions universitaires et privées. Elle est actuellement conseillère en politique de propriété intellectuelle auprès du directeur du Media Lab du MIT.

Sa passion pour la technologie et les robots l’a conduite à découvrir des domaines interdisciplinaires. Après avoir dispensé une formation en roboéthique à la Harward Law School en collaboration avec la Professeure Lawrence Lessig, son travail l’a progressivement menée à la croisée du droit et de la robotique, avec un intérêt particulier pour les questions juridiques et sociales. Kate est une ancienne boursière et une membre actuelle du Harvard Berkman Klein Center for Internet & Society, et une ancienne boursière du Yale Information Society Project. Elle est également membre de l’Institute for Ethics and Emerging Technologies.

Le travail de Kate a notamment été publié dans les magazines Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit et The Japan Times. Elle écrit régulièrement pour Robohub et IEEE Spectrum, et anime des ateliers couvrant des actualités parmi les plus intéressantes dans le monde de la robotique ; elle y parle aussi de l’avenir que nous pourrions connaître.

Kate est titulaire d’un diplôme de droit avec mention et d’un doctorat en sciences du Swiss Federal Institute of Technology (ETH Zurich), ainsi que d’un doctorat honorifique en sciences du Middlebury College. En 2017, l’American Bar Association a récompensé son travail en droit en lui décernant le prix Mark T. Banner en propriété intellectuelle. Elle supervise en outre plusieurs robots domestiques, notamment Pleos Yochai, Peter et M. Spaghetti.

Les robots ne sont certes pas des humains, mais ils sont socialement perçus comme plus que des machines. C’est cette am­bivalence qui constitue le terrain de recherche de Kate Darling, spécialiste de la roboéthique au Massachusetts Institute of Technology (MIT).

Madame Darling, en tant que chercheuse scientifique, vous êtes spécialisée en roboéthique, et en tant que juriste, en propriété intellectuelle. Les robots ont-ils des droits?
Non, pas pour l’instant.

Les relations entre les hommes et les robots doivent-elles être régies par des lois ou des normes, comme c’est par exemple le cas en matière de protection des animaux?
Cela paraît idiot, mais il pourrait effectivement exister un tel besoin. Les robots qui évoluent dans des espaces communs et interagissent avec les humains sont inconsciemment traités par les hommes comme des êtres vivants, et ils sont même considérés avec empathie. Certes, de manière rationnelle, la plupart des gens comprennent tout à fait que les robots ne ressentent rien et ne peuvent pas souffrir, contrairement aux animaux. Cependant, à l’avenir, les robots pourraient être construits de manière à pouvoir imiter les sentiments. Les mauvais traitements infligés à un robot pourraient alors provoquer un profond malaise, parce que nous projetons inconsciemment la vie sur ces objets mobiles.

En soi, il n’y a pas matière à légiférer. Après tout, nous avons affaire à des machines et pas à des êtres vivants. Mais on pourrait imaginer que les actes de violence envers les robots humanoïdes finissent par déconcerter le subconscient humain au point de le désensibiliser.

Qu’est-ce que cela signifie s’agissant de l’éducation des enfants?
Il faudrait apprendre à un enfant qu’il ne doit pas donner de coups de pied à un chien robot – et pas seulement pour la protection de la propriété. Maltraiter un être semblable à un humain est un acte qui peut modifier le comportement et les habitudes des êtres humains et influer sur les relations avec les vrais êtres vivants. S’il s’avère effectivement que le comportement humain se modifie durablement – et seulement à cette condition –, des dispositions régissant les relations humaines avec les robots pourraient être utiles.

Peut-on – ou doit-on – apprendre l’«éthique» aux robots, également dans les relations avec les autres robots?
Le domaine de l’éthique de la machine, qui traite de l’intégration de programmes éthiques dans les machines, est très complexe. Non seulement il est très difficile de traduire des valeurs éthiques de manière à ce qu’une machine les comprennent et les respectent mais, surtout, nous avons encore beaucoup à apprendre sur la complexité de l’éthique humaine et sur nos règles. Par conséquent, je ne crois pas que soyons aujourd’hui en mesure de construire des machines éthiques sans défauts. Il me semble plus raisonnable de considérer les robots comme des outils ou des animaux. Nous pouvons apprendre à un chien qu’il ne doit pas mordre les humains, mais pour éclaircir la question de la responsa­bilité morale, il vaudrait mieux éduquer son maître.

Ceux qui exploitent et contrôlent les robots ont le pouvoir. Comment peut-on éviter un abus de pouvoir?
Grâce à des lois en matière de protection des consommateurs. Si nous pouvions faire confiance aux marchés, je préférerais certes l’autorégulation; mais comme le montrent les technologies utilisées de nos jours, les consommateurs s’empressent souvent de renoncer au respect de leur vie privée et d’autres intérêts à long terme en échange d’une commodité et d’une fonctionnalité immédiates. C’est pourquoi nous avons besoin de régulateurs qui tiennent compte des tendances et comprennent suffisamment la technologie pour permettre de protéger les consommateurs.

Les robots seront-ils un jour capables non seulement de générer de l’empathie chez les êtres humains, mais également de construire une relation de confiance avec eux? De toutes les questions sur le sujet, celle de la confiance est la plus importante.
Ces faits, nous les connaissons déjà. Les études montrent que même de simples robots peuvent générer de l’empathie et que, dans certains cas, nous pouvons trop faire confiance aux machines. Nous croyons par exemple que les prises de décisions algorithmiques sont plus éthiques et moins influencées par la subjectivité humaine. Ce n’est pas tout à fait vrai, car les algorithmes sont conçus par des humains et utilisent des ensembles de données qui peuvent être déséquilibrés ou faussés. Nous avons également tendance à formuler des reproches excessifs lorsque des erreurs surviennent dans une équipe composée d’humains et de robots, par exemple d’un commandant de bord et d’un pilote automatique. Dans de nombreux cas, nous sommes enclins à accorder une trop grande confiance aux machines.

«A l’avenir, les robots pourraient être construits de manière à pouvoir imiter les sentiments. Les mauvais traitements infligés à un robot pourraient alors provoquer un profond malaise.»

Kate Darling

Laisseriez-vous un robot prendre des décisions qui concernent votre fortune personnelle?
Je chercherais à savoir si le mécanisme aboutit généralement à de meilleures décisions, sans entraîner davantage de risques. Si c’est le cas, alors oui.

Il est compréhensible que des personnes ressentent de l’empathie, voire de l’amour pour les robots. Après tout, les enfants apprennent aussi à aimer leur ours en peluche. Si les robots sont capables de rendre cette sympathie ou cet amour, cela ne peut-il pas engendrer des comportements dangereux en termes de dépendance? Les robots peuvent plonger les humains dans une crise émotionnelle.
Nous n’avons aucune idée de la façon de construire des robots qui puissent développer de la sympathie ou de l’amour. Cela relève donc d’un scénario fictif ou futuriste. La question peut toutefois déjà se poser: la création d’un lien émotionnel unilatéral peut-elle engendrer une dépendance qui peut être utilisée de façon abusive? Les humains, y compris les enfants, peuvent traiter les robots comme leurs camarades de jeu et nouer des liens émotionnels avec eux. Ce n’est pas nécessairement une mauvaise chose. On peut comparer cette relation à celle que l’on établit avec des animaux de compagnie et qui est acceptée par la société. A la différence de nos compagnons à quatre pattes, les robots sont fabriqués et contrôlés par les humains. Les entreprises pourraient être en mesure d’exploiter la dépendance émotionnelle aux machines en utilisant par exemple des modèles de licences ou d’achats intégrés qui poussent à la dépense. Cela pose alors des questions relatives à la protection des consommateurs.

Quand verrons-nous les premiers célibataires réserver une table pour leur robot et eux-mêmes afin de ne pas manger seuls?
Quand manger avec un robot sera moins stigmatisé par la société que manger seul. Je pense que nous n’y sommes pas encore.

Comment jugez-vous la fusion croissante entre la robotique et la neurologie?
Nous découvrons la grande complexité du cerveau humain.

Grâce à l’intelligence artificielle, les robots sont en mesure de montrer des sentiments. Auront-ils un jour également des sentiments?
Cela dépend de la manière dont nous définissons les sentiments. Je ne crois pas que nous aurons bientôt des robots qui ressentent les mêmes émotions que les humains. Toutefois, «un jour» est un concept très lointain. Vu sous cet angle, cela pourrait arriver.

Quelle est votre opinion sur les campagnes «Campaign to Stop Killer Robots» (campagne pour arrêter les robots tueurs) et «Campaign Against Sex Robots» (campagne contre les robots utilisés pour le sexe)?
Ces deux campagnes montrent que nous devrions interdire la construction de certains types de robots pour des raisons morales. Je crois que nous devons dans un premier temps attendre de connaître les utilisations de ces technologies ainsi que leurs conséquences. Les systèmes d’armes automatiques peuvent avoir des avantages certains, mais posent la question de l’inégalité des forces et de la responsabilité des dommages engendrés. La campagne «Stop Killer Robots» met le doigt sur une problématique dont nous devons nous occuper. Le défi est alors de déterminer quelles technologies nous devons interdire et quel déséquilibre nous devons accepter lorsque les technologies ont des utilisations sociales. Lorsqu’une machine sert un objectif particulier, la décision est plus facile à prendre, mais la majorité des technologies robotiques peut être employée à des fins variées, y compris pour des utilisations sociales.

La «Campaign Against Sex Robots» relève plutôt d’une crise de panique morale que d’une préoccupation factuelle. J’estime cependant qu’un débat est nécessaire entre les partisans de la technologie, les politiques et le grand public.

La position à l’égard de la roboéthique diverge-t-elle en fonction des régions et des cultures? Les Américains ont-ils une opinion différente des Suisses?
D’après mes observations personnelles, qui ne sont pas scientifiquement fondées, les Américains sont plutôt prêts à se jeter corps et âme dans les nouvelles technologies. Les Suisses sont plus réservés et souhaitent d’abord réfléchir aux répercussions potentielles de ces technologies. Ils sont également plus soucieux du respect de leur vie privée et de la protection des consommateurs. Toutefois, les Suisses comme les Américains ont un peu de mal à se représenter les robots comme des camarades. En revanche, les Japonais, par exemple, sont plutôt disposés à imaginer un avenir fait de relations harmonieuses avec les robots.