«Roboter werden unterbewusst mit Empathie bedacht»

Dr. Kate Darling
Dr. Kate Darling ist eine führende Expertin für Roboterethik. Sie arbeitet als Forscherin am Massachusetts Institute of Technology (MIT) Media Lab, wo sie den gesellschaftlichen Umgang mit Robotik untersucht und Versuche zu den Interaktionen zwischen Mensch und Roboter durchführt. Sie befasst sich mit der emotionalen Bindung zwischen Menschen und menschenähnlichen Maschinen, um die Entwicklung neuer Technologien und Richtlinien voranzutreiben. In ihren Abhandlungen und Forschungs­projekten geht sie auf schwierige Fragen ein, denen sich die Gesetzgeber, Ingenieure und die breite Öffentlichkeit stellen müssen, wenn sich die Beziehungen zwischen Menschen und Robotern in den kommenden Jahrzehnten weiterentwickeln.

Kate Darling interessiert sich seit jeher dafür, wie sich die Technologie mit der Gesellschaft überschneidet, und ist eine Expertin für die Bereiche Recht, Wirtschaft und geistiges Eigentum. Sie hat wissen­schaftliche Anreize in Urheber- und Patentsystemen erforscht und war an mehreren akademischen und privaten Institutionen als Expertin für geistiges Eigentum beschäftigt. Derzeit arbeitet sie als politische Beraterin für geistiges Eigentum für den Direktor des MIT Media Lab.

Ihre Leidenschaft für Technologie und Roboter hat dazu geführt, dass sie in interdisziplinären Bereichen tätig ist. Nachdem sie gemeinsam mit Professor Lawrence Lessig einen Roboterethikkurs an der Harvard Law School leitete, konzentriert sich ihre Arbeit nun zunehmend auf die Schnittstelle von Recht und Robotik. Der Schwerpunkt liegt dabei auf rechtlichen und sozialen Fragen. Kate Darling ist ein ehemaliges Mitglied und aktuelle Partnerin des Harvard Berkan Klein Center for Internet & Society sowie ein ehemaliges Mitglied des Yale Information Society Project. Ausserdem ist sie Partnerin des Institute for Ethics and Emerging Technologies.

Ihre Arbeit wurde bereits in den Zeitschriften Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times und vielen anderen vorgestellt. Sie verfasst Beiträge für Robohub und IEEE Spectrum und leitet Workshops, die sich mit den interessanteren Entwicklungen in der Welt der Robotik befassen sowie mit der Frage, was die Zukunft für uns bereithalten könnte.

Kate Darling absolvierte ihr Studium an der juristischen Fakultät mit Auszeichnung. An der Eidgenössischen Technischen Hochschule (ETH Zürich) erwarb sie einen Doktortitel in Natur­wissen­schaften und ist darüber hinaus Ehrendoktorin der Natur­wissen­schaften am Middlebury College. Im Jahr 2017 würdigte die American Bar Association ihre juristische Arbeit im Bereich des geistigen Eigentums mit dem Mark T. Banner Award. Sie besitzt selbst mehrere Haushalts­roboter, die auf die Namen Pleos Yochai, Peter und Mr. Spaghetti hören.

Roboter sind zwar keine Menschen, aber in der gesellschaftlichen Wahrnehmung eben auch mehr als nur Maschinen. In diesem Spannungsfeld forscht die auf Roboterethik spezialisierte Kate Darling am Massachusetts Institute of Technology (MIT).

Frau Dr. Darling, Sie sind als Wissenschafterin spezialisiert auf Roboterethik und als Juristin auf geistiges Eigentum. Haben Roboter Rechte?
Nein, derzeit nicht.

Braucht es Gesetze oder Normen, welche die Beziehungen zwischen Menschen und Robotern regeln, ähnlich wie der Tierschutz für Tiere?
Es tönt blöd, aber ein Bedarf könnte tatsächlich bestehen. Roboter, die sich in gemeinsamen Räumen bewegen und mit Menschen interagieren, werden von den Menschen unterbewusst als lebende Wesen behandelt und sogar mit Empathie bedacht. Rational verstehen die meisten Menschen zwar durchaus, dass Roboter nicht wie Tiere fühlen oder leiden können. In Zukunft könnten Roboter aber so gebaut sein, dass sie Gefühle imitieren. Dann könnten Misshandlungen eines Roboters grosses Unbehagen auslösen, weil wir unterbewusst Leben auf diese beweglichen Dinger projizieren.

Dies allein würde zwar noch keine Notwendigkeit für neue Gesetze auslösen. Schliesslich haben wir es mit Maschinen und nicht mit Lebewesen zu tun. Es ist aber denkbar, dass Gewalttaten an menschenähnlichen Robotern das menschliche Unterbewusstsein so stark verwirren, dass es desensibilisiert wird.

Was bedeutet dies für die Kindererziehung?
Man sollte einem Kind beibringen, dass es einen Roboterhund nicht treten darf − und zwar nicht nur wegen des Eigentumsschutzes. Ein menschenähnliches Wesen zu treten, ist eine Handlung, die das Verhalten und die Gewohnheiten der Menschen verändern und den Umgang mit echten Lebewesen beeinflussen kann. Wenn sich herausstellt, dass sich das menschliche Verhalten tatsächlich bleibend verändert − und nur dann −, könnten Vorschriften zum menschlichen Umgang mit Robotern Sinn machen.

Kann oder muss man Robotern «Ethik» beibringen, auch im Umgang mit anderen Robotern?
Das Gebiet der Maschinenethik, wo es um die Integration ethischer Programme in Maschinen geht, ist sehr kompliziert. Es ist nicht nur sehr schwer, ethische Werte so zu übersetzen, dass sie eine Maschine versteht und beachtet. Vielmehr müssen wir über die Komplexität der Human­ethik und unsere Regeln noch mehr wissen. Ich glaube deshalb nicht, dass wir heute in der Lage sind, fehlerfreie ethische Maschinen zu bauen. Es scheint mir vernünftiger, Roboter als Werkzeuge oder Tiere zu betrachten. Wir können einem Hund beibringen, dass er keine Menschen beissen darf, aber zur Klärung der moralischen Verantwortung wäre es besser, den Hundehalter heranzuziehen.

Wer Roboter betreibt und kontrolliert, hat Macht. Wie lässt sich ein Machtmissbrauch verhindern?
Durch Gesetze zum Schutz der Konsumenten. Mir wäre zwar eine Selbstregulierung lieber, wenn wir den Märkten trauen könnten, doch wie die heute eingesetzten Technologien zeigen, geben die Konsumenten oft zu bereitwillig ihre Privacy und andere langfristige Interessen auf im Tausch gegen unverzügliche Convenience und Funktionalität. Wir brauchen deshalb Regulatoren, die den Trends Rechnung tragen und von der Technologie genug verstehen, um Gesetze zum Schutz der Konsumenten zu erlassen.

«In Zukunft könnten Roboter so konstruiert sein, dass sie Gefühle imitieren. Dann könnten Misshandlungen eines Roboters grosses Unbehagen auslösen.»

Kate Darling

Werden Roboter dereinst auch in der Lage sein, bei den Menschen nicht nur Empathie auszulösen, sondern Vertrauen zu bilden? Gerade bei Anlagefragen ist Vertrauen ja das Wichtigste.
Diesen Sachverhalt haben wir schon heute. Untersuchungen zeigen, dass sogar einfache Roboter fähig sind, Empathie auszulösen, und dass wir in verschiedenen Fällen den Maschinen zu stark vertrauen. Wir glauben zum Beispiel, dass algorithmische Entscheidungsfindungen ethischer und weniger von befangenen Menschen beeinflusst sind. Dies trifft nicht unbedingt zu, weil Algorithmen von Menschen geschaffen sind und mit Datensätzen arbeiten, die unausgewogen oder fehlerhaft sein können. Wir tendieren auch dazu, Menschen übermässige Vorwürfe zu machen, wenn ein aus Mensch und Roboter zusammengesetztes Team Fehler begeht, beispielsweise ein Flugkapitän und ein Autopilot. Wir neigen schon heute in vielen Fällen dazu, viel Vertrauen in Maschinen zu setzen.

Würden Sie Entscheide, die Ihr persönliches Vermögen betreffen, einem Roboter überlassen?
Ich würde herausfinden wollen, ob der Mechanismus allgemein bessere Entscheidungen bewirkt, ohne zu mehr Risiken zu führen. In einem solchen Fall, ja.

Dass Menschen Empathie oder gar Liebe für Roboter entwickeln, ist nachvollziehbar. Schliesslich lernen schon Kinder, ihren Teddy zu mögen. Wenn nun Roboter in der Lage sind, diese Zuneigung oder Liebe zu erwidern, entsteht dann nicht ein gefährliches Abhängigkeitsverhältnis? Roboter könnten Menschen in eine emotionale Krise stürzen.
Wir haben keine Ahnung, wie wir Roboter bauen müssen, damit sie Zuneigung oder Liebe entwickeln. Es geht also um ein Szenario, das fiktiv ist und in der fernen Zukunft liegt. Aber schon bald könnte sich die Frage stellen, ob auch eine einseitige emotionale Bindung eine Abhängigkeit auslösen kann, die sich missbrauchen lässt. Die Menschen, einschliesslich Kinder, könnten Roboter wie ihre Spielkameraden behandeln und sich emotional an sie binden. Dies muss nicht automatisch schlecht sein und lässt sich am besten mit unserer Beziehung zu Haustieren vergleichen, die ja gesellschaftlich akzeptiert ist. Doch im Gegensatz zu unseren tierischen Begleitern werden Roboter von Menschen gemacht und kontrolliert. Unternehmen könnten in der Lage sein, die emotionale Abhängigkeit von Maschinen auszunutzen, zum Beispiel mit einem In-App-Purchasing-Modell oder einem Lizenzmodell, das die Zahlungsbereitschaft steigert. Dies würde Fragen zum Konsumentenschutz aufwerfen.

Wann werden wir die ersten Singles sehen, die in Restaurants einen Tisch für sich und ihren Roboter bestellen, um nicht alleine essen zu müssen?
Wenn das soziale Stigma eines Abendessens mit einem Roboter geringer ist als das soziale Stigma des Alleinessens. Ich denke, das wird noch eine ganze Weile dauern.

Wie beurteilen Sie die wachsende Verschmelzung von Robotik und Neurowissenschaft?
Wir lernen, dass das menschliche Hirn sehr kompliziert ist.

Roboter sind dank künstlicher Intelligenz in der Lage, Gefühle zu zeigen. Werden sie eines Tages auch Gefühle haben?
Das hängt davon ab, wie wir Gefühle definieren. Ich glaube nicht, dass wir schon bald Roboter haben werden, die wie Menschen fühlen. Aber «eines Tages» ist ein weiter Begriff. So gesehen könnte es eintreffen.

Wie ist Ihre Meinung zu den Kampagnen «Campaign to Stop Killer Robots» und «Campaign Against Sex Robots»?
Beide Kampagnen argumentieren, dass wir bestimmte Robotertypen aus moralischen Bedenken verbieten sollten. Ich glaube, wir sollten erst einmal abwarten und die Anwendungen sowie die Auswirkungen dieser Technologien abwarten. Automatische Waffensysteme mögen gewisse Vorteile bringen, lösen aber Fragen aus zum Ungleichgewicht der Macht und zur Verantwortlichkeit für die verursachten Schäden. Die «Campaign to Stop Killer Robots» legt den Finger auf einige Punkte, mit denen man sich befassen sollte. Die Herausforderung ist, festzulegen, welche Technologien man verbieten sollte und welches Ungleichgewicht hinzunehmen ist, wenn die Technologien einen gesellschaftlichen Nutzen bewirken. Wenn eine Maschine einem ganz bestimmten Zweck dient, fällt der Entscheid leichter, aber ein Grossteil der Robotertechnologie kann für ganz verschiedene Dinge angewendet werden, darunter auch für solche, die einen gesellschaftlichen Nutzen schaffen.

Die «Campaign Against Sex Robots» scheint mehr von moralischer Panikmache getrieben zu sein als von evidenzbasierten Vorbehalten. Aber ich schätze eine kritische Auseinandersetzung zwischen Technologie-Anhängern, Politikern und der breiten Öffentlichkeit.

Wie unterscheidet sich die Einstellung zur Roboterethik nach Regionen und Kulturkreisen? Denken Amerikaner anders als Schweizer?
Meine persönliche, nicht wissenschaftlich begründete Beobachtung ist, dass Amerikaner eher bereit sind, sich mit Haut und Haar in neue Technologien zu stürzen. Die Schweizer sind zurückhaltender und wollen erst die möglichen Auswirkungen neuer Technologien bedenken. Sie sorgen sich auch mehr um ihre Privacy und den Konsumentenschutz. Sowohl Schweizer als auch Amerikaner haben etwas Mühe mit der Vorstellung, Roboter als Kumpel zu betrachten. Demgegenüber sind zum Beispiel die Japaner eher bereit, sich eine Zukunft mit geschmeidigen Beziehungen zu Robotern vorzustellen.