Braucht Künstliche Intelligenz auch Künstliche Moral?
Wenn Roboter und andere Systeme mit Künstlicher Intelligenz autonom handeln, stellen sich viele Fragen: wer trägt die Verantwortung, wie verändert das die Menschen – und haben Roboter eigene Rechte? Ein Gespräch mit der Arbeitspsychologin Franziska Bielefeldt, dem Informatiker Frank Bahrmann und der Theologieprofessorin Birte Platow.
Text: Andreas Roth // Fotos: Steffen Giersch
Roboter August sieht uns bei diesem Gespräch aus großen Augen aufmerksam über die Schulter – Sie haben seinen Einsatz aus psychologischer Sicht untersucht, Frau Bielefeldt, wie menschlich sollte ein Roboter denn sein?
Franziska Bielefeldt: Das kommt immer darauf an, was seine Funktion ist. Ein intelligenter Pflegewagen, der in einem Heim von Tür zu Tür fährt, braucht kein Gesicht. Aber wenn ein Roboter in den interaktiven Kontakt mit Menschen gehen soll, können Augen, Gesichtsformen und Hände hilfreich sein. Doch Menschen, die mit einem Roboter zu tun haben, sollten aus ethischen Gründen immer erkennen können, dass es sich um eine technische Unterstützung handelt.
Was macht denn einen Menschen zu einem Menschen, Frau Prof. Platow? Die Theologie stellt sich schon seit Jahrtausenden diese Frage.
Birte Platow: In der biblischen Theologie ist der Mensch Gottes Ebenbild. Wenn wir auf einmal erkennen müssen, wie sehr Künstliche Intelligenz uns Menschen imitieren kann und wie vorhersehbar wir selbst handeln, dann fühlen wir uns bedroht. Und fordern, dass Roboter nicht so sein dürfen wie wir. Dabei geht die christliche Theologie angesichts der Probleme, die wir etwa für Umwelt und Klima verursachen, dazu über, die Einzigartigkeit des Menschen nicht mehr als das ultimative Kriterium zu sehen.
Herr Bahrmann, Sie sind als Informatiker einer der Väter des Roboters August – was macht den Menschen einzigartig und wie versuchen Sie das in der Künstlichen Intelligenz nachzubilden?
Frank Bahrmann: Am häufigsten geschieht das durch das überwachte Lernen. Man gibt dem System beispielsweise viele Bilder von einem Tisch, so dass es am Ende selbstständig erkennt, was einen Tisch ausmacht. Die Informatik lernt auch viel aus Biologie und Psychologie. Etwa indem die Künstliche Intelligenz über Versuch und Irrtum lernt wie jedes menschliche Kind. Aber bei Robotern dauert das noch viel länger als bei Kindern. Und was den Menschen auszeichnet, ist die Fähigkeit, Wissen auf neue Probleme anzuwenden – das ist für Maschinen noch immer ein großes Problem. Aber einzelne Tätigkeiten können Roboter in absehbarer Zeit oft schneller und besser erledigen als ein Mensch.
Birte Platow: Menschen scheinen dabei in der Interaktion mit Künstlicher Intelligenz und Robotern ihre eigenen Schwächen schon heute stärker wahrzunehmen. Das haben meine Studien gezeigt. Menschen werden sich gegenüber einer Maschine bewusst, dass sie Fehler machen, müde werden, nur begrenzt Daten verarbeiten können. Sie fühlen sich auf einmal kleiner, schwächer, fehleranfälliger. Aber das könnte man auch als menschliches Privileg sehen lernen: nur Menschen können willkürliche und unsystematische Fehler machen – und dabei ist in der Geschichte schon Großartiges entstanden.
Roboter können intelligent sein – aber können Sie auch ein Gewissen oder Moral haben, wenn sie handeln?
Birte Platow: Man kann Algorithmen bestimmte moralische Standards implementieren, nach denen sich Künstliche Intelligenz verhält und urteilt. Doch das ist etwas anderes als ein Gewissen, denn dafür braucht es eine Haltung – und die besteht aus Gefühlen und Erfahrungen.
Frank Bahrmann: Emotionen sind in der Künstlichen Intelligenz gut nachstellbar. Fakt ist, dass man schon heute Künstliche Intelligenz unmoralisch nutzt. Es gibt Fälle, in denen Menschen aufgrund einer Auswahl durch Algorithmen keine Wohnung vermittelt bekamen. In den USA wurden auf diese Weise Farbige im Polizeisystem diskriminiert. Aber prinzipiell könnte man in der Künstlichen Intelligenz auch Moral technisch nachstellen.
Sie liegt dann auch in antrainierten Mustern?
Frank Bahrmann: So wie unsere menschliche Moral auch. Sie hat sich ebenfalls aufgrund unseres christlich geprägten Weltbildes über Jahrhunderte entwickelt. Diese moralischen Aspekte kann man einer Künstlichen Intelligenz über Algorithmen beibringen. Aber ob sich dabei in den Maschinen wie beim Menschen ein Verständnis für richtiges und falsches Verhalten entwickelt, das ist fraglich.
Birte Platow: Ich bin ein großer Technologie-Fan, aber ich sehe da ein Problem: Die Logik der Künstlichen Intelligenz fragt nach dem größtmöglichen Nutzen für eine größtmögliche Zahl an Personen. So dass ein autonom fahrendes Auto, das in einer Gefahrensituation nur die Möglichkeit hat, in eine Gruppe Kinder oder in eine Rentnerin zu fahren, im Zweifel in Richtung der alten Frau lenken würde. Doch das ist nicht vereinbar mit dem christlichen Anspruch der Würde jedes Einzelnen.
Franziska Bielefeldt: Psychologisch gesehen ist es eine Stärke von uns Menschen, Dinge ganzheitlich zu betrachten und zu entscheiden. Gerade in Konflikten, bei denen es nicht die eine gute Lösung gibt, die eine Maschine sich mit Daten herbeirechnen könnte. Und die zweite große Frage ist die nach der Verantwortung für eine Entscheidung. Ein Roboter wird nicht angeklagt oder ins Gefängnis geworfen werden können. Die Verantwortung wird bei den bedienenden Menschen und Herstellern liegen – deshalb sollte auch bei der Künstlichen Intelligenz am Ende die Entscheidungshoheit immer auch bei Menschen liegen.
Aber wenn Künstliche Intelligenz und Roboter in der Zukunft autonom handeln werden, wird man ihnen dann nicht doch eine eigene Verantwortung, eigene Rechte oder gar eine eigene Würde zubilligen müssen?
Birte Platow: Es muss vielleicht sogar so passieren, denn am Ende sind die Entscheidungswege einer Künstliche Intelligenz selbst für ihre Entwickler eine Black Box. Deshalb wird man sie wahrscheinlich in Zukunft nicht für die Handlungen einer Künstlichen Intelligenz verantwortlich machen können. Allerdings stellt sich dann in unserem christlich-abendländischen Rechtsverständnis auch die Frage von Strafe und Schutz: Soll es Freiheitsentzug für Roboter geben, die etwas Negatives getan haben?
Frank Bahrmann: Was in der Rechtssprechung dann mit den Systemen passiert, ist noch offen. Wenn beispielsweise autonom fahrende Autos selbst lernen, beim Auftauchen eines Hindernisses eine durchgezogene Linie auf einer Straße zu überschreiten, um den Verkehr nicht lahm zu legen – und dann trotzdem ein Unfall passiert. Diese Frage ist schon relativ aktuell. Wenn Menschen solche autonom handelnden Wesen erschaffen – werden sie dann zu gottähnlichen Schöpfern?
Franziska Bielefeldt: Wir werden uns auf jeden Fall sehr viele große Fragen stellen müssen. Und es wäre wichtig, wenn wir uns dafür als Gesellschaft Leitlinien und gesetzliche Regelungen gäben, um die Entwicklung nicht ausufern zu lassen. Ich fände es schön, wenn wir in Zukunft die jeweiligen Stärken von Menschen und Künstlicher Intelligenz auf Augenhöhe sehen, um bestimmte Aufgaben bestmöglich zu bewältigen. Wie in einem Team. Ohne Angst, überrollt zu werden von der neuen Technologie.
Birte Platow: Wenn die Menschen in der Bibel Ebenbilder Gottes genannt werden, dann sind wir auch die Kooperationspartner von Gott: wir sollen jetzt die Schöpfung weiterführen, um sie zu bewahren und das Gute zu bestärken. Neue Technologien gehören dann zu unserem Auftrag. Die Fragen der Bibel nach der Schöpfungserzählung sind übrigens dieselben, die wir uns auch bei der Künstlichen Intelligenz stellen: wie viel Autonomie sollen die Geschöpfe haben?
Menschwerdung Gottes – Gottwerdung des Menschen?
Ein Beitrag zur Homo-Deus-Debatte mit Altbischof Prof. Wolfgang Huber
In Philosophie und Wissenschaft tobt eine Debatte über das Gottesbild und die Frage, ob der Mensch in idealer und vernetzter Gestalt zum Gott wird. Kehrt Friedrich Nietzsches Wort vom Übermenschen wieder? Kennt das Menschsein keine Grenzen mehr? Das Forum will unter anderem die Frage beantworten, wie der Begriff von Gott in der digitalen Gesellschaft zur Geltung kommt.
24. MAI 2022 // DI · 18 UHR PaulinerFORUM Leipzig, Universitätskirche St. Pauli Leipzig
Respondentinnen: Prof. Birgit Beck, Institut für Philosophie, Literatur-, Wissenschafts- & Technikgeschichte TU Berlin Anna-Nicole Heinrich, Präses der Synode der Evangelischen Kirche in Deutschland Dr. Annette Weidhas, Verlagsleiterin der Evangelische Verlagsanstalt Tagungsnummer: 22-412