Muss das wirklich auch noch sein?
Können Roboter „moralische Maschinen“ sein und Helfer für den Menschen? Zwei Bücher erkunden unser Zusammenleben mit KI und Robotern mit menschlichem Antlitz.
Beim Versuch Josh Smiths Fragen und Vorschläge einem befreundeten Mediziner und einem Philosophen näher zu bringen, war das Gespräch sehr schnell mit diesen Behauptungen beendet: Roboter sind und bleiben reine Werkzeuge, dumme Apparate, kommen nicht an uns Menschen heran, weil sie beispielsweise keinen Schmerz empfinden können. Allerdings hat die Diskussion um ChatGPT und andere KI-Instrumente Fahrt aufgenommen. Es scheint nur ein Entweder-Oder zu geben: Ja, die KI wird uns Menschen überholen und entbehrlich machen – Nein, die KI bleibt immer nur so dumm, wie der Mensch, der sie programmiert hat.
Umso mehr lohnt es sich, die Fragen und Thesen von Josh Smith, Senior Pastor der Southern Baptist Church in Mississippi und theologischer Forscher in Sachen Künstlicher Intelligenz (KI), näher zu beleuchten. Sein Buch „Robot Theology“ beginnt mit den Beobachtungen, dass durch Corona das Interesse am Einsatz von Robotern mit Künstlicher Intelligenz gewachsen ist, weil uns Roboter im Kontakt nicht – wie andere Menschen – infizieren können. Gleichzeitig hat die digitale und virtuelle Interaktion auch in der Kirche zugenommen und wird auch nach dem Ende der Pandemie intensiver genutzt.
Zunächst geht Smith der Frage nach, wie Roboter und KI Teil unserer theologischen Vision werden können: Ist beispielsweise soziale Isolation überwindbar durch Roboter als Begleiter und Mitarbeiter? Welchen Einfluss werden sie auf unsere Privatsphäre und unsere Freiheit haben?
„Moralische Maschinen“ als Helfer für den Menschen
In Pflege und Betreuung eingesetzte, durch KI gesteuerte „Soziale Roboter“ haben einen „Körper“, mitunter ein „Gesicht“ mit „Augen“ und können menschliche Emotionen stimulieren. Auch durch Berührung und Umarmung können sie auf Emotionen antworten. Sie haben dadurch einen Effekt auf der Beziehungsebene. In Japan nutzt man Roboter als soziale Begleiter, die Schmerz „fühlen“ und in Grenzen empathisch sein können. Ob man einen solchen Roboter eher ein Produkt oder eher eine Dienstleistung gegen Einsamkeit nennen soll? In jedem Fall müssen diese „moralischen Maschinen“ der menschlichen Würde dienen.
„Indem wir moralische Maschinen bauen, müssen wir sorgfältig darauf achten, dass sie so konstruiert werden, dass sie mit dem menschlichen Patienten interagieren als einem moralischen Akteur innerhalb ihres privaten Raums.“ (Smith, S. 5)
Über Roboter aus ethischer und theologischer Sicht nachzudenken ist kritisch, weil sie sich von anderen Werkzeugen deutlich unterscheiden, indem sie ihren menschlichen Partnern entweder dienen, sie ersetzen oder sie verändern. Zudem fordern Roboter grundsätzliche und rechtliche Themen heraus, ähnlich wie das Internet in den 1990er Jahren. Zudem verkörpern KI-betriebene Roboter, unabhängig davon, wie beschränkt sie sind, wohl oder übel die Vorurteile und Voreingenommenheiten ihrer Konstrukteure.
Künstliche Freunde oder praktische Sklaven?
Sehr plastisch sind Josh Smiths Fragen und Beobachtungen im Roman „Klara und die Sonne“ von Literaturnobelpreisträger Kazuo Ishiguro gespiegelt. Klara ist ein „KF“, ein Künstlicher Freund, den Eltern für ihre Kinder anschaffen können, damit sie nicht einsam sind. Klara ist Josies Gefährtin und findet dadurch bei ihrer Familie ein Zuhause. Als „KF“ versucht Klara, Josie zu verstehen, ihren Gemütszustand zu „lesen“. Sie besitzt eine ungewöhnliche Wahrnehmung und eine besondere Beobachtungsgabe.
Ganz am Ende des Buches sagt sie über ihre Zeit mit Josie, die zum Studium wegzieht: „Ich habe zu ihrem Besten alles getan, was ich konnte“. Klaras Ende selbst ist tragisch, sie findet sich auf einem Hof wieder, unfähig sich von dort wegzubewegen, sie ist ausgemustert. Hat Klara eine „Persönlichkeit“ entwickelt, leidet sie an ihrer Ausmusterung?
Der Theologe Smith fordert, Robotern moral patiency zuzusprechen. Der englische Ausdruck lässt sich nur schwer eindeutschen, am ehesten meint es moralische Er-Leidensfähigkeit im Gegensatz zu moral agency, moralischer Handlungsfähigkeit. Es geht darum, dass ein Roboter ein moralisches Objekt ist. Moralisches Objekt zu sein bedeutet, Ziel und Gegenstand einer richtigen oder falschen Handlung sein zu können. Hier sieht Smith christliche Ethik herausgefordert.
Der Umgang mit sozial eingebetteten Robotern hat gesellschaftliche und spirituelle Folgen für eine menschliche Person. Je nachdem wie ein Mensch mit dem Roboter umgeht: Er kann ihn als Werkzeug zum Guten wie zum Bösen nutzen. Und er kann ihn sowohl gut wie schlecht behandeln. Smith folgert daraus, dass moralische Leidensfähigkeit in unser Leben integrierter, sozialer Roboter aus zwei Gründen zu vertreten sei: Wir können Gott durch unsere Schöpfungen / Geschöpfe dienen, oder wir können sie aus Egoismus versklaven, und: wir sollten sozialen Robotern eine gewisse Form von moralischer Leidensfähigkeit zusprechen wegen des großen Potenzials an menschlichem und ökologischem Schaden, der mit ihnen angerichtet werden kann.
Die Risiken, durch die Mensch-Roboter Interaktion Menschen zu entwerten und zu entmenschlichen sind hoch. So werden jetzt schon Algorithmen, nicht nur im Einsatz in KI und Robotern, dazu benutzt, die ausdrücklichen individuellen Bedürfnisse einer ökonomischen Elite einzulösen, auf Kosten der ganzen Welt.
„KI“ in der Seelsorge: Mit Robotern beten?
Im „Eule-Podcast“ diskutiert Michael Greder mit Martin Kutz darüber, wie „KI“ und Roboter unser Glaubensleben verändern (werden). Martin Kutz ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Religionspädagogik der TU Dresden. Zudem hat er einen Forschungsauftrag beim ScaDS.AI (Center for Scalable Data Analytics and Artificial Intelligence). Im „Eule-Podcast“ gibt Martin Kutz Auskunft über eine praktisch-theologische Perspektive auf „KI“ und Roboter.
Liebe Deinen Nächsten (Roboter)
Deshalb muss ein Roboter, der sich ähnlich wie ein Mensch verhält, wegen der potenziellen Verletzung des menschlichen Gegenübers ethisch-moralisch bewertet werden, gleichgültig, ob er ein inneres Selbst, ein Bewusstsein, moralische Handlungsfähigkeit oder ein Gewissen hat. Die Künstliche Freundin Klara in Ishiguros Roman muss sich folgendes anhören:
„Ich habe euch seit jeher als unsere Freunde betrachtet. Einen lebhaften Quell der Bildung und Aufklärung. Aber wie du weißt, gibt es auch Leute, denen eure Existenz nicht behagt … Es heißt, ihr würdet allmählich zu schlau. Die Leute fürchten sich, weil sie nicht mehr verstehen, was in euch vor sich geht. Sie verstehen nicht, was ihr tut.“ (S.338)
Beim Einsatz jeglicher Technologie fordert Smith, darauf zu achten, welche Auswirkung sie auf andere hat. Smith nutzt hier die doppelte Bedeutung des englischen „Other“, was sowohl „der Nächste“ als auch „der Andere“ meint. Jesu Lehre von der Liebe des Nächsten / Anderen ist für ihn gerade im Hinblick auf Andersartige bedeutsam. Andersartige sind dementsprechend auch Tiere. Die Merkmale von Persönlichkeit, moralischer Handlungsfähigkeit oder der Fähigkeit, Schmerz und Leiden zu erleben als alleiniges Kriterium der Unterscheidung zum Menschen tragen für Smith nicht weiter. Das theologische Bild der Personalität muss sich erweitern nicht nur bezogen auf das, was Gott erschaffen hat, sondern auch auf das, was Menschen erschaffen.
Die grundlegenden, auch von der Theologie zu beantwortenden, Fragen sind nach Josh Smith: 1. Wer ist rechtlich verantwortlich für KI-Roboter, vor allem, wenn jemand oder etwas verletzt wird? 2. Wessen ethisch-moralisches Verhalten soll für KI-Entscheidungen zugrunde liegen? 3. Sollen künstlichen Wesen moralische Werte oder Rechte gewährt werden? Für ihn ist klar, dass Christen sich für jedes Wesen einsetzen sollten, das zum Sklaven gemacht wird. Im Falle der Roboter aber nicht vorwiegend wegen eines Empfindungsvermögens oder Leidens an sich, sondern weil wir wissen, dass der Nutzer psychologisch oder moralisch Schaden nehmen kann.
Smith sieht Roboter daher als Übungsfeld für unsere Kinder und uns selbst: Was schadet es, Geduld, Höflichkeit, Freundlichkeit und andere Tugenden in unserer Beziehung zu nicht-menschlichen Wesen zu üben? Solcher Umgang mit Robotern beinhaltet auch die Sorge um das Wohlergehen anderer, positive Eigenschaften zu fördern und Kinder heranwachsen zu lassen, die gute Bürger werden.
Smith sieht Christen in der Verantwortung für die planetarischen Folgen von Technologie wie Roboter und KI. Für ihn geht es in der in der Diskussion um Roboter-Ethik auch um Themen wie Autonomie, ethisches Handeln, Schutz der Privatsphäre, Sexualität, Gemeinschaft, Krieg und Entwicklung der Medizin. Damit macht Josh Smith deutlich, dass es nicht nur um die praktische Nutzung einer weiteren technologischen Errungenschaft geht. Roboter und der Einsatz von KI werden unser menschliches Leben weiter verändern.
Klara, die „KF“ in Ishiguros Roman, ist abgestellt, sie verlöscht allmählich. Über ihren Einsatz bei Josie sagt sie am Schluss:
„…ich habe getan, was ich konnte, um Josie zu lernen, und wäre es notwendig geworden, hätte ich alles, alles darangesetzt, sie fortzusetzen. Aber ich glaube, es hätte nicht so gut funktioniert. Nicht, weil ich keine Genauigkeit erreicht hätte. Aber wie sehr ich mich auch bemüht hätte, wäre doch etwas geblieben, das außerhalb meiner Möglichkeiten war; das glaube ich heute. Die Mutter, Rick, Melania Haushälterin, der Vater. Das, was sie im Herzen für Josie empfanden, hätte ich nie erreicht.“ (S. 348)
Joshua K. Smith
Robot Theology
Old Questions through New Media
Eugene 2022
146 Seiten
21 $ (Paperback)
Kazuo Ishiguro
Klara und die Sonne
Barbara Schaden (Übersetzung)
Karl Blessing Verlag 2021
350 Seiten
16 € (Paperback), 24 € (gebunden)
Unterstütze uns!
Die Eule bietet Nachrichten und Meinungen zu Kirche, Politik und Kultur, immer mit einem kritischen Blick aufgeschrieben für eine neue Generation. Der unabhängige Journalismus und die Stimmenvielfalt der Eule werden von unseren Abonnent:innen ermöglicht. Mit einem Eule-Abo unterstützst Du die Arbeit der Redaktion, die faire Entlohnung unserer Autor:innen und die Weiterentwicklung der Eule.