Künstliche Intelligenz Maschinen wie wir

Die pneumatisch betriebene Roboter-Hand „Bionic Soft Hand“ der Firma Festo auf der Hannover Messe. Foto: Ole Spata/dpa/dpa

Roboter versprechen unsere Wirklichkeit zu revolutionieren, aber sie bergen auch ein hohes ethisches Gefahrenpotenzial, wie eine Studie von Janina Loh zeigt

 

Das Zauberwort „künstliche Intelligenz“, kurz KI, macht derzeit die Runde. Als wäre in ihm der Schlüssel zur Zukunft der Menschheit enthalten, wird es auf wissenschaftlichen Fachtagungen und Kongressen wie eine magische Formel heraufbeschworen und von der Jüngerschaft gläubiger Ingenieure und Informatiker mantrahaft abgebetet. Denn mögen wir auch in einer Welt des Klimawandels, der Umweltzerstörung und der Überbevölkerung leben, heißt es, so befinden wir uns doch auch gleichzeitig im Zeitalter der „Industrie 4.0“, in dem die technologische Transformation der menschlichen Arbeitswelt durch Digitalisierung, Automatisierung und Robotisierung unaufhaltsam vonstattengeht und der Menschheit durch die KI neue Sphären und Ressourcen erschlossen werden.

Um unsere Zukunft braucht uns also nicht bange zu sein, zumal wir auch über einen Akteur verfügen, der die genialen Eingebungen der KI in die Tat umsetzt: den Roboter. Er ist die physische Manifestation künstlicher Intelligenz in Gestalt einer elektro-mechanischen Maschine mit eigenständigem Körper und Prozessor. Er ist die Geistgeburt und die Schöpfung des Menschen, sein Kind und Ebenbild, dem er Leben eingehaucht hat: Wie der Computer das Hirn des Roboters ist, so sind die ihn beherrschenden Algorithmen seine mentalen Verhaltensmuster, die ihm durch die liebevolle Programmierung seiner Ingenieure eingespeist wurden.

Wie stark sollte ein Roboter kontrolliert werden können

Doch welche Werte sollen wir Robotern implementieren? Und welchen moralischen Status sollen wir ihnen einräumen? Sind sie wirklich nur unsere Handlanger und Sklaven, die uns von der Fron niedriger Dienste befreien? Oder sind sie autonome artifizielle Geschöpfe, denen der Rang von Handlungssubjekten oder zumindest Handlungsobjekten zusteht? Und rangieren sie womöglich bereits, wie es Ian McEwan in seinem Roman „Maschinen wie ich“(2019) beschreibt, auf derselben rationalen und emotionalen Stufe wie wir, ja, mehr noch, werden sie uns, wie in dem Science-Fiction-Film „I Robot“ (2004) von Regisseurs Alex Proyas, künftig entmündigen und beherrschen, um uns vor uns selbst zu retten?

Weil derlei Fragen keineswegs geklärt sind, hat sich die Technik- und Medienphilosophin Janina Loh von der Universität Wien mit den ethischen Herausforderungen befasst, die beim Bau von Robotern und dem Umgang mit ihnen eine Rolle spielen. In ihrer „Roboterethik“ klärt sie uns auf, welche moralischen Implikationen eine von Robotern dominierte Welt für uns hat und welche Verantwortung wir für die von uns entworfenen artifiziellen Systeme tragen.

Dass nämlich die Robotisierung unserer Lebenswirklichkeit heute schon viel weiter vorangeschritten ist, als die meisten von uns ahnen, davon kann man sich mithilfe von Lohs Buch ein einschlägiges Bild machen: Vom Industrieroboter bis zum autonomen Fahren, vom Operationssystem bis zum Pflegeroboter, vom Militär- bis zum Sexroboter – es gibt kaum einen Bereich mehr, in dem nicht an einer Substitution des Menschen durch ein artifizielles System gearbeitet wird.

Doch was gewinnen wir dadurch, dass mittlerweile serienmäßig – für einen Preis von 10 000 Dollar pro Modell – der Sexroboter Roxxxy produziert wird, der über 5 vorprogrammierte Persönlichkeiten wie Wild Wendy, S&M-Susan, Marture Martha, Frigid Farah und Young Yoko verfügt und eine Unterhaltung führen und einen Orgasmus vortäuschen kann? Selbst wenn Roxxxy mit diesen Eigenschaften bestens für die Tiebbefriedigung ihrer User ausgestattet ist, so trägt ihr Gebrauch wahrscheinlich auch zu deren Verrohung bei, indem durch ihn nach Ansicht Kathleen Richardsons „eine Kultur der Ausbeutung und Vergewaltigung“ normalisiert wird.

Mit autonomem Fahren gegen Verkehrsprobleme

Auch der Einsatz von Militärrobotern ist, wie wir Lohs Studie entnehmen können, moralisch bedenklich, obwohl innerhalb der Robotik für autonome Waffensysteme die meisten Gelder fließen. Denn wie viel Autonomie darf man einem Militärroboter einräumen? Solange die menschlichen Nutzer in den „Kreislauf“ der Entscheidungen und Tätigkeiten des Waffensystems eingebunden sind (In the loop-Systeme), ist die Steuerung und Kontrolle des Roboters noch gewährleistet. Bei Out-of-the-Loop-Systemen ist dies jedoch nicht mehr der Fall: „Die fraglichen Maschinen sind nicht nur autonom, sondern eine Interventionsoption durch die involvierten Menschen ist nicht mehr gegeben.“ Ein weiteres Problem ist die Identifikation von Zielobjekten und Feinden. Autonome Waffensysteme werden von Menschen programmiert, und wen sie als Feind identifizieren, unterliegt den Daten und Algorithmen, die ihnen von ihren Entwicklern eingegeben wurden.

Auch das von der Autoindustrie mit aller Kraft vorangetriebene autonome Fahren verspricht nach den Ausführungen Lohs keineswegs ein so sorgenfreies Verkehrsparadies, wie uns vorgegaukelt wird. Es mag zwar richtig sein, dass durch autonome Fahrassistenzsysteme die Zahl der Unfälle drastisch reduziert wird, weil der Risikofaktor Mensch ausgeschaltet ist. Aber Fehler in der Software und Materialversagen werden dafür sorgen, dass auch autonome Autos Unfälle erzeugen werden. Zudem ist es gerade hier extrem wichtig, welche moralischen Grundprinzipien man einem autonomen Auto einprogrammiert hat.

Das beweist das sogenannte „Trolleyproblem“, ein beliebter Bezugspunkt der Roboterethik. Es dreht sich bei ihm im Grunde um „die Überlegung, ob man in einer bestimmten Gefahrensituation den Tod einiger Menschen in Kauf nehmen darf, um viele zu retten“. In ein konkretes Beispiel übersetzt: Muss ein selbstfahrendes Fahrzeug so programmiert werden, dass die alte Fahrradfahrerin auf der gegenüberliegenden Fahrbahn geopfert wird, um die drei Kinder, die gerade die Straße überqueren, zu retten? Oder ist diese utilitaristische Aufrechnung von Menschenleben moralisch nicht vielmehr verwerflich?

Selbst nach außen harmlose Maschinen wie Industrieroboter tragen ein großes soziales Gefahrenpotenzial in sich. Wie verdienstvoll es auch ist, dass sie den Menschen von langweiligen, schmutzigen oder gefährlichen Tätigkeiten befreien, so problematisch ist es auf der anderen Seite, dass dadurch zahlreiche Arbeitsplätze wegfallen. Werden infolgedessen in Zukunft Roboter so sehr die Stelle des Homo faber einnehmen, dass dieser untätig in einer Welt ohne Arbeit lebt?

Saudische Staatsbürgerschaft für Roboter

Wenn also, wie aus Janina Lohs Ausführungen hervorgeht, Roboter allerorten auf dem Vormarsch sind und es absehbar ist, dass wir in Bälde tagtäglich Umgang mit ihnen haben werden, drängt sich uns immer zwingender die Frage auf, welchen Stellenwert wir ihnen zubilligen sollten. Können wir ihnen den Status von moralischen Handlungssubjekten konzedieren, d. h. von denkenden und erkennenden Individuen, die autonom handeln und fühlen können? Und können wir ihnen gar personelle Verantwortung zuschreiben und sie für die durch sie verursachten Schäden haftbar machen?

Nach dem bisherigen Forschungsstand der Robotertechnik müssen wir sagen Nein. Denn Roboter sind momentan noch top-down (von oben nach unten) programmiert. Sie haben eine schwache KI, simulieren also nur, dass sie intelligent sind, und stehen noch weitgehend unter der Kontrolle ihrer Designer und Nutzer. Wirkliche „moral agency“ setzt aber voraus, dass Maschinen bottom up (von unten nach oben) konstruiert und somit lernfähig sind und dank einer starken KI tatsächlich über Willensfreiheit, Bewusstsein und Intelligenz verfügen.

Um einem Roboter de facto Verantwortung zuschreiben und ihn für sein Handeln bestrafen zu können, müsste er darüber hinaus den Status einer Person besitzen. Obgleich das Europaparlament aktuell an einem Konzept arbeitet, durch das einigen Robotern der Status von „elektronischen Personen“ verliehen werden soll, und dem Roboter Sophia im Oktober 2017 in Saudi-Arabien die volle Staatsbürgerschaft zugesprochen wurde, lehnen es Roboterethiker in der Regel ab, artifizielle Systeme als autonome Verantwortungssubjekte mit Personenstatus anzusehen. Denn ein autonomes Auto oder ein Industrieroboter sind keine Personen, deren Handlungen auf freie Willensentscheidungen zurückgehen und die für ihr Versagen bestraft werden können. Sie sind vielmehr das Produkt und der Output derer, die sie konstruiert und programmiert haben. Deshalb tragen die Designer, Informatiker, Ingenieure und Hersteller die kollektive Verantwortung für das Versagen der von ihnen erschaffenen Maschinen, weshalb in der Roboterethik im Schadensfall auch von „System-“ und „Design-Verantwortung“ und „Verantwortungsnetzwerken“ die Rede ist.

Kant und der Roboter

Eine andere Frage ist freilich, ob wir in Robotern nicht generell moralische Handlungsobjekte sehen sollten, denen gewisse Rechte zustehen. Hier gehen die Meinungen unter Roboterethikern weit auseinander. Während die einen Denker in ihnen nichts anderes als Werkzeuge sehen, mit denen man verfahren kann, wie man will, glauben andere, dass Roboter durchaus „moral patients“ sind und einen spezifischen Umgang beanspruchen können, der ein verwerfliches Verhalten ihnen gegenüber ausschließt.

Zwei Philosophen werden dabei von beiden Parteien ins Feld geführt, die den jeweiligen Standpunkt ethisch zu untermauern scheinen: Aristoteles und Kant. Da für Aristoteles der Mensch Dreh- und Angelpunkt des ethischen Kosmos ist, tendieren die ihm verpflichteten roboterskeptischen Ansätze dazu, den Menschen als Normalfall und Idealtypus anzusetzen und einen Roboter ethisch weit unter ihm anzusiedeln. Kant wiederum scheint die Position von roboteraffinen Ansätzen zu stützen, wenn er im zweiten Buch seiner „Metaphysik der Sitten“ die Behauptung aufstellt, dass unser Verhalten anderen Lebewesen gegenüber keineswegs gleichgültig ist, weil zum Beispiel Grausamkeiten wie Tierquälerei zu einer Verrohung des Menschen führen und wir deshalb allen Grund hätten, menschlich zu bleiben.

Eine wichtige Rolle spielt in diesem Zusammenhang unsere Gabe, nicht-menschliche Entitäten zu anthropomorphisieren. Erst diese Fähigkeit versetzt uns in die Lage, eine Beziehung zu Robotern aufzubauen. Tatsächlich setzen die Hersteller von sozialen und Pflegerobotern alles daran, sie in ihrer Gestalt und ihrem Verhalten dem Menschen oder anderen Lebewesen wie Tieren anzugleichen. Demenzkranke und hilfsbedürftige Menschen können sich zum Beispiel nur deshalb an die Roboterrobbe Paro emotional binden und eine Beziehung mit ihr eingehen, weil sie sie wie einen Schoßhund vermenschlichen und sich mit ihr identifizieren können. Luisa Damaiano und Paul Dumouchel halten Anthropomorphismus darum auch für „ein grundlegendes Werkzeug“, das in Mensch-Roboter-Interaktionen zum Einsatz gebracht werden sollte.

Aaron heiratete 2016 in Las Vegas sein iPhone

Genau an diesem Punkt klinkt sich Janina Loh persönlich in den Diskurs ein, um für unsere Disposition zum Anthropozismus Stellung zu beziehen. Es sei etwas Positives, dass Menschen Tiere als Familienmitglieder anerkennen könnten und Zimmerpflanzen auf der Violine vorspielten, um ihr Wachstum anzuregen. Das unterstreiche ihr Vermögen, Beziehung auch zu nichtmenschlichen Wesen einzugehen.
Hinter dieser Aussage steckt System. „Hier soll mein Plädoyer für eine positive Einschätzung der menschlichen Fähigkeit zur Vermenschlichung dazu dienen, Robotern immerhin den Status von ‚moral patience‘, Objekten moralischen Handelns, zuzugestehen“, argumentiert sie.

Im Gegensatz zu Aristoteles, der die Möglichkeit einer Freundschaft mit unbelebten Dingen kategorisch verneinte, hält sie die Fähigkeit des Menschen, sich emotional auch an Unbelebtes und Objekthaftes wie einen Teddybären oder die Lieblingstasse zu binden, für eine hohe mentale Potenz, die bei einer kleinen Gruppe von Menschen sogar bis zur „Objektophilie beziehungsweise Objektsexualität“ reichen könne: „So heiratete Aaron Chervenak 2016 in Las Vegas sein iPhone und die Berlinerin Michelle lebt seit 2014 in einer festen Partnerschaft mit dem Modell einer Boing 737-800.“

Um dieses schräge und extravagante Verhalten zu rechtfertigen, versteigt sich Loh zu der Behauptung, dass es sich vortrefflich darüber streiten lasse, was eine Seele sei, da im Animismus und in der germanischen Mythologie „die Vorstellung von beseelten Gegenständen durchaus gängig“ ist. Aber das sei für Michelle und Aaron gar nicht ausschlaggebend. Ihre Bindung an Gegenstände rühre daher, „dass sie die Erwartungen, die die beiden jeweils an Liebesbeziehungen stellen, vollständig erfüllen: im und mit dem Gegenüber zur Ruhe zu kommen, gemeinsam einzuschlafen, eine erfüllte Sexualität zu haben, Gespräche zu führen, sich wertzuschätzen“. Vor diesem Hintergrund wagt sich Loh dann an eine utilitaristische Neudefinition des Beziehungsbegriffs, der nicht länger an Beseeltheit geknüpft ist und die Liebe zu Objekten legitimiert: „Eine Beziehung bis hin zur Freundschaft kann man desto eher mit einem Gegenüber eingehen, je mehr es eine befriedigende Antwort auf die eigenen Bedürfnisse zu geben imstande ist.“

Als Beispiel für eine gelungene Realisierung dieses Beziehungskonzepts führt Loh dann ausgerechnet die Liebe des Studenten Nathanael zu der automatisierten Holzpuppe Olimpia in E. T. A. Hoffmanns berühmter Erzählung „Der Sandmann“ an. Obwohl Olimpia ein lebloser Apparat sei, könne sie „doch Nathanaels Bedürfnisse befriedigen, er erlebt die Beziehung reziprok“. Die Konsequenz ist die Gleichwertigkeit der Beziehung zu unbeseelten Objekten mit der zu Menschen. Denn: „Wer kann darüber urteilen, ob diese Form der Zuneigung (zu Olimpia, die Red.) besser oder schlechter ist als die zu einem anderen Menschen?“

Eine Kultur der Simulation

Ein Literaturwissenschaftler, der sich mit E. T. A. Hoffmanns Erzählung „Der Sandmann“ auseinandergesetzt hat, ist freilich sehr wohl befugt, darüber ein Urteil abzugeben. Denn der Clou von Hoffmanns „Nachtstück“ besteht gerade darin, dass Nathanaels Liebe zu dem Roboter Olimpia extrem pathologische Züge trägt und Ausdruck seines Wirklichkeits- und Selbstverlusts ist. Die starren Augen und kalten Lippen der toten Puppe, deren Kälte und Einsilbigkeit alle anderen Menschen in die Flucht schlagen, vermögen auf den jungen Mann nur deshalb eine so große Faszination auszuüben, weil seine Wahrnehmung getrübt und sein Blick verzerrt ist. Das Augenglas oder „Perspektiv“, durch das er „Olimpia“ von der Ferne aus beobachtet, ist das Symbol für diesen Verlust der Erkenntnisfähigkeit. Die Zentralperspektive, durch die sich die Wirklichkeitstotale einfangen lässt, ist ihm entglitten, um ihn in einem heillosen Perspektivismus gefangen zu halten. Statt seiner warmherzigen Freundin Clara die Treue zu halten, verschreibt sich Nathanael einer stumpfsinnigen Maschine, in der er sich wie ein Narziss selbst spiegeln kann. Allerdings hat er mit seiner Erkenntnisfähigkeit auch seine Identität verloren, so dass ihn die Liebe zu Olimpia schließlich in den Wahnsinn treibt.

Aus Hoffmanns Erzählung geht also eindeutig hervor, dass die Liebe zu einem Automaten oder Roboter etwas Unnatürliches und Krankhaftes ist und niemals die Liebe zu einem Menschen aufwiegen kann. Wie sollten auch die einprogrammierten Verhaltensmuster einer Maschine jene magische Wirkung entfalten können, die sich bei der Begegnung von zwei verliebten Menschen einstellen kann, wenn jeder Blick zur Offenbarung wird, jedes Wort ein ganzes Orchester zum Erklingen bringt und jede Berührung eine Sturmflut von Gefühlen auslöst! Mit der Funktionsweise von Algorithmen lässt sich dieses Geschehen ebenso wenig erklären wie mit der Ausschüttung von Hormonen oder mit komplizierten neuronalen und zerebralen Prozessen.

Kritik am Humanismus

Vielleicht wäre es deshalb auch angebracht, unsere Fähigkeit zur Anthropomorphisierung von Dingen mit größerer Skepsis zu betrachten, als dies Loh tut. In der Psychologie gilt der Anthropomorphismus zum Beispiel als Kategorienfehler, die der psychologischen Disposition von Kindern und Naturvölkern entspricht. Für die amerikanische Psychoanalytikerin und Soziologin Sherry Turkle trägt die Vermenschlichung von Robotern deshalb zu einer betrügerischen „Kultur der Simulation“ bei, in der uns die „Illusion von Beziehungen“ insinuiert werde und echte soziale Beziehungen zu zweitrangigen Begebenheiten degenerierten.

Obwohl Janina Loh diese kritischen Einwände Turkles in ihrem Buch selbst wiedergibt, hält sie an ihrem Vorsatz fest, Robotern „einen Platz im moralischen Universum“ zuzuweisen und ihnen „um ihrer selbst willen“ das Prädikat von „wertvollen ‚moral patients‘“ mit entsprechenden Rechten zu erteilen. Aber damit nicht genug. Denn im Grunde will sie mehr. Ihr geht es darum, Roboter mithilfe von „inklusiven Ansätzen“ zu „moralischen Handlungssubjekten“ aufzuwerten.

„Inklusive Ansätze“ innerhalb der Roboterethik zeichnen sich laut Janina Loh dadurch aus, dass sie „das tradierte Verständnis des moralischen Handlungssubjekts“ aufbrechen, „um es auf nicht menschliche Wesen“ auszudehnen. Das klassische Menschenbild, auf denen z. B. die Menschenrechte und der Humanismus beruhen, wird infrage gestellt und destruiert. Unter dem Schlagwort eines „Kritischen Posthumanismus“ streben „inklusive Ansätze“ danach, die klassischen Dichotomien von Mann und Frau, Subjekt und Objekt, Natur und Kultur zu zerstören, um den Menschen zu überwinden. Das Ziel ist eine Totalrevision der vorherrschenden Wissenskulturen und ihrer Deutungshoheit, da diese angeblich prinzipiell sexistisch und rassistisch ausgerichtet sind und die Sanktionierung eines heterosexuellen weißen Menschenbildes fördern.

Der Versuch, den Begriff der Person zu zerstören

Hatte Friedrich Nietzsche eine Umwertung aller Werte angestrebt, um den platonischen Menschen durch ein animalisches Triebwesen zu ersetzen, arbeiten „inklusive Ansätze“ an einer Dekonstruktion des menschlichen Handlungssubjekts, um die Bühne der Menschheitsgeschichte für den „Prothesengott“ (Sigmund Freud) Roboter zu bereiten. Hierfür werde die Beziehung zwischen Mensch und Maschine „rekonfiguriert“, die Differenz zwischen Subjekt und Objekt aufgehoben und der Schwerpunkt des Interesses vom monadenhaften Einzelsubjekt auf den relationalen Beziehungsvorgang von Mensch und Maschine, die „Interferenz“ von „Subjektobjekten“, verlagert. Verantwortung ist damit keine Sache von einzelnen Personen mehr, sondern von „Subjektobjekten“, sie ist „weder in uns noch in unseren Artefakten zu verorten, sondern in unseren Intra-Aktionen“.

Dass dieses ganze gedankliche Manöver letztlich nur dem Zweck dient, artifizielle Systeme wie Roboter auf dieselbe ethische Stufe wie Menschen zu stellen, gibt Janina Loh selbst zu, wenn sie sagt: „Vielleicht werden wir nur auf diese Weise den neuen Anforderungen des Zeitalters der Robotisierung, Automatisierung, Digitalisierung, Industrie 4.0 und global vernetzten Technologien gerecht. Vielleicht ist es an der Zeit, das dem konventionellen Verständnis von Verantwortung zugrunde liegende Bild des autarken, souveränen und mit verschiedenen Kompetenzen wie Autonomie, Handlungsfähigkeit und Urteilskraft ausgerüsteten Individuums ernsthaft in Zweifel zu ziehen.“

Anstelle dieser menschenfeindlichen Zukunftsvision von Janina Loh wollen wir lieber weiterhin an dem Prinzip „Der Mensch ist Person“ festhalten, wie er in den 30er Jahren des 20. Jahrhunderts von Philosophen wie Martin Buber und Max Scheler entwickelt wurde. Denn das jüdisch-christliche Personalitätsprinzip Bubers und Schelers ist und bleibt der Garant dafür, dass die Würde des Menschen gewahrt und die Menschenrechte und Zehn Gebote unangetastet bleiben – sei es vonseiten eines totalitären Regimes, sei es vonseiten der Gentechnik, sei es vonseiten der Robotik.

Gewiss kommt Janina Loh das Verdienst zu, am Puls der Zeit zu stehen und die Innovationen im Bereich der Robotik mit einer wissenschaftlich präzisen Sprache gebührend zu würdigen. Ihre Studie ruft uns überzeugend ins Bewusstsein, welche ethischen Folgen die aufziehende Ära der Robotisierung mit sich bringen wird. Doch schießt sie aufgrund ihrer unverkennbaren Faszination für Roboter dabei immer wieder über das Ziel hinaus.

Das hat zum einen damit zu tun, dass sie auf dem Gebiet der Robotik zwar eine Spezialistin ist, aber im Bereich der Ethik nur wenig beschlagen scheint. Das hat zum anderen aber auch damit zu tun, dass sie – wie viele ihrer Kollegen in der Roboterethik – gewisse Kategorienfehler begeht, um Roboter salonfähig zu machen. So ist es kaum hinnehmbar, dass sie den Status von Robotern mit denen von Tieren und kleinen Kindern gleichsetzt und damit die Rechte von Lebewesen und Personen gegenüber leblosen Maschinen herabsetzt und relativiert. Roboter mögen geniale Erfindungen menschlicher Ingenieurskunst sein, aber an eine lebendige Kreatur wie ein Tier oder ein Gottesgeschenk wie ein Kind werden sie nie heranreichen.

Janina Loh: "Roboterethik. Eine Einführung" (Suhrkamp, Berlin, 241 Seiten, 18 Euro)

 

0 Kommentare

Kommentieren

  1. Ihre Daten können Sie in Ihrem Benutzerkonto ändern. Dieses finden Sie oben rechts .

loading