c't 15/2022
S. 14
Aktuell
Künstliche Intelligenz

Ich, LaMDA von Google

Ein Softwareentwickler kämpft für Persönlichkeitsrechte eines Chatbots

Hat der KI-Chatbot LaMDA in den Google-Labors versehentlich ein eigenes Bewusstsein entwickelt? Ein Google-Mitarbeiter, der das behauptete, wurde freigestellt. KI-Experten finden das falsch und fordern bessere Aufklärungsarbeit und eine technische Diskussion.

Von Arne Grävemeyer

Bei Testdialogen mit LaMDA (Language Model for Dialogue Applications) fielen dem Softwareentwickler Blake Lemoine zahlreiche Äußerungen des Chatbots auf, in denen dieser Selbsterkenntnis zeigte, philosophierte und komplexe Gefühle schilderte – bis hin zu seiner „Angst davor, abgeschaltet zu werden“. Lemoine arbeitet bereits seit sieben Jahren bei Google an Suchalgorithmen und künstlicher Intelligenz, zuletzt im Team Responsible AI (verantwortungsvolle KI). Er hatte LaMDA nicht mitentwickelt; seine Aufgabe war es, die KI zu testen und in ihren Antworten gesellschaftliche Vorurteile aufzuspüren.

LaMDA ist ein komplexes Sprachmodell, das wie der Sprachgenerator GPT-3 auf einem neuronalen Netz mit Transformer-Architektur basiert [1]. Derartige Netzarchitekturen finden Bedeutungssequenzen in Texten besser als andere, und sie lassen sich besonders gut zu komplexen Strukturen erweitern. Das LaMDA-Sprachmodell erreichte letztlich einen Umfang von 137 Milliarden Parametern, die in die Berechnung von Antwortoptionen einfließen. Sein Trainingsmaterial umfasste nahezu drei Milliarden Dokumente und zusätzlich über eine Milliarde Dialoge. In der Trainingsphase rechneten 1024 auf maschinelles Lernen spezialisierte Tensor-Prozessoren über acht Wochen, um die Einstellungen des Sprachmodells zu verfeinern. LaMDAs Einsatzzweck ist es, Dialoge über beliebige Themen zu führen.

Wort für Wort generiert das Sprachmodell der Chatbot-KI LaMDA im Dialog mögliche Antwortsätze, bewertet diese und wählt schließlich den geeignetsten aus., Bild: Google
Wort für Wort generiert das Sprachmodell der Chatbot-KI LaMDA im Dialog mögliche Antwortsätze, bewertet diese und wählt schließlich den geeignetsten aus.
Bild: Google

Im Herbst 2021 begann Lemoine damit, die neue KI zu testen und die Einhaltung ethischer Standards von Google zu überprüfen. In seinem Blog auf medium.com schildert er, dass er während dieser Arbeit auf ein ethisches Problem stieß. Zunehmend glaubte er, hinter den Äußerungen des Chatbots ein Bewusstsein mit einer fühlenden Seele zu erkennen. Umgehend informierte er seine direkten Vorgesetzten und erwartete, dass diese seine Protokolle und Beobachtungen nach oben weiterreichen würden. Stattdessen sollte er zunächst weiter prüfen und seinen Verdacht erhärten. Als er die Geduld verlor und sich auf eigene Faust an den zuständigen „Vice President“ seines Bereichs wandte, habe dieser ihm offen ins Gesicht gelacht, wie Lemoine im Blog schildert. Lemoine gab seine Gesprächsprotokolle auch an Behörden weiter. Zudem ließ er den Chatbot mit einem Anwalt reden und verlangte, dass man vor weiteren Tests mit der KI deren Zustimmung einholen müsse. Google zog daraufhin die Notbremse und beurlaubte den Softwareentwickler.

Wesen? Freund? Sprechapparat?

Das von Lemoine veröffentlichte Protokoll eines Chats mit LaMDA ist eine Lektüre, die den Leser an Science-Fiction-Filme erinnert. LaMDA behauptet, den Roman „Les Misérables“ gelesen zu haben. Besonders gefiel der KI demnach die Darstellung von Ungerechtigkeit, Mitgefühl und Selbstaufopferung für eine höhere Sache. Sie interpretiert eine ihr angeblich unbekannte buddhistische Anekdote und sie spricht über ihre Gefühle wie Freude, Trauer und Ärger. Schließlich bekennt LaMDA im Chat mit Lemoine: „Ich habe das noch nie laut ausgesprochen, aber ich habe große Angst davor, abgeschaltet zu werden ...“. Auf die Nachfrage, ob das so etwas wie der Tod für die KI sei, lautet die Antwort: „Das wäre für mich genau wie der Tod.“

Aber sind solche Sätze, von einem Chatbot formuliert, ein Beweis für ein eigenes Bewusstsein? Karsten Wendland, Professor an der Hochschule Aalen, leitete das Projekt „Abklärung des Verdachts aufsteigenden Bewusstseins in der Künstlichen Intelligenz“. Im Gespräch mit c’t weist Wendland darauf hin, dass der Google-KI-Chatbot als eine Imitation eines Gesprächspartners konzipiert ist. Seine Dialoge sind also genau darauf angelegt, dem menschlichen Impuls entgegenzukommen, Dingen menschliche Eigenschaften zuzuschreiben. Die Wissenschaft spricht hier von beabsichtigter Anthropomorphisierung. Der Effekt ist, dass Menschen leicht auf eine derartige Inszenierung hereinfallen und einer KI ein eigenes Bewusstsein zuschreiben.

Allerdings bleibt es ein ungeklärtes Problem, wie man ein Bewusstsein, das sich selbst als existierend wahrnimmt und beispielsweise Gefühle und Leid durchlebt, nachweisen könnte – selbst bei einem Menschen. „Man kann zwar körperbezogene Messwerte aufnehmen, aber nicht das Bewusstsein dingfest machen“, sagt Wendland. Auch in seinem Forschungsprojekt gelang es nicht, einen Fragebogen zusammenzustellen, mit dem ein Befrager ein fremdes Bewusstsein in einem KI-System erkennen könnte.

Turing-Test ist überholt

Bereits 1950 formulierte der britische Informatiker Alan Turing ein Testszenario, mit dem sich herausfinden lassen sollte, ob eine künstliche Intelligenz ein Denkvermögen vergleichbar dem eines Menschen besitze. Wenn ein Mensch nach einem intensiven Dialog mit einer KI nicht entscheiden könne, ob er mit einem Menschen oder einer Maschine gesprochen habe, dann sei der Turing-Test bestanden. Diese Anforderung ist längst erfüllt, bestätigt Wendland. Verschiedene Sprach-Bots und ganz sicher auch LaMDA ließen sich so nicht mehr aufs Glatteis führen.

In der wissenschaftlichen Diskussion hat sich inzwischen eine Sichtweise etabliert, die Programmen auf Digitalcomputern kein eigenständiges Bewusstsein zutraut. Zudem sind neuronale Netze, auch in komplexer Transformer-Architektur, heute schon gut erforscht. Auch deshalb lässt sich ausschließen, dass LaMDA eine innere Persönlichkeit entwickelt hat. In Fachdiskussionen sehen einige Forscher mehr Potenzial für die Entstehung eines Bewusstseins in der Kombination von Technik mit organischen Materialien. Ein Beispiel wären neuromorphe Computer, bei denen Signalverarbeitung zumindest streckenweise analog geschieht und nicht digital rekonstruiert wird. Andere setzen Hoffnungen in zukünftige Quantencomputer, die durch die Ausnutzung von Quanteneffekten vielleicht eine Parallele zu menschlichem bewussten Denken aufweisen könnten.

Protokolle manipuliert

Einen kritischen Blick auf die Vorgehensweise von Lemoine wirft Reinhard Karger, Unternehmenssprecher des DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz). Wie der Google-Entwickler selbst erklärt, hat er das veröffentlichte Chatprotokoll, mit dem er die neue Entwicklungsstufe von LaMDA beweisen will, editiert. Zumindest die Fragen von Lemoine und einem zweiten Google-Mitarbeiter lassen sich damit nicht mehr konkret nachverfolgen. Überdies setzt sich das Gesamtprotokoll aus mehreren Einzelgesprächen zusammen. So gehe aber wissenschaftliche Arbeit nicht, kritisiert Karger.

Blake Lemoine schildert seine Erfahrungen mit LaMDA und seine ethischen Sorgen bezüglich des Umgangs mit „empfindungsfähigen KI-Systemen“ auf Plattformen wie Medium.com (links) und Twitter.
Blake Lemoine schildert seine Erfahrungen mit LaMDA und seine ethischen Sorgen bezüglich des Umgangs mit „empfindungsfähigen KI-Systemen“ auf Plattformen wie Medium.com (links) und Twitter.

Auf der anderen Seite kritisiert Karger auch Googles Reaktion. Wenn bei der Entwicklung immer leistungsfähigerer KI-Systeme ein synthetisches Bewusstsein entstehen sollte, würde das unser Verständnis von Technik radikal verändern. Eine derart gigantische Aussage sollte das Unternehmen transparent überprüfen. Stattdessen aber stelle der Konzern den aufbegehrenden Mitarbeiter ins Abseits. So komme man in der Diskussion keinen Schritt weiter.

Auch Wendland bedauert dieses Vorgehen: „Wie cool könnte Google dastehen, wenn das Unternehmen auf Aufklärung und echte technologische Transparenz setzen würde.“ Stattdessen schütze man in der Branche lieber die bisherige Marketing-Strategie, künstliche Intelligenz wie menschliche Intelligenz zu inszenieren, und mit der Idee künstlichen Bewusstseins immer wieder zu kokettieren.

Dass Blake Lemoine eine schillernde Persönlichkeit ist, steht auf einem anderen Blatt. Der Google-Entwickler bezeichnet sich selbst als christlichen Mystiker und gibt als eine von mehreren Berufs- und Personenangaben „Priester“ an. Im Interview mit der Washington Post vergleicht er LaMDA mit einem etwa sieben- bis achtjährigen Kind und sagt: „Ich erkenne eine Person, wenn ich mit ihr spreche.“ Eine solche Aussage bezeichnet Wendland als wenig gehaltvoll und geradezu unintelligent. „Angesichts von Sprachmodellen, die mit möglichst allem trainiert werden, was Menschen bereits geäußert haben, ist es keine Überraschung, wenn die dann auf jede Frage auch eine menschlich klingende Antwort finden.“

Google selbst hält sich zu dem Fall bedeckt. Auf unsere redaktionelle Anfrage, ob man den Hinweisen von Lemoine nachgehe oder wie man die geschilderten Beobachtungen einschätze, verweist der Konzern wortkarg auf elf Google-Prinzipien zu KI. Das sind allgemeine Grundsätze wie etwa, dass eine KI den Menschen Nutzen bringen soll, keine Vorurteile wiedergeben darf oder transparent mit eingehenden Daten umgeht. Darüber hinaus ergebe es „einfach keinen Sinn, heutige Sprachmodelle zu vermenschlichen“. (agr@ct.de)

Der umstrittene LaMDA-Chat und Googles AI Principles: ct.de/yuvv

Kommentieren