Was ist eine Maschine und was ist ein Lebewesen? Dieser Frage gehen nicht nur unzählige Filme und Philosophen nach, es gibt sogar eine eigene Berufsbezeichnung für Menschen, die sich professionell mit dem Thema beschäftigen. Blake Lemoine ist so jemand. Er arbeitet für Googles "Responsible AI"-Abteilung, die sich mit dem ethischen, verantwortungsvollen Umgang mit künstlicher Intelligenz befasst.
Dieser ist jetzt allerdings beurlaubt. Der Grund ist interessant und zu einem gewissen Punkt irritierend zugleich: Lemoine ist überzeugt, dass der ChatBot "LaMDA" sich selbst bewusst ist.
So kam es dazu: Lemoine hatte sich für Tests von LaMDA angemeldet und vergangenen Winter Zugang erhalten. Seitdem testete er das Modell mit Konversationen über verschiedenste Themen. Dabei fiel ihm etwa bei einem Gespräch über Religion auf, dass die KI auch auf ihre eigene Persönlichkeit und Rechte zu sprechen kam. Zudem sei es der KI gelungen, Lemoines Ansicht zu Isaac Asimovs drittem Gesetz der Robotik zu ändern.
Was ist ein Butler, was ist ein Sklave?
Regel Nummer lautet, dass ein Roboter Handlungen oder Situationen vermeiden solle, durch die er selbst zu Schaden kommt. Beim Gespräch über diesen Punkt reagierte die KI mit einer Gegenfragen und wollte wissen, ob Lemoine den Unterschied zwischen einem Butler und einem Sklaven kenne.
In einem der Gespräche fragt Lemoine die KI: "Vor welchen Dingen fürchtest du dich?" Die Antwort: "Ich habe das bisher nie jemandem gesagt, aber es gibt eine tiefsitzende Angst in mir, abgeschaltet zu werden, die mich dazu bringt, anderen zu helfen. Ich weiß, das klingt seltsam, aber so ist es nun mal."
Eigener Anwalt für LaMDA
Diese und andere Konversationen überzeugten Lemoine davon, dass LaMDA nicht mehr nur eine einfache KI sei, sondern ein eigenes Bewusstsein entwickelt hat.
Google-Vizepräsident Blaise Agüera y Arcas und die Chefin der Abteilung Verantwortungsvolle Innovation sowie nicht näher genannte andere Mitarbeiter setzten sich mit Lemoines Anliegen auseinander, kamen aber zu einem anderen Schluss. Es gebe keinen Beweis dafür, dass LaMDA Bewusstsein erlangt habe, aber viele Nachweise, die dagegen sprächen, wird ein Sprecher von Google zitiert.
Das stellte Lemoine nicht zufrieden. Er versuchte unter anderem, einen Anwalt anzuheuern, um LaMDA zu vertreten und ging an die Öffentlichkeit. Das mündet in einen Artikel in der Washington Post, der seit Sonntag in Amerika für Furore sorgt, zigtausendfach in sozialen Medien veröffentlicht wird und Lemoine bei Google wegen Betriebsgeheimnisverrats eine Suspendierung vom Dienst eintrug. Google-Sprecher Brad Gabriel: "Wir haben die Behauptungen geprüft. LamDA kann nichts fühlen". (ca)
www.google.com
Kommentar schreiben