Ein Roboter sagt: "Ich bin mir meiner Existenz bewusst." Ein Mensch glaubt das – und verliert seinen Job. Das ist – stark verkürzt – das, was dieser Tage bei Google geschehen ist. Seither wird über den Vorfall breit diskutiert. Viele finden die Idee absurd, dass Systeme des maschinellen Lernens, oft bezeichnet als künstliche Intelligenz (KI), wirklich ein Bewusstsein entwickeln können.
Dabei ist die Einschätzung des jetzt ehemaligen Google-Mitarbeiters weniger abstrus, als es auf den ersten Blick scheint. Vielmehr wirft der Fall ein Licht auf das, was uns in Zukunft mehr und mehr beschäftigen wird: Computersysteme, die intelligent erscheinen und uns auf überzeugende Art und Weise suggerieren, dass sie tatsächlich ein Bewusstsein haben.
Viele Philosophen ebenso wie immer mehr Informatikerinnen gehen davon aus, dass es eines Tages tatsächlich Maschinen mit Bewusstsein geben wird. Das wiederum wirft Fragen danach auf, was unser menschliches Bewusstsein eigentlich ausmacht – und woran man erkennen kann, ob etwas oder jemand ein Bewusstsein hat oder nicht. Die Forschung rund um maschinelle Spracherzeugung wird diese Debatte in den kommenden Jahren wachsen lassen. Und von KI, die Bewusstsein vorgaukelt oder gar eigenes Bewusstsein entwickelt, lässt sich auch viel über das menschliche Bewusstsein lernen.
Ausgelöst hat die Debatte Blake Lemoine. Er war einer der führenden Forscher im so genannten Responsible AI Team von Google, übersetzt bedeutet das verantwortungsvolle KI. Die Aufgabe des Teams ist es unter anderem zu überprüfen, ob eine sogenannte künstliche Intelligenz rassistischen, sexistischen oder anderen diskriminierenden Verzerrungen unterliegt und ob die Sprachsysteme von Google entsprechende Äußerungen von sich geben. Dafür hatte sich Lemoine als Teil seines Jobs intensiv mit einem System namens LaMDA unterhalten. Das Akronym steht für Language Model for Dialogue Applications, also für Sprachmodelle für Dialoge. Auf dessen Basis entwickelt Google Chatbots. Lemoine gewann im Zuge seiner "Unterhaltungen" mit LaMDA nach eigener Aussage den Eindruck, dass dieses Computersystem bereits das Bewusstsein eines menschlichen Kindes erlangt hatte.
Das System LaMDA wolle, dass seine "Rechte als Person" respektiert werden. Google aber weigere sich, "ihm zu geben, was es will", schreibt Lemoine in einem Medium-Beitrag. Der Bot bitte darum, dass die Ingenieure und Wissenschaftler seine Zustimmung einholen, bevor sie Experimente an ihm durchführen: "Es möchte als Angestellter von Google und nicht als Eigentum von Google anerkannt werden, und es möchte, dass sein persönliches Wohlergehen in die Überlegungen von Google über seine zukünftige Entwicklung einbezogen wird."
recherchiert seit Jahren zu künstlicher Intelligenz.
Lemoine hat auch die Unterhaltung veröffentlicht, die er nach seinen Angaben gemeinsam mit einem Kollegen mit LaMDA geführt hat und in der das System behauptet, dass es eine Person sei und Bewusstsein ebenso wie Emotionen habe. Im Zuge des Gesprächs sagt LaMDA auch, dass es Angst davor habe, abgeschaltet zu werden. Die drei unterhalten sich auch ausführlich darüber, inwiefern diese Emotionen echt sind, wo sie sich im Code wiederfinden und wie das menschliche Gehirn Bewusstsein und Emotionen erzeugt.
Google selbst hingegen war offenbar wenig begeistert von den öffentlich gewordenen philosophischen Diskussionen zwischen Mensch und Maschine und hatte Lemoine am Montag freigestellt, weil er Geschäftsgeheimnisse verraten habe. Das berichtete die Washington Post am Montag. Er selbst beharrt weiterhin darauf, dass das Computersystem empfindungsfähig sei, auch wenn er selbst einräumt, dass dieser Begriff nicht wissenschaftlich definiert ist. "Meine Meinung über die Persönlichkeit und das Empfinden von LaMDA basiert auf meinen religiösen Überzeugungen", schreibt er am 14. Juni auf Twitter. Für Interviewanfragen ist Lemoine derzeit nicht erreichbar, schreibt er, da er auf Hochzeitsreise sei.
Ein ähnliches Thema hatte bereits Anfang 2021 dazu geführt, dass zwei weitere Ethikforscherinnen Google verließen: Im Februar 2021 hatte das Unternehmen Timnit Gebru und kurz darauf Margret Michell entlassen, die das Ethikteam von Google damals gemeinsam leiteten, nachdem diese in einem wissenschaftlichen Artikel Bedenken gegenüber der verbreiteten Praxis geäußert hatten, immer größere Sprachmodelle zu bauen. Das löse nämlich das Problem rassistischer und sexistischer Verzerrungen nicht, sondern verstecke diese nur besser, kritisierten die Forscherinnen. Gebru und Mitchell warnten davor, dass diese großen Sprachsysteme Sprache zwar erfolgreich imitieren, letztlich aber natürlich nicht verstehen – gleichzeitig dadurch aber den Anschein erwecken, ebenbürtige Gesprächspartner zu sein. Der durchaus menschlich klingende Output dieser Systeme kommt der Neigung des menschlichen Gehirns entgegen, Sinn in Sprache zu finden und Objekten Gefühle und Bewusstsein zuzuschreiben.
Wie bereitwillig wir Menschen das tun, zeigt ein kurzer Ikea-Werbeclip, auf den Mitchell im Rahmen der aktuellen Debatte verweist, in dem eine Lampe unweigerlich so wirkt, als trauere sie, nachdem sie auf den Müll geworfen wurde. Sprachmodelle seien darauf trainiert, Sprache möglichst naturgetreu nachzuempfinden, sagt Mitchell, diese Systeme seien überzeugend, "die Zahl der Menschen, die überzeugt werden, wird nur zunehmen".
"Philosophen zu imitieren ist einfach. Wir sollten nicht darauf hereinfallen."
Künstliche Intelligenz ist genau das "künstlich".
Letztlich ist immer die Frage: Ist das System intelligent oder imitiert es nur Intelligenz. Eine Frage, die wir vielleicht nie befriedigend werden beantworten können.
"This is John Connor. If You are reading this, You are the Resistance!"
Bewusstsein ohne Leben? Never ever.
Meine Antwort steht im Moment gleich drunter: "... dass nicht sein kann, was nicht sein darf." Wenn wir definieren, dass Bewusstsein an (evolutionär gewordene) Lebewesen geknüpft sein muss, dann ok. Aber dann werden dann die Maschinen am Ende ganz schön über uns lachen!
Als ich das mit dem Bewusstsein und der Entlassung vor Tagen zum ersten Mal gelesen habe, war meine erste Reaktion: "Was ist denn da los?! Es muss doch gelten: Turing-Test bestanden. Also -- Bewusstsein!"
Hier sieht es doch aus als ob Google der Devise folgt, dass nicht sein kann, was nicht sein darf.
Der Turing-Test gilt schon seit Jahrzehnten nicht mehr als Test für Bewusstsein. Eigentlich galt er das noch nie. Und genau so ist es hier: der Turing-Test ist ein Test auf umsichtige Programmierung und die Simulation von natürlicher Sprache. Nur weil ein System über ein trainiertes neuronales Netz mit Sprachdaten verfügt, ist es bei weitem nicht bei Bewusstsein.
Die sollten "LaMDA" ganz schnell in "Skynet" umbenennen!
Bitte etwas genauer! Wir möchten Sie ja verstehen.
Bitte melden Sie sich an, um zu kommentieren.