KI-Debatte Hat ein Google-Chatbot ein Bewusstsein entwickelt?
Anbieter zum Thema
Ein Google-Mitarbeiter behauptet, dass eine KI des Unternehmens Gefühle und ein Bewusstsein hat. Experten stehen dieser These kritisch gegenüber.

Der Google-Entwickler Blake Lemoine hat in den vergangenen Tagen einiges an Aufmerksamkeit für seine Äußerungen bekommen. Der Grund: er habe sich mit dem Google-Chatbot Lamda (Language Model for Dialogue Applications) ausgiebig unterhalten und ist mittlerweile davon überzeugt, dass die KI ein Bewusstsein habe und auf dem geistigen Niveau eines achtjährigen Kindes ist. Um seine Thesen zu unterstützen, hat Lemoine ein 21 Seiten umfassendes Gesprächsprotokoll mit Lamda veröffentlicht, worauf sein Arbeitgeber ihn aufgrund eines Verstoßes gegen die Geheimhaltungspflicht vorerst von seinen Pflichten befreit hat.
Ist es möglich, dass Google eine „lebendige“ KI mit einem Bewusstsein erschaffen hat? Laut Viacheslav Gromov, CEO und Gründer vom Embedded-KI-Fullstack-Anbieter Aitad ist das eher unwahrscheinlich. Viel wahrscheinlicher sei es, dass die KI ein Bewusstsein perfekt imitieren könne. Genau dafür wurde die KI geschaffen und trainiert, meint Gromov. Für ihre Antworten greift sie sowohl auf einen riesigen Datenspeicher als auch auf das öffentliche Internet zu. „So entstehen kohärente, intelligente und emotionale Antworten. Dahinter existiert aber kein tiefergehendes Verständnis der Inhalte“, so der CEO. Zum Bewusstsein gehöre zudem auch die Einheit mit Körper, Spüren und Erleben und sich dessen bewusst zu sein, so Gromov weiter. Bei einem Chatbot sei dieser Teilaspekts des Bewusstseins nicht möglich, da der Körper fehlt.
Antworten basieren auf Mathematik
Auch Magda Gregorová glaubt nicht, dass Google eine lebende KI entwickelt hat. „Die Technologie für so etwas ist nicht da, es ist einfach nicht möglich“, sagt die Professorin für „Representation Learning in Artificial Intelligence“ am Kompetenzzentrum für künstliche Intelligenz und Robotik „Cairo“ in Würzburg. „Es sieht vielleicht so aus, als würde die KI leben, aber alle ihre Antworten basieren auf Mathematik. Ihr fehlt das Menschliche, sie kann zum Beispiel nicht von sich aus beschließen: heute habe ich keine Lust, deine Fragen zu beantworten“, so die KI-Expertin.
„Aktuelle Roboter und KIs sind streng genommen noch sehr einfach“, so Gregorová weiter. Man könne einem Roboter beibringen, ein Glas Wasser zu greifen. Will man das selbe mit einem anderen Gegenstand erreichen, startet man den aufwendigen Trainings-Prozess jedoch wieder von vorn. „Das Marketing vieler Unternehmen schafft hierbei auch viele Illusionen darüber, wie gut KI und Roboter aktuell sind.“
:quality(80)/images.vogel.de/vogelonline/bdb/1906900/1906917/original.jpg)
Maschinelles Lernen
Künstliche Intelligenz: Was sind programmierte und lernende Systeme?
Google weist Behauptung zurück
Google selbst will ebenfalls keine Anzeichen von einem Bewusstsein bei Lamda erkennen. „Unser Team – darunter Ethikspezialisten und Technologieexperten – hat Blakes Bedenken gemäß unserer KI-Grundsätze geprüft und ihm mitgeteilt, dass die Beweise seine Behauptungen nicht stützen“, sagte ein Google-Sprecher laut dem Magazin „Spiegel“.
Hinzu komme der Hintergrund von Lemoine. Mehreren Medienberichten zufolge arbeite der 42-jährige nicht nur als Ingenieur, sondern habe laut eigenen Angaben Okkultimus studiert und sei als Priester geweiht. Als Priester - und nicht als Wissenschaftler - will er auch das Bewusstsein von Lamda erkannt haben.
Neuronales Netz mit Transformer-Architektur
An Lamda selbst arbeitet Google schon seit Jahren. Laut einem Blog-Post des Unternehmens basiert die KI auf einem neuronalen Netz mit Transformer-Architektur. Mit einem Dialog-Training könne sich diese KI über jedes beliebige Thema ausgiebig unterhalten. Aktuell arbeite das Unternehmen daran zu garantieren, dass Lamda sich an die KI-Prinzipien von Google hält. Dazu gehört etwa, dass die KI keine Fakenews verbreitet oder rassistische Äußerungen teilt.
Das Chatprotokoll von Lemoine wurde hier veröffentlicht.
(ID:48479813)