Analyse Forscher sagen voraus: Eine Super-KI wäre nicht kontrollierbar

Redakteur: Katharina Juschkat

Wir könnte man eine KI kontrollieren, die selbstständig alles lernen kann und der Intelligenz von Menschen überlegen ist? Computerwissenschaftler kommen zu dem Ergebnis: Eine solche KI ließe sich nicht mehr kontrollieren.

Firma zum Thema

Eine KI, die uns überlegen wäre, wäre nicht mehr kontrollierbar, berechnen Computerwissenschaftler.
Eine KI, die uns überlegen wäre, wäre nicht mehr kontrollierbar, berechnen Computerwissenschaftler.
(Bild: ©Tatiana Shepeleva - stock.adobe.com)

Viele Menschen denken beim Stichwort Künstliche Intelligenz (KI) an Science-Ficion-Filme wie Terminator, Ex Machina oder 2001: Odyssee im Weltraum – die Angst vor einer KI, die nicht mehr kontrollierbar ist, die selbstständig denkt und die Menschheit gefährdet.

Dass das von unserer Realität erst einmal weit entfernt ist, wird klar, wenn man sich aktuelle KI-Anwendungen anschaut: KI steuert Autos, komponiert Symphonien oder besiegt Menschen im Schach. Zwar beeindruckende Leistungen, aber noch nicht von der Qualität, die Menschheit zu unterjochen. Bisher sind Algorithmen auf eine Aufgabe beschränkt und haben nicht den Blick auf das Große Ganze.

Die Super-Intelligenz

Aber was wäre, wenn? Angenommen jemand würde eine Künstliche Intelligenz (KI) programmieren, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Wie würde die KI handeln? Würde sie die Probleme der Menschheit lösen, den Klimawandel beenden, Krebs heilen? Oder würde sie die Menschheit vernichten und die Erde übernehmen?

Da man nicht weiß, wie eine solche Super-KI reagieren würde, stellt sich die Frage, ob wir eine superintelligente KI überhaupt kontrollieren könnten, sodass sie der Menschheit nicht schadet. Ein internationales Team von Computerwissenschaftlerinnen und -wissenschaftlern hat jetzt berechnet: Es ist unmöglich, eine superintelligente KI zu kontrollieren.

Schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben.

Manuel Cebrian, Max-Planck-Institut

Zwei Möglichkeiten, KI zu kontrollieren

Forschende weltweit haben zwei Ideen entwickelt, wie eine superintelligente KI kontrolliert werden könnte:

  • 1. Zum einen könnte man die Ressourcen der KI gezielt einschränken, indem man sie beispielsweise vom Internet und allen anderen technischen Geräten abschottet, so dass sie keinen Kontakt zur Außenwelt hat – doch wären dadurch auch die Fähigkeiten der superintelligente KI deutlich geringer. Die großen Menschheitsprobleme würde sie so nicht lösen.
  • 2. Die andere Option wäre, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem man ihr ethische Regeln einprogrammiert. Doch zeigen die Forschenden, dass diese und andere historische oder aktuelle Ideen zur Kontrolle superintelligenter KI ihre Grenzen haben.

Der unmögliche Algorithmus

Eine KI mit ehrbaren Zielen zu programmieren, wird unbeabsichtigte Folgen möglichweise nicht verhindern können.
Eine KI mit ehrbaren Zielen zu programmieren, wird unbeabsichtigte Folgen möglichweise nicht verhindern können.
(Bild: Iyad Rahwan)

Das Forschungsteam konzipierte in seiner Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Doch die Forscher stellen fest: Nach aktuellem Stand der Wissenschaft wäre es nicht möglich, einen solchen Algorithmus zu programmieren.

Das Problem dabei: Ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, könnte versehentlich seine eigenen Prozesse zum Stillstand bringen. Das zeigen die Wissenschaftler anhand einfacher Grundregeln aus der theoretischen Informatik. „Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.

Die Forscher zeigen ein weiteres Problem auf: Möglicherweise würden wir nicht einmal erkennen könnten, ob eine Maschine superintelligent ist. Denn ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen.

Die Studie „Superintelligence cannot be contained: Lessons from Computability Theory“ wurde im Journal of Artificial Intelligence Research veröffentlicht.

(ID:47069308)