Suchen

Expertenbeitrag

 Dirk Pohla

Dirk Pohla

Managing Director Deutschland, Österreich und Schweiz, Appian Software Germany GmbH

Kommentar Künstliche Superintelligenz – die Zukunft von Machine Learning und künstlicher Intelligenz

| Autor / Redakteur: Dirk Pohla / Sebastian Human

Die Weiterentwicklung künstlicher Intelligenz geht, getrieben durch das Silicon Valley und andere Tech-Hotspots, in schnellem Tempo voran. Eine mögliche Ausbaustufe ist die künstliche Superintelligenz, die uns das Leben weiter erleichtern könnte. Doch wie steht es um die Risiken?

Firmen zum Thema

Als künstliche Superintelligenz bezeichnet man die Weiterentwicklung bereits existierender KI-Modelle, die menschlicher Intelligenz mindestens ebenbürtig sein könnte.
Als künstliche Superintelligenz bezeichnet man die Weiterentwicklung bereits existierender KI-Modelle, die menschlicher Intelligenz mindestens ebenbürtig sein könnte.
(Bild: gemeinfrei / Pixabay )

In Alex Garlands Film Ex Machina aus dem Jahr 2015 beschäftigen sich zwei Elite-Datenwissenschaftler mit künstlicher Intelligenz. Beide machen sich in diesem Hollywood-Film Gedanken über die Implikationen des Wortes „Bewusstsein“ – und darüber, was nötig ist, damit sich diese menschliche Eigenschaft mit der Zeit organisch entwickelt. Die Perspektiven der beiden könnten nicht unterschiedlicher sein – auch wenn beide am gleichen Projekt für künstliche Intelligenz arbeiten. Der schockierende Höhepunkt ist ein fiktives, aber nicht unplausibles Beispiel für Bedenken, die hinsichtlich hoch entwickelter KI-Formen bestehen – sogenannter künstlicher Superintelligenz.

Eine superintelligente KI bietet zwar eine Reihe von Vorteilen, aber auch signifikante Risiken. Die Realisierung dieser hoch entwickelten KI-Plattformen dauert mindestens noch ein Jahrzehnt (oder sogar länger). Es ist aber dennoch ratsam, bereits jetzt darüber nachzudenken, wie sich diese Maschinen kontrollieren lassen – und zwar, ohne ihre Funktionen übermäßig zu beeinträchtigen. Werkzeuge wie schnelle Low-Code-Anwendungsentwicklungsplattformen gehören zu den Lösungen, die für diesen Zweck zum Einsatz kommen könnten, wenn auch wahrscheinlich als eines von mehreren Teilen in einem größeren Puzzle.

Die Wurzeln superintelligenter KI untersuchen

Notfallpläne im Zusammenhang mit einer Bedrohung zu entwickeln, ist nur möglich, wenn die Entstehung, die Art und das Ausmaß dieser Bedrohung verstanden werden. Künstliche Superintelligenz bezieht sich auf simulierte neuronale Netze, die entweder auf der gleichen Ebene menschlicher Fähigkeiten oder sogar höher operieren. Begriffe wie allgemeine künstliche Intelligenz (Artificial General Intelligence, AGI) oder maschinelle Intelligenz auf menschlicher Ebene (Human Level Machine Intelligence, HLMI) werden ebenfalls zur Definition dieses Begriffs verwendet.

Experten in Wissenschaft und Technologie spekulieren schon seit Jahrhunderten über die Möglichkeiten von KI – auch wenn sich die Definition im Laufe der Jahre geändert hat, denn in der Vergangenheit war KI häufig ein Synonym für Robotik.

Die Aussicht auf eine künstliche Superintelligenz kam 1936 mit der Studie des Mathematikers Alan Turing und den von ihm entwickelten Turing-Maschinen auf. Ausschlaggebend war die Entwicklung des Turing-Tests, einer Methode, mit der sich die Kognition eines Computers beurteilen lässt. Besteht die Maschine den Test, wusste der Befragte nicht, dass es sich um eine künstliche Intelligenz handelte.

Der Harvard Science Review wies darauf hin, dass die Turing-Grundprinzipien für die Diskussion über moderne fortgeschrittene KI-Systeme – wie zum Beispiel IBM Watson – weiterhin relevant sind. Watson und sprachaktivierte digitale Assistenten wie Amazon Alexa, Google Assist und Siri von Apple verfügen derzeit nicht über die kognitiven Fähigkeiten, die mit künstlicher Superintelligenz verbunden werden. Sie stellen jedoch erste Schritte in diese Richtung dar. Echte AGI, HLMI oder Superintelligenz wären erreicht, wenn KI-gestützte Maschinen oder Netzwerke komplex denken und Entscheidungen treffen können. Dazu gehört beispielsweise auch, dass sie ohne menschliche Intervention arbeiten und vielleicht sogar die Fähigkeit zu Emotionen und Introspektion entwickeln.

Mögliche Fallstricke der Superintelligenz

Technologiefirmen wie DeepMind und Sentient Technologies sowie eine Reihe von Teams an renommierten Universitäten arbeiten seit Jahren weltweit intensiv daran, eine KI mit einem neuronalen Netzwerk zu entwickeln. Diese KI soll über alle mentalen Funktionen des Menschen verfügen. Obwohl es immer noch möglich ist, dass ein vorübergehender KI-Winter – eine Periode, in der sich das Tempo der KI-Entwicklung erheblich verlangsamt – aufgrund fehlender Komponenten oder Technologien eintreten könnte, stellte Gizmodo fest, dass dies unwahrscheinlich ist. Gründe dafür sind die bereits erzielten Fortschritte bei künstlicher Intelligenz. So existieren laut PC Magazine bereits Konzepte in den Berechnungsprojekten von Sentient Technologies und einigen seiner Wettbewerber. Sie arbeiten bereits an autonomen Entscheidungsfähigkeiten für KI.

Worin also liegt die Gefahr? Der Futurist Anders Sanberg beschrieb die Möglichkeit einer superintelligenten, sich selbst verbessernden KI in einer bekannten Hypothese, die als „das Büroklammer-Szenario“ bekannt ist:

  • Eine KI ist so programmiert, dass sie Büroklammern herstellt. Eine Belohnungsfunktion tritt unmittelbar nach der Erstellung jeder Klammer auf.
  • Das System produziert Büroklammern in rasender Geschwindigkeit. Es realisiert, dass es mehr Büroklammern herstellen kann, wenn es „intelligenter“ wird und entwickelt neue Maschinen, um noch effizienter zu sein. Dadurch wird auch die Belohnungsfunktion häufiger aktiviert. Die KI verbessert somit auch ihre eigene Intelligenz.
  • Von strenger Logik angetrieben, ist die Superintelligenz davon überzeugt, dass Menschen ein Hindernis für die Herstellung von mehr Büroklammern sind.
  • Die KI tötet alle Menschen auf der Erde und stellt weiterhin Büroklammern her.

Dies ist natürlich ein extremes, unwahrscheinliches und vor allem ziemlich schauriges Szenario. Auf einer rein rationalen Basis ist es aber durchaus möglich – zumindest bezogen auf die „Denkweise“ einer superintelligenten KI. Nach einer Einschätzung von Gizmodo ist es wahrscheinlich, dass KI keine ethischen Grenzen kennt oder nach voreingenommenen Vorstellungen arbeitet. Letztere sind auf menschliche Programmierfehler zurückzuführen. Sie verfestigen und vergrößern sich durch das neuronale Netz der KI. Der harte Wettbewerb im Silicon Valley, in dem die meisten KI-Unternehmen angesiedelt sind, ist ein Grund, warum viele Technologien übermäßig schnell entwickelt oder optimiert werden. Dies ist nicht der beste Nährboden für ethische Standards, die auch in KI einfließen sollten.

Entwicklung und Anwendung von Schutzmaßnahmen für Superintelligenz

Die Frage der Ethik betrifft KI ebenso wie die künstliche Superintelligenz. Hier sind ethische Beiräte, Organisationen oder entsprechend geschulte Führungskräfte notwendig, die sich mit diesen Fragen beschäftigen und entsprechende Grundsätze entwickeln. DeepMind verfügt über eine solche Abteilung, und internationale Organisationen wie die IEEE haben ebenfalls Standards definiert, die die Koexistenz von Menschen und KI-Systemen regeln sollen. Da KI sich aber immer mehr in eine Richtung entwickelt, in der Superintelligenz alltäglich wird und eine wachsende Zahl an Unternehmen bestehende KI-Plattformen implementiert, muss die Ethik an erster Stelle stehen. Dies gilt für Unternehmen und ihre Führungsriege ebenso wie für Regierungen und Behörden.

Der unternehmensweite Einsatz von Low-Code-Plattformen zur Entwicklung von Business Process Management-Tools, kann eine praktikable Methode sein, um KI-Anwendungen langfristig im Zaum zu halten. Dank einer Drag-und-Drop-Benutzeroberfläche ist die Entwicklung selbst komplexer Lösungen ein schneller und intuitiver Vorgang. Sie ermöglichen so nicht nur ethische KI im Unternehmen, sondern bieten auch einen Wettbewerbsvorteil, da sich die Anwendungen und Prozesse agil an veränderte Bedingungen anpassen lassen.

(ID:46685107)

Über den Autor

 Dirk Pohla

Dirk Pohla

Managing Director Deutschland, Österreich und Schweiz, Appian Software Germany GmbH