Suchen

Deep Learning Neues KI-System basiert auf neuronalen Netzen winziger Tiere

| Redakteur: Katharina Juschkat

Ein neu entwickeltes KI-System basiert auf den neuronalen Netzen von Fadenwürmern: Mit wesentlich weniger Neuronen ausgestattet kann das System zuverlässig ein Fahrzeug steuern – und ist keine „Black Box“ mehr.

Firmen zum Thema

Ein Forscherteam entwickelt ein KI-System, das auf weniger komplexen neuronalen Netzen basiert und damit interpretierbar wird.
Ein Forscherteam entwickelt ein KI-System, das auf weniger komplexen neuronalen Netzen basiert und damit interpretierbar wird.
(Bild: ©Alexander - stock.adobe.com)

Moderne KI-Systeme, die auf Deep-Learning-Algorithmen basieren, also neuronale Netze ähnlich Gehirnen verwenden, sind komplizierte Systeme, deren genaue Funktionsweise nicht im Detail erklärt werden kann. Ein internationales Forschungsteam der TU Wien, des IST Austria und des MIT (USA) haben jetzt ein neues System entwickelt: Basierend auf den Gehirnen winziger Tiere wie Fadenwürmern kann das KI-System ein Fahrzeug mit nur wenigen künstlichen Neuronen steuern.

Die Vorteile gegenüber bisherigen Modellen des Deep Learnings: Es kommt viel besser mit gestörten Eingaben zurecht und aufgrund seiner Einfachheit kann seine Funktionsweise im Detail erklärt werden. Es muss nicht als eine komplexe „Black Box“ betrachtet werden, denn es ist für Menschen verstehbar. Dieses neue Modell des Deep Learnings ist nun in der Zeitschrift Nature Machine Intelligence veröffentlicht worden.

Deep Learning als Black Box

KI-Systeme, die auf Deep Learning basieren, sind eine Black Box: Sie legen gelernte Inhalte nicht als fein sortierten Datenblock im digitalen Speicher ab, sondern orientieren sich am Aufbau des menschlichen Gehirns. Das sogenannte künstliche neuronale Netz verwendetet zahlreiche künstliche Neuronen, um besser mit Alltagssituationen umzugehen. Wie genau ein Deep-Learning-Algorithmus dann jedoch auf die Ergebnisse kommt, bleibt unklar – und der Algorithmus damit eine Black Box.

Künstliche neuronale Netze verstehen

Ähnlich wie lebende Gehirne bestehen künstliche neuronale Netzwerke aus vielen einzelnen Zellen. Wenn eine Zelle aktiv ist, sendet sie ein Signal an andere Zellen. Alle von der nächsten Zelle empfangenen Signale werden kombiniert, um zu entscheiden, ob auch diese Zelle aktiv wird. Die Art und Weise, wie eine Zelle die Aktivität der nächsten Zelle beeinflusst, bestimmt das Verhalten des Systems. Diese Parameter werden in einem automatischen Lernprozess so lange angepasst, bis das neuronale Netz eine bestimmte Aufgabe lösen kann.

Der Fadenwurm als Vorbild

Als Vorbild diente der Fadenwurm C. elegans, der mit wenigen Neuronen interessante Verhaltensmuster zeigt.
Als Vorbild diente der Fadenwurm C. elegans, der mit wenigen Neuronen interessante Verhaltensmuster zeigt.
(Bild: Caenorhabditis elegans / Caenorhabditis elegans / Kbradnam / CC BY-SA 2.5 / CC BY-SA 2.5)

Den Forschern als Vorbild diente der Fadenwurm C. elegans: Er lebt sein Leben mit einer erstaunlich geringen Anzahl von Neuronen und zeigt immer noch interessante Verhaltensmuster. Der Grund: Das Nervensystem des Fadenwurms verarbeitet Informationen effizient und harmonisch. Mit dieser Grundlage haben die Forscher die Komplexität neuronaler Netze massiv reduziert und sie interpretierbar gemacht.

Die Verarbeitung der Signale innerhalb der einzelnen Zellen folgt anderen mathematischen Prinzipien als frühere Modelle für Deep Learning. Die Netzwerke sind sehr lose verbunden – nicht jede Zelle ist mit jeder anderen Zelle verbunden. Das macht das Netzwerk einfacher.

Neues KI-System steuert Fahrzeug

Um das neue System zu testen, haben die Forscher ein selbstfahrendes Auto mit dem neuronalen Netz ausgestattet. Das System erhält als Input Kamerabilder der Straße und soll automatisch entscheiden, ob es nach rechts oder links lenkt. Bisher werden solche Aufgaben von Deep-Learning-Modelle mit vielen Millionen Parametern übernommen. Der neue Ansatz des Forscherteams ermöglicht es, die Größe der Netzwerke um zwei Größenordnungen zu reduzieren. Das System verwendet 75.000 trainierbare Parameter.

Seit Jahren erforschen wir, was wir von der Natur lernen können, um Deep Learning zu verbessern.

Prof. Radu Grosu, TU Wien

Das System besteht aus zwei Teilen: Der Kameraeingang wird zunächst von einem sogenannten faltenden neuronalen Netzwerk verarbeitet, das nur die visuellen Daten wahrnimmt, um strukturelle Merkmale aus den eingehenden Pixeln zu erfassen. Dieses Netzwerk entscheidet, welche Teile des Kamerabildes interessant und wichtig sind, und leitet dann Signale an den entscheidenden Teil des Netzwerks weiter – ein Kontrollsystem, das dann das Fahrzeug lenkt.

Beide Subsysteme sind hintereinander geschalten und werden gleichzeitig trainiert. Das Training umfasste viele Stunden Verkehrsvideos zusammen mit Informationen, wie das Fahrzeug in einer bestimmten Situation zu lenken ist. Der Steuerungsteil des Systems, der „Neural Circuit Policy“ (NCP), der die Daten aus dem Wahrnehmungsmodul in einen Lenkbefehl übersetzt, besteht aus 19 Neuronen – das ist rund dreimal kleiner als bei bisherigen Modellen.

Die Forscher testeten auch, wie fehleranfällig das neue Modell ist. Bei gestörten Eingangsbildern, etwa durch starkem Regen bei der Fahrt, konnte das neuronale Netz dennoch sicher die Straße erkennen. Tiefe neuronale Netze haben dagegen große Probleme mit gestörten Bildern. Mathias Lechner, Alumnus der TU Wien und Doktorand am IST Austria, sagt: „Diese Eigenschaft ist eine direkte Folge des neuartigen neuronalen Modells und der Architektur.“

Neuronale Netze interpretierbar machen

Was das neuronale Netz interpretierbar macht: Die Rolle jeder einzelnen Zelle bei jeder Fahrentscheidung kann von den Forschern identifiziert werden. Das ermöglicht es, die Funktion der einzelnen Zellen und ihr Verhalten zu verstehen. Größere Deep-Learning-Modelle sind nicht auf diese Weise interpretierbar.

Das KI-System kann in relativ einfachen Systemen implementiert werden und könnte für die automatisierte Arbeit im Lager bis hin zur Fortbewegung von Robotern genutzt werden. Dr. Ramin Hasani, Postdoc-Assistent am Institut für Technische Informatik, TU Wien und am MIT CSAIL, erklärt: „Die Prinzipien der Berechnung in biologischen Nervensystemen können zu einer großartigen Ressource für die Schaffung hochleistungsfähiger und interpretierbarer KI werden – als Alternative zu den bisher von uns verwendeten Black-Box-Systemen für maschinelles Lernen.

(ID:46928195)