Künstliche Intelligenz Wie Forscher KI transparenter gestalten wollen

Redakteur: Alina Hailer

Im Zuge einer Promotionsarbeit forschen Wissenschaftler zweier Universitäten daran, wie Künstliche Intelligenz transparenter gestaltet werden kann, um so auch die Vertrauensbasis zu dieser Technik zu stärken.

Firma zum Thema

Künstliche Intelligenz begegnet uns auch im Alltag immer häufiger. Oft verstehen wir allerdings die Handlungsbasis dieser modernen Technik nicht.
Künstliche Intelligenz begegnet uns auch im Alltag immer häufiger. Oft verstehen wir allerdings die Handlungsbasis dieser modernen Technik nicht.
(Bild: gemeinfrei / Unsplash)

Künstliche Intelligenz spielt eine immer größer werdende Rolle in unserem Alltag. Eingesetzt wird sie beispielsweise in autonomen Autos oder in Übersetzungs-Tools. Doch wie handelt eine KI? Um dies zu erklären, untersucht die Technische Hochschule Köln im Rahmen einer Promotionsarbeit gemeinsam mit der Ruhr-Universität Bochum, wie Künstliche Intelligenz transparenter und verständlicher gemacht werden kann. Dafür wurde das Projekt „(RL)3 Repräsentations-, Reinforcement- und Regel-Lernen“ gestartet.

Mit dem Projekt soll transpartenter gemacht werden, wie eine KI handelt. Wenn KI erklärbar gemacht wird, steige auch das Vertrauen in die Technik, so Prof. Wolfgang Konen vom Institut für Informatik der TH Köln. Gemeinsam mit Prof. Laurenz Wiskott vom Institut für Neuroinformatik der Ruhr-Universität Bochum betreut er die Doktoranden Moritz Lange und Raphael Engelhardt, die Verantwortlichen des Projektes.

Wie eine Software von selbst lernt

Moritz Lange von der Ruhr-Universität Bochum beschäftigt sich in seiner Dissertation mit dem Repräsentations-Lernen. Repräsentationen sind extrahierte Informationen, auf denen das Reinforcement-Lernen aufbaut und die diesen Prozess erleichtern. Wie gut die relevanten Informationen aus den Daten ablesbar sind, ist entscheidend für die Fähigkeiten eines Algorithmus, um dann daraus zu lernen. Gute Repräsentationen sind auch wichtig, um analysieren zu können, wie ein Algorithmus auf verschiedene Szenarien reagiert. Um dieses Verständnis entwickeln zu können, müssen komplexe Datensätze so dargestellt werden, dass sie durchschaubar sind.

Beim Reinforcement-Lernen handelt es sich um das Training einer Computersoftware, der durch Belohnung lernt, ob seine Aktion ihn in einen besseren oder schlechteren Zustand führt. Die Belohnung ist beispielsweise eine Zahl und hängt vom konkreten Fall ab: Soll ein Stab aufrecht balanciert werden, ist eine denkbare Belohnung die Zahl eins für jede Sekunde, die der Stab balanciert wird.

Alle Belohnungen, die die ausführende Software nach und nach erhält, werden addiert. Sein Ziel ist es, die Aktionen so zu wählen, dass eine möglichst große Gesamtbelohnung erreicht werden kann, so Raphael Engelhardt, Doktorand an der TH Köln. Dieser Prozess wird auch Verstärkungslernen genannt, nach dessen Ende der Agent im Idealfall eine bestimmte Aufgabe lösen kann.

Lernprozesse mit Black-Box-Effekt

Nach dem Abschluss der Lernprozesse ist bisher jedoch nicht ersichtlich, wie diese Lernstrategie entwickelt wurden. Man sieht nur, dass das Ziel erreicht wurde. Man spricht hier von einem „Black-Box-Effekt“. Engelhardt versucht nun, anhand von Simulationen Regelmäßigkeiten innerhalb dieser „Black-Box“ zu erkennen. Damit erforscht er das Regel-Lernen: Es soll ermöglicht werden, das komplexe Verstärkungslernen in einfache Regeln zu extrahieren.

Angestrebte Anwendungsgebiete des Projekts sind die Steuerung von technisch komplexen Anlagen, beispielsweise bei Stahlwalzprozessen, oder die Unterstützung von Logistikleitzentren mit KI-Modellen. Das Projekt hat eine Laufzeit von dreieinhalb Jahren und wird vom Ministerium für Kultur und Wissenschaft Nordrhein-Westfalen mit 500.000 Euro gefördert, beide projektbeteiligten Hochschulen erhalten jeweils 250.000.

Das Graduiertenkolleg Data-Ninja-NRW widmet sich Forschungsthemen rund um Künstliche Intelligenz. Die Gesamtkoordination des Graduiertenkollegs, in dem 14 Promotionen bewilligt wurden, übernimmt die Universität Bielefeld. Das Kolleg soll den Promovierenden ermöglichen, neben der technologischen Qualifizierung auch Kompetenzen zu gesellschaftlichen, sozioökonomischen und politischen Effekten der künstlichen Intelligenz zu erwerben.

(ID:47474131)