Mensch-Maschine-Interaktion Künstliche Intelligenz verstehbar machen

Redakteur: Julia Bender

Im Zeitalter von immer komplexer werdenden Systemen gewinnt die Nachvollziehbarkeit der algorithmischen Entscheidungsfindung zunehmend an Bedeutung. Forschende der Universitäten Paderborn und Bielefeld haben sich nun dieser Thematik angenommen.

Firmen zum Thema

Die Komplexität der Mensch-Maschine-Interaktion steigt kontinuierlich. Umso wichtiger erscheint es, dass der Mensch die computerbasierten Entscheidungen nachvollziehen kann – doch das erfordert Erklärungen seitens der KI-Systeme.
Die Komplexität der Mensch-Maschine-Interaktion steigt kontinuierlich. Umso wichtiger erscheint es, dass der Mensch die computerbasierten Entscheidungen nachvollziehen kann – doch das erfordert Erklärungen seitens der KI-Systeme.
(Bild: Universität Paderborn)

Die Mensch-Maschine-Interaktion ist heutzutage ein fester Bestandteil unseres Lebens. Ob Bewerbungen aussortieren, Röntgenbilder begutachten oder eine neue Songliste vorschlagen – die „Maschine“ vereinfacht unseren Alltag in den verschiedensten Bereichen. Die Grundlage für solche KI-Prozesse bilden algorithmische Entscheidungsfindungen, die jedoch häufig nur schwer nachzuvollziehen sind, weshalb der erhoffte Nutzen oft ausbleibt. Wissenschaftlerinnen und Wissenschaftler der Universitäten Paderborn und Bielefeld widmen sich deshalb nun der Frage, wie sich die Erklärbarkeit von KI verbessern lässt und an die Bedürfnisse des Menschen angepasst werden kann.

„Künstliche Systeme sind komplex geworden. Das ist ein ernsthaftes Problem – insbesondere dann, wenn Menschen für computerbasierte Entscheidungen verantwortlich gemacht werden", betont Prof. Dr. Philipp Cimiano, Informatiker der Universität Bielefeld. Vor allem bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es von großer Bedeutung, die maschinengesteuerte Entscheidungsfindung nachvollziehen zu können, erklärt Cimiano weiter. Auch Prof. Dr. Katharina Rohlfing sieht bei diesem Anliegen dringenden Handlungsbedarf, da Bürger – ihrer Meinung nach -ein Recht darauf haben, dass algorithmische Entscheidungen transparent gemacht werden. Mithilfe der „eXplainable Artificial Intelligence“ sollen Algorithmen zukünftig zugänglich sein und somit mehr Transparenz und Interpretierbarkeit entstehen.

Erklären als soziale Praktik

Die Forschenden sind überzeugt davon, dass Erklärungen nur dann für den Nutzer nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen. „Wir wissen aus vielen Alltagssituationen, dass eine gute Erklärung für sich nichts bringt, wenn die Erfahrungen der anderen Seite unberücksichtigt bleiben. Wer sich wundert, warum seine Bewerbung durch den Algorithmus aussortiert wurde, möchte normalerweise nichts über die Technologie des maschinellen Lernens erfahren, sondern fragt nach der Datenverarbeitung in Bezug auf die eigenen Qualifikationen“, verdeutlicht Rohlfing.

Unter Menschen führt meist der Austausch zwischen den Beteiligten dazu, dass eine Erklärung an das Verständnis des Gegenübers angepasst wird. Wenn die Gesprächspartnerin oder der Gesprächspartner beispielsweise vertiefende Fragen stellt oder Unverständnis signalisiert, begreift der Mensch, dass seine Erklärungen bislang nicht ausreichend oder präzise genug waren und setzt erneut an. Systeme und Maschinen, die auf Künstlicher Intelligenz basieren, können dies aufgrund mangelnder Interaktionsfähigkeit bisher nur mit Einschränkungen leisten.

KI-Systeme interaktiv gestalten

Aus diesem Grund haben die Forschenden der Universität Paderborn und Bielefeld nun einen konzeptionellen Rahmen für das Design von erklärbaren KI-Systemen entwickelt. „Mit unserem Ansatz können KI-Systeme ausgewählte Fragen so beantworten, dass der Prozess interaktiv gestaltet werden kann. Auf diese Weise wird eine Erklärung auf den Gesprächspartner zugeschnitten und soziale Aspekte in die Entscheidungsfindung miteinbezogen“, erklärt Rohlfing. Dafür macht sich das Forschungsteam zwei Konzepte aus der Entwicklungsforschung zu Nutze, die im weiteren Verlauf des Projekts auf KI-Systeme angewendet werden sollen: Scaffolding und Monitoring. Ersteres beschreibt eine Methode, bei der Lernprozesse durch Denkanstöße und Hilfestellungen unterstützt und in Teilschritte zerlegt werden. Das sogenannte Monitoring umfasst hingegen das Beobachten und Einschätzen der Reaktionen des Gegenübers.

„Unser Ziel ist es, neue Formen von Kommunikation mit wirklich erklärbaren und verstehbaren KI-Systemen zu schaffen und somit neue Assistenzformen zu ermöglichen“, fasst Rohlfing zusammen.

(ID:47270481)