Center for Artificial Intelligence and Robotics Transparenz schlägt Vorurteile

Von Sebastian Human

Unser Umfeld trifft permanent eigenständige Entscheidungen. Wie es zu diesen kommt, bleibt oft unklar. Was wir bei anderen Lebewesen in der Regel akzeptieren, beunruhigt Menschen im Kontext Künstlicher Intelligenz. Hier setzt eine neue Forschungseinrichtung an.

Für viele Menschen gleicht KI und deren grundlegende Funktionsweise noch immer einer Blackbox. Das CAIRO will Licht ins Dunkel bringen.
Für viele Menschen gleicht KI und deren grundlegende Funktionsweise noch immer einer Blackbox. Das CAIRO will Licht ins Dunkel bringen.
(Bild: gemeinfrei / Pexels)

Manches wollen wir nicht wissen. Wissen kann aber auch beruhigen. Etwas, das uns alle interessieren sollte: Künstliche Intelligenz und wie sie Entscheidungen fällt.

Denn KI durchdringt immer mehr Bereiche. Wo sie unser Leben wie durch Zauberhand komfortabler gestaltet, nutzen wir sie gerne – oft ohne es zu merken. Gleichzeitig weckt sie aber auch Argwohn, oder gar Dystopien, gibt sich KI allzu offensichtlich als das zu erkennen, was sie ist: menschengemachte Mathe-Magie.

Mehr Transparenz wagen

Ein ganzheitliches Verständnis kann hier helfen. Dieses will das in Würzburg neu gegründete Center for Artificial Intelligence and Robotics (CAIRO) schaffen. Forschungsgrundlage ist die These, dass ein KI-System dem menschlichen Gehirn ähneln und sich ein Wertesystem aufbauen kann. Versteht man dieses, oder gestaltet es sogar mit, werden die Entscheidungen der KI nachvollziehbarer. Und Nachvollziehbarkeit wirkt als Gegenmittel zur Angst vor dem Unbekannten.

Von Angst ist auf dem Gesicht von Institutsleiterin Prof. Dr. Magda Gregorová nichts zu sehen. Sie lächelt freundlich, wenn sie erklärt, warum Besorgnis – zumindest gegenüber der Technik – fehl am Platz, Aufklärung aber durchaus angebracht ist. Eine angenehme Atmosphäre herrscht auch in ihrem Team. Der Ton zwischen der Professorin und ihren drei wissenschaftlichen Mitarbeiterinnen und Mitarbeitern ist ungezwungen. Alle duzen sich und wirken, als seien sie gerne hier. Selbst ein Doktorand, der es sichtlich eilig hat, lächelt und winkt auf dem Weg nach draußen. Auch von ihnen scheint niemand ängstlich.

Institutsleiterin Prof. Dr. Magda Gregorová will Aufklärungsarbeit leisten.
Institutsleiterin Prof. Dr. Magda Gregorová will Aufklärungsarbeit leisten.
(Bild: Niko Wörtmann)

Man könnte entgegnen, dass das persönliche Angstempfinden auch an die individuelle Risikobereitschaft geknüpft sei. Und die liegt bei der Institutsleiterin im überdurchschnittlichen Bereich: Sie ist Bergsportlerin und nimmt als Radfahrerin am Würzburger Stadtverkehr teil. Mit noch frischen Gesichtsschürfwunden vom tags zuvor erlittenen Radunfall erklärt sie gelassen, dass auch so was eben mal passieren könne.

Aber: Sie trug einen Helm und der Unfall war ihr erster dieser Art. Sie kalkuliert Risiken also ein, die Statistik ist auf ihrer Seite. Und mit Statistik kennt sie sich aus – akademisch wie praktisch. Nach ihrem 2001 erworbenen Masterabschluss der Wirtschaftsuniversität Prag arbeitete sie zwölf Jahre lang auf dem Gebiet der angewandten Statistik; unter anderem für die Tschechische Nationalbank und die Europäische Organisation zur Sicherung der Luftfahrt in Brüssel. Zwischenzeitlich erwarb Gregorová ihren Doktortitel in maschinellem Lernen an der Fakultät für Informatik der Universität Genf, bevor sie im September 2021 die Forschungsprofessur für Repräsentationslernen an der Fakultät Informatik und Wirtschaftsinformatik der Fachhochschule Würzburg Schweinfurt (FHWS) antrat. Seit März 2022 leitet sie das CAIRO.

Das Zentrum wird primär durch die High-Tech Agenda Bayern finanziert und ist ein Teil des Institut Digital Engineering (IDEE). An der fakultätsübergreifenden Einrichtung erforschen fünf Forschungsprofessorinnen und -professoren den gesamten Themenkomplex Industrie 4.0.

Die Ergebnisse sollen über die Grenzen der technologienahen Institute hinaus- und beispielsweise in die Sozialwissenschaften oder die Medizin hineingetragen werden. Diese können dann gesellschaftlich relevante Themengebiete wie Robotik in der Pflege oder technologiebedingte Auswirkungen auf Sozialgemeinschaften untersuchen. Auch die fachärztliche Behandlung kann optimiert werden, indem fundiertere Entscheidungen über chirurgische Behandlungen möglich und postoperative Komplikationen verringert werden. Die Bereitschaft, Künstliche Intelligenz zu nutzen, ist für all das elementar. Und so schließt sich der Kreis zum zentralen Forschungsschwerpunkt des Kompetenzzentrums: Dem Aufbau eines Wertesystems für KI, das akzeptanzfördernd wirken soll.

Bildergalerie

Und diese Akzeptanz ist zwingend erforderlich, soll KI nicht nur eine „neue Sichtweise auf alte Probleme“ bieten, sondern dem Gesamtpotenzial gerecht werden, das Gregorová ihr zuschreibt: der „Konzentration auf die neuen Herausforderungen der Datenanalyse, wie die Notwendigkeit der effizienten Analyse großer Mengen komplexer Daten, die in zunehmendem Maße verfügbar sind“. Das Ziel dahinter müsse es laut der Wissenschaftlerin immer sein, die menschliche Lebensqualität zu verbessern. Robotik und KI sollen also nicht nur gefährliche Aufgaben in ungesunder Umgebung erledigen, sondern auch sich weitgehend wiederholende oder körperlich anstrengende Aufgaben mit Auswirkungen auf die langfristige Gesundheit übernehmen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

„Was wir meiner Meinung nach brauchen, ist mehr Bildung“, ist sich die Wissenschaftlerin sicher. „Damit meine ich nicht mehr KI-Experten, sondern eine allgemeine Aufklärung, damit die Öffentlichkeit einerseits realistischer und andererseits weniger ängstlich wird.“

Vom Menschen lernen

Hierzu wollen die Fachleute KI-Systeme entwickeln, die aus den bereitgestellten Daten diejenigen Regeln ableiten, die wir Menschen für wichtig halten und die wir in unserem täglichen Leben befolgen. Diese Werte „erbt die KI von uns Menschen“, erklärt Gregorová, „ähnlich wie ein Kind sein Wertesystem von seinen Eltern und der Gesellschaft, in der es aufwächst, erbt“.

Problematisch ist, dass wir Menschen uns nicht immer ganz so korrekt verhalten, wie wir es uns von den Maschinen wünschen. „Nichtsdestotrotz sind diese weniger erfreulichen Beispiele menschlichen Verhaltens oft in den Daten enthalten. Ohne einen Auslöser, um sie zu erkennen, wird die Maschine sie wahrscheinlich als akzeptablen Modus Operandi lernen“, räumt die Forscherin ein. Die zu lösenden Aufgaben beziehen sich also auch auf Unfairness und Voreingenommenheit – beides ziemlich menschlich. Nur übersehen wir das gerne. „Wenn es uns die Datensysteme zeigen, können wir deutlicher erkennen, wie sehr sie mit solch unangenehmen Beispielen menschlichen Verhaltens überflutet sind“, führt Gregorová aus. „Die Verwendung von Schimpfwörtern in Chatbots, die an echten menschlichen Gesprächen trainiert wurden, ist nur die Spitze des Eisbergs.“

Bleibt also doch die Gefahr, von autonomen Algorithmen versklavt zu werden?

Der Einsatz entscheidet

Hier winkt die Forscherin lachend ab. Letztendlich sieht sie das größte Risiko im menschlichen Missbrauch der Technik: „Ich kann mir Beispiele für wirklich böswillige Absichten vorstellen.“ Oft resultiere KI-Skepsis aber daraus, „dass wir nicht verstehen, wie die Technik tatsächlich funktioniert. Was kann sie leisten und was nicht? Wann können wir uns auf sie verlassen und wann sollten wir vorsichtig sein? Wie sollen wir die Ergebnisse interpretieren und wie sollen wir sie nutzen?“

Das Entwicklungstempo ist sehr hoch und täglich werden neue KI-Werkzeuge für den Allgemeingebrauch verfügbar. Deren falscher Einsatz könne, auch unbeabsichtigt, zu schädlichen Entscheidungen oder Handlungen führen. Und da hier noch eine große Wissenslücke zwischen Fachwelt und Öffentlichkeit besteht, begreift Gregorová es auch als Aufgabe von Einrichtungen wie des CAIRO, zu verdeutlichen: Nicht die Technik verursacht den Schaden. Es ist der Mensch, der sie bedient. Gleiches gilt umgekehrt auch für den Nutzen.

(ID:48521650)