Technikakzeptanz KI: Maschinen mit Sinn für Gerechtigkeit
Nur wenn Künstliche Intelligenz (KI) Fairness ebenso interpretiert und umsetzt wie Menschen, wird sie auf breite Akzeptanz stoßen. Deshalb untersuchen Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme in Tübingen Daten auf ihren kausalen Zusammenhang.
Anbieter zum Thema

Der Sinn für Gerechtigkeit ist tief in einem Menschen verwurzelt - und oft schon von Kindesbeinen an. Er ist ein wesentlicher Teil seiner Moralvorstellungen, seines Wertegerüstes. Der Anspruch und das Vertrauen darauf, fair behandelt zu werden, bildet die Basis für ein friedliches Zusammenleben in einer Gesellschaft.
Nur faire Entscheidungen einer KI werden vom Menschen akzeptiert
Im Zeitalter der Digitalisierung entsteht deshalb die Notwendigkeit, dass selbstlernende Maschinen, die dem Menschen zuarbeiten, fair handeln. Nur wenn Künstliche Intelligenz Fairness ebenso interpretiert und umsetzt wie der Mensch, werden ihre Entscheidungen akzeptiert. Entscheidungen durch selbstlernende Algorithmen, denen möglicherweise rassistische oder sexistische Merkmale unterliegen, sind in der Gesellschaft nicht akzeptabel. Gleichzeitig rückt mit zunehmender Tragweite des Einsatzes von künstlicher Intelligenz die Transparenz im Bereich maschinelles Lernen zunehmend in den Fokus.
„Als intelligente, selbstlernende Maschinen nur in der Industrie eingesetzt wurden, da machte sich keiner Gedanken, ob ein Computer fair handelt. Es wurde nicht darauf geachtet, ob man moralische oder ethische Anforderungen an Machine Learning stellen sollte“, sagt Niki Kilbertus, Wissenschaftler am Max-Planck-Institut für Intelligente Systeme in Tübingen. „Doch spätestens seit die gleichen Algorithmen Anwendung in einem sozialen Kontext finden muss man sich die Frage stellen: Sind diese selbstlernenden Maschinen fair oder diskriminieren sie, wenn auch ungewollt?“ Anstatt also wertfreie Entscheidungen zu fällen, tut künstliche Intelligenz manchmal genau das Gegenteil: Sie diskriminiert aufgrund der Daten, mit der sie gefüttert wird.
„Diskriminierung vermeiden durch kausale Schlussfolgerungen“ heißt die Publikation, die Kilbertus zusammen mit Mateo Rojas-Carulla, Giambattista Parascandolo, Moritz Hardt, Dominik Janzing und Bernhard Schölkopf, Direktor der Abteilung für Empirische Inferenz am MPI für Intelligente Systeme, unlängst veröffentlicht hat. Die Veröffentlichung soll als Fingerzeig bei der Anwendung maschinellen Lernens dienen, bei Faktoren, die Menschen diskriminieren könnten, zweimal hinzusehen und nach dem „warum“ zu fragen. Diskriminiert werden könnten Menschen beispielsweise aufgrund ihrer Hautfarbe, ihres Geschlechts, ihrer Religion oder ihrer sexuellen Orientierung.
Stets hinterfragen, wie Daten zustande kommen
Doch bereits ein einer Postleitzahl, die ein potentieller Kreditnehmer angeben muss, könnte ein Lernalgorithmus diskriminierend gegen eine einzelne Person oder eine bestimmte demographische Gruppe wirken. So könnte eine Bank keine Kredite an Menschen mit einer bestimmten Postleitzahl mehr vergeben, weil der selbstlernende Computer zu dem Schluss kommt, dass in diesem Stadtteil die Ausfallquote höher ist als anderswo. „Würde man den Algorithmus machen lassen, würde der Antragsteller den Kredit vielleicht nicht bekommen, auch wenn er eine hohe Kreditwürdigkeit hat“, erklärt Kilbertus.
Kilbertus und seine Kollegen suchen in diesem Zusammenhang nach einer fairen Lösung - nämlich nach dem kausalen Zusammenhang, warum gerade in diesem besagten Stadtteil das Risiko hoch ist, dass Kreditnehmer ihre Ratenzahlungen nicht mehr bedienen können. „Es kann sein, dass in dieser Postleitzahl die Ausfallquote einfach höher ist, was die Bank dann als Argument nehmen würde, sicherheitshalber gar keine Kredite an Menschen, die dort leben, zu vergeben. Falls aber gleichzeitig in dieser Region vorwiegend eine bestimmte Minderheit wohnt, dann findet hier implizit eine Diskriminierung statt, da diese Minderheit nun systematisch benachteiligt wird.“ Ein starker Appell an alle, zu hinterfragen, wie Daten zustande kommen. Denn wie sollen wir einer künstlichen Intelligenz unseren Alltag regeln lassen, wenn ihre Entscheidungen Verzerrungen enthalten können?
:quality(80)/images.vogel.de/vogelonline/bdb/1325900/1325979/original.jpg)
Eventreihe zur digitalen Transformation
„MindShift Mittelstand“: Künstliche Intelligenz hält Einzug in Unternehmen
Vorstellung von Fairness ist nicht interkulturell
Das Problem ist die formale Definition von „fairen Entscheidungen", denn Fairness ist subjektiv. Es gibt keine Definition von Fairness, die für alle Kulturkreise gleichermaßen gültig wäre. Folglich Existiert Kilbertus Algorithmus nur auf dem Papier. Sie ist, wie die meisten Forschungsarbeiten an den Max-Planck-Instituten, Grundlagenforschung. „Es ist bisher nur Theorie. Wir haben keine Experimente gemacht – die Idee ist allein konzeptioneller Natur. Kein Unternehmen dieser Welt verwendet einen fairen Algorithmus, so wie er uns vorschwebt. Das Problem ist, diese kausalen Schlussfolgerungen zu ziehen. Das würde sehr viel Zeit und Kosten verursachen,“ sagt der Wissenschaftler. „Was wir wissen ist, dass die gängige Praxis nicht ausreicht, um unsere Intuition von Fairness vollständig wiederzugeben.“
:quality(80)/images.vogel.de/vogelonline/bdb/1323800/1323873/original.jpg)
Selbstlernende Algorithmen
Das kognitive Internet der Dinge – Einstieg in eine neue Ära
Die Grundlagenforschung von Kilbertus und seinen Kollegen soll dazu dienen, ein Umdenken in einer Gesellschaft anzuregen, in der maschinelles Lernen und künstliche Intelligenz künftig immer mehr Entscheidungen beeinflussen werden. „Wenn Maschinen unsere eigenen Wertvorstellungen übernehmen sollen, dann darf man Daten nicht einfach blind weiter verwerten. Wir müssen uns fragen: wie kamen sie zustande? Wir müssen Zusammenhänge hinterfragen. Diese müssen wir zuerst verstehen und formal definieren, bevor wir maschinelles Lernen im sozialen Kontext einsetzen und als fair akzeptieren können.“
(ID:45066062)