Künstliche Intelligenz im Alltag Das Dilemma mit der ethischen Verantwortung

Redakteur: Hendrik Härter

Die künstliche Intelligenz übernimmt viele Aufgaben in Industrie und Forschung. Doch die Entscheidungen einer KI erfolgen nach dem Black-Box-Prinzip. Eine ethische Verantwortung ist notwendig. Ein Balanceakt zwischen Regulierung und Entwicklung.

Richtig oder falsch: Eine künstliche Intelligenz entscheidet anhand der ihr zur Verfügung stehenden Daten.
Richtig oder falsch: Eine künstliche Intelligenz entscheidet anhand der ihr zur Verfügung stehenden Daten.
(Bild: Tumisu / Pixabay )

Vor einigen Wochen hatte im Deutschlandfunk der Mainzer Philosoph Thomas Metzinger gefordert, dass in Deutschland dringend KI-Ethiker gebraucht werden. Die meisten Experten für künstliche Intelligenz (KI) kommen aus den mathematisch-naturwissenschaftlichen Disziplinen. Nach den Worten von Metzinger hätten die Geisteswissenschaften die Entwicklung verschlafen.

Dabei ist die künstliche Intelligenz längst in Deutschlands Schwerpunktindustrien angekommen. Sie hilft bei vielfältigen Problemstellungen und unterstützt die Gesellschaft. Sei es im Kampf gegen den Klimawandel, bei der ärztlichen Diagnose oder beim autonomen Fahren. Doch können wir die Algorithmen noch durchdringen? Gerade weil der Einsatz der größtenteils intransparenten KI immer mehr in den Fokus unseres Denken und Handelns rückt, sollten ethische Werte die Basis bilden. Sie müssen definiert werden und die weitere Entwicklung rund um KI begleiten.

Ethische Risiken minimieren

„Da Künstliche Intelligenz immer breiter genutzt und öffentlichkeitswirksamer wird, Problemfelder entstehen lässt und ethische Risiken birgt, gilt es diese zu minimieren. Unternehmen sollten sich deshalb in Bezug auf die KI-Nutzung zu ethischen Standards bekennen und diese bestmöglich kontrollieren“, sagt Dr. Katja Nagel, Leiterin des Global Organizational Integrity Institutes (GOII) in München.

In der Gegenwart werden richtungsweisende Entscheidungen, und damit auch mögliche Fehlentscheidungen, in Unternehmen von Führungspersonen getroffen. Wenn wir in die Zukunft blicken, werden viele dieser Entscheidungen vermehrt in KI-Systemen respektive Algorithmen unterstützt oder sogar vorweggenommen.

Im Personalwesen soll etwa mithilfe von KI die Auswahl von Bewerbern nicht nur erleichtert, sondern gerechter werden. Zeitersparnis, fairere Beurteilung, mehr Diversität. Das ist zumindest die Annahme. Die andere Wahrheit lautet: Die Bewertung durch Algorithmen kann zu Diskriminierung führen.

Logik des Algorithmus vs. moralische Vertretbarkeit

Wir müssen ehrlich sein: Eine KI funktioniert wie eine kaum nachvollziehbare „Black-Box-Entscheidung“. Für eine gezielte Diskriminierung fehlt der Maschine aber das Bewusstsein. Sie zieht ihre ganz eigene, logische Schlussfolgerung, die der menschlichen nicht immer entspricht, aber auf ihr gründet: durch die dem KI-System bereitgestellten Informationen.

Dessen müssen sich die Unternehmen zwingend bewusst sein. Wenn künstliche Intelligenz also nicht nur technologisch revolutionär sein soll, sondern auch moralisch höchsten Ansprüchen genügen möchte, dann ist für den KI-Einsatz die Etablierung einer Strategie und eines Verhaltenskodex anhand ethischer Prinzipien unabdingbar.

Notwendiges Wertesystem

Für die Verantwortlichen in Industrie und Forschung bedeutet das, in die KI ein Wertesystem zu implementieren. Es muss auf Fairness, Solidarität, Toleranz, Transparenz, Nachhaltigkeit und Gemeinwohl fußen. Außerdem muss es unternehmensintern auf allen Ebenen Berücksichtigung finden und transparent nach außen kommuniziert werden. Die getroffenen Entscheidungen des KI-Systems sollten wiederum die Integrität eines Unternehmens unterstützen und im besten Fall widerspiegeln.

„Die ethische Betrachtungsweise von KI-Systemen muss nun in den Fokus der Unternehmen rücken. Dabei geht es nicht darum, die Innovationkraft einzuschränken, sondern moralische Grundsätze sicherzustellen. Das eine schließt das andere nicht aus: Bei aller technischen Entwicklung müssen die Grundwerte immer die Basis bilden und geschützt werden“, sagt Dr. Katja Nagel. „Und am Ende wird es sich nicht nur vertrauensbildend auf die Kunden, sondern auch nachhaltig auf den Unternehmenswert auswirken.“

Global Organizational Integrity Institute

Das Global Organizational Integrity Institute (GOII) ist ein unabhängiges und forschungsnahes Institut, das Organisationen unterstützt, ihren eigenen aktuellen Status zu Integrität wissenschaftlich und empirisch fundiert zu messen und in einem geordneten Prozess geeignete Maßnahmen zur Verbesserung zu ergreifen.

Wesentliches Ziel des GOII ist es, weltweit Unternehmen zu ermöglichen, ihre Integrität zu messen, zu vergleichen und systematisch zu verbessern. Wissenschaftlicher Kooperationspartner des GOII ist der Inhaber des Peter Löscher-Stiftungslehrstuhles für Wirtschaftsethik der Technischen Universität München (TUM). Die operative Pilotierung und die strategische Implementierung erfolgten bei Volkswagen, in enger Zusammenarbeit mit der Unternehmensberatung cetacea aus München.

(ID:47572855)