KI-Ethik KIDD – oder wie sich KI ethisch gestalten lässt

Ein Gastbeitrag von Karsten Höppner und Axel Demel* Lesedauer: 6 min |

Anbieter zum Thema

Welche Prozesse braucht es bei der Einführung und Entwicklung von KI-Anwendungen, damit Diversität und Fairness ausreichend berücksichtigt werden? Antworten hierauf will das Projekt KIDD liefern. Was steckt dahinter?

Mit der zunehmenden Verbreitung von Künstlicher Intelligenz wächst auch der Bedarf, sich mit ethischen Fragen zu befassen.
Mit der zunehmenden Verbreitung von Künstlicher Intelligenz wächst auch der Bedarf, sich mit ethischen Fragen zu befassen.
(Bild: frei lizenziert / Pixabay)

Wer im Supermarkt nach Bio-Produkten Ausschau hält, hat es mittlerweile leicht: Gütesiegel aller Art kleben gut sichtbar auf Milchtüten oder anderen Verpackungen und lassen keinen Zweifel an Herkunft und Qualität. Anders sieht es bisher noch bei Software-Anwendungen aus, die mit Künstlicher Intelligenz arbeiten. Hier gibt es bisher noch zu wenig Transparenz. Das gilt es jetzt zu ändern: Entscheidungen von KI-Systemen müssen transparent, messbar und fair designt werden, unter Berücksichtigung von Fragen der Diversität – eine komplexe Aufgabe.

Genau damit beschäftigt sich das Projekt Künstliche Intelligenz im Dienste der Diversität, kurz KIDD. Dahinter steht ein dreijähriges Forschungsprojekt des Bundesministeriums für Arbeit und Soziales unter dem Dach der Initiative Neue Qualität der Arbeit, das von einem breit aufgestellten Konsortium umgesetzt wird. Dazu gehören auch die auf Data Science spezialisierte Firma Qdive und das Mutterunternehmen Q Perior.

Über KIDD

KIDD ist Gegenstand eines Forschungsprojektes des Bundesministeriums für Arbeit und Soziales. Das Projekt ist auf drei Jahre ausgelegt. Dafür hat sich ein Konsortium aus Großunternehmen, Vertretern aus KMU, NGO und Universitäten zusammengeschlossen.

Die Mitglieder im Konsortium sind: MSG Systems AG, Q Perior, Chemistree, Epsum, Heraeus Medical, Female Vision, die TU Berlin und das Nexus Institut.

Zur Projekt-Website

Menschenzentrierte KI und wie sie eingesetzt werden kann

Egal ob KI-Anwendungen in Smartphones oder in Personalplanungstools implementiert sind – sie müssen diskriminierungsfrei arbeiten. Doch wie es im konkreten Fall tatsächlich darum bestellt ist, ob beispielsweise ein Smartphone diskriminierungsfrei arbeitet oder nicht, können Durchschnittsverbraucherinnen und -verbraucher nicht beurteilen.

Genau für solche Fälle soll KIDD künftig einen wichtigen Beitrag leisten. Das Ziel ist es, mehr Transparenz möglich machen. Das gilt vor allem dort, wo Menschen im Mittelpunkt stehen, also bei so genannter menschenzentrierter KI. Zu den geeigneten Einsatzgebieten zählen etwa die Personalplanung oder der Aufbau von Matching-Plattformen. Vor allem bei solch sensiblen Themen ist es essenziell, dass KI möglichst fair und diskriminierungsfrei arbeitet. Auch muss es möglich werden, sie objektiv bewertbar zu machen.

Die Grundidee für KIDD lautete daher: Wie können wir Bewertungskriterien schaffen, um eine Beurteilung überhaupt zu ermöglichen? Wie lassen sich KI-Systeme so aufbauen, dass ihre Entscheidungen für den Menschen transparent dargestellt werden? Wie lässt sich verhindern, dass sich diskriminierende Daten im Lernprozess des Algorithmus weiter verfestigen, und wie wird nachvollziehbar, dass KI tatsächlich diskriminierungsfrei arbeitet? Kurz: Wie lässt sich Künstliche Intelligenz so gestalten, dass Fairness und Fragen der Diversität bei Entscheidungen ausreichend berücksichtigt werden?

Das birgt große Herausforderungen hinsichtlich der Kriterien, auf deren Grundlage die KI Entscheidungen und Zuordnungen trifft. Ein Beispiel aus dem Projektgeschäft: Hier ist es entscheidend, Mitarbeitende und Aufgaben bestmöglich zusammenzubringen. Doch je nachdem, welche Parameter priorisiert werden, können die Ergebnisse unterschiedlich ausfallen.
Zählen zum Beispiel Berufsjahre stärker als Kompetenzen, werden Entscheidungen zugunsten älterer Personen getroffen. Wird dagegen priorisiert, wann das letzte Projekt abgeschlossen wurde, kann das andere Personengruppen übergehen. Geht die KI beispielsweise von der Prämisse aus, dass je kürzer das Projekt her ist, die spezifischen Fachkenntnisse noch frisch sind, werden Mitarbeitende, die gerade aus der Elternzeit kommen oder in Teilzeit arbeiten, benachteiligt. Mit dem Einsatz von KIDD soll erprobt werden, wie im KI-Einführungsprozess solche Probleme identifiziert und behoben werden können.

Wie man KI transparent gestaltet

Im Mittelpunkt von KIDD steht die Entwicklung von Prozessen, Tools und Methoden, die den Aufbau sowie die Funktions- und Wirkungsweise von IT-Systemen so anpassen sollen, dass diese Systeme transparent, zieldienlich, verständlich und fair sind. Das gilt in Bezug auf Daten, Software-Architektur und angewandte Regeln von KI-Systemen. Welche Stellschrauben sowie kritische Punkte einer KI gibt es beispielsweise, an denen Transparenz hergestellt werden muss, und welche Darstellungsmethoden eignen sich besonders?

All das wird derzeit gesammelt, erprobt und validiert. Im KIDD-Prozess entwickeln die Beteiligten unter anderem iterativ eine Stellschrauben-Matrix und einen Transparenz-Katalog. Dieser wird aktuell verprobt und soll künftig dabei helfen, Funktions- und Wirkungsweisen von Systemen aufzuschlüsseln und kritische Stellen zu erkennen. Diese können dann gesondert hinsichtlich ihres Diskriminierungspotenzials überprüft und angepasst werden.

Projekt ‚Q Buddy Matching' zeigt Vorteile

Erprobung funktioniert, wenn möglich, am besten im eigenen Haus. Und so hat Q Perior einen von mehreren so genannten Experimentierräumen geschaffen, um den KIDD-Prozess operativ zu erproben. Das dafür neu geschaffene Projekt ‚Q Buddy Matching‘ kommt beim Onboarding neuer Mitarbeitenden zum Einsatz. Konkret geht es darum, Neuzugänge im Unternehmen mit Kollegen oder Kolleginnen zu vernetzen, die dann als Mentoren und Mentorinnen dabei helfen, gut im Unternehmen anzukommen. Die Software hat dabei die Aufgabe, automatisiert auf Basis verschiedener sozialer Präferenzen die jeweils am besten passenden Personenverbindungen zu finden.

Erste Erfolge zeichnen sich bereits ab: Monat für Monat entstehen dabei neue Matches. Viele interkollegiale Verbindungen überdauern den initialen Onboarding-Prozess und haben sich sogar zu Freundschaften weiterentwickelt. Damit hat sich die Software bereits als wertvolles Tool für die Mitarbeitendenbindung erwiesen.

Diversität im Project-Matching

Q Buddy Matching war der erste Schritt. Der zweite Schritt heißt Project Matching: Beim nächsten Projekt von Q Perior, in dem der KIDD-Prozess angewendet wird, geht es darum, offene Positionen in Projekten bestmöglich zu besetzen. Dafür werden Projektanfragen und Mitarbeitende anhand ihrer Kompetenzen, Kenntnisse, Wünsche und Verfügbarkeiten automatisiert zusammengebracht. Als Datengrundlage dienen die aus den Projektanfragen extrahierten Informationen und die von den Mitarbeitenden gepflegten Profile.

Beim Matching-Prozess gibt es auf dieser Stufe der Erprobung zusätzliches Potenzial für Diskriminierung. Deshalb muss die Priorisierung der Parameter fein justiert werden: Was soll schwerer wiegen: Zeitlich bemessene Erfahrung oder die Qualität der Ausbildung? Sollen und dürfen Alter und Geschlecht der Personen eine Rolle spielen? Inwiefern ist es sinnvoll, neben quantitativen Kriterien auch qualitative einzuarbeiten und wie kann das konkret aussehen und gelingen? All das sind Fragen, die derzeit mit Hilfe des KIDD-Prozesses gelöst werden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Wichtig ist dabei auch, die Wünsche der Mitarbeitenden zu berücksichtigen. Unsere Philosophie lautet: Es gibt keine guten und schlechten Mitarbeitenden, es gibt nur gute und schlechte Matches. Und: Je höher die Qualität der Verbindungen, desto besser ist es für die Produktivität und auch die Zufriedenheit aller Beteiligten.

Panel der Vielfalt: Menschliche Unterstützung für die KI

Im Projekt wurde schnell klar, dass KI ohne menschliche Kontrolle nicht diskriminierungsfrei arbeiten kann. Deshalb hat Q Perior das sogenannte Panel der Vielfalt gegründet: Eine Jury mit aktuell 17 Mitgliedern, die möglichst divers zusammengesetzt sind, was Geschlecht, Alter, Bildungsabschlüsse und Migrationshintergrund, aber auch Organisationseinheiten im Unternehmen betrifft. Das Gremium soll sicherstellen, dass die Einführung von menschenzentrierter KI aus möglichst vielen Perspektiven kritisch begleitet und ethische Fragestellungen divers diskutiert werden. Dieser Ansatz hat sich bewährt.

Noch ist der KIDD-Prozess nicht finalisiert. Das Projekt zu diesem hochkomplexen Thema endet erst im September 2023. Ziel ist es, die bereits zahlreich vorhandenen ethischen Richtlinien für KI in die Praxis zu überführen. Hierzu zählen die Aspekte Human Agency and Oversight, Technical Robustness and Safety, Accountability sowie Diversity, Non-discrimination and Fairness. Zentral ist hier die Frage: Wer setzt diese Guidelines um und wie? Für die Operationalisierung dieser Richtlinien und Normen entwickelten wir im Rahmen des KIDD-Projekts einen standardisierten Prozess, der Antworten auf diese Fragen gibt und Wege zur Umsetzung aufzeigt.

Die Chancen stehen gut, dass am Ende des KIDD-Projektes ein Prozess etabliert werden kann, der Unternehmen und Organisationen dabei unterstützt, menschenzentrierte KI-Lösungen zu implementieren. Und das wiederum lässt sich transparent machen – vielleicht sogar mit einem Gütesiegel für Transparenz und Diversität.

* Karsten Höppner ist CEO von Q Perior. Axel Demel arbeitet als Data Scientist bei Qdive.

(ID:48975319)