Technologie und Gesellschaft Wie Hostile Tech zu Responsible Tech werden kann

Von Erik Dörnenburg*

Anbieter zum Thema

Technologien besitzen häufig die Macht, sich negativ auf die Gesellschaft auswirken zu können. Wie können Unternehmen dabei Künstliche Intelligenz, Robotik oder das Internet der Dinge verantwortungsvoll und im Sinne ihrer Stakeholder einsetzen und steuern?

„Responsible Tech" beschreibt den verantwortungsvollen Umgang mit Technologien - ist dieser nicht gewährleistet, können Menschen unter anderem von Künstlicher Intelligenz diskriminiert werden.
„Responsible Tech" beschreibt den verantwortungsvollen Umgang mit Technologien - ist dieser nicht gewährleistet, können Menschen unter anderem von Künstlicher Intelligenz diskriminiert werden.
(Bild: gemeinfrei / Pixabay)

Technologien spielen in unserem Alltag eine immer wichtigere Rolle. Eine Entwicklung, die auch dazu führt, dass vermehrt Entscheidungen und Aufgaben an besagte Technologien übertragen werden. Einher geht das mit Fragen nach ethischen Prinzipien und Werten, auf denen diese beruhen. Viele Unternehmen sind sich mittlerweile bewusst, dass die von ihnen geschaffenen Technologien nicht im luftleeren Raum agieren. Sie können gesellschaftspolitischen Machtdynamiken unterliegen und damit weitreichende Auswirkungen haben. Wo aber fangen solche Überlegungen an?

Eine Frage der Perspektive

Grundsätzlich gehen wir erst einmal davon aus, dass Technologie uns unterstützen und bereichern soll. Doch wie überall, gibt es auch hier eine zweite Seite der Medaille: Kriminelle Aktivitäten im Bereich digitaler Technologien sind ein Teil dessen, was wir geschaffen haben. Dazu haben wir noch etwas anderes hervorgebracht: Eine Technologie, die aufgrund von schlechtem Design, gierigen Stakeholdern und Stakeholderinnen oder Unwissenheit schädlich für Menschen sein kann. „Feindselige“ Technologie, bzw. Hostile Tech, ist also nicht nur ein Hackerangriff oder ein Identitätsdiebstahl. Genauso kann zum Beispiel Online-Werbung von Nutzern und Nutzerinnen als Bedrohung eingeordnet werden. Während einige Menschen personalisierte Werbung als praktisch empfinden, nehmen andere die dadurch gesammelten, personenbezogenen Daten als Bedrohung wahr.

Der diskriminierende Algorithmus

Es gibt Fälle und Praktiken, die die Mehrheit als schädlich und bedrohlich betrachtet, auch wenn sie auf den ersten Blick nicht illegal sind. Dazu gehört zum Beispiel der berühmte Bias, also eine Art Trugbild in Algorithmen und maschinellen Lernsystemen. Je höher der Automatisierungsgrad der Technologie, desto höher ist die Wahrscheinlichkeit, dass es zu Verzerrungen kommt. Die Google-Bilderkennung stufte 2015 Menschen mit dunkler Hautfarbe grundsätzlich als Gorillas ein. Klingt rassistisch? Ist es auch.

Darüber hinaus sind frauenfeindliche Verzerrungen innerhalb von Technologien keine Seltenheit. Ein Beispiel dafür ist das KI-System, das Amazon einige Zeit einsetzte, um den Recruiting-Prozess zu automatisieren. Die KI bezog Frauen nicht in die engere Talent-Auswahl mit ein.

Künstliche Intelligenz geprägt durch Vorurteile

Der Ursprung dieser Verzerrungen liegt in den Daten, die dem Algorithmus zugrunde liegen. Sie sind die Basis für selbstlernende Systeme, auf denen spätere Kalkulationen und Empfehlungen aufbauen. Sind die Daten schlecht, ist auch das anschließende Training schlecht. Denn moderne Lernalgorithmen nutzen vorgegebene Datensammlungen, um darin Muster oder Verbindungen zu erkennen und Gesetzmäßigkeiten offenzulegen. Darauf stützen sich spätere Entscheidungen. Neutral sind diese am Ende nie, denn die Daten werden von Menschen generiert und verarbeitet. Und Menschen haben Vorurteile, die sich in diesen Daten wiederfinden. Arbeitet ein “intelligentes” System auf der Grundlage eines solchen Datensatzes, ist das Ergebnis oft Diskriminierung. Dieser Umstand wird mit der voranschreitenden Verbreitung des maschinellen Lernens zur großen Herausforderung.

Negative Auswirkungen und Interessenskonflikte

Bei der Entwicklung neuer Technologien haben die Verantwortlichen immer bestimmte Stakeholdergruppen im Sinn, an die sie sich mit ihrem Produkt wenden. Und hier liegt der Hund begraben: Denn die allermeisten Produkte betreffen nicht nur eine einzige Interessensgruppe, sondern wirken sich direkt oder indirekt auf viele andere Interessen aus. Das Training eines einzigen Modells zur Verarbeitung natürlicher Sprache kann beispielsweise einen CO2-Ausstoß von 500 Tonnen verursachen, was 125 Hin- und Rückflügen zwischen Tokio und Toronto entspricht. Ein solcher Interessenkonflikt wird zumeist nicht bedacht oder billigend in Kauf genommen.

Billigend in Kauf nimmt beispielsweise Meta, dass 32 % der Teenager-Mädchen sich durch Instagram noch schlechter fühlen, wenn sie sich in der Vergangenheit bereits wegen ihres Körpers schlecht gefühlt haben. Das zeigen interne Forschungsergebnisse, die das Unternehmen zwei Jahre lang geheim gehalten hat. In einem internen Bericht heißt es sogar, dass der Druck, nur die besten Momente zu teilen und perfekt auszusehen, Jugendliche in Depressionen stürzen lassen kann. Auch ein geringes Selbstwertgefühl und Essstörungen können sich daraus entwickeln. Obwohl Meta sich dieser negativen Auswirkungen bewusst war, änderte das Unternehmen nichts daran – es versuchte das Ganze sogar geheim zu halten.

Die Pandemie und die Klimakrise verstärken die digitalen Ungleichheiten und zeigen eindrücklich, warum Unternehmen unbedingt die Auswirkungen ihrer technologischen Entwicklungen und Entscheidungen analysieren und berücksichtigen müssen. Mitarbeitende, Kunden und Kundinnen oder auch Investierende treiben diesen Wandel voran, indem sie einen verantwortungsvollen und fairen Umgang mit Daten, Technologien und digitalen Anwendungen einfordern. Es geht also nicht mehr um ein ‘Nice-to-have’, sondern ums Überleben vieler Unternehmen.
Doch wie können Technologien verantwortungsvoll und im Sinne der Gesellschaft genutzt werden?

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Verantwortungsvolle Technologie

Unter dem Begriff „Responsible Tech“ (verantwortungsvolle Technologie) lassen sich unterschiedliche Konzepte zusammenfassen, die sich mit dem bewussten Umgang von Technologie beschäftigen. Ziel ist es, die Interessen von Unternehmen, Individuen und der Gesellschaft in Einklang zu bringen. Diese Konzepte berücksichtigen gesellschaftliche Werte und den umfassenden Einfluss von Technologie. Somit reduzieren sie damit die Risiken, die in ihrer Anwendung entstehen können. Verantwortungsvolle Technologie bezieht sich dabei auf die ganze Wertschöpfungskette und nicht nur auf einzelne Produkte.

Höhere Cybersecurity

Eine Möglichkeit, um verantwortungsvoll mit Technologien umzugehen und vor allem Datenlecks zu verhindern, kann die Zero-Trust-Architektur sein. Heutzutage müssen alle, sowohl interne, als auch externe Zugriffe auf Ressourcen laufend überprüft und verifiziert werden. Im Gegensatz dazu wurde früher alles, was sich außerhalb der lokalen Domain abspielte, als potenziell bedrohlich eingestuft und durch Malware-Scans und Firewalls kontrolliert. Geräte im eigenen Netzwerk galten hingegen als grundsätzlich vertrauenswürdig, da sie sich innerhalb dieser vermeintlich geschützten Umgebung befinden. Indem sich die Technologien weiterentwickelten, hat sich die Lage wesentlich verändert. Durch Cloud-Services, Remote Work und die Verwendung eigener Geräte verschwimmt die Grenze zwischen eigenem Netzwerk und externen Bedrohungen zunehmend. Gleichzeitig stellt der rasante Anstieg von Cyberangriffen neue Anforderungen an die Sicherheitsstrategie von Unternehmen.

Vielfältigkeit fördern

Eine weitere sinnvolle Maßnahme ist es, diverse Teams aufzustellen. Die Perspektiven, die Menschen unterschiedlicher Herkunft, Geschlecht oder sexueller Orientierung in den Prozess der Entwicklung einbringen, sind enorm wertvoll. Sie ermöglichen Unternehmen, kritisch über die wirtschaftlichen und sozialen Auswirkungen ihrer Produkte – seien sie bewusst oder unbewusst entstanden – zu reflektieren. Diese Vielfalt bildet eine Grundvoraussetzung für die Entwicklung von Technologien und Innovationen, die einen positiven gesellschaftlichen Wandel unterstützen.

Die Software-Lieferkette

Hacker und Hackerinnen machen sich zunehmend die asymmetrische Natur von Angriff und Verteidigung zunutze. Während Unternehmen in der Lage sein müssen, die gesamte Angriffsfläche abzusichern, müssen Cyberkriminelle nur eine kleine Schwachstelle finden. Dabei setzen sie sehr ausgefeilte Techniken ein. Beim Angriff auf die Software-Lieferkette schalten sich die Angreifenden in der Regel im Vorfeld oder in der Mitte der Lieferkette ein, um bei möglichst vielen Nutzern und Nutzerinnen Schaden zu hinterlassen. Im Vergleich zu isolierten Sicherheitsverletzungen wirken sich erfolgreiche Supply-Chain-Angriffe im Regelfall in einem wesentlich größeren Ausmaß aus.

Entsprechend wichtig ist es, Unternehmen für den verantwortungsvollen Umgang mit Technologien zu sensibilisieren. Ziel ist es, Sicherheit und Ethik zu einer Disziplin zu machen, die in allen Bereichen des Unternehmens zum Tragen kommt.

Zusammenarbeit mit der Politik

Globale Unternehmen tragen immer eine Verantwortung – gegenüber ihren Mitarbeitenden, ihren Shareholdergruppen, aber auch gegenüber der Gesellschaft. Die Frage ist jedoch, wie viel Verantwortung Unternehmen tatsächlich tragen können. Müssen gesamtgesellschaftliche Fragen dieses Ausmaßes nicht von und mit politischen Entscheidungsträgern und -trägerinnen getroffen werden?

In jedem Fall ist der Dialog mit politischen Entscheidenden unerlässlich, um auf Verbesserungen der gesetzlichen Vorschriften zum Schutz der Privatsphäre und des Datenschutzes zu drängen. Dazu muss auf mögliche Verfehlungen und Rückschritte hingewiesen werden. Unternehmen sollten ihr Bestes tun, um die negativen Auswirkungen ihrer Technologien sichtbar zu machen und zu bekämpfen. Aber den Rahmen muss die Politik vorgeben. Positive Entwicklungen gibt es dabei sowohl in Deutschland als auch in der Europäischen Union.

Ein gutes Beispiel für ein Projekt, das sowohl Unternehmen als auch die Gesellschaft bereichert, ist das Open-Source-Tool Cloud Carbon Footprint (CCF), das unter Verwendung von Cloud-APIs die geschätzten CO2-Emissionen von Unternehmen visualisiert. Auf Basis der Analyse können Unternehmen ihren CO2-Ausstoß verringern und gleichzeitig Kosten einsparen. Auch die Green Software Foundation (GSF) will das Verantwortungsbewusstsein und die Handlungsfähigkeit von Verantwortlichen fördern. Die Plattform entwickelt neue Standards und Best Practices, Open-Source-Werkzeuge, veranstaltet Schulungen unterstützt den Aufbau einer Community "Grüner Software Botschafter und Botschafterinnen ". Konkret soll der durch Software verursachte C02-Ausstoß bis zum Jahr 2030 um 45 % reduziert werden. Beide Initiativen wurden allein von Unternehmen ins Leben gerufen. Dennoch sollten auch zukünftig Anreize für Unternehmen geschaffen werden, um positiv auf Gesellschaft und Umwelt zu einwirken.

Chancen zur Positionierung von Unternehmen

Laut einer aktuellen Cisco-Umfrage berücksichtigen fast 80 % der Verbrauchenden den Datenschutz bei ihren Kaufentscheidungen. Dazu sind diese bereit, mehr für Produkte oder Anbieter mit höheren Datenschutzstandards zu bezahlen. Widerstandsfähige Datenschutzpraktiken werden damit zu einem starken Unterscheidungsmerkmal und Wettbewerbsvorteil.

Eines der Unternehmen, die das erkannt haben, ist Apple. Das Unternehmen investiert einerseits in den Schutz vor Hackerangriffen und achtet andererseits darauf, Kundenwünsche zu respektieren, indem es das unseriöse Sammeln von Daten vermeidet. Dadurch vertrauen Kunden und Kundinnen dem Unternehmen mehr und nehmen es positiver wahr. Apple weiß das und nutzt seine Maßnahmen zum Datenschutz als Verkaufsargument und Unterscheidungsmerkmal gegenüber anderen Konzernen.

Der Erfolg des Unternehmens zeigt: Der verantwortungsvolle Umgang mit Technologien, ihren Auswirkungen und dem Schutz von Daten bedeutet einen klaren Vorteil für die Unternehmenspositionierung. Firmen sollten den Schutz gegen Cyberattacken aber nicht als Allheilmittel betrachten. Sie tun gut daran, ein solides Rahmenwerk für ihre Datenethik zu entwickeln und die möglichen negativen Auswirkungen der von ihnen verwendeten Technologien anzuerkennen.

*Erik Dörnenburg ist Developer und Head of Technology bei Thoughtworks.

(ID:48588734)