Künstliche Intelligenz Sind Algorithmen eine Gefahr für die Demokratie?
Die Standpunkte könnten gegensätzlicher nicht sein. Während Mark Zuckerberg Facebook zum Fackelträger der Meinungsfreiheit hochstilisiert, wähnen andere in den sozialen Medien eine Gefahr für die Demokratie. Mehrere Studien sind der Problematik nachgegangen. Fazit: Die verwendeten Algorithmen lassen zumindest Extrempositionen prominenter erscheinen.
Anbieter zum Thema

Künstliche Intelligenz ist eine nützliche Technologie und - im Kontext des industriellen Internets der Dinge - auch eine recht unproblematische. Hier dreht sich alles um Maschinen und deren Sensordaten. Ganz anders sieht die Sache aus, wenn es um Online-Medien wie Facebook, YouTube, Google & Co geht.
Diese arbeiten mit Algorithmen, die darüber entscheiden, welche Informationen die Nutzer vorzugsweise zu sehen bekommen. Algorithmen entscheiden über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken – um nur einige Beispiele zu nennen.
Allerdings tragen Algorithmen dazu bei, extreme Positionen sichtbar zu machen und damit Polarisierungstendenzen in der Gesellschaft zu fördern, wie neue Studien zeigen. Prof. Dr. Birgit Stark, Professorin an der Johannes Gutenberg-Universität Mainz (JGU) und Direktorin am Mainzer Medieninstitut, weist darauf hin, dass die Internet-Unternehmen stärker in die Verantwortung genommen werden müssen, und fordert einen verbesserten Zugang zu den Daten der Plattformen für die Wissenschaft und standardisierte Offenlegungspflichten.
Transparenz als zentrale Grundlage für Regulierung
Die Regulierung von Intermediären ist eine der dringendsten medienpolitischen Aufgaben, was sich in einer Reihe von Initiativen auf europäischer und nationaler Ebene widerspiegelt, die nach Wegen suchen, um digitale Plattformen effektiv zur Rechenschaft ziehen zu können.
Zwei neue Gutachten, die am Mainzer Medieninstitut entstanden und von AlgorithmWatch in Zusammenarbeit mit dem European Policy Centre veröffentlicht worden sind, kommen zu dem Schluss, dass Transparenz die zentrale Grundlage darstellt, auf der eine wirksame Regulierung aufbauen muss: Wissenschaftler, Journalisten und zivilgesellschaftliche Akteure müssen dafür Zugang zu den Daten der Plattformen erhalten. Dazu gehört unter anderem der verbesserte Zugang zu technischen Schnittstellen und Informationen für die Nutzer, nach welchen Kriterien bestimmte Inhalte angezeigt werden.
:quality(80)/images.vogel.de/vogelonline/bdb/1443400/1443499/original.jpg)
Künstliche Intelligenz und Ethik
Biased Algorithms: Wenn KI gefährlich wird
Im Rahmen des Governing-Platform-Projekts kooperieren das Mainzer Medieninstitut und AlgorithmWatch in Zusammenarbeit mit zivilgesellschaftlichen Akteuren und Stakeholdern auf politischer Ebene. Ziel ist es, in einem partizipativen Entwicklungsprozess konkrete Vorschläge für Instrumentarien zur Plattformregulierung zu entwickeln. Das Mainzer Medieninstitut übernimmt in diesem Kontext die zentrale Aufgabe, die akademische Expertise aus der Kommunikations- und Rechtswissenschaft einzubringen.
Bevorzugung emotionaler und polarisierender Inhalte beeinflusst Meinungsbildung
In ihrem kommunikationswissenschaftlichen Gutachten „Are Algorithms a Threat to Democracy?“ stellen Birgit Stark und ihr Mitarbeiter Daniel Stegmann auf einer sehr breiten empirischen Basis einen fundierten Überblick über den aktuellen Forschungsstand zu den negativen Auswirkungen von Intermediären auf den öffentlichen Diskurs bereit. „Uns war es wichtig, einen holistischen Ansatz zu wählen und nicht alleine die prominenten Schlagworte ‚Filterblase‘ und ‚Echokammern‘ zu diskutieren, sondern die Perspektive auf die zentralen Gefahren für den öffentlichen Diskurs zu lenken“, sagt Birgit Stark, Professorin für Medienkonvergenz am Institut für Publizistik der JGU.
In der Gesamtschau ergibt sich ein differenziertes Bild: Während die pauschalen Effekte von Filterblasen in der öffentlichen Debatte meist überschätzt werden, entstehen hauptsächlich indirekte Gefahren für Meinungsbildungsprozesse, indem Algorithmen in Online-Diskursen beispielsweise Extrempositionen prominenter erscheinen lassen und diesen in der Debatte damit unverhältnismäßig viel Raum geben – häufig verknüpft mit einer Zunahme von Inzivilität und Hassrede in politischen Auseinandersetzungen. Denn ihre algorithmenbasierten Logiken befördern vor allem emotionale Inhalte und belohnen das Polarisierende.
Umsetzung von Transparenzvorschriften in Deutschland noch offen
Besonders virulent sind in der aktuellen Covid-19-Pandemie Sorgen über die Verbreitung von Desinformationen, insbesondere in der Form von Verschwörungstheorien: „Die bisherigen Erkenntnisse, die hauptsächlich die USA in den Blick nehmen, deuten darauf hin, dass die Verbreitung und Rezeption von Desinformation außerhalb von Krisenzeiten aber überschätzt wird“, so Daniel Stegmann, wissenschaftlicher Mitarbeiter am Lehrstuhl für Medienkonvergenz. „Allerdings ist dies eine vorläufige, vorsichtige Einschätzung, denn die Datenlage ist speziell außerhalb der USA dünn, was auch mit dem unzureichenden Zugang zu Plattformdaten zusammenhängt.“ Entsprechend hebt das Gutachten in seinem Fazit die Bedeutung von Transparenz und Datenzugang hervor, die unbedingte Voraussetzungen für evidenzbasierte Regulierungsmechanismen darstellen.
:quality(80)/images.vogel.de/vogelonline/bdb/1531900/1531984/original.jpg)
Künstliche Intelligenz
Programmierte Verantwortung: Digitale Ethik und KI
Außer dem kommunikationswissenschaftlichen Gutachten wurde im Rahmen des Governing-Platform-Projekts die Studie „Designing platform governance: A normative perspective on needs, strategies, and tools to regulate intermediaries” von Prof. Dr. Matthias Cornils, ebenfalls Direktor am Mainzer Medieninstitut und Professor für Medienrecht, Kulturrecht und Öffentliches Recht an der JGU, veröffentlicht. Transparenzverpflichtungen sind demnach die Anfangsstufe jeder erforderlichen Regulierung.
Deutschland nimmt mit zwei Regelwerken, dem Netzwerkdurchsetzungsgesetz und dem kürzlich unterzeichneten neuen Medienstaatsvertrag, bei der Regulierung von Plattformen eine Vorreiterrolle ein. Offen ist allerdings, wie die geplanten Transparenzvorschriften im Medienstaatsvertrag benutzerfreundlich und nachvollziehbar umgesetzt werden können.
(ID:46635869)