Künstliche IntelligenzSind Algorithmen eine Gefahr für die Demokratie?
Von
Jürgen Schreier
3 min Lesedauer
Die Standpunkte könnten gegensätzlicher nicht sein. Während Mark Zuckerberg Facebook zum Fackelträger der Meinungsfreiheit hochstilisiert, wähnen andere in den sozialen Medien eine Gefahr für die Demokratie. Mehrere Studien sind der Problematik nachgegangen. Fazit: Die verwendeten Algorithmen lassen zumindest Extrempositionen prominenter erscheinen.
Algorithmen entscheiden über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken
Künstliche Intelligenz ist eine nützliche Technologie und - im Kontext des industriellen Internets der Dinge - auch eine recht unproblematische. Hier dreht sich alles um Maschinen und deren Sensordaten. Ganz anders sieht die Sache aus, wenn es um Online-Medien wie Facebook, YouTube, Google & Co geht.
Diese arbeiten mit Algorithmen, die darüber entscheiden, welche Informationen die Nutzer vorzugsweise zu sehen bekommen. Algorithmen entscheiden über die Reihenfolge von Suchergebnissen, personalisierte Werbeanzeigen oder Beiträge in sozialen Netzwerken – um nur einige Beispiele zu nennen.
Allerdings tragen Algorithmen dazu bei, extreme Positionen sichtbar zu machen und damit Polarisierungstendenzen in der Gesellschaft zu fördern, wie neue Studien zeigen. Prof. Dr. Birgit Stark, Professorin an der Johannes Gutenberg-Universität Mainz (JGU) und Direktorin am Mainzer Medieninstitut, weist darauf hin, dass die Internet-Unternehmen stärker in die Verantwortung genommen werden müssen, und fordert einen verbesserten Zugang zu den Daten der Plattformen für die Wissenschaft und standardisierte Offenlegungspflichten.
Transparenz als zentrale Grundlage für Regulierung
Die Regulierung von Intermediären ist eine der dringendsten medienpolitischen Aufgaben, was sich in einer Reihe von Initiativen auf europäischer und nationaler Ebene widerspiegelt, die nach Wegen suchen, um digitale Plattformen effektiv zur Rechenschaft ziehen zu können.
Zwei neue Gutachten, die am Mainzer Medieninstitut entstanden und von AlgorithmWatch in Zusammenarbeit mit dem European Policy Centre veröffentlicht worden sind, kommen zu dem Schluss, dass Transparenz die zentrale Grundlage darstellt, auf der eine wirksame Regulierung aufbauen muss: Wissenschaftler, Journalisten und zivilgesellschaftliche Akteure müssen dafür Zugang zu den Daten der Plattformen erhalten. Dazu gehört unter anderem der verbesserte Zugang zu technischen Schnittstellen und Informationen für die Nutzer, nach welchen Kriterien bestimmte Inhalte angezeigt werden.
Im Rahmen des Governing-Platform-Projekts kooperieren das Mainzer Medieninstitut und AlgorithmWatch in Zusammenarbeit mit zivilgesellschaftlichen Akteuren und Stakeholdern auf politischer Ebene. Ziel ist es, in einem partizipativen Entwicklungsprozess konkrete Vorschläge für Instrumentarien zur Plattformregulierung zu entwickeln. Das Mainzer Medieninstitut übernimmt in diesem Kontext die zentrale Aufgabe, die akademische Expertise aus der Kommunikations- und Rechtswissenschaft einzubringen.
Bevorzugung emotionaler und polarisierender Inhalte beeinflusst Meinungsbildung
In ihrem kommunikationswissenschaftlichen Gutachten „Are Algorithms a Threat to Democracy?“ stellen Birgit Stark und ihr Mitarbeiter Daniel Stegmann auf einer sehr breiten empirischen Basis einen fundierten Überblick über den aktuellen Forschungsstand zu den negativen Auswirkungen von Intermediären auf den öffentlichen Diskurs bereit. „Uns war es wichtig, einen holistischen Ansatz zu wählen und nicht alleine die prominenten Schlagworte ‚Filterblase‘ und ‚Echokammern‘ zu diskutieren, sondern die Perspektive auf die zentralen Gefahren für den öffentlichen Diskurs zu lenken“, sagt Birgit Stark, Professorin für Medienkonvergenz am Institut für Publizistik der JGU.
In der Gesamtschau ergibt sich ein differenziertes Bild: Während die pauschalen Effekte von Filterblasen in der öffentlichen Debatte meist überschätzt werden, entstehen hauptsächlich indirekte Gefahren für Meinungsbildungsprozesse, indem Algorithmen in Online-Diskursen beispielsweise Extrempositionen prominenter erscheinen lassen und diesen in der Debatte damit unverhältnismäßig viel Raum geben – häufig verknüpft mit einer Zunahme von Inzivilität und Hassrede in politischen Auseinandersetzungen. Denn ihre algorithmenbasierten Logiken befördern vor allem emotionale Inhalte und belohnen das Polarisierende.
Umsetzung von Transparenzvorschriften in Deutschland noch offen
Besonders virulent sind in der aktuellen Covid-19-Pandemie Sorgen über die Verbreitung von Desinformationen, insbesondere in der Form von Verschwörungstheorien: „Die bisherigen Erkenntnisse, die hauptsächlich die USA in den Blick nehmen, deuten darauf hin, dass die Verbreitung und Rezeption von Desinformation außerhalb von Krisenzeiten aber überschätzt wird“, so Daniel Stegmann, wissenschaftlicher Mitarbeiter am Lehrstuhl für Medienkonvergenz. „Allerdings ist dies eine vorläufige, vorsichtige Einschätzung, denn die Datenlage ist speziell außerhalb der USA dünn, was auch mit dem unzureichenden Zugang zu Plattformdaten zusammenhängt.“ Entsprechend hebt das Gutachten in seinem Fazit die Bedeutung von Transparenz und Datenzugang hervor, die unbedingte Voraussetzungen für evidenzbasierte Regulierungsmechanismen darstellen.
Außer dem kommunikationswissenschaftlichen Gutachten wurde im Rahmen des Governing-Platform-Projekts die Studie „Designing platform governance: A normative perspective on needs, strategies, and tools to regulate intermediaries” von Prof. Dr. Matthias Cornils, ebenfalls Direktor am Mainzer Medieninstitut und Professor für Medienrecht, Kulturrecht und Öffentliches Recht an der JGU, veröffentlicht. Transparenzverpflichtungen sind demnach die Anfangsstufe jeder erforderlichen Regulierung.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Deutschland nimmt mit zwei Regelwerken, dem Netzwerkdurchsetzungsgesetz und dem kürzlich unterzeichneten neuen Medienstaatsvertrag, bei der Regulierung von Plattformen eine Vorreiterrolle ein. Offen ist allerdings, wie die geplanten Transparenzvorschriften im Medienstaatsvertrag benutzerfreundlich und nachvollziehbar umgesetzt werden können.