Künstliche Intelligenz und Ethik Biased Algorithms: Wenn KI gefährlich wird
Das Vertrauen in die Künstliche Intelligenz ist enorm. Doch was passiert, wenn die Algorithmen fehlerhaft sind, " verzerrt" und die Datenauswahl einseitig? Und welche Folgen hat das für Freiheit, Demokratie, für soziale Gerechtigkeit und Frieden? Der Artikel thematisiert einige ethische Aspekte der KI.
Es gibt gute KI-Algorithmen und es gibt schlechte KI-Agorithmen. Bei dieser Unterscheidung jedoch lediglich Performance der betreffenden KI-Lösung im Fokus. Daneben gibt es noch Algorithmen, die man als "verzerrt", als biased algorithms, bezeichnen könnten. Wie die amerikanische Big-Data-Expertin Cathy O'Neill in ihrem Buch "Weapons of Math Destruction - How Big Data Increases Inequality and Threatens Democracy" darlegt, kodifizieren die Methoden und Prozesse zur Auswertung großer Datenmengen eher die Vergangenheit. Und dabei fließen unter Umständen auch "alte" Stereotype oder Vorurteile in die Programmierung der Algorithmen und/oder Auswahl der Daten ein.
In dieser Hinsicht sind unter anderem KI-Systeme in die Kritik geraten, mit denen in den USA über die "Rückfallwahrscheinlichkeit" von Straftätern und damit über die faktische Haftdauer befunden wird. Auch beim Einsatz von KI-Lösungen im (Aus-)Bildungsbereich besteht die Gefahr, soziale Ungleichheiten zu verstärken, wenn sie auf "verzerrten" Algorithmen beruhen oder die Auswahl der (Trainings-)Daten einseitig erfolgt. Problematisch wird die Sache vor allem dann, wenn man den "Vorschlägen" der Künstlichen Intelligenz mehr vertraut als menschlicher Entscheidungskompetenz oder wenn man KI-Systeme sogar autonom entscheiden dürfen.
Melden Sie sich an oder registrieren Sie sich und lesen Sie weiter
Um diesen Artikel vollständig lesen zu können, müssen Sie registriert sein. Die kostenlose Registrierung bietet Ihnen Zugang zu exklusiven Fachinformationen.
Sie haben bereits ein Konto? Hier einloggen