Künstliche Intelligenz
Voreingenommenheit als Negativfaktor in der Künstlichen Intelligenz

Von Richio Aikawa* 5 min Lesedauer

Voreingenommenheit im Bereich der Künstlichen Intelligenz ist oft komplex. Könnte KI selbst dazu beitragen, Stereotype zu beseitigen? Wie vorurteilsbehaftete Daten entkräftet werden können, erklärt Richio Aikawa.

Ein KI-Tool soll dabei helfen, Voreingenommenheit und potenzielle Diskriminierung in KI-Systemen zu erkennen.(Bild:  gemeinfrei / Unsplash)
Ein KI-Tool soll dabei helfen, Voreingenommenheit und potenzielle Diskriminierung in KI-Systemen zu erkennen.
(Bild: gemeinfrei / Unsplash)

Wer im Technologie-Sektor unterwegs ist, beobachtet die Fortschritte der künstlichen Intelligenz (KI) in der Regel mit Spannung. Von der Aufdeckung betrügerischer Transaktionen bis zur Prognose eines Krankheitsverlaufs ist KI in der Lage, Automatisierungsprozesse zu optimieren und die Forschung zu unterstützen. Eine Umfrage des Pew Research Centers aus dem Jahr 2021 allerdings hat ergeben, dass viele Menschen die zunehmende Dominanz von KI eher mit Sorge als mit Begeisterung wahrnehmen. Weshalb ist das so?

Von der häufig zitierten Furcht, den eigenen Arbeitsplatz zu verlieren (und der Angst vor einem generellen Aufstand aller Roboter) abgesehen, geht es beim öffentlichen Misstrauen gegenüber Künstlicher Intelligenz vorrangig um die Themenfelder Datenschutz, Vertrauen und Ethik.