KI-Ethik
KIDD – oder wie sich KI ethisch gestalten lässt

Ein Gastbeitrag von Karsten Höppner und Axel Demel* 6 min Lesedauer

Anbieter zum Thema

Welche Prozesse braucht es bei der Einführung und Entwicklung von KI-Anwendungen, damit Diversität und Fairness ausreichend berücksichtigt werden? Antworten hierauf will das Projekt KIDD liefern. Was steckt dahinter?

Mit der zunehmenden Verbreitung von Künstlicher Intelligenz wächst auch der Bedarf, sich mit ethischen Fragen zu befassen.(Bild:  frei lizenziert /  Pixabay)
Mit der zunehmenden Verbreitung von Künstlicher Intelligenz wächst auch der Bedarf, sich mit ethischen Fragen zu befassen.
(Bild: frei lizenziert / Pixabay)

Wer im Supermarkt nach Bio-Produkten Ausschau hält, hat es mittlerweile leicht: Gütesiegel aller Art kleben gut sichtbar auf Milchtüten oder anderen Verpackungen und lassen keinen Zweifel an Herkunft und Qualität. Anders sieht es bisher noch bei Software-Anwendungen aus, die mit Künstlicher Intelligenz arbeiten. Hier gibt es bisher noch zu wenig Transparenz. Das gilt es jetzt zu ändern: Entscheidungen von KI-Systemen müssen transparent, messbar und fair designt werden, unter Berücksichtigung von Fragen der Diversität – eine komplexe Aufgabe.

Genau damit beschäftigt sich das Projekt Künstliche Intelligenz im Dienste der Diversität, kurz KIDD. Dahinter steht ein dreijähriges Forschungsprojekt des Bundesministeriums für Arbeit und Soziales unter dem Dach der Initiative Neue Qualität der Arbeit, das von einem breit aufgestellten Konsortium umgesetzt wird. Dazu gehören auch die auf Data Science spezialisierte Firma Qdive und das Mutterunternehmen Q Perior.