Explanatory Interactive Learning Man kann der KI vertrauen – aber nicht blind
Anbieter zum Thema
Künstliche Intelligenz ist ein viel diskutiertes Thema. Nicht selten spielt auch Skepsis der Technologie gegenüber eine Rolle. Dabei ist diese durchaus vertrauenswürdig und kann in vielen Bereich hilfreich sein. Ein neuer Ansatz des interaktiven Lernens soll dabei helfen, das Vertrauen in künstliche Intelligenz zu stärken.
Unter der Leitung von Professor Kristian Kersting beschäftigt sich ein Forscherteam an der TU Darmstadt mit dem sogenannten explanatory interactive learning (IXL). Der Ansatz soll dabei helfen, Voraussagen mit falschen Erklärungen durch interaktives Lernen zu korrigieren. In der Zeitschrift Nature Machine Intelligence erklären sie, wie.
Ein Beispiel: Möchte eine Firma einer künstlichen Intelligenz beibringen, auf Fotos ein Pferd zu erkennen, wird die KI mit mehreren Tausend Aufnahmen von Pferden trainiert, bis diese das Pferd auch auf unbekannten Aufnahmen identifizieren kann. Die KI lernt schnell – wie ihr die Unterscheidung gelingt, weiß die Firma nicht, aber das ist ihr egal. Sie ist begeistert, wie zuverlässig es klappt. Doch dann stellt sich heraus: die KI erkannte die Pferde nur anhand einer Copyright-Angabe, die in jedem Bild unten rechts zu erkennen war. In der Forschung wird hier von sogenannten Confounders gesprochen. Das sind Störfaktoren, die mit der eigentlichen Identifikation nichts zu tun haben sollten. In diesem Fall erkennt die KI also so lange die Pferde auf vergleichbaren Bildern, bis die Copyright-Angabe fehlt. Dann hat auch die KI ein Problem.
Melden Sie sich an oder registrieren Sie sich und lesen Sie weiter
Um diesen Artikel vollständig lesen zu können, müssen Sie registriert sein. Die kostenlose Registrierung bietet Ihnen Zugang zu exklusiven Fachinformationen.
Sie haben bereits ein Konto? Hier einloggen