Künstliche Intelligenz
Die beste Therapie gegen halluzinierende KI

Ein Gastbeitrag von von Niklas Bläsing 4 min Lesedauer

Halluzinationen gelten als zentrale Schwachstelle generativer KI. Retrieval-Augmented Generation (RAG) ergänzt Sprachmodelle um externe Wissensquellen und verbessert so Präzision und Aktualität.

Retrieval-Augmented Generation (RAG) ergänzt Sprachmodelle um externe Wissensquellen und reduziert so Halluzinationen generativer KI.(Bild: ©  elenabsl - stock.adobe.com)
Retrieval-Augmented Generation (RAG) ergänzt Sprachmodelle um externe Wissensquellen und reduziert so Halluzinationen generativer KI.
(Bild: © elenabsl - stock.adobe.com)

Generative KI gilt als eine Königsdisziplin künstlicher Intelligenz, doch sie hat eine latente Schwachstelle: die berüchtigten Halluzinationen. Diese sind als solche oft gar nicht erkennbar – was fatale Folgen haben kann. Mit Retrieval-Augmented Generation (RAG) steht jedoch eine KI-Technologie zur Verfügung, die diesem Phänomen vorbeugt und Antwortqualität und -verlässlichkeit deutlich steigert.

Large Language Models (LLM) sind quasi das Herz jeder generativen KI-Anwendung. Doch ihre Praxistauglichkeit hängt entscheidend von der Quantität und Qualität der Daten ab, mit denen sie trainiert werden. Neben der schieren Menge entscheiden vor allem Qualitätsaspekte wie Quellentransparenz, Aktualität oder themenspezifische Informationstiefe darüber, ob ein LLM in der Praxis auch zutreffende Antworten liefern kann.