Cybersicherheit
Wie Hacker Large Language Models für ihre Zwecke nutzen

Ein Gastbeitrag von Martin Zugec* 5 min Lesedauer

Anbieter zum Thema

Der Einsatz von KI kann Routineaufgaben automatisieren, Abläufe effizienter gestalten und die Produktivität erhöhen. Dies gilt für die legale Wirtschaft ebenso wie für die organisierte Cyberkriminalität. Gerade Large Language Models machen sich kriminellen Akteure dabei zunutze.

Für das Verfassen betrügerischer Nachrichten senkt der Einsatz von LLM-gestützten Chatbots Sprachbarrieren der Angreifer spürbar.(Bild:  frei lizenziert /  Pixabay)
Für das Verfassen betrügerischer Nachrichten senkt der Einsatz von LLM-gestützten Chatbots Sprachbarrieren der Angreifer spürbar.
(Bild: frei lizenziert / Pixabay)

Seit Ende 2022 stehen Large Language Models (kurz: LLM) wie Chat-GPT im Blick der Öffentlichkeit. Damit stellt sich die Frage, welche Effekte sie auf die Cybersicherheit haben, wenn Hacker sie zum Erstellen bösartiger Inhalte missbrauchen. Beim Einsatz von LLM haben Cyberkriminelle drei Möglichkeiten.

Der erste Ansatz ist, ein benutzerdefiniertes LLM zu entwickeln, was technisches Fachwissen und Ressourcen erfordert. Derzeit ist das Entwickeln einer allgemein für bösartige Zwecke geeigneten LLM, die etwa beim Programmieren von Malware unterstützt, jedoch noch unwahrscheinlich. Die wirkliche und aktuell realistische Gefahr liegt in LLM als effiziente Hilfsmittel für Betrug. Ein solcher pragmatische Einsatz entspricht eher der Arbeitsweise der Cyberkriminellen: Diese suchen in der Regel unkomplizierte, wiederholbare und skalierbare Playbooks als Vorlage für ihre Angriffe. Sie sind zudem wenig geneigt, zu viel Geld und Ressourcen in aufwendige, von KI-Tools abhängigen Systeme zu investieren, die dann nach einer Änderung dieser schnelllebigen Werkzeuge nicht mehr funktionieren. Ein in Monaten entwickeltes und von Chat-GPT abhängiges komplexes System kann durch wenige Zeilen veränderten Codes lahmgelegt werden. Zu hoch ist daher das Risiko, dass der Wert der aufwendigen Investition im Nu verloren ist.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung