Bedrohungen werden komplexer
Auf der Hut sein: KI gefährdet die IT-Sicherheit

Ein Gastbeitrag von Lavi Lazarovitz* 3 min Lesedauer

Anbieter zum Thema

Die Künstliche Intelligenz verändert die Bedrohungslandschaft massiv. Sie bietet Cyberangreifern neue Möglichkeiten, Identitäten ins Visier zu nehmen und sogar Authentifizierungsmechanismen zu umgehen. Cyberark hat drei aktuelle KI-basierte Angriffsszenarien näher untersucht.

KI-basierte Angriffe stellen zwar eine Bedrohung für die IT-Sicherheit dar, aber zugleich ist KI auch ein leistungsfähiges Werkzeug für die Gefahrenerkennung und -abwehr.(Bild:  frei lizenziert /  Pixabay)
KI-basierte Angriffe stellen zwar eine Bedrohung für die IT-Sicherheit dar, aber zugleich ist KI auch ein leistungsfähiges Werkzeug für die Gefahrenerkennung und -abwehr.
(Bild: frei lizenziert / Pixabay)

Künstliche Intelligenz beeinflusst die moderne Gesellschaft in einem noch nie da gewesenen Tempo. ChatGPT und andere generative KI-Tools bieten viele Vorteile, sie können aber auch von Angreifern genutzt werden und damit viel Schaden anrichten. Die Cyberark Labs haben nun diese sich entwickelnde Bedrohungslandschaft unter die Lupe genommen, um besser zu verstehen, was neue KI-Angriffsvektoren für Identity-Security-Programme bedeuten, und um bei der Entwicklung neuer Verteidigungsstrategien zu unterstützen.
Konkret hat Cyberark dabei drei neue Angriffsszenarien analysiert.

KI-Szenario 1: Vishing

Mitarbeiter sind gegenüber Phishing-E-Mails sehr vorsichtig geworden und wissen, worauf sie achten müssen. Beim Vishing hingegen, also dem Voice Phishing, ist diese Skepsis oft nicht vorhanden, sodass sich für Cyberangreifer neue Chancen eröffnen. KI-Text-to-Speech-Modelle machen es ihnen leicht, öffentlich verfügbare Informationen wie Interviews von CEOs in den Medien zu nutzen und sich als Führungskräfte von Unternehmen auszugeben. Indem sie Vertrauen zu ihrer Zielperson aufbauen, können sie Zugang zu Anmeldedaten und anderen sensiblen Informationen erlangen. In großem Maßstab können solche Vishing-Angriffe nun mithilfe automatisierter Echtzeit-Generierung von Text-to-Speech-Modellen durchgeführt werden. Derartige KI-basierte Deepfakes sind bereits an der Tagesordnung und nur sehr schwer zu erkennen. KI-Experten sagen voraus, dass KI-generierte Inhalte irgendwann nicht mehr von menschlich erstellten zu unterscheiden sein werden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung