Künstliche Intelligenz prägt die Trends in der Cyber-Sicherheit wie kein anderes Thema. Large Language Models (LLMs) vereinfachen Angriffe und bieten gleichzeitig neue Angriffsflächen, wie im Blogbeitrag beschrieben wird. Umso wichtiger wird der Einsatz von Künstlicher Intelligenz (KI) in der Abwehr.

Wer digitale Raubzüge unternehmen möchte, muss längst kein Hacker mehr sein. Künstliche Intelligenz hat die Eintrittshürden in der Cyber-Kriminalität in den letzten drei Jahren stark gesenkt. Der KI-Werkzeugkasten macht es immer einfacher, Malware-Code zu generieren, Phishing-Kampagnen aufzusetzen oder täuschend echte Deepfakes zu erstellen.

Eine Schlüsselrolle spielen hierbei Large Language Models (LLMs). Diese fortschrittlichen Modelle ermöglichen es Maschinen, Sprache zu verstehen und zu erzeugen, und revolutionieren damit eine Vielzahl von Anwendungen. LLMs werden bereits rege für kriminelle Zwecke genutzt, wie eine Analyse der Google Threat Intelligence Group zeigt: Die Forscher haben Hinweise gefunden, dass der KI-Assistent Gemini von rund 40 staatlich geförderten Akteuren aus dem Iran, China, Nordkorea, Russland und weiteren Ländern verwendet wird – unter anderem für die Recherche über Zielorganisationen, die Erforschung von Schwachstellen und das Programmieren von Malware. 

LLM-Tools und Schatten-KI bieten neue Angriffsflächen

Gleichzeitig schaffen LLMs aber auch neue Einfallstore. Unternehmen integrieren vermehrt KI-Assistenten in ihre IT-Infrastruktur – und diese lassen sich mithilfe von Prompt Injection leicht kompromittieren. Im August 2025 sorgten Sicherheitsforscher von Zenity mit dem Zero-Click-Angriff AgentFlayer für Aufsehen: Ein mit unsichtbaren Prompts versehenes Dokument bewegte Chat-GPT dazu, sensible Daten aus verknüpften Cloud-Anwendungen zu stehlen. 

OpenAI hat diese Sicherheitslücke bei Chat GPT inzwischen geschlossen, doch die firmeneignen KI-Assistenten sind nur die Spitze des Eisbergs. KI-Tools, die Mitarbeitende auf eigene Faust nutzen, bieten eine kaum überschaubare Angriffsfläche. Der Umgang mit «Schatten-KI» stellt die Cyber-Sicherheit vor neue Herausforderungen. Datenlecks via LLM dürften Unternehmen künftig vermehrt beschäftigen.

KI gegen KI: Automatisierung von Angriff und Abwehr

Die Befürchtung, dass KI eine Welle von automatisierten Angriffen auslöst, hat sich bisher nicht bewahrheitet. Automatisierte Social Media-Desinformationskampagnen sind jedoch längst Realität. Zudem mehren sich die Warnungen, dass KI adaptive Malware ermöglicht, mit der sich Sicherheitsmassnahmen umgehen lassen. Auch mit KI durchgeführte, automatisierte Vulnerabilitäts-Scans sind denkbar.

Die gute Nachricht: KI ermöglicht auch die Automation der Verteidigung. Die Technologie beschleunigt Prozesse in Bereichen wie Data Loss Prevention (DLP) und Endpoint Detection and Response (EDR). Da diese Methoden bei LLM-Systemen jedoch nicht mehr greifen, gewinnen User and Entity Behavior Analytics (UEBA) an Bedeutung. Auch hier kann KI wertvolle Dienste leisten: Mithilfe von Machine Learning lassen sich Anomalien im Verhalten von Benutzern und Geräten erkennen. 

Schweizer Unternehmen zeigen sich im Umgang mit KI in der Cyber-Sicherheit allerdings noch zurückhaltend, wie eine aktuelle Studie von Sophos im DACH-Raum zeigt: Nur 16 Prozent der befragten Führungskräfte halten die Technologie für strategisch wichtig. In Deutschland (21 Prozent) und Österreich (22 Prozent) hat das Thema bereits eine höhere Bedeutung.

Welche weiteren Trends bestimmen die Cyber Security im kommenden Jahr? Lesen Sie unser Wissens-Update «Ausblick 2026: Die fünf wichtigsten Cybercrime-Trends».

Jetzt Wissens-Update herunterladen