Künstliche Intelligenz (KI; englisch AI) beschäftigt die Cyber-Sicherheit auch im kommenden Jahr. Die Bandbreite an Bedrohungen ist gross: AI unterstützt Cyber-Kriminelle bei Phishing, Social Engineering und der Weiterentwicklung von Malware. Die grösste Sorge ist, dass die Technologie die Automatisierung der Angriffe vorantreibt. Erfahren Sie im Blogbeitrag mehr zu den prognostizierten Malware Trends 2024.

Mit dem Erfolg von Chat-GPT ist Künstliche Intelligenz (KI; engl. AI) endgültig im Alltag angekommen. Auch für Cyber-Kriminelle sind generative Sprachmodelle wertvolle Tools. Large Language Models (LLM) generieren überzeugend menschliche Texte – und dies ist beispielsweise hilfreich beim Phishing.

Die hohe Fehlerquote, die Empfänger von Phishing-Mails bisher stutzig machte, dürfte sich damit reduzieren. Das macht die Kampagnen von Cyber-Kriminellen zum einen effektiver. Zum anderen werden die Prozesse der Banden auch effizienter. Der bis anhin hohe Zeitaufwand reduziert sich, da sich E-Mails rascher formulieren und einfacher personalisieren lassen.

Social Engineering mithilfe von Deepfakes

Auch auf der Bildebene bringt AI neue Risiken mit sich. In den letzten Monaten gingen diverse Deepfakes viral, die das verblüffende Potenzial der Technologie aufzeigten. Gefälschte Videos und Fotos lassen die Grenzen zwischen Realität und Fiktion verschwimmen. Auch Tonaufnahmen lassen sich leicht faken, indem echten Stimmen falsche Aussagen in den Mund gelegt werden. Gerade im Behördenumfeld können Deepfakes, vor allem solche in Echtzeit, verheerende Konsequenzen haben.

Damit erweitert AI die Möglichkeiten im Social Engineering: Die Technologie eröffnet neue Wege, um Mitarbeitende zur Preisgabe von vertraulichen Informationen oder zur Ausführung von Zahlungen zu bewegen. Zum Beispiel ist es denkbar, dass die Vorgesetzte aus den Ferien anruft, um eine dringende Überweisung zu veranlassen – am Telefon ist jedoch nicht die Vorgesetzte, sondern eine AI mit ihrer Stimme.

AI-Tools lassen sich leicht instrumentalisieren

Cyber-Kriminelle werden AI jedoch nicht nur als Arbeitshilfe nutzen, sondern AI-Tools auch gezielt infiltrieren. Mit den richtigen Sprachbefehlen lassen sich LLM-Modelle wie Chat-GPT oder Bard für die eigenen Interessen instrumentalisieren. Prompt Injection heisst diese Methode.

Folgendes Experiment zeigt, wie real diese Bedrohung ist: Forschenden der Universität Saarland und des Helmholtz-Zentrums für Informationssicherheit (CISPA) ist es gelungen, den Bing-Chat von Microsoft zu instrumentalisieren. Der Forschungsbericht zeigt, wie der vermeintlich harmlose AI-Assistent zum böswilligen Bot modifiziert wurde, der persönliche Informationen sucht und sammelt.

AI treibt Automatisierung der Angriffe voran

Auch beim Programmieren von bösartiger Software kann AI hilfreich sein. So dürfte die Technologie zunehmend bei der Entwicklung neuer Malware- und Ransomware-Varianten zum Einsatz kommen. Das wird das Wachstum der Ransomeware-as-a-Service-Industrie weiter beflügeln.

Ohne Zweifel wird die Technologie auch die Ausführung von Cyber-Attacken unterstützen. Mit der Weiterentwicklung von AI und maschinellem Lernen wird es zunehmend möglich, dass Maschinen die Aufgaben von Hackern übernehmen. Die Befürchtungen sind gross, dass die Automatisierung der Angriffe rasche Fortschritte macht.

Die gute Nachricht: AI unterstützt auch die Abwehr

Während Cyber-Kriminelle AI erst gerade für sich entdecken, kommt die Technologie in der Cyber-Sicherheit bereits auf breiter Ebene zum Einsatz. Die 2023 veröffentlichte Studie «Künstliche Intelligenz in der Cyber-Sicherheit» von Mimecast zeigt: Rund die Hälfte der Unternehmen in der Schweiz und in Deutschland setzen bereits AI-gestützte Security-Lösungen ein – vornehmlich in der E-Mail-Sicherheit sowie in der Erkennung und Abwehr von Bedrohungen.

Welche weiteren Trends bestimmen die Cyber Security im kommenden Jahr? Lesen Sie unser Wissens-Update «Ausblick 2024: Die fünf wichtigsten Malware-Trends».

Jetzt Wissens-Update herunterladen