Resiliente Prozesse und Systeme nötig
Die Bedrohung im Cyberraum ist mit fast 70 täglich neu registrierten Schwachstellen in Softwareprodukten – das sind rund 25 Prozent mehr als im letzten Berichtszeitraum (Vergleichszeiträume 01.06.2022–30.06.2023 und 01.06.2021–31.05.2022)[1] – so hoch wie nie zuvor. Hackerangriffe z. B. durch Schadprogramme in Links und E-Mail-Anhängen sowie Deepfakes (z. B. Gesichts- und Stimmenfälschungen) sorgen für den Ausfall von Unternehmensdienstleistungen und gefährden zunehmend die digitale Reputation, den Ruf und das Ansehen von Personen, Unternehmen und Marken im digitalen Raum, insbesondere in sozialen Netzwerken. Im Jahr 2022 haben Unternehmen in Deutschland laut dem Digitalverband Bitkom einen Schaden von 203 Milliarden Euro durch Cyberangriffe erlitten.[2]
Auch global stieg die Anzahl der Cyberangriffe im Finanzsektor rapide an. So gab es 2022 durchschnittlich 1.131 Cyberangriffe pro Woche, ein Anstieg um 52 Prozent gegenüber 2021.[3]
Mit DORA werden Vorschriften für die Harmonisierung und Vereinheitlichung bestehender Regulatorik geschaffen:
(Neue) Cybercrimebedrohungen für Finanzinstitute
Klassische Cybercrimebedrohungen
Neben klassischen Cyberangriffen,
- z. B. in Form von Schadprogrammen, Botnetzen (Zusammenschlüssen mehrerer Bots, d. h. mit Schadsoftware infizierten Systemen, die über einen zentralen Command-and-Control-Server ferngesteuert werden)
- sowie Denial-of-Service-Angriffen (DoS-Angriffen = Überflutung von Webservern mit Anfragen, sodass Webseiten und Internetdienste nicht mehr erreichbar sind)[1]
- und Ransomware-Attacken (digitaler Erpressung wie zuletzt – mutmaßlich von LockBit – gegenüber der US-Tochter der größten chinesischen Bank (ICBC),[4]
gibt es neue Gefahren durch den Einsatz generativer KI-Modelle, die die Bedrohungslandschaft verändern.
(KI-)Cybercrimebedrohungen
Mithilfe von KI und tiefen neuronalen Netzen (Deep Neural Networks) ist es heute z. B. einfacher geworden, Schwachstellen im Programmcode zu identifizieren und qualitativ hochwertige Fälschungen von Text-, Sprach- und Videonachrichten zu erstellen.[1] An dieser Stelle ist es wichtig, zu betonen, dass generative KI-Modelle glücklicherweise noch keine autonomen Cyberangriffe durchführen können – sie haben keine eigenen Absichten und Intentionen, lernen aus Daten und werden erst als Instrument der Täter:innen gefährlich.[5]
Aktuell kursiert z. B. FraudGPT im Darkweb. Dabei handelt es sich um einen unmoderierten KI-Chatbot, der ausschließlich für kriminelle Zwecke wie Phishing-E-Mails, Cracking (Entfernen von Kopierschutz, z. B. Passwortcracking) und Carding (Kreditkartendatenkriminalität) erstellt wurde.[6]
Fälschungen, die mittels generativer KI und tiefer neuronaler Netze erzeugt werden, werden umgangssprachlich auch als „Deepfakes“ bezeichnet. Sie können in die Medienformen Video/Bild, Audio und Text unterteilt werden, wobei verschiedene Methoden und Daten für einen erfolgreichen Angriff benötigt werden.[1]
Im Folgenden finden Sie Beispiele für solche Deepfakegefahren.
- Gefahr für biometrische Systeme:Eine große Gefahr für die Manipulation medialer Identitäten besteht z. B. bei Fernidentifikationsverfahren (mobile Spracherkennung oder Videoidentifikation). Denn KI-(Sprach-)Modelle und Chatbots lassen sich mittlerweile problemlos in diverse Anwendungen oder Plug-ins integrieren. Sie können beispielsweise mit dem Internet agieren und Sprache sowie Gesprächsabläufe schon sehr authentisch imitieren.[1]
- Social Engineering:Genauso wichtig wie die Schwachstellen in Informationssystemen und Netzwerken ist beim Thema Cybersicherheit die Schwachstelle Mensch. Täter:innen nutzen Large Language Models (LLMs) sowie KI gezielt für ihre Phishing- und Scam-Angriffe und täuschen den „Faktor Mensch“ als vermeintlich schwächstes Glied in der Sicherheitskette durch künstlich generierte Audio-, Bild- und Videoformate.[1] Die Spam- und Phishing-E-Mails weisen dank LLMs kaum mehr Rechtschreib- und Grammatikfehler auf und können menschliche Reaktionen in Wortwahl und Sprachstil sehr gut imitieren (= Social Engineering). Ein Beispiel für Social Engineering wäre die Verleitung von Mitarbeitenden zur Preisgabe von Zugangsdaten unter Vortäuschung einer falschen Identität.[7] Angreifer:innen könnten beispielsweise eine KI-Anwendung entwickeln, die mit der Stimme eines:einer Vorgesetzten anruft, um Mitarbeitende zu einer Geldtransaktion zu verleiten („CEO-Fraud“).
- Desinformation:Weitere Gefahren gehen von Desinformationskampagnen z. B. über manipulierte Medieninhalte von Schlüsselpersonen, die den Ruf schädigen und Unwahrheiten verbreiten, aus.
Cybercrime-as-a-Service
Durch die neuen Möglichkeiten ist generell eine zunehmende Professionalisierung von Cyberangriffen in Richtung Cybercrime-as-a-Service zu beobachten. So wird beispielsweise Ransomware zur Verfügung gestellt und den Affiliates eine entsprechende Beteiligung am Lösegeld versprochen. Man spricht hier von einer „Schattenwirtschaft der Cyberkriminalität“, die sich immer stärker vernetzt und die Realwirtschaft widerspiegelt.[1]
Abwehr von Cybercrime mit Machine Learning und KI
So wie Machine Learning und KI im Angriffsszenario Gefahren darstellen, so spielen sie auch im Verteidigungsszenario eine wichtige Rolle. Sie bieten große Chancen für die Cybersicherheit. Wussten Sie, dass bereits seit 1985 maschinelles Lernen zur Erkennung von Anomalien in Computersystemen eingesetzt wird?[8]
Heute wird Machine Learning genutzt, um Spam- und Phishing-E-Mails, Malware, Betrugsversuche, gefährliche Websites, auffälliges Nutzerverhalten und Anomalien im Netzwerkverkehr zu identifizieren. Die Systeme können alarmieren, Spam löschen, Websites und Viren blockieren, Accounts sperren und in einigen Fällen auch weiter agieren (Stichwort: SOAR – Security Orchestration Automation and Responses). In der Medienforensik wird Machine Learning verwendet, um Fälschungen und Veränderungen zu erkennen und so Hinweise auf mögliche Fake News zu geben.[8]
Der Einsatz von KI wiederum erleichtert die automatische Suche nach Systemschwachstellen im Code.[9]
KI-Assistenzsysteme: Sicherheitsrisiko minimieren
KI-Assistenzsysteme können in Zukunft einen weiteren Sicherheitsgewinn bringen:[1]
- Sie erhöhen die Produktivität von IT-Abteilungen durch Übernahme repetitiver Aufgaben, Hilfe bei der Entscheidungsfindung, Firewallkonfigurationen sowie Code- und Malwareanalyse.
- Ferner reduzieren sie die schlechte Bedienbarkeit von Sicherheitstools und menschliche Fehler.
- Weiter unterstützen KI-Assistenzsysteme Mitarbeitende und Endnutzer:innen bei der Konfiguration von Zugriffsrechten und warnen bei Versand vertraulicher E-Mails an falsche Empfänger:innen. Ein Beispiel hierfür ist „Sofie“, ein KI-basierter Bot[10], der Mitarbeitende direkt über MS Teams mit Security-Alerts vor Cyberrisiken warnt.
Grenzen von KI für die IT-Sicherheit
Von den genannten Assistenzsystemen scheint es zunächst nur ein kleiner Schritt zu Lösungen zu sein, die Konfigurations- und andere IT-Managementaufgaben vollständig übernehmen. Eine genauere Analyse zeigt jedoch, dass dem Einsatz von KI zur Abwehr von Cyberangriffen noch verschiedene Grenzen gesetzt sind.
Zum einen betrifft dies die Genauigkeit der generierten Ergebnisse. Durch die große Menge an Trainingsdaten schleichen sich nicht selten Fehlinformationen ein.[11] Man stelle sich vor, die KI erkenne am Black Friday einen Cyberangriff als falsch positiv und schlösse daraufhin alle externen Internetverbindungen an der Firewall.
Bis zu einer vollständigen Automatisierung durch KI fehlt es meist noch an ausreichend verfügbaren realistischen Testdateien[9] sowie an komplexen Problemlösungskompetenzen, um systemübergreifende Maßnahmen zur Schadensbegrenzung und Wiederherstellung der Sicherheit einleiten zu können.[11] Daher kann KI bisher eher unterstützend als Sicherheitswerkzeug, beispielsweise zur Erkennung und Vorsortierung von Deepfakes, als automatisierend verwendet werden.
Darüber hinaus ist beim Einsatz von KI-Assistenzsystemen und bei der Sammlung von Informationen über die Organisation in einer Anwendung, die z. B. mit einem KI-Sprachmodell ausgestattet ist, immer auch die Angriffsfläche zu beachten, die diese wiederum durch die großen Datenmengen bietet. So kann das Assistenzsystem mehr über eine Organisation wissen als einzelne Mitarbeitende und Aktionen automatisiert ausführen. Administrator:innen und Systemverantwortliche müssen daher die Gründe für ausgeführte Interaktionen und Modellausgaben ständig hinterfragen, nachvollziehen und überwachen.[1]
Im Hinblick auf den Fachkräftemangel und die zukünftig zu erwartende Zunahme automatisierter Angriffe durch autonome, intelligente und skalierbare Bots erscheint eine automatisierte KI-Abwehr für die Zukunft jedoch beispiellos, um rechtzeitig reagieren zu können.[9]
Aufbau von Cyberresilienz
Wir empfehlen hinsichtlich der genannten Gefahren und Schwachstellen vor allem Investitionen in die Fähigkeiten und Kompetenzen Ihrer Mitarbeitenden, sowohl hinsichtlich Awareness gegenüber Cyberbedrohungen als auch zur kontinuierlichen Weiterentwicklung des Informationssicherheitsmanagements und der Resilienzkompetenzen.
Neben der Weiterentwicklung der Cyberresilienzprozesse sind weitere Elemente wie
- der risikoadäquate Einsatz von datengesteuerter (KI-)Sicherheitssoftware,
- effektive und – mittelfristig – Quantencomputing-sichere Verschlüsselungstechnologien,
- Notfallpläne und -übungen,
- regelmäßige Stresstests der IT-Infrastruktur
- sowie ein Kompetenzausbau hinsichtlich der Bedrohungsanalyse (z. B. neue (KI-)Cybercrimemethoden)
notwendig, um menschliche Schwachstellen zu minimieren, die Lauffähigkeit wichtiger und kritischer Prozesse sicherzustellen und Kundendaten bestmöglich zu schützen.