Blog
Jüngste Artikel
bg
Branchennews

Angriff/Verteidigung: KI in der Cybersicherheit

Liz CorbettOctober 20, 2023
Angriff/Verteidigung: KI in der Cybersicherheit
LastPass Labs ist der Content-Hub für das „Threat Intelligence, Mitigation and Escalation“-Team (TIME) von LastPass. Dieses Team konzentriert sich auf die genaue Analyse der neuesten Sicherheitsentwicklungen und hält Ausschau nach zukunftsweisenden Technologien und einzigartigen Bedrohungsperspektiven. Auf der RSA Conference in San Francisco sprach mich vor einigen Jahren ein anderer Konferenzteilnehmer im Lift an, als er mein Namensschild sah. „Threat Intelligence?“, fragte er. „Sie wissen, dass die künstliche Intelligenz Ihren Job überflüssig machen wird.“ Ich lachte. „Gerade eben musste ich meine Uhr neu starten, da sie nicht mehr reagierte. Fürs Erste mache ich mir also keine Sorgen“, erwiderte ich. Mittlerweile schreiben wir das Jahr 2023. Angesichts der rasanten Entwicklung von ChatGPT und anderer Large Language Models (LLMs) bin ich mir nicht mehr ganz so sicher. Das neue Zeitalter der künstlichen Intelligenz hat begonnen, und die KI breitet sich unglaublich schnell in unserem Alltag aus. Aus Bereichen wie der Cybersicherheit ist sie mittlerweile nicht mehr wegzudenken, kann sie doch Daten blitzschnell verarbeiten und lernt unglaublich schnell dazu. Künstliche Intelligenz lässt sich jedoch auch missbräuchlich verwenden, was eine komplexe und höchst dynamische Sicherheitslandschaft schafft.

Mögliche Einsatzgebiete der KI bei der Abwehr von Cyberbedrohungen

In puncto Cybersicherheit gibt es drei mögliche Anwendungsbereiche von künstlicher Intelligenz und des maschinellen Lernens (ML). Zunächst einmal die Anomalieerkennung, bei der KI-Algorithmen riesige Datenmengen nach ungewöhnlichen Mustern durchforsten, die auf eine Cyberbedrohung hindeuten könnten. So werden Unternehmen möglicherweise auf Bedrohungen aufmerksam, die andernfalls unentdeckt geblieben wären. Einfach ausgedrückt: „Hier ist ein großer Heuhaufen, finde die Nadeln.“ Diese Fähigkeit der KI könnte in Zukunft von sehr großer Bedeutung sein. Das zweite Anwendungsgebiet ist die prädiktive Analytik. Dabei analysieren ML-Algorithmen Daten aus der Vergangenheit, um zukünftige Sicherheitsverletzungen vorherzusagen. Dies könnte Unternehmen helfen, Lücken zu schließen, bevor sie zu einem Problem werden. Angesichts des jüngsten Booms bei den Large Language Models ist der dritte und besonders vielversprechende Einsatzbereich von KI das Zusammenfassen von Informationen. Cybersicherheitsexperten, die konkrete Details zu einem Angriff extrahieren oder Berichte oder Presseartikel in großer Zahl analysieren wollen, müssen einfach nur eine Anfrage in leicht verständlicher Sprache eingeben, die auf die genauen Bedürfnisse des Unternehmens zugeschnitten ist, und die KI erledigt den Rest.

Einsatz der KI durch Cyberkriminelle

Die künstliche Intelligenz kann auch für Hacker ein äußerst effektives Mittel darstellen. Aufgrund der Wortwahl, der Formatierung und der enthaltenen Links waren Phishingmails früher relativ leicht als solche zu erkennen. KI-gestützte Phishing-Angriffe unter Verwendung von LLMs gehen jedoch viel gezielter auf den Empfänger ein und die betrügerischen E-Mails können täuschend echt wirken. Mit der Deepfake-Technologie machen sich Cyberkriminelle eine weitere KI-Innovation zunutze, um eine andere Person äußerst realistisch in Bild und Ton nachzuahmen. Diese Technologie lässt sich auf verschiedene Arten missbrauchen, etwa zur Verbreitung von Falschinformationen oder für betrügerische Aktivitäten. In letzter Zeit machen auch immer mehr KI-generierte Fotos berühmter Persönlichkeiten die Runde, die kaum von echten Aufnahmen zu unterscheiden sind (man denke etwa an den Papst in der weißen Daunenjacke). Deepfake-Audiotechnologien werden dazu verwendet, Führungskräfte zu imitieren und sich so Geld zu erschleichen, und Hacker entwickeln mithilfe künstlicher Intelligenz polymorphe Malware, die ihren Code automatisch ändert und dadurch von signaturbasierten Tools nicht erkannt wird.

Neuartige KI-Angriffsszenarien

Während sich die KI-Technologie ständig weiterentwickelt, müssen wir uns auch auf neue Arten von Angriffen gefasst machen. Sogenannte Adversarial Attacks zielen darauf ab, Sicherheitssysteme durch fast unmerkliches Manipulieren der Eingabedaten zu täuschen, sodass diese dann inkorrekte Vorhersagen machen. Dazu kommt, dass unsere Gesellschaft immer abhängiger von KI und maschinellem Lernen wird, was auch unsere Infrastruktur – Stichwort selbstfahrende Autos und Smart Citys – zum Ziel von Cyberangriffen machen kann. Cyberkriminelle könnten Algorithmen für die Verkehrsregelung manipulieren oder in den Betrieb selbstfahrender Autos eingreifen, was Chaos und Schäden nach sich ziehen würde. Besonders viel Sorgen macht uns derzeit die Fähigkeit von LLMs, Code zu analysieren und zu erzeugen. Sollte es Hackern gelingen, die Sicherheitsmechanismen eines Large Language Models zu umgehen, so wäre dieses womöglich in der Lage, Zero-Day-Exploits (Schwachstellen, die dem Entwickler vor ihrem Bekanntwerden nicht gemeldet wurden und für die kein Patch verfügbar ist) automatisch zu erstellen.

KI in der Cybersicherheit – wie sieht die Zukunft aus?

Fortschritte bei der künstlichen Intelligenz werden die Sicherheitslandschaft weiterhin prägen. Ein Blick in die Zukunft lässt vermuten, dass die KI Einfluss auf das „Wettrüsten“ zwischen Angreifern und Verteidigern haben wird. Dabei versuchen beide Parteien, die jeweils andere mit neueren und komplexeren Technologien auszustechen. Mit schwerer zu knackenden Verschlüsselungsmechanismen könnte uns die wachsende Quantencomputing-Technologie eine Möglichkeit bieten, die Kommunikation bedeutend sicherer zu machen. Und während die Welt zunehmend vernetzt wird und physische und digitale Systeme immer enger verwoben sind, könnte die KI wesentlich zur Entwicklung umfassender und widerstandsfähiger Sicherheitssysteme beitragen, die komplexen Bedrohungen standhalten. Unternehmen und andere Institutionen müssen sich des Einflusses bewusst sein, den die künstliche Intelligenz auf die Cybersicherheit hat, und potentiellen Bedrohungen stets einen Schritt voraus sein. Anders ausgedrückt: Sie müssen sie bekämpfen, bevor sie echten Schaden verursachen. Das „Threat Intelligence, Mitigation and Escalation“-Team (TIME) von LastPass setzt den Fokus auf den Schutz unserer Community, indem es Bedrohungen für unsere Kunden, unser Unternehmen und unsere Branche überwacht, analysiert und entschärft. Das Team verfügt zusammen über fast 50 Jahre Erfahrung in den Bereichen Intelligence und Cyber Experience und glaubt fest daran, dass der Informationsaustausch und der Aufbau von Beziehungen der Schlüssel zu einem erfolgreichen Intelligence-Programm sind. Unser Ziel bei LastPass ist es, Stakeholdern zeitnahe und umsetzbare Informationen zu liefern. Dadurch können unsere Sicherheitsteams unsere Kunden, ihre Daten und das Unternehmen schützen. Wir führen nicht nur Analysen durch und informieren unsere Sicherheitsteams über allgemeine Entwicklungen im Bereich Cyberbedrohungen, sondern arbeiten auch daran, unsere Erkenntnisse automatisch in die Prozesse unserer Partner einzubinden und die Zeitspanne von der Bedrohungserkennung bis zur Schadensbegrenzung zu minimieren.