KI-basierte Cyberangriffe: Aktuelle Trends und Gefahren

Durch den Einsatz von künstlicher Intelligenz sind bestimmte Cyberangriffe weitaus häufiger und gefährlicher geworden. Warum das so ist, welche Rolle der Mensch als Angriffsziel spielt und mit welchen Verhaltensregeln Sie sich weiterhin schützen können, lesen Sie im Interview.

Typisierter Hacker mit Kapuze vor dunklem Hintergrund
KI-gestützter Cybercrime. Foto: Adobe Stock

Hochkomplexe Cyberangriffe konnten früher nur von wenigen Akteuren durchgeführt werden und benötigten mitunter viel Zeit und Geld. Mithilfe von künstlicher Intelligenz (KI) sind solche Attacken heute bereits für Schulkinder machbar, wie Ross King, Leiter der Abteilung Data Science und Artificial Intelligence am Austrian Institute of Technology, im Interview erklärt. Warum bestimmte Angriffsvektoren durch den Einsatz von KI so gefährlich geworden sind und welche technischen Maßnahmen effektiven Schutz bieten, lesen Sie im Interview.

Cybercrime mittels KI: Angriffsszenarien und Methoden zur Abwehr  

Welche Cyberangriffe erfolgen heute bereits unter Einsatz von KI?
Ross King: Künstliche Intelligenz bedeutet grundsätzlich, dass Maschinen, Computer oder Algorithmen bestimmte Aufgaben erledigen können, die typischerweise uns Menschen vorbehalten waren. In Bezug auf Cyberangriffe sind automatisierte Attacken als größte Gefahr zu nennen. Durch die Automatisierung können Cyberkriminelle heute eine nie gekannte Breite und Skalierung erreichen.

Künstliche Intelligenz wird dabei besonders für Social Engineering eingesetzt. Allgemein gesprochen ist der fehleranfällige Mensch in jeder Sicherheitskette die größte Schwachstelle und daher bevorzugtes Ziel solcher Angriffe, um in ein Sicherheitssystem einzudringen. So können Sprachmodelle etwa genutzt werden, um mir eine E-Mail im Stil meines Chefs zu senden, wodurch ich vielleicht dazu verleitet werde, eine Zahlung freizugeben. Eine weitere Gefahr besteht darin, dass KI verwendet wird, um die Bilderkennungssysteme autonomer Fahrzeuge zu verwirren, sodass diese etwa ein Stoppschild falsch klassifizieren und ignorieren. Dadurch kann es zu Verkehrsunfällen kommen.

Dann gibt es noch das sogenannte Model Poisoning. Dabei handelt es sich um einen Angriff auf Modelle des maschinellen Lernens, bei dem falsche Daten in den Trainingssatz eingebracht werden. Ziel ist es, den Lernprozess eines Modells so zu beeinflussen, dass dieses bei bestimmten Eingaben falsche Vorhersagen oder Klassifizierungen macht. In der Medizin könnte so ein Angriff etwa zu falschen Ergebnissen in der bildgebenden Diagnostik führen. Auf diese Weise ist es auch möglich, ein Backdoor (alternativer Zugriff unter Umgehung der Schutzbarrieren) in einem Sicherheitssystem einzurichten.

Welche KI-basierten Cyberattacken stellen aktuell die größte Gefahr dar?
King: Wir beobachten seit Monaten eine Vielzahl unterschiedlicher Phishing-Attacken. Dabei erhält man etwa eine E-Mail im Schreibstil eines Bekannten, einer Angehörigen oder eines Vorgesetzten, also sehr personalisiert, vielleicht auch mit Detailinformationen zum jeweiligen Unternehmen, die im Netz recherchiert wurden. Die geklauten Infos können in ein Sprachmodell eingespeist werden, um Antworten zu generieren und zu senden.

Es sind auch weitere Angriffsvektoren dazugekommen, wie zum Beispiel neue Anhänge und Methoden, um Links zu verstecken. Im Unternehmenskontext wird das von den Userinnen und Usern vielleicht gar nicht bemerkt, weil die verwendeten E-Mail-Programme solche Mails meist rausfiltern.  

KI kann weiters eingesetzt werden, um sogenannte Exploits zu finden, also Sicherheitslücken in Systemen. Die größte Gefahr für Nutzerinnen und Nutzer stellen „Zero-Day-Exploits“ dar, also Schwachstellen, die den Software-Herstellern zuvor nicht bekannt waren.

Sind aktuelle Sicherheitsstandards etwa im Access Management (Passwörter, Zwei-Faktor-Authentifizierung) durch KI-basierte Angriffe gefährdet?
King: Zum Glück sind die meisten technischen Maßnahmen, die wir üblicherweise einsetzen, robust genug gegen KI. Ein Passwort, das lang genug ist und bestimmte Kriterien erfüllt, ist äußerst schwer zu knacken. Andere Systeme, wie die Zwei-Faktor-Authentifizierung (2FA), sind ebenfalls zuverlässig und bieten wenig Angriffsfläche. Daher wäre wiederum der Mensch das wahrscheinlichste Ziel einer KI. Beispielsweise könnte eine Person dahingehend getäuscht werden, dass sie denkt, eine 2FA bei der eigenen Bank durchzuführen, während sie in Wirklichkeit Daten an Kriminelle übermittelt.

Wie können sich Userinnen und User vor KI-basierten Angriffen schützen?
King: Wichtig ist ein Bewusstsein für das Risiko. Jeder Mensch sollte sich schlau machen, wie eine Phishing-Mail aussieht. Alle sollten sich bewusst sein, dass es böse Akteure gibt, die versuchen, E-Mail-Accounts oder Bankkonten zu hacken. Dazu gibt es online verschiedenste Ressourcen, wie etwa Awareness-Trainings. In Firmen werden in der Regel entsprechende Kurse angeboten.

Der nächste Tipp lautet: Gründlich überlegen und verifizieren. Eine gesunde Skepsis gegenüber unbekannten Anfragen ist eine wichtige Schutzbarriere. Dabei sollte zweierlei überprüft werden: Kenne ich die Senderin oder den Sender? Was ist der Kontext und warum erhalte ich diese E-Mail? Am besten ruft man die Person an, sofern man sie kennt. Gerade wenn es um Geldtransaktionen geht, lohnt es sich immer, telefonisch nachzufragen.

Das Need-to-know-Prinzip ist meine dritte Empfehlung: Man sollte nicht alle Daten für sämtliche Anwendungen offenlegen, sondern nur die unbedingt erforderlichen, und diese immer durch technische Maßnahmen, wie etwa 2FA, schützen. Man sollte nicht dasselbe Passwort für mehrere Webaccounts verwenden. Denn wird es einmal geknackt, sind auch die anderen Anwendungen gefährdet. Das Prinzip der Datenminimierung kann überall angewendet werden: Wer eine App installiert, sollte ihr nicht Zugriff auf alle Kontakte und Daten auf dem Mobilgerät gewähren, da durch diese App auch Malware eingeschleust werden könnte.

Welche Angriffsszenarien sind mittels Voice-Cloning oder Deep Voice möglich?
King: In den letzten Jahren kam es zu einer deutlichen Zunahme von generativer KI (Generative AI). Das sind KI-Anwendungen, die Texte, Bilder, Video und Audio erzeugen können. Deep Voice schafft die Möglichkeit, eine beliebige menschliche Stimme zu reproduzieren, sodass sie am Telefon nicht vom Original unterschieden werden kann. Solche Werkzeuge eignen sich sehr gut für sogenannte Spear-Fishing-Attacken. Derzeit sind die meisten Tools nur offline verwendbar, weshalb Betroffene eine Sprachnachricht erhalten würden, mit der sie nicht interagieren können. Bald wird es jedoch möglich sein, Stimmen in Echtzeit zu generieren, wodurch auch interaktive Telefonate mit einer KI machbar sind.

Wie wird künstliche Intelligenz zur Kriminalitätsbekämpfung eingesetzt?
King: Bisher haben wir nur von den negativen Seiten von KI gesprochen, aber natürlich gibt es viele positive Anwendungen. Nach dem Terroranschlag in Wien im Jahr 2020 musste die Polizei hunderte Stunden an Videoaufnahmen durchgehen. Mittels KI konnten jene Videos herausgefiltert und priorisiert werden, in denen Geschrei oder ein Schuss zu hören war. Solche Anwendungen nennen wir „assistive Intelligenz“, weil sie den Menschen bei einer Aufgabe unterstützt, ihn also nicht ersetzt. Ein anderes Beispiel sind Warnungen vor gefälschten Websites und Onlineshops, wo man anstatt des gewünschten Produkts gar nichts oder ein billiges Imitat erhält. Fake-Shops können ohne großen Aufwand erstellt werden und sind daher „Massenware“. Mithilfe von KI lässt sich ein Algorithmus trainieren, der betrügerische Onlineshops analysiert und gemeinsame Muster erkennen kann. So entstand unser Fake-Shop Detector, der soeben den eAward 2023 gewonnen hat. Wir arbeiten auch mit den Strafverfolgungsbehörden in Deutschland zusammen, um die Netzwerke hinter den Fake-Shops aufzuspüren. Die App kann kostenlos als Browser-Erweiterung heruntergeladen werden und warnt Userinnen und User automatisch, wenn sie bei einem Fake-Shop gelandet sind.

Tipp

Installieren Sie den Fake-Shop Detector als Plug-in für Ihren Webbrowser beziehungsweise auf Ihren mobilen Endgeräten, um böse Überraschungen durch unseriöse oder betrügerische Onlineshops zu vermeiden.

Ist mit KI-basierten Angriffen auf Kryptowährungen zu rechnen?
King: Für Kryptowährungen werden sehr lange Schlüssel und technische Mittel wie die asymmetrische Kryptografie verwendet. Diese sind nicht zu knacken, solange kein Quantencomputer zum Einsatz kommt. Auch hier ist Social Engineering die größte Gefahr: Wenn ich meinen Schlüssel unbedacht hergebe oder falsch ablege, haben Kriminelle Zugriff auf meine Kryptowährungen. Aber technisch gesehen sind Kryptowährungen gut geschützt.

Welche Risiken gibt es im Hinblick auf generative KI und was ist technisch noch möglich?
King: In naher Zukunft werden sich KI-gestützte Systeme verbreiten, die es weniger versierten Angreiferinnen und Angreifern ermöglichen, mit generativen Sprachmodellen beziehungsweise alternativen generativen Sprachmodellen, die eher Softwarecode als Text erzeugen, auch komplexe Attacken wie Advanced Persistent Threats zu planen und durchzuführen. Dabei müssen nur noch die Aufträge definiert und die richtigen Werkzeuge angehängt werden. Das Sprachmodell wird versuchen, die Aufträge zu erfüllen oder zu erklären, was dazu nötig ist.

Bei einem Modell, das Codes generieren kann, muss ein Mensch lediglich beschreiben, welcher Algorithmus benötigt wird – es ist also nicht mehr notwendig, programmieren zu können. Die Demokratisierung von Technologie führt eben auch dazu, dass hochkomplexe Angriffe, die zuvor nur von Spezialistinnen und Spezialisten oder gar von staatlichen Akteuren durchgeführt werden konnten, heute auch für ein Schulkind machbar sind.

Letzte Aktualisierung: 14. November 2023

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria