Cyberangriffe mittels KI: Neue Gefahren aus dem Netz

KI generiert Bilder, Texte, Töne und kann sogar programmieren. Das ist auch für Kriminelle attraktiv: Vermehrt werden KI-Tools für Betrug, Identitätsdiebstahl und Erpressung genutzt.

KI-Angriffe: Hacker mit Kapuze vor einem Laptop
KI-Cyberangriffe.  Foto Adobe Stock

Künstliche Intelligenz (KI) verändert die IT-Technik, wie wir sie bisher kannten. Neben der Software-Programmierung revolutioniert sie aber auch viele andere Arbeitsbereiche, vom Texten und Zeichnen bis hin zum Treffen politischer Entscheidungen. KI ist also der nächste Schritt in einem langen Prozess, menschliche Arbeit zu automatisieren, der mit der Industrialisierung seinen Anfang nahm. 

Die Veränderungen, die der Einsatz von KI mit sich bringt, sind weitreichend – doch nicht alle Folgen sind positiv. Während viele Menschen den Verlust von Arbeitsplätzen fürchten, haben auch Cyberkriminelle das Potenzial von KI erkannt und nutzen diese, um ihre Opfer um Geld und Daten zu bringen. Laut einer Studie des globalen Netzwerks von Wirtschaftsprüfungs- und Beratungsunternehmen KPMG ist die Zahl der Cyberattacken in Österreich 2023 im Vergleich zum Vorjahr um satte 89 Prozent gestiegen – auch KI-gestützte Angriffe dürften zu diesem rasanten Anstieg beigetragen haben.

Wie kommt KI den Cyberkriminellen zugute?

Angreiferinnen und Angreifer nutzen beispielsweise maschinelles Lernen, um riesige Datensätze zu analysieren und Schwachstellen in den Computersystemen ihrer Opfer zu identifizieren. Auf Grundlage dieser Erkenntnisse entwickeln sie automatisierte Cyberattacken, die in kurzer Zeit viel mehr Opfer treffen, als es bisher möglich war – und das mit größter Präzision.

So können Kriminelle mittels KI ihre Angriffsmethoden personalisieren, um die spezifischen Verteidigungsmechanismen ihrer Opfer zu umgehen. Zugleich lässt sich KI auch einsetzen, um Cyberangriffe abzuwehren. Allerdings sind solche Lösungen aktuell noch mit großem Aufwand und beträchtlichen Kosten verbunden und kommen deshalb meist nur für Unternehmen mit eigener IT-Abteilung infrage.

Im Folgenden präsentieren wir Ihnen eine Übersicht der neuen Bedrohungen und zeigen, wie Sie sich vor solchen Cyberangriffen schützen können.

Effektivere Phishing-E-Mails mittels ChatGPT

Man muss kein technisch begabter Mensch sein, um sich eine KI-Anwendung auch für illegale Zwecke zunutze zu machen. Das wird am Beispiel von Phishing-E-Mails deutlich, die sowohl an Kundinnen und Kunden als auch an Angestellte von Banken versendet werden: Cyberkriminelle versuchen so, an persönliche Daten ihrer Opfer zu gelangen und Geld zu erbeuten oder mittels Malware (Schadprogramme) in die IT-Systeme der Kreditinstitute einzudringen. Es genügt häufig schon, dass eine einzige im Unternehmen beschäftigte Person den mitgeschickten Anhang öffnet oder auf den Link in einer solchen E-Mail klickt, damit sich das Schadprogramm ausbreiten kann.

Heute werden KI-Programme von Betrügerinnen und Betrügern genutzt, um maßgeschneiderte Nachrichten zu erstellen, die auf den ersten Blick täuschend seriös erscheinen. Durch KI-Übersetzer wie DeepL und KI-Textgeneratoren wie ChatGPT haben also auch Cyberkriminelle im Ausland keine Schwierigkeiten mehr, fehlerfreie E-Mails auf Deutsch zu verfassen. Damit werden österreichische Angriffsziele für eine weitaus größere Zahl von Kriminellen attraktiv.

Hinweis

Hilfreiche Tipps, wie Sie sich vor Phishing-Mails schützen können, bietet der Beitrag „Präventionsmaßnahmen gegen Phishing“. Wenn Sie Opfer eines Phishing-Angriffs geworden sind, ist schnelles Handeln entscheidend. Was Sie tun können, zeigt unser Artikel „Phishing-Mails: Erste-Hilfe-Anleitung nach Betrugsfällen durch Phishing“.

Automatisiertes Datensammeln mithilfe der KI

Um derartige Attacken durchzuführen, benötigen Cyberkriminelle vor allem eines: Daten. Sie müssen möglichst viele Informationen über ihre Angriffsziele sammeln, zum Beispiel Namen, E-Mail-Adressen und Telefonnummern. Durch KI-Programme findet dies nun in einem automatisierten Prozess statt. Die deutsche Finanzaufsicht BaFin warnt deshalb, „dass KI den Aufwand auf der Seite der Täter deutlich verringern kann“.  

Betrug durch KI-Deepfakes

Dank KI lassen sich heute Bilder, Videos und Audios am Computer generieren, die von echten Aufnahmen kaum zu unterscheiden sind. Diese sogenannten Deepfakes werden eingesetzt, um Falschinformationen zu verbreiten, aber auch, um ahnungslose Nutzerinnen und Nutzer zu täuschen und um ihr Geld zu bringen. Täuschungsversuche, bei denen gefälschte Stimmen oder Videos zum Einsatz kommen, involvieren häufig den „Enkeltrick“: Die Betrügerinnen und Betrüger geben sich gegenüber älteren Menschen am Telefon als deren Angehörige aus und bitten um Geld. Die Opfer zahlen dann in dem Glauben, einer verwandten Person zu helfen.

Hinweis

Wie die Betrugsmasche mit gefälschten Tonaufnahmen funktioniert und wie man Audio-Deepfakes erkennt, erklärt unser Beitrag „Audio-Deepfakes und Voice-Cloning“.

Programmierung von Schadsoftware und Ransomware mittels KI

ChatGPT und ähnliche Programme können nicht nur Texte generieren, sondern auch Software programmieren. Dies machen sich Hackerinnen und Hacker ohne Programmierkenntnisse zunutze, um ihre eigenen Schadprogramme (Malware) zu entwickeln.

Obwohl die Programmierkunst von KI-Software noch nicht allzu weit fortgeschritten ist, lassen sich bereits einfache Erpresserviren, sogenannte Ransomware, erstellen. Damit versuchen Cyberkriminelle, die IT-Systeme von Unternehmen und Privatpersonen lahmzulegen, und erpressen die Inhaberinnen und Inhaber: Erst nach Zahlung einer Geldsumme wird die IT-Infrastruktur wieder freigegeben.

Hinweis

Die Erpressungsmethoden im Netz sind vielfältig. Wie Kriminelle dabei vorgehen und was Opfer im Ernstfall tun können, lesen Sie in unserem Beitrag „Erpressungsmethoden im Internet und wie man sich davor schützt“. 

Letzte Aktualisierung: 20. Oktober 2023

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria