Täuschend echt: So erkennen Sie KI-Content
Mit künstlicher Intelligenz lassen sich heute kinderleicht Texte, Bilder sowie Audio- und Videoclips erstellen. Welche Tools es gibt, um solche Inhalte zu erkennen – hier einige Tipps.
Noch nie war es so einfach, professionellen Content zu produzieren und zu verbreiten. Mit KI-Bildgeneratoren lassen sich binnen weniger Minuten Bilder erstellen, die von echten Aufnahmen kaum zu unterscheiden sind.
Diese Entwicklung birgt auch Gefahren, denn häufig verbreiten sich solche Fake-Inhalte in sozialen Netzwerken rasend schnell. Cyberkriminelle versuchen mit Deepfakes – also gefälschten, aber täuschend echt wirkenden Inhalten – Phishing-Angriffe in sozialen Netzwerken oder per Telefon zu starten, um an persönliche Daten ihrer Opfer zu gelangen. Nicht nur Bilder, sondern auch Stimmen, Musik und Videos können mithilfe künstlicher Intelligenz gefälscht werden. Die technischen Möglichkeiten dazu werden immer einfacher und besser. OpenAI, das Unternehmen hinter ChatGPT, kündigte beispielsweise für 2024 ein Tool namens „Sora“ an, das einfache Textbefehle in hochwertige Videosequenzen verwandeln kann, die sich kaum mehr von echtem Bewegtbild-Content unterscheiden lassen.
Um KI-generierten Content zu entlarven, gibt es aber eine Reihe von praktischen Tipps und Anwendungen, die wir Ihnen hier vorstellen.
Wie Sie KI-Texte erkennen
- Wenig originelle sowie abwechslungsarme Formulierungen
- Auffällig viele Wiederholungen
- Viele aneinandergereihte Schlagworte
- Formatierungsfehler
Während die Verbreitung KI-generierter Bilder und Videos erst mit dem Aufkommen massentauglicher KI-Programme wie ChatGPT an Fahrt aufgenommen hat, sind computergenerierte Audioclips und Texte bereits seit Jahren in Umlauf. Für das Lehrpersonal an Schulen und Universitäten sind schriftliche Abschlussarbeiten in Bezug auf die Leistungsbewertung zum Problem geworden. Dementsprechend gibt es in diesem Bereich auch die größte Auswahl an Programmen, die bei der Identifikation von KI-Texten helfen. Die meisten Anwendungen bieten auch Plagiatschecks an.
Praktische kostenlose Tools sind etwa ZeroGPT, der AI Content Detector von Content at Scale und jener des Anbieters Writer. Wenn es darum geht, Verschleierungstaktiken wie von der Anwenderin beziehungsweise dem Anwender eingebaute Grammatikfehler zu durchschauen, hat das Tool Originality.ai die Nase vorn. Sehr zuverlässig – aber kostenpflichtig – ist das Programm Copyleaks. Für englische Texte gibt es auch den KI-Detector von Scribbr in einer kostenlosen Variante, für deutsche Texte wird die kostenpflichtige Premiumversion benötigt.
Neben den genannten Programmen stehen noch viele weitere zur Auswahl, die jeweils unterschiedliche Stärken und Schwächen aufweisen. Um für Ihren Anwendungsfall das beste Tool zu finden, empfiehlt sich ein Vorab-Test: Vergleichen Sie einen von einem Menschen verfassten Text mit einem KI-generierten Beitrag zum selben Thema, um Unterschiede bezüglich Stilistik, Formulierung und Strukturierung der Information zu bewerten.
Die Funktionsweise von generativen Sprachmodellen erklärt Ihnen der Beitrag: KI-Textgeneratoren: So funktionieren AI-Anwendungen wie ChatGPT und Co.
Woran Sie KI-Bilder erkennen
- Hände: Falsche Proportionen und Fingeranzahl
- Unnatürlich wirkende Zähne (z. B. Farbe)
- Auffällig glatte Gesichtshaut, unrealistisch wirkende Augenpartien und Ohren
- Zu perfekte Lichtverhältnisse, falsche Schatten
- Uhren, die auf 10:10 stehen
- Verschwommene Bildbereiche, die eigentlich scharf sein sollten
- Zu weich oder zu scharf gezeichnete Falten an Gesicht und Händen
Für den Echtheitscheck von Bildern ist Hive zu empfehlen – eine Erweiterung für Google Chrome, die kostenlos genutzt werden kann. Auch illuminarty.ai zählt zu den bewährten Helfern bei der Prüfung von Bild- und Textcontent, die Basisversion steht gratis zur Verfügung. Wer ein Zusatzpaket kauft, erhält auch Informationen zum Entstehungsort des Bildes sowie zum Programm, mit dem die Fälschung erstellt wurde. Derzeit ist das Tool nur als Web-App verfügbar, eine Browsererweiterung ist in Arbeit.
Woran Sie KI-Videos erkennen
- Unnatürliche, mechanische, oft auch zu langsame Bewegungen
- Inkonsistenzen (etwa in den Lichtverhältnissen) zwischen dem Gesicht einer Person und dem Hintergrund
- Unrealistische Hände und Gesichter
Um KI-generierte Videos zu erkennen, eignet sich die kostenlose Web-App DeepFake-o-Meter. Das Tool zieht seine Schlüsse aus den Reflexionen in den Augen der abgebildeten Personen: Zeigen sich an den Augen unterschiedliche Reflexionsmuster, so weist das auf eine Fälschung hin. Aus dem Hause Microsoft stammt die App Video Authenticator, ebenfalls ein Deepfake-Detektor für Videos.
Professionelle kostenpflichtige Lösungen, auf die auch Regierungen und Behörden vertrauen, sind jene von Sentinel oder Intel. Letztere erkennt beispielsweise anhand der in den Pixeln dargestellten Hauttextur, ob die abgebildeten Personen wirklich menschlich sind.
Woran Sie KI-Tonaufnahmen erkennen
- Metallischer, monotoner Klang
- Falsche Aussprache
- Künstlich wirkende Sprechweise
- Unnatürliche Geräusche und Verzögerungen in der Artikulation
Die Authentizität von Audioaufnahmen kann der AI Voice Detector überprüfen. Das US-Unternehmen McAfee hat außerdem Anfang 2024 unter dem Namen „Project Mockingbird“ einen KI-Detektor für Audio-Deepfakes vorgestellt, der bald verfügbar sein soll.
Nähere Infos dazu, wie Audio-Deepfakes funktionieren und wie Sie sich vor Betrug schützen können, erfahren Sie hier.
KI-Inhalte überprüfen: Bauchgefühl und Recherche hilfreich
Egal, um welche Art von Content es sich handelt: Nutzerinnen und Nutzer sind gut beraten, auf ihr Bauchgefühl zu hören, denn oft erkennen wir gefälschte Inhalte intuitiv. In jedem Fall lohnt es sich, auf vertrauenswürdige Medien zurückzugreifen. Mit einer einfachen Google-Suche kann außerdem schnell geklärt werden, ob die gezeigten Inhalte auf Tatsachen beruhen: Ob es am Entstehungstag eines Bildes tatsächlich geregnet hat oder der dargestellte Promi wirklich ein Tattoo am Unterarm trägt, lässt sich meist einfach herausfinden.
Wachsende Herausforderungen durch KI-generierte Fake News
Fest steht aber auch: Die KI wird immer besser. Sie lernt aus Fehlern, und Fälschungen zu erkennen wird zunehmend schwieriger. Besonders schwer zu identifizieren sind sogenannte Hybridfälschungen – also Fake News, die zumindest teilweise auf wahren Begebenheiten beruhen. So kann etwa eine zu einem früheren Zeitpunkt zustande gekommene Fotografie (auch mit einfachen Mitteln) in einen neuen Kontext gestellt werden. Umso wichtiger wird es auch künftig sein, Inhalten nicht blind zu vertrauen, sondern Botschaften im Netz immer auf ihre Plausibilität hin zu überprüfen.
Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria