Deepfakes: Falsches Vertrauen in Videos

Deepfake-Videos überschwemmen die Sozialen Medien. Dabei werden die KI-Videogeneratoren, mit denen die gefälschten Videos leicht hergestellt werden können, immer professioneller und die Fakes schwerer zu erkennen. Wir zeigen Ihnen, worauf Sie achten müssen.

Grafik mit Tablet auf dem gerade ein Video gestartet wird
Falsches Vertrauen in Videos Foto: Adobe Stock

Deepfakes sind modifizierte Videos in (annähernd) realistischer Qualität. Statt der weltberühmten Musikerin oder dem Musiker singt plötzlich eine andere bekannte Persönlichkeit in einem Musikvideo, die jedoch nicht Urheberin beziehungsweise Urheber des Videos ist und auch nie den betreffenden Liedtext gesungen hat. Die gleiche Situation lässt sich bei gefälschten Reden berühmter Persönlichkeiten beobachten. Besonders problematisch sind manipulierte Videos dann, wenn diese Videos nicht als Fälschung oder als Scherz erkennbar sind.

Deepfake-Videos im Internet

Userinnen und User vertrauen Videos im Internet meist eher als Fotos, da letztere bekanntlich mithilfe von klassischen Fotobearbeitungsprogrammen wie Photoshop und nun auch Künstlichen Intelligenzen (KIs) auch für Laien leicht zu manipulieren sind. Tatsächlich konnten Realitäten in Videos aber auch schon früher ganz einfach etwa durch die Wahl des Bildausschnittes aus dem Kontext gerissen oder mittels veränderter Abspul-Geschwindigkeit verzerrt werden. Sogenannte Cheap Fakes sind Videos (oder andere multimediale Inhalte), die mit einfachen Mitteln manipuliert wurden und dennoch authentisch wirken.

Hinweis

Lesen Sie hierzu auch den Beitrag: „Cheap Fake: audiovisuelle Fälschungen mithilfe einfacher Mittel“.

Heutzutage haben sich die Möglichkeiten der Video-Manipulation durch leicht zu bedienende KI-Anwendungen, Apps und integrierte Social-Media-Filterfunktionen vervielfacht. Mit wenig Aufwand lässt sich die Identität einer Person in einer beliebigen Videoaufnahme ganz einfach austauschen. Je nach Professionalität des verwendeten Programms und der vorliegenden Menge des Referenzmaterials (Fotos der „neuen“ Person), sind solche als „Deepfakes“ bezeichneten Fälschungen kaum von echten Videoaufnahmen zu unterscheiden. Das Kofferwort „Deepfake“ setzt sich aus den Begriffen „Deep Learning“ (KI-Technologie) und „Fake“ (Fälschung) zusammen.

Hinweis

Wie funktioniert künstliche Intelligenz und was ist eigentlich Deep Learning? Diese und andere Fragen zu den AI-Grundlagen bietet der Beitrag „KI-Basiswissen: Grundlagen der KI einfach erklärt“. 

Ein Rückblick auf die Entstehung von Deepfakes

Ihren Anfang nahmen Deepfakes im Dezember 2017 auf der Plattform Reddit. Dort wurde ein Unterforum erstellt und darauf manipuliertes Videomaterial mit prominenten Gesichtern hochgeladen, das mithilfe eigens entwickelter Algorithmen bearbeitet wurde. Die Videos wurden tausendfach geklickt und innerhalb kürzester Zeit stieg die Anzahl der Followerinnen sowie Follower auf etwa 15.000. Diese Entwicklung ebnete den Weg für einen Aufschwung der Deepfakes. Das lag unter anderem daran, dass die zur Erstellung der gefälschten Videos verwendeten Algorithmen ein Open Source-Code waren. Somit waren diese nahezu uneingeschränkt und frei verfügbar.

Wie werden Deepfakes erstellt

Um ein Deepfake-Video zu erstellen, benötigen KI-Video-Generatoren so viele perspektivisch unterschiedliche Bilder eines Gesichts wie möglich, damit diese wie eine digitale Maske auf das „original“ gelegt werden können. Umso mehr Bilder einer Person für die digitale Maske zur Verfügung stehen – rund 300 verschiedenen Fotos aufwärts – desto realistischer ist am Ende das damit realisierte Ergebnis.

Der Deepfake-Algorithmus arbeitet wie ein „Autoencoder“, der mithilfe des Referenzmaterials Merkmale definiert und lernt, wie das in ein Video einzubringende Gesicht auszusehen hat und es somit, anhand der definierten Merkmalen, selbst erzeugen kann. Solche Algorithmen sind auch imstande, die erzeugten Gesichter in Bewegung zu versetzen. Es wird also nicht wie mit einem Bildbearbeitungsprogramm einfach ein Gesicht auf ein anderes kopiert, sondern ein ganz neues geformt. Sind allerdings nicht genügend Bilder aus einer Perspektive vorhanden, oder sollen untypische Bewegungen ausgeführt werden, gelangen die derzeitigen Deepfake-Technologien noch an ihre Grenzen und müssen auf Details verzichten. Dadurch wirken die neu erzeugten Gesichter oftmals unrealistisch und perspektivisch verzogen. Je nachdem, wie viel Bewegung in einem Video stattfindet, umso schwerer ist es also zu erstellen.

Neben den Bildern benötigt man zur Erstellung eines derartigen Fakes auch das ursprüngliche Video, in das das neue Gesicht eingefügt werden soll, und die (manipulierte) Tonspur. Diese drei Quellen zusammengefügt, erzeugen im Idealfall ein realistisches Bewegtbild. Die Erstellung ist also mit Aufwand verbunden, bei dem immer wieder Fehler passieren. So lassen sich Deepfakes  manchmal durch eine unnatürliche Mimik, einen leeren Blick, falsche Schattenwürfe im Gesicht oder perspektivische Verzerrungen enttarnen.

Gefahren und Risiken von Deepfake-Videos

Häufig wird diese Technologie für lustige und harmlose Videos verwendet, die auf Eigeninitiative mehrerer Konzerne auf Plattformen wie Facebook, Instagram oder Youtube nunals Fälschungen gekennzeichnet werden müssen. Die geplante EU-Verordnung „AI Act“ wird das erste umfassende gesetzliche Rahmenwerk für künstliche Intelligenz weltweit.

Betrügerinnen oder Betrüger verfolgen damit jedoch häufig finanzielle Motive. KI-gestützte Betrugsversuche sind ein signifikant steigender Trend in der Cyberkriminalität.

Eine weitere Gefahr im Kontext von Deepfakes sind Falschinformationen, die in Form von manipulierten Videos häufig via Social Media verbreitet werden. Solche Kampagnen haben dabei meist einen politischen Hintergrund (politische Propaganda).

Ganz abgesehen von der berechtigten Frage der Legalität werden Deepfakes dann besonders problematisch, wenn rufschädigende Videos in die Privatsphäre eines Menschen eingreifen, oder auf diese Weise Desinformation gestreut und gesellschaftliche Veränderungen heraufbeschworen werden. Durch Deepfakes ist es leichter geworden, Menschen von öffentlichem Interesse oder bekannte Persönlichkeiten in prekäre Situationen zu bringen, in denen sie niemals waren oder ihnen Aussagen in den Mund zu legen, die sie nicht getätigt haben.

Die Technologie wird aktuell in hohem Maß missbraucht, um pornografische Bilder und Videos von bekannten Persönlichkeiten zu erstellen, ohne deren Einwilligung einzuholen. Die Veröffentlichung derart manipulierter Inhalte sind in vielen Fällen strafbare Handlung (Persönlichkeitsrecht, Urheberrecht des Originalvideos usw.). Betroffen sind von diesem Trend überwiegend Frauen, deren Gesichter nachträglich in vorhandenes Videomaterial integriert werden.

Deepfakes erkennen: Tipps, um Fälschungen zu entlarven

Deepfakes können auch als Mittel für Cybermobbing und Erpressung verwendet werden. Dabei bieten vor allem soziale Medien reichlich Bildmaterial, um realistische Deepfakes zu erstellen. Um zweifelhafte Inhalte automatisch überprüfen zu lassen, können Sie auf die Hilfe verschiedener Online-Tools zurückgreifen.

Hinweis

Wie Sie audiovisuellen Content hinsichtlich der Mitarbeit von AI analysieren können, und welche Online-Tools Ihnen dabei helfen, lesen Sie im Beitrag: "Täuschend echt: So erkennen Sie KI-Content".

Neben den frei zugänglichen Online-Hilfsmitteln zur Überprüfung von audiovisuellem Content können sich Userinnen und User folgende Fragen stellen:

  • Ist die Quelle des Videos seriös oder fehlen die Quellenangaben überhaupt zur Gänze?
  • Passen Aussagen und Handlungen zum üblichen Verhalten der Person?
  • Hat das Ereignis, das im Video gezeigt wird, wirklich stattgefunden? Gibt es dafür auch andere Quellen?
  • Haben Faktencheck-Plattformen wie Mimikama oder die Faktenchecker der sozialen Netzwerke den Inhalt vielleicht sogar schon überprüft?
Letzte Aktualisierung: 3. April 2024

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria