Deepfakes: Falsches Vertrauen in Videos

Deepfake Videos überschwemmen die Sozialen Medien. Dabei werden die notwendigen Technologien immer professioneller und die Fakes schwerer zu erkennen. Wir zeigen Ihnen, worauf Sie achten müssen.

Grafik mit Tablet auf dem gerade ein Video gestartet wird
Falsches Vertrauen in Videos Foto: Adobe Stock

Neben der Erstellung falscher Nachrichten ist es zunehmend möglich, modifizierte Videos durch raschere technologische Weiterentwicklungen in immer besserer Qualität zu realisieren. Statt der weltberühmten Musikerin oder dem Musiker singt plötzlich eine andere bekannte Persönlichkeit in einem Musikvideo, die jedoch zumeist nicht Urheberin bzw. Urheber des Videos ist und auch nie den betreffenden Liedtext gesungen hat. Die gleiche Situation lässt sich bei gefälschten Reden berühmter Persönlichkeiten beobachten. Besonders problematisch sind manipulierte Videos dann, wenn diese Videos nicht als Fälschung oder als Scherz erkennbar sind. Denn solche Clips sehen immer öfter verblüffend echt aus, dennoch handelt es sich dabei um Täuschungen – sogenannte Deepfake Videos. Aber was genau ist eigentlich unter Deepfakes zu verstehen?

Deepfakes im Internet

Userinnen und User vertrauen Videos im Internet meist eher als Fotos, da letztere bekanntlich mithilfe von Photoshop und Co. auch für Laien leicht zu manipulieren sind. Tatsächlich konnten Realitäten in Videos aber auch schon früher ganz einfach etwa durch die Wahl des Bildausschnittes verzerrt werden. Heutzutage haben sich die Möglichkeiten durch den Technologie-Fortschritt sogar noch vervielfacht. Mit etwas Aufwand und mithilfe von Algorithmen, die Fotos zu einem neuen Gesicht zusammensetzen, kann die Identität einer Person in einer beliebigen Videoaufnahme ganz einfach ausgetauscht werden. Je nach Professionalität des verwendeten Programms und der vorliegenden Menge des Referenzmaterials (Fotos der „neuen“ Person) sehen solche sogenannten „Deepfakes“ heute schon einigermaßen realistisch aus. Und die Technologien werden durch Deep Learning Algorithmen laufend weiterentwickelt.

Ihren Anfang nahmen Deepfakes vor rund vier Jahren im Dezember 2017 auf der Plattform Reddit. Dort wurde ein Unterforum erstellt und darauf manipuliertes Videomaterial mit prominenten Gesichtern hochgeladen, das mithilfe eigens entwickelter Algorithmen bearbeitet wurde. Die Videos wurden tausendfach geklickt und innerhalb kürzester Zeit stieg die Anzahl der Followerinnen sowie Follower auf etwa 15.000. Diese Entwicklung ebnete den Weg für einen Aufschwung der Deepfakes. Das lag unter anderem daran, dass die zur Erstellung der gefälschten Videos verwendeten Algorithmen ein Open Source-Code waren. Somit waren diese quasi uneingeschränkt und frei verfügbar. Meistens wird diese Technologie für lustige und harmlose Videos verwendet. Manchmal sind diese Scherze auch als Fälschungen gekennzeichnet. Betrügerinnen oder Betrüger verfolgen damit jedoch andere Motive, nämlich die Verbreitung von Falschinformationen in der Form manipulierter Videos.

Ganz abgesehen von der berechtigten Frage der Legalität werden Deepfakes dann besonders problematisch, wenn rufschädigende Videos in die Privatsphäre eines Menschen eingreifen, oder auf diese Weise Desinformationen gestreut und gesellschaftliche Veränderungen heraufbeschworen werden. Durch Deepfakes ist es leichter geworden, Menschen von öffentlichem Interesse oder bekannte Persönlichkeiten in prekäre Situationen zu bringen, in denen sie niemals waren oder ihnen Aussagen in den Mund zu legen, die sie nicht getätigt haben. Auch besonders schwerwiegende Manipulationen der erstellten Videos sind denkbar.

Wie werden Deepfakes erstellt

Im Fokus von Deepfakes stehen meist bekannte Persönlichkeiten. Personen, die nicht Teil des öffentlichen Interesses sind, müssen bislang weniger Angst haben, Deepfakes von sich zu finden. Um ein solches Deepfake Video zu erstellen, benötigt das Computerprogramm nämlich so viele perspektivisch unterschiedliche Bilder eines Gesichts wie möglich, damit diese wie eine digitale Maske auf das „original“ gelegt werden können. Umso mehr Bilder einer Person für die digitale Maske zur Verfügung stehen – dabei reden wir von rund 300 verschiedenen Fotos aufwärts – desto realistischer ist am Ende das damit realisierte Ergebnis. Aus diesem Grund betreffen Deepfakes derzeit hauptsächlich prominente Personen, von denen im Internet unzählige Fotos und Videos zu finden sind.

Die Arbeitsweise von Deepfake-Technologien ist leicht verständlich: In dem Algorithmus steckt ein „Autoencoder“, ein künstliches neuronales Netz, das durch das Referenzmaterial lernt, wie das in ein Video einzubringende Gesicht auszusehen hat und es somit selbst erzeugen kann. Solche Algorithmen sind auch imstande, die erzeugten Gesichter in Bewegung zu versetzen. Es wird also nicht wie mit einem Bildbearbeitungsprogramm einfach ein Gesicht auf ein anderes kopiert, sondern ein ganz neues geformt. Sind allerdings nicht genügend Bilder aus einer Perspektive vorhanden, oder sollen untypische Bewegungen ausgeführt werden, gelangen die derzeitigen Deepfake-Technologien noch schnell an ihre Grenzen und müssen auf Details verzichten. Dadurch wirken die neu erzeugten Gesichter oftmals unrealistisch und perspektivisch verzogen. Je nachdem, wie viel Bewegung in einem Video stattfindet, umso schwerer ist es also zu erstellen. Häufig sind in Deepfake Videos daher Personen zu sehen, die starr sitzend direkt in die Kamera sprechen oder deren Bewegungsradius eingeschränkt ist.

Neben den Bildern benötigt man zur Erstellung eines derartigen Fakes auch das ursprüngliche Video, in das das neue Gesicht eingefügt werden soll, und die (manipulierte) Tonspur. Diese drei Quellen zusammengefügt, erzeugen im Idealfall ein realistisches Bewegtbild. Die Erstellung ist also mit Aufwand verbunden, bei dem immer wieder Fehler passieren. So lassen sich Deepfakes derzeit noch oft durch eine unnatürliche Mimik, einen leeren Blick, falsche Schattenwürfe im Gesicht oder perspektivische Verzerrungen enttarnen.

Herausforderungen mit Deepfakes

Neben den bereits erwähnten Gefahren fürchten Digitalexperten, dass Deepfakes in Zukunft auch im privaten Bereich zu Cybermobbing und Erpressung führen könnten. Immerhin ist durch Soziale Medien reichlich Bildmaterial frei zugänglich vorhanden und notwendige Apps, mit denen Deepfakes erstellt werden können, können kostenlos heruntergeladen und mit ausreichend Rechner-Leistung problemlos angewendet werden. Aus diesem Grund arbeiten Unternehmen wie Facebook Artificial Intelligence Research (FAIR) mit anderen Experten etwa in der Deepfake Detection Challenge (DFDC) zusammen an Programmen, um die Entwicklung neuer Möglichkeiten zur Erkennung von Deepfake-Videos zu beschleunigen.

Bis dahin können Internetuserinnen und -user zusätzlich zu den oben erwähnten Erkennungsmerkmalen anhand einiger Hinweise herausfinden, ob Videos gefaked sind:

  • Ist die Quelle des Videos seriös oder fehlen die Quellenangaben überhaupt zur Gänze?
  • Passen Aussagen und Handlungen zum üblichen Verhalten der Person?
  • Hat das Ereignis, das im Video gezeigt wird, wirklich stattgefunden?
  • Haben Faktencheck-Plattformen wie Mimikama oder die Faktenchecker der Sozialen Netzwerke den Inhalt vielleicht sogar schon überprüft?
Letzte Aktualisierung: 3. September 2021

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria