Mit Künstlicher Intelligenz gegen Desinformation

Im Zuge des Projekts defalsif-AI entwickeln Forscherinnen und Forscher ein Werkzeug gegen Desinformation. Doch wie funktioniert das Analysetool im Kampf gegen falsche Informationen?

Laptop steht am Tisch und Grafik symbolisiert weltweite Internet Vernetzung
Mit Künstlicher Intelligenz gegen Desinformation Foto Adobe Stock

Das Forschungsprojekt defalsif-AI, das sich mit der Detektion von Falschinformation durch die Verwendung von Verfahren auf der Grundlage künstlicher Intelligenz beschäftigt, hat sich zum Ziel gesetzt, ein zuverlässiges Instrument zur Bekämpfung von Desinformation zu entwickeln. Das medienforensische Werkzeug analysiert digitale Inhalte (Text, Bild, Video und Audio) und liefert Anhaltspunkte in Bezug auf Authentizität und Glaubwürdigkeit der analysierten Inhalte. Das Projekt wird im Rahmen des Sicherheitsforschungs-Förderprogrammes KIRAS durch das Bundesministerium für Landwirtschaft, Regionen und Tourismus (BMLRT) finanziert.

Welche Ziele verfolgt die Forschungsarbeit rund um defalsif-AI und wie funktioniert das Tool in der Praxis? Martin Boyer, Projektleiter und wissenschaftlicher Mitarbeiter des AIT (Austrian Institute of Technology), beantwortet diese und andere Fragen.

Welchen Beitrag wird das medienforensische Werkzeug im Einsatz gegen Desinformation und Deepfakes leisten können?
Martin Boyer: Vor dem Hintergrund des Overload an Informationen und der unfassbar vielen Informationsquellen im Internet, leisten wir mit unseren Entwicklungen einen Beitrag dafür, Menschen dabei zu unterstützen, die Vertrauenswürdigkeit von Inhalten im Internet besser einschätzen zu können. Heute werden wir immer mehr mit nutzergenerierten Inhalten im Netz konfrontiert. Der Großteil dieser Inhalte durchläuft keinen Verifikationsprozess, denn wir alle sind unter anderen durch Social Media zu Medienproduzentinnen und -produzenten avanciert. Es wird bei dieser Menge laufend neu erstellter Informationen immer schwieriger, reale Inhalte von gefälschten Inhalten zu unterscheiden. Die Menge an Information, mit der wir täglich konfrontiert werden, macht es zunehmend schwieriger, die Vertrauenswürdigkeit von Inhalten im Netz einzuschätzen. Wir möchten vor diesem Hintergrund die Menschen unterstützen, die richtigen Entscheidungen treffen zu können.

Gibt es einen öffentlichen Zugang zu diesem Tool oder wurde es für konkrete Zielgruppen entwickelt?
Boyer: Unser Fokus im Projekt liegt zunächst darauf, ein brauchbares Werkzeug für Behörden, für die öffentliche Verwaltung, aber auch für Medienorganisationen zu entwickeln. Darum sind auch Vertreterinnen und Vertreter dieser Organisationen in die Projektentwicklung involviert. Das Wichtigste für uns ist aber, dass wir mit unserem Tool einen gut fundierten Meinungsbildungsprozess stärken. Aus diesem Grund wollen wir ein verständliches und einfach verwendbares Werkzeug realisieren, das beispielsweise über den Web-Browser abrufbar ist. Außerdem ist es auch notwendig, die Ergebnisse so klar verständlich zu liefern, dass sie nicht nur für Expertinnen und Experten interpretierbar sind.

Gibt es vergleichbare Forschungen in anderen Ländern und wenn ja, worin unterscheidet sich defalsif-AI von diesen Projekten?
Boyer: Es gibt weltweit verschiedenste Ansätze, um Inhalte zu verifizieren. Diese sind allerdings meist nur von Profis einsetzbar beziehungsweise werden Informationen überwiegend in einer für Laien unverständlichen Form aufbereitet. Ein Beispiel: Wenn ich heute jemanden frage, ob er oder sie ein Programm für Bildbearbeitung kennt, dann erhalte ich fast immer eine Antwort. Aber wenn man umgekehrt nach einem Analyse-Tool fragt, mit dem festgestellt werden kann, ob ein Foto manipuliert ist, sieht es anders aus. Dieses Wissen ist oft nicht vorhanden.
Der Fokus unseres Projektes ist es, einerseits die bereits vorhandenen Technologien in einem Tool zu vereinen und somit zugänglich beziehungsweise für Nicht-Experteninnen und Nicht-Experten verständlich zu machen. Andererseits geht es aber auch um die Möglichkeit, unser Werkzeug zukünftig erweitern zu können, weil natürlich auch die Fälschungsmethoden ständig nachgebessert werden. Unser System muss hier mit laufenden Anpassungen Schritt halten können und somit zukunftsfähig sein.

Eine Journalistin oder ein Journalist möchte eine Videoaufnahme auf ihre Echtheit überprüfen. Wie sehen die Arbeitsschritte mit dem medienforensischen Tool aus?
Boyer: Die Journalistin oder der Journalist öffnet das Tool und kann sich dann für zwei Schritte entscheiden – entweder Video hochladen, oder auch nur die Webadresse des Videos eingeben und anschließend die Analyse beziehungsweise die Echtheitsprüfung starten.
Wir haben auf der Auswertungsebene viele verschiedene Analysemethoden, um zum Beispiel einen Text auf Echtheit zu überprüfen. Unser Tool vereint daher eine Reihe dieser Analysemethoden in einem System. Diese werden auf das fragliche Medium angewandt, egal ob Text, Video oder eine Mischform davon etwa in Form einer Website. Der Benutzerin beziehungsweise dem Benutzer werden zu jeder Analysemethode Anhaltspunkte und eine Gesamteinschätzung geliefert. Schlussendlich muss der Mensch jedoch selbst entscheiden, was er mit dem Ergebnis macht. Wir versuchen zu unterstützen und so gut wie möglich nachvollziehbar zu machen, warum es zu dem entsprechenden Resultat gekommen ist.

Wie funktioniert das Tool in Bezug auf Kommentare in Sozialen Medien?
Boyer: Hier arbeitet das Tool in derselben Funktionsweise, die auch bei der Analyse von Videos zur Anwendung kommt. Man kopiert textuelle Inhalte des Kommentars in das Tool und startet die Analyse.

Wie erkennt das Tool politisch motivierte Desinformation von Social Bots oder auch von Social-Media-Trollen?
Boyer: Wenn es um die Analyse eines Textes geht, kann man analysieren, ob mit bestimmten Emotionen gearbeitet wird. Zunächst muss jedoch eine gewisse Menge an Text vorhanden sein. Wenn jemand nur „ja“ schreibt, wird man darüber keine Aussage treffen können. Bei entsprechender Länge des Textes kann die Algorithmik jedoch auswerten, ob der Text mit bestimmten Emotionen wie zum Beispiel Aggression arbeitet, ob eine bestimmte Information immer wiederholt und reißerisch aufgemacht wird. Das sind Aspekte, die unser Analysetool sehr wohl aufdecken kann.
Es gibt aber nicht nur die eine Methode zum Erkennen von Falschinformationen. Wir wenden daher eine Vielzahl an Vorgehensweisen an, von denen eine im Idealfall einen Anhaltspunkt findet, weil beispielsweise Fremdenfeindlichkeit in den Inhalten vorkommt. Weitere Indizien sind zum Beispiel Aussagen über bestimmte Themen oder die Emotionalität des Textes. In Summe helfen diese Informationen anschließend bei der Beurteilung der Inhalte und dem Erkennen von Desinformation.

Weitere Informationen
Näheres zum Projekt finden Sie auf der Website des Austrian Institute of Technology (AIT).

Letzte Aktualisierung: 30. September 2021

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria