Dark Social – Was Userinnen und User darüber wissen sollten

Durch die Verbreitung von mobilen Apps und sozialen Netzwerken sind immer mehr Zugriffe auf Informationen im Internet nicht mehr nachvollziehbar. Wir klären auf, woher dieser „Dark Traffic“ kommt und wie gefährlich er wirklich ist.

Grafik zu Fake News
Während der Corona-Pandemie führte das Weitertragen von Nachrichten aus unbestätigten Quellen zu einer Flut an Desinformationen. Foto Adobe Stock

Der Austausch von Website-Links in persönlichen Mitteilungen über Messenger-Dienste wie WhatsApp, Signal oder Telegram sowie in persönlichen E-Mails und geschlossenen Gruppen in sozialen Netzwerken ist nichts Ungewöhnliches. Jene Link-Klicks, die tagtäglich auf diesem Weg über Milliarden Smartphones und Computer getätigt werden, können jedoch nicht zu ihrem Ursprung zurückverfolgt werden. Dieses Phänomen nennt sich „Dark Social“ oder „Dark Traffic“ und bezeichnet eine enorme Menge an Datenverkehr. „Es gibt Umstände, in denen keine Referrer-Daten (Herkunftsinformationen der Userinnen und User, Anm.) vorhanden sind. Du tauchst vor unserer Haustür auf und wir haben keine Ahnung, wie du hierhergekommen bist“, schrieb „The Atlantic“-Redakteur Alexis C. Madrigal im Jahr 2012 in einem Artikel, der den Begriff des „Dark Social“ prägte.

Seitdem hat der „dunkle“ Traffic enorm zugenommen. Besonders während der Corona-Pandemie konnte erneut beobachtet werden, dass das teils blinde Vertrauen in private Mitteilungen und das Weitertragen von Nachrichten aus unbestätigten Quellen zu einer Flut an Desinformationen und einer gesamtgesellschaftlichen Herausforderung werden können. Der Wissenschaftler Ross King, Head of Competence Unit „Data Science & Artificial Intelligence“ am Austrian Institute of Technology (AIT), erklärt im Interview das Phänomen „Dark Social“ und die Gefahren.

Was kann man sich unter „Dark Social“ vorstellen? Ist es zwangsläufig negativ einzuordnen? 
Ross King: Der Begriff „Dark Social“ bezieht sich auf Website-Verlinkungen, zu denen es keine Herkunftsinformation gibt. Erklärbar ist das so: Wenn ich den Link zu einem Artikel in der „Wiener Zeitung“ an meinen Sohn per E-Mail schicke und er diesen anklickt, kann die Web-Analytik der „Wiener Zeitung“ nicht sagen, woher dieser Klick kommt, da durch die Weiterleitung auf einem privaten Kanal die Herkunftsinformationen gewissermaßen verloren gehen. Negativ behaftet ist diese Art des Traffic überhaupt nicht. Er ist nur „dark“ im Sinne von „seine Herkunft ist unbekannt“. Wir wissen, dass es da ist, aber wir können es nicht messen.

Wenn ich den Link aber in meinem Facebook-Profil oder auf LinkedIn poste und jemand draufklickt, beinhaltet die URL die zusätzlichen Informationen, dass die Userin oder der User über das Soziale Netzwerk auf die verlinkte Seite gelangte. Für die Werbewirtschaft sind diese Informationen natürlich enorm wichtig, weil sie ihr Geld damit verdienen, Unternehmen zu helfen, mehr Klicks zu bekommen.

Ich sehe „Dark Social“ aber dennoch weder negativ noch als Gefahr für die Online-Sicherheit. Im Kontext von Desinformation sind die Kanäle allerdings besonders gefährlich, weil die Benutzerinnen und Benutzer eine vertrauensvolle Grundeinstellung zum Absender haben.

Die Glaubwürdigkeit des Absenders à la „Was von einem Freund kommt, ist vertrauenswürdig“ spielt also eine besonders wichtige Rolle. Was ist das Problem dahinter? 
King: Es ist eine menschliche Eigenschaft, dass wir Botschaften von unserer Familie und aus unserem Freundeskreis mehr vertrauen als anderen Botschaften. Das ist das sogenannte Echo-Chamber-Problem. Wenn ich nur Nachrichten von Freunden und Familie übermittelt bekomme, die sehr wahrscheinlich auch meine Meinungen und Grundeinstellungen teilen, erhalte ich ein verzerrtes Bild der Welt. Und das ist eine Gefahr in Bezug auf Desinformation. „Dark Social“ bezieht sich in diesem Fall auf private Botschaften, die ich per E-Mail beziehungsweise über Messenger-Dienste wie WhatsApp oder Signal bekomme.

Gleichzeitig ist auch das Vertrauen der Bevölkerung in traditionelle Medien sehr stark gesunken. Vor dreißig Jahren waren Nachrichten, die im ORF übertragen wurden, für eine klare Mehrheit der Bevölkerung eine Tatsache. Inzwischen hat diese Einigkeit deutlich abgenommen.

Wie sieht heute das Verhältnis von sichtbarem und unsichtbarem Traffic („Dark Social“) aus? Wie hat es sich im Laufe der Zeit verändert?
King: In der wissenschaftlichen Literatur gibt es, soweit ich weiß, keine quantitativen Aussagen über dieses Verhältnis. Man kann aber sagen, dass es sehr wahrscheinlich ist, dass es heute mehr Dark Traffic, also mehr Unbekanntes als Bekanntes, gibt.

Die erste Erwähnung des Begriffs „Dark Social“ kam in einem Artikel von „The Atlantic“ aus dem Jahr 2012 vor.  Damals gab es bereits mehr unbekannten als bekannten Traffic, und das ist heute immer noch der Fall, obwohl es inzwischen einen großen Wandel gegeben hat. 2012 kam der Hauptanteil des Traffic immer noch von starren Geräten, also Laptops und Computern. Das hat sich inzwischen hin zu mobil gewandelt. Bei Nachrichten von mobilen Apps werden die zusätzlichen Herkunftsinformation in den Link eingebaut. Aber gleichzeitig ist mit den Mobilgeräten der Anstieg von Messenger-Plattformen wie WhatsApp stark gestiegen. Bei diesem Kanal kann überhaupt nichts analysiert werden, weil WhatsApp die Nachrichten verschlüsselt. Solche Verschlüsselungen entstehen durch den Wunsch der Menschen nach Privatsphäre und sind unter anderem ein Grund für den Anstieg des „Dark Social“-Traffic. Auch für Strafverfolgungsbehörden ist es technisch kaum möglich, eine Ermittlung durchzuführen.

Tipp

Hier können Sie den Artikel „Dark Social: We Have the Whole History of the Web Wrong“ des amerikanischen Journalisten Alexis C. Madrigal in der Zeitschrift „The Atlantic“ lesen.

Private Gruppen in sozialen Netzwerken führen nicht selten zur rasanten Ausbreitung von Desinformationen oder zur Organisation von radikalen Gruppierungen. Wie hoch schätzen Sie das Gefahrenpotenzial des „Dark Social“ ein?
King: Das Problem ist, dass organisierte Desinformationskampagnen diese „Dark Social“-Kanäle missbrauchen, indem sie Nachrichten für die Empfängerin oder den Empfänger erscheinen lassen, als würden sie von Freundinnen und Freunden oder der Mutter kommen. Das kann automatisiert und in Massen passieren. Automatisierung und Künstliche Intelligenz können Desinformation im Internet verbreiten – beispielsweise durch Twitter Bots. Gefährlich ist das grundsätzliche Vertrauen: Kommuniziere ich auf WhatsApp, gehe ich davon aus, dass die Nachrichten von Bekannten kommen. Wenn ich im Internet surfe, habe ich diese Grundeinstellung nicht. Das ist die besondere Gefahr von diesen Kanälen.

WhatsApp reagiert auf die „Dark Social“-Problematik mit dem „Weitergeleitet“-Hinweis, um die Vertrauenswürdigkeit von Meldungen zu schmälern. Hat dies positive Effekte?
King: WhatsApp hat diese „Weitergeleitet“-Funktion integriert, damit Empfänger sehen können, dass die erhaltene Nachricht nicht wirklich etwa von meiner Mutter gekommen ist, sondern eine Weiterleitung durch den Account meiner Mutter war. Das ist gut, da ich so einen Hinweis darauf bekomme, dass sie von einer anderen Quelle verschickt wurde. Der Messenger-Dienst hat außerdem seine AGB geändert, um Massensendungen zu verhindern. Wenn eine Userin oder ein User nun versucht, 10.000 Leute in einem Schritt durch WhatsApp zu erreichen, ist das eine Verletzung der AGB. Das sind gute Schritte. Ich kann allerdings nicht sagen, wie groß der Effekt war, da WhatsApp – wie bereits erwähnt – als verschlüsselter Kommunikationskanal agiert.

Tipp

Weitere Informationen zu der geänderten Weiterleitungsfunktion von WhatsApp finden Sie auf dem Blog des Messenger-Dienstes.

Wie können Seitenbetreiberinnen und -betreiber (negativen) Dark-Social-Traffic in den Griff bekommen? Wie können Userinnen und User dem entgegenwirken?
King: Ich sehe Dark Social prinzipiell nicht als Problem, das man in den Griff bekommen muss. Ganz im Gegenteil zu den Desinformationen, die über Dark-Social-Kanäle verbreitet werden. Hier müssen Bürgerinnen und Bürger geschult und besser über die Gefahr von Desinformationen informiert werden. Wir müssen verstehen, wie man eine Quelle bewerten kann. Das sind Maßnahmen, die für die Endnutzerin und den Endnutzer wichtig sind. Technische Maßnahmen gibt es eher wenige. Es würde natürlich helfen, wenn auf Knopfdruck eine rote Ampel aufleuchtet, dass diese Botschaft verdächtig ist. Aber viel wichtiger wäre Bildung und mehr Medienkompetenz der Bevölkerung.

Gab es bei Ihrer Forschungsarbeit in der letzten Zeit neue Erkenntnisse?
King: Einer unserer Forschungsschwerpunkte am AIT Center for Digital Safety & Security ist genau diese Medien-Forensik, die sowohl auf traditionellen Methoden als auch auf Künstlicher Intelligenz basiert. Wie kann man überprüfen, ob Medien manipuliert worden sind? Und kann man die Zusammenhänge zwischen Aussagen, Bildern, Audio- und Videomaterialien vergleichen und als verdächtig beziehungsweise gefälscht einstufen?

Im letzten Jahr etwa haben wir 100 Prozent des Covid-19-Twitter-Streams überwacht. Das war ein Service von Twitter, der für Forscherinnen und Forscher eröffnet wurde. Wir haben zu allen Tweets, die etwas mit Corona zu tun hatten, Zugang bekommen. Normalerweise kriegt man nur ein Tausendstel des Streams zu sehen und muss viel Geld zahlen, um mehr zu bekommen. In diesem besonderen Fall konnten wir und andere Forscherinnen und Forscher einige Analysen durchführen und haben herausgefunden, dass es eine hohe Konzentration von Desinformationsquellen in der Twitter-Umgebung gibt. Etwa zehn bis 15 Accounts weltweit teilen immer wieder Tweets und fragwürdige Covid-19-Informationen, die sich sehr schnell verbreiten. Ich nenne das die „Demokratisierung der Technologie“. Was in der Vergangenheit nur staatliche Akteure bewegen konnten, können heutzutage durch das Internet viel kleinere Gruppen oder sogar einzelne Individuen bewerkstelligen.

Wie sieht die Zukunft des Dark Social aus?
King: Ich sehe es als eine Art Rüstungswettlauf. Auf der einen Seite kommen immer neue Techniken, die missbraucht werden können, und auf der Forschungsseite versuchen wir immer neue Ansätze zu finden, um diese identifizieren, ausblenden oder ablenken zu können. Das führt im Gegenzug aber wieder zu neuen Techniken. Es ist ein ständiger Kampf.

Ich gehe auch davon aus, dass es viel mehr Regulationen in diesem Kontext geben wird. Das Internet ist allerdings global und daher ist es wirklich schwierig, diese Entwicklungen einzuschränken – auch wenn die Regulationen auf europäischer Ebene erfolgen.

Tipp

Nähere Informationen zum Austrian Institute of Technology finden Sie auf www.ait.ac.at.

Letzte Aktualisierung: 26. Juli 2021

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria