KI-generierte Inhalte: Kommt bald die Kennzeichnungspflicht?

Mittels KI produzierter Content kann zu Desinformationszwecken eingesetzt werden. Auf einigen Plattformen ist es deshalb Pflicht, KI-Inhalte als solche zu kennzeichnen. Wie funktioniert das konkret?

Mann (Torso) vor Laptop mit Symbolen von Streamingvideos (ohne KI-Kennzeichnung)
KI-Kennzeichnungen. Foto Adobe Stock

Ob Texte, Animationen oder Bilder – immer mehr Inhalte, die im Netz zu finden sind, wurden durch künstliche Intelligenz (KI) generiert. Diese KI-Kreationen erscheinen oft täuschend echt, als hätte sie ein Mensch geschaffen.

Dass mittels KI erstellter Content von Inhalten, die von Menschen produziert wurden, kaum noch zu unterscheiden ist, halten viele für ein Problem. Denn KI kann beispielsweise verwendet werden, um Falschinformationen zu verbreiten. Dabei muss das nicht einmal bewusst geschehen: Noch immer sind textgenerierende Programme wie ChatGPT fehleranfällig und beantworten Anfragen mit unwahren Aussagen, ohne dass es die Nutzerinnen und Nutzer bemerken.

Deshalb verlangen sowohl die Europäische Kommission als auch die US-Regierung von Internetkonzernen, Inhalte, die nicht von Menschen geschaffen wurden, als solche auszuweisen. Nutzerinnen und Nutzer sollen sofort erkennen können, wenn ein bestimmter Inhalt mittels KI generiert wurde. Noch ist die Umsetzung in den USA und der EU freiwillig. Unternehmen, die bereits den EU-Verhaltenskodex gegen Desinformation von 2022 unterzeichnet haben und sich somit verpflichten, KI-Inhalte auf ihren Plattformen zu kennzeichnen, sind unter anderem Google, dessen Tochter-Firma YouTube sowie die Plattformen Facebook und TikTok.

Aber was bedeutet eine Kennzeichnungspflicht für Nutzerinnen und Nutzer? Wie funktioniert sie in der Praxis? Diese Fragen werden im Folgenden beantwortet.

Wo werden KI-Inhalte bereits gekennzeichnet?

Aktuell kann jeder Konzern selbst entscheiden, auf welche Weise er Verbraucherinnen und Verbrauchern das Erkennen KI-generierter Inhalte erleichtert. Allerdings ist die Umsetzung entsprechender Regelungen durchaus anspruchsvoll, da zuerst wichtige Fragen geklärt werden müssen: Wie soll die Kennzeichnung aussehen? Sind die Nutzerinnen und Nutzer verpflichtet, KI-Inhalte individuell zu kennzeichnen, oder geschieht dies automatisch bei der Veröffentlichung? Wie sollen Verstöße geahndet werden?

Hinweis

Wie KI allgemein im Hinblick auf IT-Sicherheit zu bewerten ist, erklärt der Beitrag „Künstliche Intelligenz im Spannungsfeld der IT-Sicherheit“.

Wie funktioniert die KI-Kennzeichnung?

  • Google:
    Die von Google gesetzten Maßnahmen haben vor allem mit der US-Präsidentschaftswahl 2024 zu tun. Nachdem auf YouTube (einer Plattform von Google) Wahlwerbevideos verbreitet wurden, in denen gegnerische Kandidatinnen und Kandidaten mithilfe von KI-Manipulationen geschmäht wurden, hat der Konzern seine „Manipulated Media Policy“ ausgebaut: Wer bei Google politische Werbung mit KI-generierten Inhalten schaltet, muss ab November 2023 ausdrücklich darauf hinweisen. Wie und wo ein solcher Hinweis genau anzubringen ist, bleibt jedoch offen. Die Vorgabe von Google lautet, dass die Kennzeichnung „klar und deutlich“ platziert sein soll, sodass sie nicht zu übersehen ist. Auch andere „digitale Veränderungen“, also herkömmliche Bildmanipulationen mittels Photoshop, müssen nun als solche ausgewiesen werden. Von der Kennzeichnungspflicht ausgenommen bleiben rein ästhetische, inhaltlich nicht relevante Veränderungen, etwa Bildvergrößerungen oder Farbkorrekturen. Überprüft wird die Einhaltung der Kennzeichnungspflicht automatisiert sowie bei Bedarf durch Mitarbeiterinnen und Mitarbeiter.
  • TikTok:
    Besonders heikel ist die Umsetzung einer KI-Kennzeichnung in sozialen Medien, wo Millionen von Nutzerinnen und Nutzern selbst Inhalte erstellen und teilen können. Wie eine Kennzeichnung funktionieren kann, zeigt die Social-Media-Plattform TikTok, auf der vor allem kurze Videoinhalte geteilt werden. Wer ein Video auf TikTok hochlädt, kann die Option „KI-generiert“ wählen. Der entsprechende Hinweis („Von Creator*in als KI-generiert gekennzeichnet“) erscheint dann direkt unter dem Video. Die Kennzeichnung ist jedoch freiwillig. Wer also die KI-Nutzung nicht offenlegt, muss derzeit auch nicht mit Konsequenzen rechnen. Stattdessen erforscht TikTok Möglichkeiten, KI-generierte Inhalte automatisch zu erkennen und als solche zu kennzeichnen.
  • OpenAI:
    Zusammen mit den Internet-Riesen Google, Meta und Amazon hat sich auch das Unternehmen OpenAI bei einem Treffen mit US-Präsident Joe Biden im Juli 2023 verpflichtet, effektive Methoden zur Kennzeichnung von KI-Inhalten zu entwickeln. Zum Beispiel ließen sich Inhalte, die durch hauseigene KI-Anwendungen erstellt wurden, automatisch mit einem speziellen Wasserzeichen versehen. Die technischen Verfahren befinden sich aber erst in der Entwicklungsphase.

Hinweis

Wie künstliche Intelligenz das Wohnen revolutioniert und was das für unsere Sicherheit bedeutet, wird im Beitrag „Smart Home und KI – Symbiose oder Risiko?“ erklärt.

Kommt bald eine gesetzliche KI-Kennzeichnungspflicht?

Es ist wohl nur eine Frage der Zeit, bis die Kennzeichnung von KI-Inhalten allgemein gesetzlich verpflichtend wird. Entsprechende Pläne sind bereits Teil des „AI Act“ der EU, der sich zurzeit in Ausarbeitung befindet. Damit soll die Anwendung von KI reguliert werden, um die Grundrechte der Bevölkerung zu schützen.

In Österreich wird sich die Kennzeichnungspflicht zunächst auf den öffentlichen Bereich beschränken. Um schon vorzeitig Transparenz und Vertrauen in künstliche Intelligenzen zu gewährleisten, sollen alle KI-Systeme des Bundes bereits vor Inkrafttreten des europäischen AI-Acts verpflichtend gekennzeichnet werden. Wenn Nutzerinnen und Nutzer also beispielsweise mit einem KI-getriebenen Chat-Bot eines Ministeriums kommunizieren, sollen sie dies anhand eines entsprechenden Hinweises sofort erkennen können.

Letzte Aktualisierung: 10. Oktober 2023

Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria