So schützt der "Digital Services Act" Minderjährige in sozialen Netzwerken

Der Digital Services Act (DSA) verpflichtet große soziale Netzwerke zu mehr Sicherheit und Transparenz im Internet. Wir geben einen Überblick darüber, was das für den Schutz von Kindern und Jugendlichen auf Instagram, TikTok und Co. bedeutet.

Titelbild DSA
Foto: Saferinternet.at

Was ist der Digital Services Act?

Der Digital Services Act (Deutsch: Gesetz über digitale Dienste oder kurz DSA) ist eine Verordnung der Europäischen Union. Ziel der Verordnung ist ein sicheres und vertrauenswürdiges Onlineumfeld. Der DSA soll sicherstellen, dass sehr große Onlineplattformen wie Instagram, Snapchat, TikTok und YouTube die Rechte von Nutzer/innen schützen und die Verbreitung verbotener oder ungeeigneter Inhalte verhindern. Der DSA verpflichtet soziale Netzwerke beispielsweise zu mehr Transparenz von Empfehlungsalgorithmen, die schnelle Entfernung schädlicher Inhalte und einheitliche Beschwerdeverfahren in ganz Europa.

Hinweis

Der DSA ist bereits im November 2022 in Kraft getreten. Die Umsetzung der Maßnahmen musste bis Februar 2024 erfolgen. Die Auswirkungen für Nutzer/innen sollten nach und nach spürbar werden.

Wie werden Minderjährige online durch den DSA geschützt?

Soziale Netzwerke müssen dafür sorgen, dass Minderjährige keinen ungeeigneten Inhalten ausgesetzt sind, ihre Daten und ihre Privatsphäre geschützt werden, sie keine personalisierte Werbung erhalten, Informationen klar und nicht irreführend gestaltet sind und sie insgesamt besser vor Onlinegefahren geschützt sind. Was das konkret für die Praxis bedeutet, wird im Folgenden beschrieben:

Schutz vor ungeeigneten Inhalten

Kinder und Jugendliche sollten sich online immer sicher fühlen und vor ungeeigneten Inhalten und Kontakten geschützt sein. Als ungeeignet gelten beispielsweise Inhalte oder Kontakte, die Ärger, Wut, Trauer, Sorge oder Angst auslösen könnten.

Der Digital Services Act (DSA) soll sicherstellen, dass Onlineinhalte dem Alter und den Interessen von Kindern und Jugendlichen entsprechen. Onlineplattformen sind demnach verpflichtet, Gefahren frühzeitig zu erkennen und geeignete Maßnahmen zu ergreifen. Plattformen sollten außerdem dafür sorgen, dass soziale Netzwerke erst ab dem jeweiligen erlaubten Alter genutzt werden können.

In der Praxis bedeutet das:

  • Soziale Netzwerke müssen ihre Empfehlungsalgorithmen so gestalten, dass Kinder und Jugendliche nicht mit schädlichen Inhalten in Kontakt kommen.
  • Plattformen müssen leicht zugängliche Meldefunktionen anbieten, zum Beispiel über einen gut sichtbaren Melde-Button. Die Plattformen sind verpflichtet, zeitnah zu reagieren und den Nutzer/innen eine Rückmeldung zu geben.
  • Reagiert eine Plattform nicht ausreichend schnell oder handelt es sich um besonders gefährliche Inhalte, können sogenannte Trusted Flagger Unterstützung bieten. Trusted Flagger sind unabhängige Organisationen, die mit den Plattformen in direktem Kontakt stehen und die Entfernung problematischer Inhalte beschleunigen können. In Österreich übernehmen etwa Rat auf Draht und die Internet Ombudsstelle diese Rolle als Trusted Flagger.
  • Soziale Netzwerke bieten Einstellungen, die das Risiko, ungeeignete Inhalte zu sehen, minimieren oder im besten Fall verhindern. Beispiele dafür sind, dass Nutzer/innen nicht ohne ihre Zustimmung zu Chatgruppen hinzugefügt werden können, dass sie den Empfehlungsalgorithmus zurücksetzen oder Inhalte einschränken können.
  • Plattformen müssen das Alter der Nutzer/innen verifizieren. Aktuell erfolgt dies durch Selbstauskunft und der Auswertung des Nutzerverhaltens (wie Sprache, Inhalte, Nutzungszeiten), um Hinweise auf das tatsächliche Alter zu erhalten.

Schutz vor Onlinegefahren

Insbesondere Kinder und Jugendliche sollten online vor Gefahren und Risiken geschützt werden. Dazu gehören beispielsweise Belästigung, Cybermobbing, Falschinformationen und Personen, die sich als jemand anderes ausgeben.

Außerdem müssen Plattformen darlegen, welche Gefahren es online gibt und Maßnahmen ergreifen, um diese zu verhindern.

In der Praxis bedeutet das:

  • Plattformen bieten Einstellungen und Tools, mit denen Eltern ihre Kinder bei der Nutzung begleiten oder bestimmte Funktionen sperren können.
  • Zum Schutz von Minderjährigen sind bestimmte Einstellungen standardmäßig vorgesehen, wie beispielsweise „private“ Konten, um die Kontaktaufnahme durch Fremde zu verhindern, eingeschränkte Kontaktmöglichkeiten oder eine deaktivierte Livestream-Funktion.
  • Plattformen bieten Einstellmöglichkeiten, um Nutzer/innen zu sperren, blockieren oder stummzuschalten.
  • Plattformen arbeiten mit Fact-Checking-Organisationen und stellen Warnhinweise bei fragwürdigen oder falschen Inhalten bereit.

Datenschutz & Privatsphäre

Wir alle haben das Recht auf den Schutz unserer persönlichen Daten – auch im Internet. Diese Daten müssen sicher aufbewahrt und vor unbefugtem Zugriff geschützt werden. Sie dürfen weder verfälscht noch ohne Zustimmung weitergegeben werden.

In der Praxis bedeutet das:

  • Es sollte Voreinstellungen zum Schutz der Privatsphäre geben. Beispielsweise sollten Profile von Minderjährigen standardmäßig auf „privat” gestellt werden, sodass ihre Beiträge nicht öffentlich abrufbar sind. Darüber hinaus sollten die Berechtigungen von Apps datenschutzfreundlich voreingestellt sein, sodass kein automatischer Zugriff auf Mikrofon, Standort, Kamera usw. erfolgt.
  • Die Altersverifikation muss datenschutzfreundlich gestaltet werden. Eine Möglichkeit wäre die Einbindung der europäischen digitalen Identität (eID). Dadurch erfahren Plattformen lediglich, ob das angegebene Alter stimmt, ohne dass Dokumente oder Daten zur Identität übermittelt werden. Für die Klärung des Alters sollten soziale Netzwerke keine zusätzlichen Daten erheben.
  • Sensible Daten dürfen nicht für Werbung oder Inhaltsempfehlungen verwendet werden. 

Schutz vor personalisierter Werbung

Für personalisierte Werbung werden unzählige Daten genutzt – was wir liken, wem wir folgen und welche Webseiten wir aufrufen. Die Spuren, die wir online hinterlassen, geben Aufschluss über unsere persönlichen Interessen. Diese Informationen werden für zielgerichtete Werbung verwendet. 

In der Praxis bedeutet das:

  • Onlineplattformen dürfen Minderjährigen keine personalisierte Werbung ausspielen, also keine Werbung, die auf Interessen, dem Suchverlauf oder sonstigen Nutzungsdaten basiert.
  • Soziale Netzwerke sind verpflichtet, transparent offenzulegen, wie Werbeanzeigen geschaltet werden. Dazu gehören Informationen über Werbekampagnen, Zielgruppen und eingesetzte Algorithmen. Dadurch sollen Forschende, Expert/innen und Behörden in der Lage sein, Risiken wie Falschinformationen, irreführende Werbung oder verbotene Inhalte in den Werbeanzeigen zu identifizieren. 

Verständliche Informationen und kein irreführendes Design

Plattformen sollten verantwortungsvoll gestaltet sein. Sie dürfen nicht süchtig machen und müssen auf irreführende Designelemente (sogenannte Dark Patterns), die Nutzer/innen zu bestimmten Handlungen verleiten sollen, verzichten. Vor allem Nutzungs- und Datenschutzbestimmungen von Websites und Plattformen müssen so formuliert sein, dass sie auch Kinder und Jugendliche verstehen können. Das bedeutet, dass sie in einer klaren, einfachen Sprache ohne juristische Fachbegriffe oder komplizierte Formulierungen verfasst sein müssen. 

In der Praxis bedeutet das:

  • Designelemente, die die Nutzungsdauer erhöhen, sollten entfernt werden.
  • Funktionen, die die Verweildauer auf Plattformen verlängern oder auf die Plattform locken, sollten deaktiviert werden (zum Beispiel digitale Belohnungen für regelmäßige Nutzung oder Kommunikation, Autoplay oder Push-Benachrichtigungen).
  • Nutzungsbedingungen und Datenschutzbestimmungen sollten in einer verständlichen Form aufbereitet werden.
  • Kinder müssen leicht verständlich über ihre Rechte, Pflichten und die möglichen Risiken der Plattform aufgeklärt werden.
Hinweis

Der Schutz von Minderjährigen im Internet ist vor allem in Art. 28 des DSA geregelt. Zur Umsetzung dieser Vorgaben schlägt die EU-Kommission in ihren Leitlinien zum Schutz Minderjähriger konkrete Maßnahmen vor.

Wirkt der Digital Services Act?

Der Digital Services Act (DSA) ist ein wichtiger Schritt, um Druck auf Onlineplattformen auszuüben und sie zum Handeln zu verpflichten. Wenn ein Onlinedienst die Vorgaben nicht einhält, kann die EU hohe Geldstrafen verhängen – bis zu 6 % des weltweiten Jahresumsatzes des Unternehmens. Erste Maßnahmen sind bereits schrittweise sichtbar, doch viele Plattformen stehen noch am Anfang – insbesondere, wenn es um den Schutz von Kindern und Jugendlichen geht. Damit Verbesserungen auch im Alltag spürbar werden, müssen die Regeln konsequent umgesetzt, regelmäßig überprüft und bei Bedarf weiterentwickelt werden. Die Umsetzung des DSA wird streng überwacht – sowohl von der Europäischen Kommission als auch von den Mitgliedstaaten. In jedem Land gibt es dafür zuständige Behörden, die prüfen, ob Plattformen ihre Pflichten erfüllen.

Hinweis

In Österreich ist die Kommunikationsbehörde Austria (KommAustria) zuständig für die Überwachung und Durchsetzung der Vorschriften des Digital Services Act. Wenn Sie einen Verstoß gegen den DSA bemerken, können Sie bei der KommAustria eine Beschwerde einreichen.

Letzte Aktualisierung: 16. Oktober 2025

Für den Inhalt verantwortlich: Österreichisches Institut für angewandte Telekommunikation (ÖIAT)