Die Europäische Kommission hat am 26. März 2026 förmliche Ermittlungen gegen Snapchat eröffnet. Der Vorwurf: Die Plattform schützt Minderjährige nicht so, wie es das EU-Recht verlangt. Um zu verstehen, was das bedeutet, muss man zunächst wissen, welches Regelwerk hier gilt – und welche besonderen Pflichten es für eine Plattform wie Snapchat vorsieht.
Snapchat ist kein normaler Fall – es geht um das schärfste EU-Regime
Der Digital Services Act (Verordnung EU 2022/2065, kurz: DSA) unterscheidet zwischen verschiedenen Kategorien von Plattformen und verknüpft mit jeder Kategorie andere Pflichten. Je größer die Plattform, desto strenger das Regelwerk. An der Spitze dieser Abstufung stehen sogenannte Very Large Online Platforms, kurz VLOPs – also sehr große Online-Plattformen. Als VLOP gilt eine Plattform, die von der Kommission ausdrücklich als solche benannt wurde und mindestens 45 Millionen durchschnittliche monatliche Nutzer in der EU hat. Snapchat wurde am 25. April 2023 als VLOP benannt und unterliegt seitdem dem strengsten Pflichtenprogramm des DSA: Es muss jährlich die systemischen Risiken seines Dienstes bewerten und geeignete Gegenmaßnahmen ergreifen – und die Aufsicht liegt nicht bei nationalen Behörden, sondern direkt bei der Europäischen Kommission.
Eine der wichtigsten Pflichten im DSA für Plattformen, die von Minderjährigen genutzt werden können, steht in Art. 28 I DSA. Danach müssen solche Plattformen geeignete und verhältnismäßige Maßnahmen ergreifen, um ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu gewährleisten. Warum Minderjährige dabei besonders schutzbedürftig sind, liegt auf der Hand: Die Nutzung digitaler Technologien kann in einem noch sehr plastischen Gehirn neurologische Bahnen verändern und Suchtgefahren begründen. Außerdem fehlt Minderjährigen oft das Reflexionsvermögen eines Erwachsenen, um schädliche oder nicht altersgemäße Inhalte einordnen zu können.
INFOBOX: Das Stufensystem des DSA
Der DSA regelt die Pflichten von Plattformen in Stufen:
Alle Vermittlungsdienste – also jede Plattform, die Inhalte Dritter weiterleitet oder speichert – unterliegen allgemeinen Sorgfaltspflichten (Art. 11–15 DSA).
Online-Plattformen treffen darüber hinaus Pflichten zum Umgang mit rechtswidrigen Inhalten und zum Beschwerdemanagement (Art. 16–28 DSA).
Für VLOPs und sehr große Online-Suchmaschinen gilt zusätzlich das strengste Regime: systemische Risikobewertung, Risikominderung und unmittelbare Kommissionsaufsicht (Art. 33–43 DSA).
Wichtig für das Verständnis des Snapchat-Verfahrens: Die Kommission ist für VLOPs bei den Pflichten aus Art. 33–43 DSA ausschließlich zuständig. Daneben können nationale Behörden Art. 28 DSA grundsätzlich selbst durchsetzen – bis die Kommission ein eigenes Verfahren einleitet und damit die Zuständigkeit an sich zieht.
Wie es zum Verfahren kam
Das Verfahren geht nicht auf eine Eigeninitiative der Kommission zurück, sondern auf eine Untersuchung der niederländischen Verbraucherschutzbehörde ACM (Autoriteit Consument en Markt). Die ACM hatte am 9. September 2025 Ermittlungen wegen des Verkaufs von E-Zigaretten an Minderjährige über Snapchat eingeleitet. Weil Snapchat als VLOP der unmittelbaren Kommissionszuständigkeit unterliegt, übernahm die Kommission das Verfahren. Die ACM bleibt dabei als assoziierter Partner eingebunden.
Auch Deutschland hat zur Entscheidung aktiv beigetragen. Die Bundesnetzagentur als hiesiger Digital Services Coordinator sowie die deutschen Landesmedienanstalten lieferten der Kommission Informationen und Erkenntnisse für die Untersuchung. Inhaltlich stützt sich die Kommission auf Risikoberichte, die Snapchat selbst für die Jahre 2023, 2024 und 2025 vorgelegt hat, sowie auf Antworten auf ein Auskunftsersuchen vom Oktober 2025, das insbesondere das Altersverifikationssystem und Maßnahmen gegen den Zugang zu illegalen Produkten betraf. Ergänzend flossen Erkenntnisse akademischer Forschung, zivilgesellschaftlicher Organisationen und weiterer Behörden ein.
Das Verfahren gegen Snapchat ist kein Einzelfall: Am selben Tag veröffentlichte die Kommission vorläufige Feststellungen in vier Verfahren gegen die Pornografieplattformen Pornhub, Stripchat, XNXX und XVideos – auch dort lautet der Hauptvorwurf unzureichende Alterskontrolle.
Fünf konkrete Verdachtspunkte
Die Kommission hat fünf Bereiche identifiziert, in denen Snapchat möglicherweise gegen den DSA verstößt. Jeder dieser Punkte ist ein eigenständiger Vorwurf – zusammen zeichnen sie das Bild einer Plattform, die Minderjährige strukturell unzureichend schützt.
Erstens, die Altersverifikation: Snapchat lässt Nutzer ihr Alter selbst angeben, ohne dieses zu überprüfen. Die Kommission geht davon aus, dass diese Selbstauskunft weder verhindert, dass Kinder unter 13 auf den Dienst zugreifen. Darüber hinaus soll das Tool, über das Nutzer das Vorhandensein von unter 13-jährigen Konten melden können, in der App nicht verfügbar sein.
Zweitens, Grooming und kriminelle Anwerbung: Weil das Alter bei der Anmeldung nicht überprüft wird, können sich Erwachsene als Gleichaltrige ausgeben. Indem der Dienst von Erwachsenen missbraucht werden kann, die ihr Alter nicht korrekt angeben oder es nachträglich ändern, werden Minderjährige dem Risiko sexueller Ausbeutung oder der Rekrutierung für kriminelle Aktivitäten ausgesetzt.
Drittens, die Standardeinstellungen: Wer ein neues Konto anlegt, startet nicht mit dem bestmöglichen Schutz – sondern mit Einstellungen, die Minderjährige sichtbar und erreichbar machen. Kinder und Jugendliche werden automatisch über die Funktion „Freunde finden” anderen Nutzern empfohlen; Push-Benachrichtigungen bleiben standardmäßig aktiviert; und bei der Kontoerstellung werden Nutzer weder ausreichend über Datenschutz- und Sicherheitsfunktionen informiert noch darüber, wie sie ihre Einstellungen anpassen können.
Viertens, illegale Inhalte: Nicht nur der Kontakt zu anderen Nutzern ist problematisch – auch die Inhalte selbst. Die Inhaltsmoderation verhindert nicht effektiv die Verbreitung von Informationen, die Nutzer auf den Erwerb illegaler Produkte wie Drogen oder altersbeschränkter Waren wie Vapes und Alkohol hinweisen. Auch Kinder und Jugendliche können auf solche Inhalte zugreifen.
Fünftens, Dark Patterns bei Meldewegen: Wer rechtswidrige Inhalte melden will, soll daran aktiv gehindert werden. Die Mechanismen zur Meldung rechtswidriger Inhalte sind weder leicht zugänglich noch nutzerfreundlich und weisen möglicherweise sogenannte Dark Patterns auf. Zudem sollen Nutzer nicht ausreichend über Beschwerdemöglichkeiten informiert werden.
Was sind Dark Patterns? Wer eine App so gestaltet, dass Nutzer bestimmte Dinge möglichst nicht tun – zum Beispiel Inhalte melden oder Einstellungen ändern –, betreibt Dark Patterns. Art. 25 I DSA verbietet Online-Plattformen ausdrücklich, ihre Schnittstellen so zu konzipieren, zu organisieren oder zu betreiben, dass Nutzer getäuscht, manipuliert oder in ihrer Fähigkeit, freie und informierte Entscheidungen zu treffen, maßgeblich beeinträchtigt werden. Im Snapchat-Verfahren steht konkret der Verdacht im Raum, dass die Meldewege für rechtswidrige Inhalte bewusst so schwer zugänglich gestaltet wurden, dass Nutzer davon absehen.
Der Kern: Was Selbstauskunft rechtlich nicht leisten kann
Der erste Verdachtspunkt – die unzureichende Altersverifikation – ist der rechtliche Dreh- und Angelpunkt des gesamten Verfahrens. Denn alle anderen Probleme, vom Grooming bis zu den Standardeinstellungen, hängen davon ab, dass die Plattform schlicht nicht weiß, ob ein Nutzer minderjährig ist.
Art. 28 I DSA fordert ein „hohes” Schutzniveau. Was das konkret bedeutet, haben die DSA-Leitlinien der Kommission zum Schutz Minderjähriger präzisiert, die im Sommer 2025 veröffentlicht wurden. Diese Leitlinien stellen ausdrücklich fest: Selbstauskunft sollte nicht als zuverlässige Altersverifikationsmaßnahme gelten.
Erschwerend für Snapchat kommt hinzu, dass die Kommission für die Ermittlungen auch Snapchats eigene Risikoberichte ausgewertet hat – und diese offenbar das Strukturproblem der unzureichenden Altersverifikation nicht ausreichend adressieren.
Was droht Snapchat – und was rechtlich nicht möglich ist
Mit der Eröffnung des förmlichen Verfahrens kann die Kommission weitere Auskunftsersuchen stellen sowie Interviews und Inspektionen durchführen. Sie kann einstweilige Maßnahmen ergreifen, eine Nichtkonformitätsentscheidung erlassen oder Verpflichtungszusagen von Snapchat entgegennehmen. Bei festgestelltem Verstoß können nach Art. 52 III 1 DSA Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes verhängt werden; Zwangsgelder sind nach Art. 52 IV DSA auf bis zu 5 % des durchschnittlichen weltweiten Tagesumsatzes begrenzt. Beide Beträge gelten jeweils pro Zuwiderhandlung.
Was hingegen nicht möglich ist: ein Plattformverbot. Das Durchsetzungsinstrumentarium des DSA sieht kein generelles und unbefristetes Verbot vor. Es zielt allein darauf ab, die Einhaltung der normierten Anbieterpflichten zu gewährleisten. Weder der nationale Koordinator für digitale Dienste noch die Kommission können auf Basis des geltenden DSA ein allgemeines Verbot eines Dienstes herbeiführen. Die schärfste Maßnahme, die Art. 51 III DSA überhaupt erlaubt, ist eine vorübergehende Zugangsbeschränkung – und die ist an strenge Voraussetzungen geknüpft: Alle anderen Maßnahmen müssen zuvor ausgeschöpft worden sein, die Zuwiderhandlung muss fortbestehen, und es muss eine Straftat vorliegen, die das Leben oder die Sicherheit von Personen bedroht.
Können EU-Mitgliedstaaten selbst handeln?
Das Snapchat-Verfahren führt direkt in eine breitere Debatte: Wenn die EU-Kommission die Hauptverantwortung für große Plattformen trägt – was können nationale Gesetzgeber dann noch tun? Mehrere Staaten haben in jüngster Zeit eigene Wege versucht. In Australien trat am 10. Dezember 2025 ein Gesetz in Kraft, das den Zugang zu Social-Media-Plattformen für unter 16-Jährige verbietet; Berichten zufolge soll es zur Deaktivierung, Löschung oder Einschränkung von 4,7 Millionen Accounts geführt haben. Das britische Oberhaus stimmte für eine vergleichbare Regelung. In Frankreich votierte die Nationalversammlung mit 130 zu 21 Stimmen für ein Verbot unter 15 Jahren; eine Abstimmung im Senat steht noch aus. Der spanische Ministerpräsident kündigte ein Verbot für unter 16-Jährige an. In Deutschland sprach sich die Bundesbildungsministerin für ein altersbasiertes Verbot aus, das sich an einer Expertenkommission orientieren soll.
Für Deutschland – und alle EU-Mitgliedstaaten – stehen solchen nationalen Lösungen aber drei erhebliche rechtliche Hürden im Weg.
Erstens der Anwendungsvorrang des DSA. Der DSA ist eine EU-Verordnung im Sinne von Art. 288 II AEUV. Das bedeutet: Er gilt in allen Mitgliedstaaten unmittelbar, ohne dass ein nationaler Umsetzungsakt erforderlich wäre – und er geht entgegenstehendem nationalen Recht vor. Aus Erwägungsgrund 9 DSA ergibt sich außerdem, dass Mitgliedstaaten im vollharmonisierten Bereich keine Regelungen erlassen dürfen, die dieselbe Zielsetzung verfolgen wie der DSA. Ein nationales Social-Media-Verbot zum Schutz Minderjähriger würde genau das tun.
Zweitens das Herkunftslandprinzip. Nach Art. 56 I DSA und Art. 3 II der E-Commerce-Richtlinie (RL 2000/31/EG) ist grundsätzlich der Mitgliedstaat für eine Plattform zuständig, in dem sie ihren EU-Hauptsitz hat. Die meisten großen Social-Media-Konzerne haben diesen Sitz in Irland: Meta Platforms Ireland Limited, TikTok Technology Limited, Twitter International Unlimited Company und WhatsApp Ireland Ltd. sitzen alle dort. Eine deutsche Behörde ist für diese Plattformen daher schlicht nicht zuständig.
Drittens das Elternrecht aus Art. 6 II GG. Das Elternrecht schützt die Entscheidung der Eltern darüber, welche Medieninhalte ihre Kinder nutzen dürfen – auch wenn diese Inhalte potenziell schädlich sind. Daraus darf keine generelle staatliche Ermächtigung abgeleitet werden, die das Entscheidungsrecht der Eltern vollständig ausschließt. Der Staat darf das Elternrecht einschränken, wenn das Kindeswohl schwerwiegend beeinträchtigt wird – aber er darf nicht pauschal an die Stelle der Eltern treten.
Über die Frage, wie weit nationale Regelungsspielräume hier tatsächlich reichen, könnte letztlich nur der EuGH abschließend entscheiden.
Fazit
Das Verfahren gegen Snapchat zeigt, was der DSA in der Praxis leisten kann – und wo seine Grenzen liegen. Die Kommission hat fünf konkrete Verdachtspunkte benannt und damit das Schutzniveau des Art. 28 I DSA über die DSA-Leitlinien von 2025 erstmals in einem förmlichen Verfahren operationalisiert. Selbstauskunft als Altersverifikation gilt demnach nicht als ausreichend. Ein Verstoß ist allerdings noch nicht festgestellt, und ein Plattformverbot ist rechtlich ohnehin ausgeschlossen. Für Mitgliedstaaten, die nationale Lösungen suchen, macht das Verfahren gleichzeitig deutlich, wie eng der Handlungsspielraum ist: Herkunftslandprinzip, Vollharmonisierung durch den DSA und das Elternrecht aus Art. 6 II GG setzen dem nationalen Gesetzgeber klare Grenzen. Über ihren genauen Verlauf wird wohl erst der EuGH das letzte Wort haben.
Mehr zum Thema Social Media
Immaterieller Schadensersatzanspruch wegen Datendiebstahls?
Die negativen Nachrichten um Datenschutzverstöße bei großen Social-Media-Konzernen reißen nicht ab. Mehr als die Hoffnung, selbst nicht betroffen zu sein, bleibt einem als Nutzer aber meist nicht. Diese Hoffnung hat sich für die Klägerin nach einem im Jahr 2021 bekannt gewordenen Datenleck bei Facebook nicht erfüllt. Sie gab sich dem Gefühl der Machtlosigkeit jedoch nicht hin, sondern zog gegen Meta vor Gericht.Likes auf Social Media können Zweifel an der Verfassungstreue begründen
Scrollen, Swipen und Liken gehört in den Alltag der Menschen. Eine Verhaltensweise, die bei jeder Berufsgruppe anzutreffen ist, doch nicht immer folgenlos bleibt. Erneut durfte sich die Verwaltungsgerichtsbarkeit mit der rechten Gesinnung eines Polizeibeamten auseinandersetzen. Ob das Liken von Social Media Beiträgen aussagekräftig genug ist, um einen Kriminalkommissaranwärter aus seinem Beamtenverhältnis zu entlassen, musste das OVG Berlin-Brandenburg jüngst entscheiden.Wenn ein Hashtag zum Problem wird
Die Bedeutung von Social Media geht nicht spurlos an den Gerichten vorbei: Immer häufiger müssen die Richterinnen und Richter das Userverhalten in den sozialen Netzwerken rechtlich einordnen. Ob der Kommentar „#DubistEinMann” eine zulässige Meinungsäußerung darstellt oder ob hier ein Unterlassungsanspruch greift, musste erst kürzlich das OLG Frankfurt entscheiden.
Du möchtest weiterlesen?
Dieser Beitrag steht exklusiv Kunden von Jura Online zur Verfügung.
Paket auswählen