News

Pro Juventute fordert wirksame Regulierung von Online-Plattformen

Kinder und Jugendliche haben das Recht, sich sicher und selbstbestimmt in digitalen Räumen zu bewegen. Doch unzureichender Schutz, kommerzielle Plattformlogiken und fehlende gesetzliche Vorgaben setzen junge Menschen unnötigen Risiken aus, die sich langfristig negativ auf ihre Entwicklung auswirken können. Die Schweiz muss mit einer wirksamen Plattformregulierung Verantwortung übernehmen.
Image
Digitale Plattformen

Digitale Medien sind fester Bestandteil des Alltags von Kindern und Jugendlichen. Sie informieren sich auf YouTube, kommunizieren über WhatsApp und TikTok, lernen über ChatGPT oder Google und vernetzen sich auf Instagram oder Snapchat. Der digitale Raum bietet ihnen zahlreiche Chancen – von Bildung und sozialem Austausch bis hin zu kreativer Entfaltung. Gleichzeitig sind Kinder und Jugendliche online auch Risiken ausgesetzt, vor denen sie nicht immer ausreichend geschützt sind.

Was Kinder und Jugendliche online erleben

Viele Kinder und Jugendliche bewegen sich täglich mehrere Stunden im digitalen Raum. Doch auf Plattformen wie TikTok, Instagram oder YouTube begegnen ihnen nicht immer nur positive und altersgerechte Inhalte, sondern auch problematische: gewalthaltige Szenen, sexualisierte Darstellungen, selbstverletzendes Verhalten oder diskriminierende Aussagen. Algorithmen, die Inhalte automatisiert vorschlagen, können dabei teils extreme und belastende Trends fördern – wie etwa gefährliche Social Media Challenges oder „Skinnytok“, das Essstörungen verharmlost und Körperideale verzerrt. Solche und weitere für Minderjährige ungeeigneten Inhalte werden trotz Community-Richtlinien nicht immer genügend moderiert und entfernt. Auch Cybermobbing und Cybergrooming sind leider keine Seltenheit.

Die Systeme hinter diesen Plattformen sind oft auf maximale Verweildauer und Gewinnorientierung ausgelegt. Durch Algorithmen und manipulative Mechanismen im Design werden Inhalte und das Nutzungsverhalten so gesteuert, dass junge Nutzerinnen und Nutzer möglichst lange online bleiben, wodurch ein suchtähnliches Nutzungsverhalten entstehen kann. Hinzu kommt die problematische Sammlung und Nutzung persönlicher Daten, etwa von Standort- oder Bewegungsdaten, undurchsichtige Algorithmen und ein intransparenter Einsatz von künstlicher Intelligenz – mit Risiken wie Diskriminierung oder automatisierten Entscheidungen, die sich negativ auf Kinderrechte auswirken können. Zugleich wird das Internet vermehrt zur Verbreitung von Fehlinformationen, extremistischen Inhalten und gezielter Desinformation genutzt.

Plattformen als Akteure mit Verantwortung

Grosse Plattformbetreiber wie Meta (Instagram, Facebook), Bytedance (TikTok) oder Alphabet (YouTube, Google) haben eine enorme gesellschaftliche Reichweite, auch in der Schweiz. Ihre Verantwortung im digitalen Raum ist entsprechend hoch. Doch bislang fehlen verbindliche gesetzliche Rahmenbedingungen, die sicherstellen, dass Kinderrechte im digitalen Raum gewahrt bleiben. Unternehmen handeln primär nach kommerziellen Interessen, nicht primär nach Schutzbedürfnissen junger Menschen.

Auch Content Creator, die gezielt Inhalte für Kinder und Jugendliche verbreiten, tragen Verantwortung. Es braucht Regeln für Transparenz bei Werbung, altersgerechte Kommunikation und Kennzeichnung von retuschierten Bildern und Videos – gerade bei reichweitenstarken Influencer*innen, die für viele junge Menschen Vorbilder sind.

Andere Länder gehen voran – die Schweiz hinkt hinterher

Derzeit dominieren wenige grosse Plattformen den Markt. Diese Konzentration erschwert es kleineren, innovativen und kindgerechten Anbietern, sichtbar zu werden oder sich durchzusetzen. Es fehlen bisher sowohl eine effektive Marktaufsicht als auch Interoperabilitätsvorgaben, die mehr Wahlfreiheit im Sinne der Nutzerinnen und Nutzer ermöglichen würde - insbesondere für Kinder, Jugendliche und deren Bezugspersonen. Ein Blick in die EU zeigt: Es geht auch anders.

Der Digital Services Act der EU verpflichtet grosse Online-Plattformen zu mehr Kinderschutz, etwa durch Werbeverbote, Transparenz und sichere Voreinstellungen. Für Pro Juventute ist klar: Auch die Schweiz muss handeln und gesetzliche Grundlagen erlassen, die grosse Plattformunternehmen verpflichten, ihren Schutzpflichten gegenüber Kindern und Jugendlichen gerecht zu werden.

Jugendmedienschutzgesetz – ein guter Anfang mit Potenzial für mehr

Seit dem 1. Januar 2025 ist in der Schweiz das neue Bundesgesetz über den Jugendschutz in den Bereichen Film und Videospiele (JSFVG) in Kraft. Dieses Jugendmedienschutzgesetz verpflichtet An-bieterinnen und Anbieter unter anderem, das Mindestalter für jeden Film und jedes Videospiel festzulegen, sichtbar anzugeben und wirksame Alterskontrollen durchzuführen. Streaming-Dienste müssen zudem die Volljährigkeit der Nutzerinnen und Nutzer überprüfen, bevor sie den Zugang zu Inhalten freigeben, die nur für Erwachsene bestimmt sind.

Obwohl das JSFVG einen wichtigen Schritt im Schutz Minderjähriger vor ungeeigneten Medieninhalten darstellt, beschränkt es sich im Wesentlichen auf Filme und Videospiele. Die zentrale Rolle digitaler Plattformen – insbesondere sozialer Netzwerke und Livestreaming-Dienste – wird nicht berücksichtigt, wodurch entscheidende Aspekte des heutigen Medienkonsums junger Menschen unberührt bleiben. Eine umfassendere Regulierung ist daher notwendig. Ausserdem verzichtet der Bundesrat aktuell auf die im Gesetz vorgesehenen Finanzhilfen zur Förderung von Medienkompetenz, was ein fatales Zeichen setzt. Denn in der Förderung der Medienkompetenz liegt mitunter ein wichtiger Lösungsansatz, um Kinder und Jugendliche vor negativen Folgen digitaler Medien zu schützen.

Was braucht es in der Schweiz?

Die Frage der Plattformregulierung beschäftigt auch die Politik. Nach mehrjähriger Verzögerung hat der Bundesrat Ende Oktober 2025 das bereits 2021 angekündigte Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (KommPG) endlich in die Vernehmlassung geschickt. Zuvor hatten mehrere Organisationen, darunter auch Pro Juventute, den Bundesrat mit einem offenen Brief aufgefordert, die Gesetzgebungsarbeiten voranzutreiben. 

Pro Juventute hat mit einer ausführlichen Vernehmlassungsantwort zum Gesetzesentwurf Stellung genommen und erachtet den Vorschlag der Plattformregulierung - insbesondere im Vergleich zum Digital Services Act der EU - eindeutig als ungenügend, um Kinder und Jugendliche in der Schweiz wirksam zu schützen. Im parlamentarischen Prozess fordert unsere Stiftung deshalb substanzielle Nachbesserungen. Details finden sich in der Medienmitteilung vom 5. Februar 2026.

Damit Plattformen künftig besser funktionieren – für alle, aber besonders für Kinder und Jugendliche – braucht es aus Sicht von Pro Juventute drei zentrale Weichenstellungen: Schutz, Transparenz und Verantwortung.

Schutz

  • Plattformen müssen kindersicher gestaltet sein. Dazu gehört: kein Tracking oder personalisierte Werbung bei Minderjährigen sowie Voreinstellungen, die automatisch die Privatsphäre schützen („Privacy by Default“).
  • Verhaltenslenkende Funktionen wie endloses Scrolling oder algorithmische Sogeffekte sollen so gestaltet werden, dass sie kein suchtartiges Verhalten fördern – besonders bei jungen Nutzerinnen und Nutzern. Hersteller sollten bei kinder- und jugendaffinen Games/Apps komplett auf manipulative (Spiel)designs verzichten.
  • Schädliche Inhalte müssen rasch gemeldet und entfernt werden können. Plattformen sollen einfache, niederschwellig zugängliche Meldesysteme bieten.
  • Plattformen müssen mit den Strafverfolgungsbehörden kooperieren. Bei Hinweisen auf mutmasslich illegale Inhalte wie sexualisierte Gewalt oder Hassrede ist eine rasche Zusammenarbeit zwingend.
  • Schutz vor übergriffigem Verhalten: Wer andere auf Plattformen belästigt oder Hass verbreitet, muss konsequent gemeldet und – wenn nötig – vom Dienst ausgeschlossen werden können.

Transparenz

  • Plattformen müssen offenlegen, wie ihre Inhalte gesteuert und empfohlen werden. Nutzerinnen und Nutzer sollen verstehen können, warum ihnen bestimmte Inhalte angezeigt werden. Gleichzeitig sollen sie die Möglichkeit haben, diese Vorschläge zu beeinflussen oder auszuschalten.
  • Radikalisierende Inhalte müssen eingedämmt werden. Plattformen sollen verhindern, dass junge Menschen durch Empfehlungsmechanismen immer tiefer in extreme Themenwelten gezogen werden. Dazu braucht es eine Begrenzung des algorithmischen Einflusses sowie mehr Vielfalt der angezeigten Inhalte.
  • App-Stores sollen transparent machen, wenn digitale Angebote Risiken für junge Menschen bergen – etwa durch problematische Inhalte, exzessive Datennutzung, Mikrotransaktionen oder manipulative Designs. Durch entsprechende Kennzeichnungen können Eltern und junge Nutzerinnen und Nutzer fundierte Entscheidungen treffen.

Verantwortung

  • Plattformen müssen wirksam beaufsichtigt und zur Rechenschaft gezogen werden können: Eine mandatierte Kontrollinstanz auf Bundesebene kann zum Beispiel sicherstellen, dass Schutzpflichten eingehalten werden, und bei Versäumnissen mit Auflagen oder Sanktionen eingreifen.
  • Es braucht verbindliche Risikoanalysen. Grosse digitale Plattformen sollen auch in der Schweiz analog zum EU Digital Services Act regelmässig prüfen, ob und wie ihre Angebote Kinder und Jugendliche gefährden – etwa durch sexualisierte Gewalt, Cybermobbing oder psychische Belastung – und daraus konkrete Schutzmassnahmen ableiten.
  • Beteiligung an Prävention und Schutz: Es soll die Einführung eines Systems geprüft werden, welches digitale Plattformbetreiber, die von der Nutzung durch Minderjährige profitieren, zu einer finanziellen Beteiligung an Präventions- und Schutzmassnahmen verpflichtet, zum Beispiel mittels eines zweckgebundenen Fonds.
  • Hilfsangebote müssen leicht zugänglich sein. Kinder, Jugendliche und Eltern brauchen verständliche, kindgerechte und rasch auffindbare Beschwerde- und Unterstützungsfunktionen.

Gesetzlicher Schutz allein genügt nicht – Prävention gehört dazu

Ein wirksamer Schutz von Kindern und Jugendlichen im digitalen Raum besteht aus mehreren Puzzleteilen. Gesetzliche Rahmenbedingungen sind essenziell – doch ebenso wichtig ist die Prävention. Kinder und Jugendliche müssen früh lernen, sich sicher, kritisch und verantwortungsbewusst in digitalen Umgebungen zu bewegen. Dafür braucht es gezielte Investitionen in Medienkompetenzförderung, altersgerechte Bildungsangebote sowie leicht zugängliche Beratungs- und Unterstützungsstellen.

Ebenso entscheidend ist die Fähigkeit des gesetzlichen Rahmens, sich weiterzuentwickeln. Der digitale Raum verändert sich rasant. Nur durch regelmässige Überprüfung und Anpassung gesetzlicher Vorgaben kann der Schutz dauerhaft wirksam bleiben. Nicht zuletzt müssen die Perspektiven und Erfahrungen von Kindern und Jugendlichen selbst stärker in politische und regulatorische Prozesse einbezogen werden. Denn sie sind die Expertinnen und Experten ihrer eigenen Lebenswelt.

Jetzt spenden