News

Pro Juventute chiede una regolamentazione più rigorosa delle piattaforme online

I bambini e i giovani hanno il diritto di muoversi in modo sicuro e autodeterminato negli spazi digitali. Tuttavia, una protezione inadeguata, la logica delle piattaforme commerciali e la mancanza di requisiti legali espongono i giovani a rischi inutili che possono avere un impatto negativo sul loro sviluppo nel lungo termine. La Svizzera deve quindi assumersi la responsabilità di una regolamentazione efficace delle piattaforme.
Immagine
Digitale Plattformen

I media digitali sono parte integrante della vita quotidiana dei bambini e dei giovani. Questi ultimi trovano informazioni su YouTube, comunicano tramite WhatsApp e TikTok, imparano tramite ChatGPT o Google e fanno rete tra di loro su Instagram o Snapchat. Lo spazio digitale offre loro numerose opportunità – dall’istruzione all’interazione sociale fino alla realizzazione creativa. Allo stesso tempo, i bambini e i giovani sono esposti a rischi online dai quali non sono sempre adeguatamente protetti.

Esperienze online di bambini e giovani

Molti bambini e giovani trascorrono diverse ora al giorno nello spazio digitale. Tuttavia, su piattaforme come TikTok, Instagram o YouTube non trovano sempre e solo contenuti positivi e adatti alla loro età ma anche contenuti problematici: scene violente, immagini a sfondo sessuale, comportamenti autolesionistici o dichiarazioni discriminatorie. Gli algoritmi che suggeriscono automaticamente i contenuti possono talvolta promuovere tendenze estreme e dannose, come le pericolose sfide sui social media o lo «SkinnyTok» che banalizza i disturbi alimentari e distorce gli ideali del corpo. Nonostante le linee guida della community, tali e altri contenuti non adatti ai minori non vengono sempre sufficientemente moderati e rimossi. Anche il cyberbullismo e il cybergrooming non sono purtroppo rari.

I sistemi alla base di queste piattaforme sono spesso concepiti per massimizzare il tempo di permanenza e l’orientamento al profitto. Gli algoritmi e i meccanismi di manipolazione nel design vengono impiegati per controllare i contenuti e il comportamento di utilizzo, in modo che i giovani utenti rimangano online il più a lungo possibile, il che può portare a un comportamento di dipendenza. A ciò si aggiungono la raccolta e l’uso problematico di dati personali, come quelli relativi all’ubicazione o agli spostamenti, algoritmi poco chiari e l’uso non trasparente dell’intelligenza artificiale – con rischi quali la discriminazione o le decisioni automatizzate che possono avere un impatto negativo sui diritti dei bambini. Allo stesso tempo, Internet viene sempre più utilizzato per diffondere fake news, contenuti estremistici e disinformazione mirata. 

Le piattaforme come operatori con responsabilità

I grandi gestori di piattaforme come Meta (Instagram, Facebook), Bytedance (TikTok) e Alphabet (YouTube, Google) hanno un’enorme portata sociale anche in Svizzera. Pertanto, la loro responsabilità nello spazio digitale è elevata. Tuttavia manca ancora un quadro giuridico vincolante per garantire il rispetto dei diritti dei bambini nello spazio digitale. Le aziende agiscono principalmente in base a interessi commerciali, non in funzione delle esigenze di protezione dei giovani.

Anche i creatori di contenuti che distribuiscono contenuti in modo mirato per bambini e giovani hanno una propria responsabilità. Occorrono regole per la trasparenza nella pubblicità, per una comunicazione adeguata all’età e per contrassegnare immagini e video ritoccati – soprattutto per influencer con un ampio raggio d’azione che fungono da modello per molti giovani.

Altri Paesi danno il buon esempio – la Svizzera è indietro

Attualmente, il mercato è dominato da poche grandi piattaforme. Questa concentrazione rende difficile per gli operatori più piccoli, innovativi e orientati ai bambini diventare visibili o affermarsi. Finora mancano sia un’efficace vigilanza del mercato sia requisiti di interoperabilità che consentano una maggiore libertà di scelta nell’interesse degli utenti, in particolare dei bambini, dei giovani e delle persone di riferimento. I nostri vicini europei sono un passo avanti.

Il Digital Services Act dell’UE obbliga le grandi piattaforme online a fornire una maggiore protezione dei minori, ad esempio attraverso divieti pubblicitari, trasparenza e impostazioni predefinite sicure. Per Pro Juventute è chiaro: anche la Svizzera deve agire e promulgare basi giuridiche che obblighino le grandi società di gestione di piattaforme ad adempiere il loro dovere di proteggere i bambini e i giovani.

Legge sulla protezione dei giovani nei media: un buon inizio con potenziale per fare di più

Dal 1° gennaio 2025, in Svizzera è in vigore la nuova Legge federale sulla protezione dei minori nei settori dei film e dei videogiochi (LPMFV). Tale legge obbliga gli operatori, tra l’altro, a specificare l’età minima per ogni film e ogni videogioco, a indicarla in modo visibile e a effettuare controlli efficaci sull’età. I servizi di streaming devono inoltre verificare che gli utenti siano maggiorenni prima di consentire l’accesso a contenuti destinati esclusivamente agli adulti.

Sebbene la LPMFV rappresenti un passo importante nella protezione dei minori da contenuti mediatici inadatti è essenzialmente limitata a film e videogiochi. Il ruolo centrale delle piattaforme digitali – in particolare dei social network e dei servizi di live streaming – non viene preso in considerazione – il che significa che aspetti cruciali del consumo mediatico odierno tra i giovani sono esclusi. È pertanto necessaria una regolamentazione più completa. Inoltre, il Consiglio federale sta attualmente rinunciando agli aiuti finanziari previsti dalla legge per promuovere la competenza mediatica, inviando così un segnale fatale. La promozione della competenza mediatica costituisce uno degli approcci risolutivi rilevanti per proteggere i bambini e i giovani dalle conseguenze negative dei media digitali.

Cosa serve in Svizzera in tal senso?

Anche la questione della regolamentazione delle piattaforme occupa la politica. Dopo un ritardo di diversi anni, alla fine di ottobre 2025 il Consiglio federale ha finalmente posto in consultazione la legge federale sulle piattaforme di comunicazione e sui motori di ricerca (LPCo), annunciata già nel 2021. In precedenza, diverse organizzazioni, tra cui Pro Juventute, avevano invitato il Consiglio federale, tramite una lettera aperta, ad accelerare i lavori legislativi. La procedura di consultazione durerà fino al 16 febbraio 2026. Anche Pro Juventute prenderà posizione sul progetto nell’ambito della consultazione. Affinché le piattaforme funzionino meglio in futuro – per tutti ma soprattutto per i bambini e i giovani – Pro Juventute ritiene che siano necessari tre pilastri fondamentali: protezione, trasparenza e responsabilità.

Protezione

  • Le piattaforme devono essere ideate a misura di bambino. Ciò include l’assenza di tracciamento o pubblicità personalizzata per i minori e impostazioni predefinite che proteggono automaticamente la sfera privata («privacy by default»).
  • Le funzioni che guidano il comportamento come lo scrolling infinito o gli effetti di coinvolgimento algoritmici dovrebbero essere concepiti in modo da non incoraggiare comportamenti di dipendenza, soprattutto tra i giovani utenti. I produttori dovrebbero evitare del tutto i design manipolativi (ludici) per i videogiochi risp. per le app destinati a bambini e giovani.
  • Deve essere possibile segnalare e rimuovere rapidamente i contenuti dannosi. Le piattaforme dovrebbero offrire sistemi di reporting semplici e facilmente accessibili.
  • Le piattaforme devono collaborare con le autorità di polizia. In caso di indicazioni di sospetto contenuto illegale come violenza sessuale o incitamento all’odio è essenziale una rapida collaborazione.
  • Protezione da comportamenti aggressivi: Chiunque molesti altre persone sulle piattaforme o diffonda odio deve poter essere segnalato e, se necessario, escluso dal servizio.

Trasparenza

  • Le piattaforme devono rendere noto il modo in cui i loro contenuti sono gestiti e raccomandati. Gli utenti devono essere in grado di capire perché vengono visualizzati determinati contenuti. Allo stesso tempo dovrebbero avere la possibilità di influenzare o disattivare questi suggerimenti.
  • I contenuti radicalizzanti devono essere arginati. Le piattaforme dovrebbero evitare che, attraverso meccanismi di raccomandazione, i giovani vengano trascinati sempre più a fondo in argomenti estremi. Ciò richiede una limitazione dell’influenza degli algoritmi e una maggiore varietà nei contenuti visualizzati.
  • Gli app store dovrebbero rendere trasparenti i potenziali rischi delle offerte digitali per i giovani, ad esempio attraverso contenuti problematici, uso eccessivo di dati, microtransazioni o design manipolativi. Contrassegnare in modo appropriato i contenuti consente ai genitori e ai giovani utenti di prendere decisioni informate.

Responsabilità

  • Le piattaforme devono poter essere efficacemente supervisionate e rispondere del proprio operato: Un organo di vigilanza incaricato a livello federale può, ad esempio, garantire il rispetto degli obblighi di protezione e intervenire con condizioni o sanzioni in caso di inadempienza.
  • Sono necessarie analisi del rischio vincolanti. Le grandi piattaforme digitali in Svizzera dovrebbero inoltre verificare regolarmente se e come i loro servizi mettano in pericolo bambini e giovani – ad esempio attraverso la violenza sessuale, il cyberbullismo o lo stress psicologico – e trarne misure di protezione specifiche, in linea con il Digital Services Act dell’UE.
  • Partecipazione alla prevenzione e alla protezione: Si dovrebbe valutare l’introduzione di un sistema che obblighi i gestori di piattaforme digitali che traggono profitto dall’uso da parte di minori a contribuire finanziariamente a misure di prevenzione e protezione, ad esempio attraverso un fondo vincolato.
  • I servizi di supporto devono essere facilmente accessibili. I bambini, i giovani e i genitori necessitano di funzioni di reclamo e supporto che siano comprensibili, a misura di bambino e facili da trovare.

La protezione legale da sola non è sufficiente: serve prevenzione

Una protezione efficace dei bambini e dei giovani nello spazio digitale è costituita da diversi pezzi del puzzle. Un quadro giuridico è essenziale ma la prevenzione è altrettanto importante. I bambini e i giovani devono imparare presto a navigare negli ambienti digitali in modo sicuro, critico e responsabile. Ciò richiede investimenti mirati per promuovere competenze mediatiche, programmi educativi adeguati all’età e centri di consulenza e assistenza facilmente accessibili.

Altrettanto cruciale è la capacità di evolversi del quadro giuridico. Lo spazio digitale cambia rapidamente. La protezione può rimanere efficace nel lungo termine solo rivedendo e adattando regolarmente i requisiti legali. Infine ma non meno importante: le prospettive e le esperienze dei bambini e dei giovani stessi devono essere incorporate maggiormente nelle procedure politiche e normative. D’altronde sono loro le esperte e gli esperti del proprio mondo.

Donare