News

Regolamentazione delle piattaforme: «Il consigliere federale Rösti ha dimenticato i bambini e i giovani»

Zurigo, 5 febbraio 2026 – Secondo diverse organizzazioni che si occupano di infanzia e gioventù, il progetto di legge federale sulle piattaforme di comunicazione e sui motori di ricerca (LPCom) presentato dal Consiglio federale non tutela sufficientemente i bambini e i giovani. Le organizzazioni chiedono quindi chiari miglioramenti.
Immagine
Plattformregulierung

Le piattaforme digitali sono parte integrante della vita quotidiana dei giovani e rappresentano anche uno spazio in cui i diritti dell’infanzia devono essere protetti. Offrono opportunità di contatti sociali, istruzione e partecipazione sociale, ma comportano anche dei rischi. Allo stesso tempo, i loro modelli di business si basano spesso sulla massimizzazione dell'attenzione, sul tracciamento personalizzato e sul rinforzo algoritmico. I bambini e gli adolescenti in Svizzera sono esposti a diversi pericoli online, come il cyberbullismo, il cybergrooming, la sextortion, i contenuti estremisti, la disinformazione o agli effetti della dipendenza. Le piattaforme non regolamentate a sufficienza non solo compromettono il benessere dei bambini e degli adolescenti, ma causano anche elevati costi sociali per le persone interessate, le famiglie, le scuole e il sistema sanitario.

Mancanza di una protezione esplicita dei minori

La responsabilità delle piattaforme digitali per la sicurezza dei bambini e degli adolescenti deve finalmente essere regolamentata in modo più vincolante dalla legge. Purtroppo, la proposta tanto attesa del Consiglio federale non soddisfa questa esigenza. Si concentra principalmente sugli obblighi di trasparenza e sulla valutazione dei «contenuti presumibilmente illegali» da parte delle piattaforme stesse. Mancano invece disposizioni vincolanti in materia di riduzione dei rischi, progettazione delle piattaforme adeguata all'età e prevenzione. I bambini e gli adolescenti hanno bisogno di norme di protezione chiare che garantiscano la loro sicurezza online e li proteggano da contenuti inappropriati.

Nessuna protezione di serie b per i bambini in Svizzera

Il Digital Services Act (DSA) europeo mostra come sia possibile garantire una protezione efficace dei minori: impostazioni predefinite sicure, restrizioni alla pubblicità personalizzata e obblighi concreti di riduzione dei rischi. Con l'attuale bozza, la Svizzera non deve rimanere indietro rispetto a questo livello, altrimenti i bambini e i giovani nel nostro Paese sarebbero meno protetti rispetto ai loro coetanei nell'UE.

Escludere le piattaforme che non raggiungono il 10% della popolazione non è sufficiente. Molti servizi interessanti per i bambini, tra cui le applicazioni basate sull'intelligenza artificiale, rimangono non regolamentati, nonostante comportino dei rischi. La procedura di segnalazione si concentra attualmente sui discorsi di incitamento all'odio, mentre altri pericoli come il cybergrooming, la sextortion o la violenza sessuale non vengono sistematicamente presi in considerazione. Mancano inoltre scadenze chiare, obblighi di blocco e obblighi di segnalazione alle autorità di polizia.

Per le organizzazioni è chiaro: la protezione dei bambini e dei giovani non deve essere subordinata a interessi economici o di politica estera. Deve essere attuata in modo vincolante, coerente ed efficace. Altrettanto fondamentale è una maggiore promozione della competenza mediatica, affinché i giovani possano imparare a utilizzare i media digitali in modo responsabile e sano. Le organizzazioni firmatarie hanno riassunto le proposte concrete per una protezione efficace dei bambini e dei giovani in un piano in 10 punti (vedi allegato).

Organizzazioni firmatarie

Contatto per richieste dei media

Pro Juventute
Lulzana Musliu
Responsabile Politica e media
M: medien@projuventute.ch
T: +41 44 256 77 40

Protezione dell'infanzia Svizzera
Tamara Parham
Responsabile del settore Comunicazione e partnership
M: tamara.parham@kinderschutz.ch
T: +41 31 384 29 19

Allegato: Piano in 10 punti per una protezione efficace dei minori sulle piattaforme digitali

Le organizzazioni firmatarie chiedono i seguenti miglioramenti al progetto di legge:

  1. Ancorare la protezione dei bambini e dei giovani come obiettivo autonomo: la LPCom deve andare oltre i semplici obblighi di trasparenza e ancorare esplicitamente la particolare necessità di protezione dei bambini e dei giovani nell'articolo relativo allo scopo.
  2. Nessuna protezione di serie b rispetto all'UE: i bambini e gli adolescenti in Svizzera non devono essere svantaggiati rispetto ai loro coetanei nell'UE. La regolamentazione svizzera delle piattaforme deve essere allineata al livello di protezione del Digital Services Act (DSA) dell'UE.
  3. Ampliamento del campo di applicazione: la limitazione della legge alle piattaforme con una portata pari lo superiore al 10% della popolazione (circa 900 000 utenti) è insufficiente. Molti servizi interessanti per i bambini e i giovani o strumenti di IA generativa non rientrerebbero in questa categoria, nonostante comportino rischi elevati. Il campo di applicazione dovrebbe quindi essere definito in base al rischio piuttosto che alla sola dimensione.
  4. Estensione della procedura di segnalazione oltre i discorsi di incitamento all'odio: la procedura di segnalazione deve essere estesa obbligatoriamente a tutti i contenuti che mettono in pericolo l'integrità fisica, psichica o sessuale dei bambini, come il cybergrooming, i contenuti pedocriminali e la pornografia vietata.
  5. Reazione rapida ai contenuti segnalati: sono necessari strumenti come i «trusted flaggers» e scadenze più vincolanti per rimuovere rapidamente i contenuti particolarmente pericolosi. Sono inoltre necessari obblighi di segnalazione e blocco coerenti per gli account che violano la legge.
  6. Obbligo di misure di protezione (riduzione del rischio): Il Consiglio federale prescrive solo una valutazione dei rischi per le grandi piattaforme. Tuttavia, le piattaforme devono essere obbligate a declinare dalla valutazione dei rischi misure concrete di riduzione dei rischi e a renderle pubbliche.
  7. Verifica dell'età conforme alla protezione dei dati e impostazioni predefinite sicure: i minori devono poter utilizzare contenuti adeguati alla loro età ed essere efficacemente protetti da contenuti pericolosi.
  8. Protezione dalla pubblicità manipolatoria: è necessario vietare la pubblicità personalizzata per i minori a fini commerciali e introdurre l'obbligo di contrassegnare in modo trasparente i contenuti commerciali, anche nel caso degli influencer.
  9. Sistemi di raccomandazione algoritmica sicuri: i bambini e gli adolescenti non devono essere indirizzati verso contenuti estremisti o problematici. Le piattaforme devono essere obbligate a limitare i design manipolatori e che favoriscono la dipendenza, come lo scorrimento infinito, e a offrire almeno un sistema di raccomandazione che non si basi sul profiling.
  10. Partecipazione finanziaria delle piattaforme attraverso un fondo destinato alla protezione dei bambini e dei giovani nei media: questo fondo deve finanziare in particolare la promozione delle competenze mediatiche, le misure tecniche di protezione e le offerte di consulenza e sostegno per bambini e adolescenti.

Risposta di Pro Juventute alla consultazione (disponibile in tedesco)

Donare