Réglementation des plateformes : « Le conseiller fédéral Rösti oublie les enfants et les jeunes »
Les plateformes numériques comme les réseaux sociaux font partie intégrante du quotidien des jeunes et constituent également un espace dans lequel les droits de l’enfant doivent être proté-gés. Elles offrent des opportunités de contacts sociaux, d'éducation et de participation à la société, mais comportent également des risques. De plus, leurs modèles commerciaux reposent souvent sur le fait de capter au maximum l'attention, le suivi personnalisé et une logique algorithmique. . En Suisse, les enfants et les jeunes sont exposés à divers dangers en ligne, tels que le cyberharcèlement, le cybergrooming, la sextorsion, les contenus extrémistes, la désinformation ou les effets de dépendance. Les plateformes insuffisamment réglementées nuisent non seulement au bien-être des enfants et des adolescents, mais entraînent également des coûts sociaux élevés pour les personnes concernées, les familles, les écoles et le système de santé.
Absence de protection explicite des mineurs
La responsabilité des plateformes numériques en matière de sécurité des enfants et des adolescents doit enfin être réglementée de manière plus contraignante par la loi. Malheureusement, la proposition tant attendue du Conseil fédéral ne répond pas à cette exigence. Elle se concentre principalement sur les obligations de transparence et l'évaluation des « contenus présumés illégaux » par les plateformes elles-mêmes. Il manque des directives contraignantes en matière de réduction des risques, de conception des plateformes adaptée à l'âge des utilisateurs et de prévention. Les enfants et les jeunes ont besoin de normes de protection légales claires qui garantissent leur sécurité en ligne et les protègent contre les contenus préjudiciables.
Pas de protection de seconde classe pour les enfants en Suisse
Le Digital Services Act (DSA) européen montre comment une protection efficace des mineurs peut être mise en place : paramètres de sécurité par défaut, restrictions de la publicité personnalisée et obligations concrètes de réduction des risques. Avec le projet actuel, la Suisse ne doit pas se laisser distancer, sinon les enfants et les jeunes de notre pays seraient moins bien protégés que leurs homologues de l'UE.
Le seuil proposé de 10 % de la population couvre trop peu de plateformes. De nombreux services destinés aux enfants, dont les applications basées sur l'IA, ne sont pas réglementés, bien qu'ils comportent des risques. La procédure de signalement se concentre actuellement sur les discours haineux, tandis que d'autres dangers tels que le cybergrooming, la sextorsion ou la violence sexuelle ne sont pas systématiquement pris en compte. Il manque également des délais clairs, des obligations de blocage et des obligations de signalement aux autorités judiciaires.
Pour les organisations, une chose est claire : la protection des enfants et des jeunes ne doit pas être subordonnée à des intérêts économiques ou de politique étrangère. Elle doit être mise en œuvre de manière contraignante, cohérente et efficace. Il est tout aussi essentiel de renforcer la promotion des compétences numériques afin que les jeunes puissent apprendre à utiliser les médias numériques de manière responsable et saine. Les organisations signataires ont résumé leurs propositions concrètes pour une protection efficace des enfants et des jeunes dans un plan en 10 points (voir annexe).
Organisations signataires
Contact pour les médias
Pro Juventute
Lulzana Musliu
Responsable Politique & Médias
M: medien@projuventute.ch
T: +41 44 256 77 40
Protection de l'enfance Suisse
Tamara Parham
Responsable du département Communication et partenariats
M: tamara.parham@kinderschutz.ch
T: +41 31 384 29 19
Annexe: Plan en 10 points pour une protection efficace des jeunes sur les plateformes numériques
Les organisations signataires demandent les améliorations suivantes du projet :
- Inscrire la protection des enfants et des jeunes comme objectif à part entière : la loi sur la protection des enfants et des jeunes doit aller au-delà des simples obligations de transparence et y inscrire explicitement le besoin particulier de protection des enfants et des jeunes dans l'article sur l’objectif.
- Pas de protection de seconde classe par rapport à l'UE : les enfants et les jeunes en Suisse ne doivent pas être désavantagés par rapport à leurs homologues de l'UE. La réglementation suisse des plateformes doit être alignée sur le niveau de protection prévu par le Digital Services Act (DSA) de l'UE.
- Extension du champ d'application : la limitation de la loi aux plateformes touchant 10 % de la population (environ 900 000 utilisateurs) est insuffisante. De nombreux services ou outils d'IA générative pertinents pour les enfants et les jeunes tomberaient sous ce seuil, alors qu'ils présentent des risques élevés. Le champ d'application doit donc être défini en fonction des risques plutôt que de la taille.
- Extension de la procédure de signalement au-delà des discours haineux : la procédure de signalement doit être étendue à tous les contenus qui mettent en danger l'intégrité physique, psychique ou sexuelle des enfants, tels que le cybergrooming, les contenus pédocriminels et la pornographie interdite.
- Réaction rapide aux contenus signalés : des instruments tels que les « Trusted Flaggers » et des délais plus contraignants sont nécessaires pour supprimer rapidement les contenus particulièrement dangereux. Il est également nécessaire d'imposer des obligations de signalement et de blocage systématiques pour les comptes qui diffusent des contenus illicites.
- Obligation de prendre des mesures de protection (réduction des risques) : le Conseil fédéral n'impose qu'une évaluation des risques pour les grandes plateformes. Cependant, celles-ci doivent être tenues de définir des mesures concrètes de réduction des risques à partir de cette évaluation et de les rendre publiques.
- Vérification de l'âge conforme à la protection des données et paramètres par défaut sécurisés : les mineurs doivent pouvoir utiliser des contenus adaptés à leur âge et être efficacement protégés contre les contenus préjudiciables.
- Protection contre la publicité manipulatrice : il faut interdire la publicité personnalisée à des fins commerciales destinée aux mineurs et imposer une obligation de signaler de manière transparente les contenus commerciaux, y compris chez les influenceurs.
- Systèmes de recommandation algorithmiques sûrs : les enfants et les adolescents ne doivent pas être exposés à des contenus extrémistes ou problématiques. Les plateformes doivent être tenues de limiter les conceptions manipulatrices et addictives de l’algorithme qui engendre le “scrolling” à l’infini et de proposer au moins un système de recommandation qui ne soit pas basé sur le profilage.
- Participation financière des plateformes par le biais d'un fonds dédié à la protection des enfants et des jeunes dans les médias : celui-ci doit notamment financer la promotion des compétences numériques, les mesures de protection techniques ainsi que les offres de conseil et de soutien destinées aux enfants et aux jeunes.