Faites défiler, aimez, répétez : Comment l'UE envisage de renforcer la protection des enfants en ligne

Milos Schmidt

Faites défiler, aimez, répétez : Comment l’UE envisage de renforcer la protection des enfants en ligne

La Commission a présenté son plan pour protéger les mineurs en ligne en présentant un nouveau système de vérification de l’âge. Les États membres légifèrent pour interdire aux enfants l’accès aux médias sociaux, tandis que le Parlement européen réclame une limite stricte de 16 ans.

93 pour cent des citoyens de l’UE sont préoccupés par la santé mentale des enfants. Selon l’Eurobaromètre 2025 sur l’état de la décennie numérique, 92 % des personnes interrogées identifient la cyberintimidation comme la principale menace en ligne.

Bruxelles a adopté une position plus dure sur la sécurité des enfants en ligne.

La semaine dernière, la présidente de la Commission européenne, Ursula von der Leyen, a annoncé qu’une nouvelle « application de vérification de l’âge est techniquement prête et bientôt disponible pour les citoyens ».

Le système oblige les citoyens à vérifier leur âge pour accéder aux plateformes en ligne sans partager de données personnelles.

Les États membres de l’UE prennent déjà des mesures décisives. La France a adopté une interdiction ciblant les utilisateurs de moins de 15 ans. L’Espagne, l’Autriche, la Grèce, l’Irlande, le Danemark et les Pays-Bas se préparent à introduire prochainement des règles similaires.

Christel Schaldemose, membre du groupe de l’Alliance Progressiste des Socialistes et Démocrates au Parlement européen et rapporteur du rapport non législatif sur un âge minimum d’accès aux médias sociaux à l’échelle de l’UE, sent des hésitations dans les actions de la Commission.

« Je ne sais pas s’ils retardent volontairement (les actions), mais je pense qu’ils sont trop lents. Ainsi, nous nous retrouvons avec un marché intérieur fragmenté parce que de nombreux pays ont déjà proposé une limite d’âge ».

Enfants et plateformes en ligne

Les médias sociaux sont devenus un environnement omniprésent et risqué pour les enfants, principalement en raison de leurs conceptions addictives, de leur connectivité constante, de leur forte personnalisation et des outils d’IA.

En 2022, 96 pour cent des jeunes de 15 ans étaient actifs sur les réseaux sociaux, et 37 pour cent passaient plus de 3 heures par jour sur ces plateformes. Les adolescentes ont tendance à utiliser davantage les médias sociaux, soit 42 pour cent, contre 32 pour cent de leurs homologues masculins, selon une étude réalisée en 2025 par le Centre commun de recherche (JRC).

Chez les 9 à 15 ans, l’utilisation quotidienne atteint fréquemment la barre des trois heures ; 78 pour cent des adolescents âgés de 13 à 17 ans vérifient leurs appareils au moins une fois par heure ; un quart admettent être aux prises avec des habitudes Internet dysfonctionnelles, comme indiqué dans le rapport non législatif du Parlement européen de novembre 2025.

Près de 99 % des adolescents âgés de 16 à 17 ans ont participé activement (en créant des profils d’utilisateurs, en publiant des messages, en utilisant Facebook, X, etc.) sur les réseaux sociaux en 2025, selon l’Eurobaromètre.


Utilisation d’Internet : participation aux réseaux sociaux (création de profil utilisateur, publication de messages, utilisation de Facebook, X, etc.)

Pour Schaldemose, le panel de la Commission sur la sécurité des enfants en ligne est une première étape positive. Les connaissances approfondies des experts guideront efficacement les actions de la Commission, a-t-elle déclaré.

Le JRC prévient que l’utilisation incontrôlée des médias sociaux nuit à la santé mentale des enfants, augmentant les niveaux de dépression et d’anxiété. Les contenus préjudiciables, tels que les contenus violents, sexualisés et pro-troubles de l’alimentation, peuvent affecter le développement cérébral et les comportements sociaux des enfants.

Selon l’étude du JRC, 60 pour cent des jeunes femmes présentent des symptômes de dépression, contre 35 pour cent des hommes, et 65 pour cent souffrent d’anxiété, contre 41 pour cent des hommes.

Dans la mesure où de nombreuses plateformes Internet s’adressent principalement aux adultes, leurs modèles économiques axés sur la publicité ont de graves répercussions sur les jeunes utilisateurs, favorisant ainsi la dépendance.

36 pour cent des adolescents en Europe, en Asie centrale et au Canada maintiennent un contact constant via les médias sociaux. 11 pour cent montrent une utilisation problématique des médias sociaux, les filles (13 pour cent) signalant des taux plus élevés que les garçons (9 pour cent), selon un rapport de l’Organisation mondiale de la santé (OMS) de 2024.

Les interdictions, une compétence nationale

Le 8 avril 2026, le Premier ministre grec Kyriakos Mitsotakis a annoncé une interdiction des réseaux sociaux pour les enfants de moins de 15 ans. La loi, entrée en vigueur en janvier 2027 et toujours en attente d’approbation par le Parlement, bloque l’accès des mineurs aux comptes de réseaux sociaux, obligeant les plateformes à imposer une vérification stricte de leur âge sous peine de sanctions financières.

Cette décision a été déclenchée par des données montrant que 75 % des enfants grecs des écoles primaires étaient actifs sur les réseaux sociaux, tandis qu’environ 48 % des adolescents ont signalé des effets négatifs sur leur santé mentale.

L’opinion publique a également atteint un sommet, avec 80 % d’entre eux favorables à une interdiction après le verdict américain de mars 2026 tenant les principales plateformes technologiques responsables de la conception d’applications addictives. S’appuyant sur le succès de l’interdiction des smartphones dans les écoles en Grèce en 2024, le gouvernement a cité les élèves « sans vie » et le manque de sommeil comme catalyseur de la restriction.

La Grèce rejoint d’autres pays de l’UE : la France a approuvé en janvier 2026 un projet de loi interdisant les réseaux sociaux aux moins de 15 ans, invoquant une « urgence sanitaire » et la nécessité de protéger les mineurs contre la cyberintimidation et les dommages psychologiques. En février 2026, l’Espagne a annoncé son intention d’interdire les moins de 16 ans pour « apprivoiser le Far West numérique », tandis que l’Autriche, le Danemark et la Slovénie élaborent des interdictions pour les moins de 14, 15 et 15 ans, respectivement.


Statut des interdictions des médias sociaux dans les États de l’UE

L’Italie et l’Irlande envisagent d’interdire respectivement les moins de 15 ans et les moins de 16 ans, tandis que l’Allemagne et d’autres États débattent des limites d’âge ou des « versions jeunesse » des plateformes. Ils sont motivés par une recrudescence des problèmes de santé mentale et veulent tenir les géants de la technologie responsables de la conception de plateformes addictives, à la suite du précédent créé par l’Australie en 2025, la première interdiction mondiale des moins de 16 ans.

Les dates de naissance autodéclarées sont inefficaces. La mise en œuvre s’est faite via des systèmes tels que les portefeuilles numériques ou les jetons d’identité, mais la toute nouvelle application de vérification de l’âge de la Commission européenne « permettra aux utilisateurs de prouver leur âge lorsqu’ils accèdent aux plateformes en ligne, tout comme les magasins demandent une preuve d’âge pour les personnes achetant (de l’alcool) », selon von der Leyen.

Les plateformes ont la responsabilité principale, et les régulateurs nationaux veillent au respect des règles par le biais de surveillances et d’amendes. Alors que les règles européennes telles que la loi sur les services numériques (DSA) et le règlement général sur la protection des données (RGPD) établissent des protections de base pour les mineurs, les interdictions nationales vont plus loin en fixant des limites d’âge strictes et en augmentant la responsabilité des entreprises technologiques.

Cependant, des personnalités politiques opposées, comme des membres du parti espagnol Vox et des législateurs italiens, considèrent ces interdictions comme une intervention gouvernementale excessive, arguant que l’éducation, le contrôle parental et l’alphabétisation numérique seraient plus efficaces que des restrictions pures et simples.

Cette perspective est également partagée par les défenseurs des droits des consommateurs ; Olivia Brown, responsable politique au sein du groupe mondial de consommateurs Euroconsumers, considère les interdictions générales comme un raccourci politique qui permet aux plateformes de se tirer d’affaire.

« Interdire les médias sociaux ne rend pas Internet plus sûr. Cela fait simplement disparaître le problème. Ce dont les mineurs ont besoin, c’est d’une sécurité intégrée aux plates-formes dès leur conception, de véritables contrôles d’utilisateur et d’algorithmes qu’ils peuvent façonner eux-mêmes, et non de portes qui sont simplement fermées claquées, pour ensuite s’ouvrir grande dès qu’ils atteignent 18 ans.  »

Vers une réglementation à l’échelle de l’UE

La question est politiquement sensible et une interdiction à l’échelle de l’UE risque d’aggraver la polarisation. Au lieu de cela, la Commission lance d’abord l’application de vérification de l’âge comme outil permettant aux États membres de mettre en œuvre leurs propres interdictions nationales.

Conçue pour la première fois en 2025, l’application est conçue comme un cadre technique qui peut être intégré aux portefeuilles numériques nationaux ou à des applications distinctes pour vérifier l’âge des utilisateurs. Pour confirmer leur âge, les utilisateurs doivent télécharger une application, donner leur consentement à l’utilisation des données, scanner une pièce d’identité (y compris sa puce) et effectuer une reconnaissance faciale. Ce processus devra peut-être être répété régulièrement et les plateformes pourraient exiger une vérification chaque fois que les utilisateurs accèdent à des services soumis à une limite d’âge.

Des inquiétudes proviennent de sa complexité, de ses implications en matière de confidentialité, de la facilité de son contournement (par exemple via les VPN) et de la crainte que cela puisse détourner la responsabilité des plateformes, contrairement à d’autres outils réglementaires à l’échelle de l’UE.


Les citoyens de l’UE s’inquiètent des risques que courent les enfants en ligne

L’un d’entre eux est le RGPD, adopté en 2016 et mis en œuvre d’ici 2018 à 2020, qui fixe des règles strictes sur les données des enfants, l’âge par défaut du consentement numérique à 16 ans (avec une flexibilité jusqu’à 13 ans) nécessite l’approbation parentale pour les utilisateurs plus jeunes.

La directive révisée sur les services de médias audiovisuels, entrée en vigueur en 2020, a introduit des systèmes de classification par âge et de contrôle parental sur les plateformes de streaming, ainsi que des interdictions strictes des contenus préjudiciables tels que les contenus exploités par des enfants. Puis, en 2021, l’UE a lancé sa stratégie plus large de sécurité des enfants en ligne, combinant financement, recherche et codes de conduite volontaires pour lutter contre les risques tels que la manipulation et la désinformation.

Plus récemment, la Commission a proposé des mesures pratiques telles que des comptes privés par défaut pour les mineurs et des limites aux fonctionnalités addictives telles que la lecture automatique et le défilement infini. Certaines parties de la loi sur l’IA, dont les interdictions sont en vigueur depuis février 2025, interdisent spécifiquement les systèmes qui utilisent des techniques subliminales ou exploitent les vulnérabilités des enfants pour déformer leur comportement. Le Digital Fairness Act, dont la proposition officielle est attendue fin 2026, resserrera les règles de conception des plateformes en interdisant les « modèles sombres » et les fonctionnalités addictives comme le défilement infini.

Au centre de ce cadre se trouve le DSA, une réglementation historique visant à refondre les plateformes en ligne. Proposé par la Commission en 2020, il a été approuvé par le Parlement européen et le Conseil en 2022 et est entré en vigueur en février 2024 après un déploiement progressif.

Le DSA impose aux plateformes de protéger les utilisateurs, en donnant la priorité aux mineurs. Ceux-ci incluent des paramètres par défaut plus sûrs, une modération du contenu et des restrictions sur la publicité ciblée. Il établit également un nouveau système d’application impliquant des coordonnateurs nationaux des services numériques et une surveillance au niveau de l’UE.

Après le DSA, les citoyens de l’UE ont constaté plus de transparence, des droits d’utilisation plus forts et des limites aux pratiques préjudiciables ou exploitantes. Les utilisateurs disposent désormais de moyens plus clairs pour signaler et faire appel des décisions relatives au contenu, tandis que les mineurs bénéficient de protections de confidentialité plus strictes et d’une exposition réduite aux publicités ciblées.

L’impact sur les plateformes numériques

Les restrictions d’âge sur les réseaux sociaux affectent considérablement la portée des adolescents : les entreprises perdent un groupe social majeur qui stimule l’activité en ligne, ce qui entraîne une réduction des impressions publicitaires et des revenus du trafic.

Les plateformes en ligne dépendent fortement des adolescents et des enfants pour leurs revenus publicitaires. Les limites d’âge sur les réseaux sociaux peuvent le réduire, car elles diminuent le nombre de jeunes utilisateurs et rendent plus difficile leur ciblage publicitaire.

Les coûts de conformité peuvent augmenter à mesure que les entreprises doivent améliorer leurs systèmes de garantie de l’âge et leurs processus de consentement parental. Celles-ci sont coûteuses et complexes en raison de la nécessité de technologies avancées de vérification de l’identité et de protection des données.

L’interdiction des fonctionnalités de conception addictives et des algorithmes d’engagement dans les médias sociaux nécessite une refonte des produits, ce qui augmente les coûts d’ingénierie et retarde les lancements sur le marché européen. Une évolution vers un contenu plus sûr peut mettre à rude épreuve les budgets.

Selon Schaldemose, les grandes entreprises doivent développer « de nouvelles plateformes avec un modèle économique complètement différent qui protège les enfants ».

Les entreprises peuvent également être confrontées à des risques juridiques plus stricts en cas de violation des règles. Le Parlement a proposé de tenir personnellement responsables les propriétaires de plateformes en cas de violations graves et répétées des dispositions de protection mineures.

« Ce sont eux qui mettent les plateformes à disposition. Si nous convenons d’une limite d’âge, la responsabilité incombe définitivement aux entreprises en cas de violations », a déclaré Schaldemose à L’Observatoire de l’Europe.

L’Europe doit accélérer

Pour Schaldemose, la Commission agit trop lentement. Le groupe a annoncé la création du groupe en septembre, mais celui-ci n’a commencé à travailler qu’en mars.

Certains États membres se seraient déjà opposés à l’application. « Plus il faudra de temps à la Commission pour présenter une proposition, plus nous risquons d’avoir un marché fragmenté et des lacunes », a-t-elle affirmé.

« Je suis devenu impatient envers la Commission. Il semble que les États membres soient également un peu impatients parce qu’ils font également pression », a déclaré Schaldemose.

Les problèmes de confidentialité et de partage de données ne peuvent plus être une excuse. « Au cours des deux dernières années, nous avons développé des outils qui ne compromettent pas les données personnelles et la sécurité », a-t-elle ajouté.

Le Parlement continuera à faire pression jusqu’à ce que la Commission trouve une solution raisonnable. « Nous devons agir au niveau européen et le Parlement est clair sur ce point », a conclu Schaldemose.