Les enfants et les adolescents ne peuvent pas arrêter de faire défiler – et cela nuise à leur santé.
Le temps que les jeunes passent sur les réseaux sociaux ont plus que doublé depuis 2010 à environ trois heures par jour.
Selon l’Organisation mondiale de la santé, plus de 1 adolescents sur 10 a montré des signes d’utilisation problématique et addictive des médias sociaux en 2022 – y compris le mal à contrôler leur utilisation et à vivre le retrait, selon l’Organisation mondiale de la santé.
« Tout le monde sait que c’est addictif », a déclaré Hanna Kuźmitowicz, une lycéenne polonaise qui a travaillé avec la présidence polonaise de l’UE sur ce sujet. «Je connais les dangers, les avantages», a-t-elle déclaré à L’Observatoire de l’Europe. «Je l’utilise toujours.»
Lors de la demande d’experts en santé publique, les gouvernements européens envisagent de nouvelles façons de garder les jeunes hors de leur téléphone grâce à des politiques de vérification d’âge, des campagnes de sensibilisation du public et même des interdictions de médias sociaux.
Les pays ont la liberté de fixer leurs propres restrictions, et ils courent avec. Le président Emmanuel Macron appelle à une interdiction pure et simple des moins de 15 ans en Francetandis que le Danemark, la Grèce, l’Espagne, l’Italie, les Pays-Bas et d’autres se sont ralliés autour de nouvelles restrictions.
Pendant ce temps, les entreprises technologiques déploient des mesures telles que les restrictions de contenu spécifiques à l’âge, la désactivation de certaines fonctionnalités et leurs propres fonctionnalités de confidentialité – bien que certains soutiennent que cela ne suffit pas et la bonne voie à suivre reste indécise.
Certains experts soutiennent que les médias sociaux ne sont pas tous mauvais et peuvent offrir des avantages aux jeunes.
« Certains types de technologie (étaient) en fait assez bons pour leur formation d’amitié et leur proximité d’amitié », a déclaré Jessica Piotrowski, présidente de la recherche de la recherche de la communication de l’Université d’Amsterdam et conseillère de YouTube sur la protection des mineurs, faisant écho à diverses études.
Cependant, des preuves croissantes le relie à une diminution du bien-être, notamment la dépression et les troubles du sommeil, ainsi que des niveaux plus élevés de consommation de substances – des choses qui ne peuvent plus être ignorées.
« Il doit y avoir une réglementation » et « une sorte de calcul pour les entreprises technologiques que vous blessez les adolescents et les enfants, et quelque chose doit être fait », a déclaré Kadri Soova, directeur de la santé mentale Europe.

Elle pense également qu’il est important d’avoir un dialogue avec les entreprises technologiques plutôt que d’être des ennemis. « Mais s’il n’y a pas d’autorégulation ou si les termes de la réglementation ne sont pas suffisamment profonds, il doit y avoir des règles. »
De nombreux scandales au cours des dernières années ont montré que les entreprises technologiques n’ont pas toujours adopté une approche de sécurité pour leurs utilisateurs mineurs. En 2021, l’ancienne employée de Meta (alors Facebook), Frances Haugen, a divulgué des documents internes qui ont révélé que l’entreprise était consciente des dommages causés à la santé mentale des adolescents et ne faisait pas grand-chose pour l’arrêter.
Les experts en santé soutiennent que les outils réglementaires existants ne suffisent pas. Ils veulent plus d’action des entreprises technologiques, qui, selon eux, conçoivent leurs plateformes addictives.
Theo Compernolle, neuropsychiatre et ancien professeur à l’Université libre d’Amsterdam qui préconise une interdiction des médias sociaux pour les enfants, a déclaré que le règlement doit se concentrer sur les entreprises; Sinon, « c’est comme combattre une drogue sans rien faire pour les producteurs. »
Les médias sociaux, comme le jeu, le tabac et l’alcool, « dépend du déni des méfaits », a déclaré Mark Petticrew, professeur de santé publique à l’école d’hygiène et de médecine tropicale de Londres. Ce n’est pas différent de tout autre type de dépendance, a-t-il ajouté.
En juin, les ministres de la santé ont adopté des conclusions au Conseil de l’UE appelant les pays à envisager des politiques préventives pour réglementer l’accès des jeunes aux technologies numériques. Ceux-ci incluent des zones sans écran et des limites numériques dans les écoles et exhortant les concepteurs de plate-forme numérique à «assumer plus de responsabilités».
L’une des lois les plus importantes sur les plateformes en ligne est la loi sur les services numériques de l’Union européenne. Il appelle les médias sociaux à mettre en place «des mesures appropriées et proportionnées pour assurer un niveau élevé de confidentialité, de sécurité et de sécurité des mineurs».
Facebook et Instagram de Meta, ainsi que Tiktok, font l’objet d’une enquête pour violation des règles de la DSA pour les mineurs.
Étant donné que la loi historique n’a donné que de vagues responsabilités aux plates-formes, l’exécutif de l’UE a élaboré un ensemble de directives très contestées pour réduire ce que les plateformes devraient faire.
Ils incluent ne pas utiliser les habitudes de navigation des mineurs pour suggérer du contenu, désactiver les stries et lire les fonctionnalités des reçus dans les applications de messagerie, définir la confidentialité et la sécurité par défaut dans les paramètres, et envisager d’arrêter certaines fonctionnalités comme l’accès à la caméra.
Les directives ne sont pas contraignantes, et si les mineurs mentent sur leur âge ou que leurs parents contournent les contrôles, ils n’ont aucun effet. Cela a conduit à un changement dans le débat vers la façon dont les plateformes peuvent vérifier l’âge des utilisateurs.
En vertu du règlement général de la protection des données d’Europe, les enfants de moins de 13 ans ne peuvent pas consentir à la traite de leurs données pour les services en ligne. Des plateformes comme Tiktok et Instagram disent que seuls les enfants de plus de 13 ans peuvent se joindre à leurs conditions de service, mais les régulateurs se sont réveillés que le simple fait de cocher une boîte ne fonctionne pas.
Selon un rapport de Børns Vilkår cité par un rapport de Børns à but non lucratif local, 94% des enfants danois avant le tour de 13 ans.

Le débat sur la politique s’est déplacé vers des mesures de mandat pour vérifier l’âge des utilisateurs afin de s’assurer que toute autre mesure est efficace. Quelques soutiennent que c’est le La responsabilité de la plate-forme, mais des opérateurs comme Meta et Tiktok soutiennent que Google et Apple, qui développent des systèmes d’exploitation d’appareils, devraient être responsables des mesures de vérification de l’âge.
Helen Charles, directrice des politiques publiques de Meta, des produits publiques et de la monétisation, a déclaré que la nouvelle législation devrait cibler la vérification de l’âge et l’approbation des parents au niveau du système d’exploitation et de l’App Store. Cela «sera plus facile pour les parents» de «protection de la vie privée», a-t-elle déclaré.
Mais Google et Apple ne pensent pas que cela devrait être juste à eux.
« Nous pensons que c’est une responsabilité partagée … il n’y a pas de balle ou d’une balle argentée unique à dire: cette entreprise, résolvez-la pour tout le monde », a déclaré Vinay Goel, directeur de l’assurance d’âge chez Google. «Les développeurs sont mieux situés pour savoir ce qui est potentiellement risqué.»
Il y a un doute, même parmi les plus gros partisans d’une action stricte et des adolescents eux-mêmes, qu’une interdiction serait efficace.
«La vérification de l’âge bien appliquée, les outils parentaux et les programmes d’alphabétisation numérique», par exemple, pourraient obtenir de meilleurs résultats que les interdictions, a déclaré la directrice de la sécurité de la santé Natasha Azzopardi-Muscat.
D’autres, y compris Kuźmitowicz, craignent qu’il existe toujours des moyens de contourner les interdictions et les restrictions, ce qui les rend inefficaces.
Pendant ce temps, les ministres de la Santé estiment qu’il n’y a actuellement des preuves insuffisantes pour étayer une interdiction totale.
«Comment appliquez-vous cela?» a déclaré le ministre de la Santé de Chypre, Michael Damianos. Le «problème plus important» s’assure que les politiques fonctionnent dans la pratique.
Une interdiction des médias sociaux « entre vraiment et vraiment dans l’inconnu. Une telle politique n’est pas soutenue par des preuves », a déclaré le ministre de la Santé de Malte, Jo Etienne Abela. «Mais d’un autre côté… nous savons qu’il y a un problème, le manque de preuves devrait-il nous paralyser et nous geler, et nous ne faisons rien à ce sujet?»



