Le Parlement de l'UE à criminaliser le matériel de maltraitance des enfants générés par l'IA

Jean Delaunay

Le Parlement de l’UE à criminaliser le matériel de maltraitance des enfants générés par l’IA

Les législateurs de l’UE de gauche à droite ont voté par glissement de terrain pour criminaliser les images de maltraitance des enfants générées par l’IA. La loi radicale aborde également le toilettage, la diffusion en direct, la sextorsion et l’âge du consentement, visant à combler les lacunes et à protéger les enfants à travers l’UE.

Le Parlement européen a voté mardi massivement en faveur d’une directive qui criminaliserait la création, la possession et le partage de matériel d’abus sexuel d’enfants (CSAM) généré par l’intelligence artificielle. Le texte couvre également les infractions liées au toilettage, à la sextorsion et aux abus en direct, tout en abordant les définitions légales et les problèmes d’âge de consentement à travers l’UE.

Le vote a été adopté avec 599 en faveur, seulement deux contre, et 62 abstentions – un consensus inhabituellement large de l’ensemble du spectre politique pour un dossier aussi sensible.

« Il sera traité exactement de la même manière que s’il s’agissait d’un véritable matériel de maltraitance d’enfants », a déclaré à L’Observatoire de l’Europe Jeroen Lenaers (Pays-Bas / European. « Parce que nous savons que ces modèles, tout d’abord, ils doivent s’entraîner sur de véritables enfants d’abus sexuels sur des enfants et deuxièmement, nous voyons que l’utilisation du matériel d’utilisation sexuelle des enfants est un très petit pas pour passer à de vrais abus sexuels sur les enfants. »

Des recherches récentes par les enfants à but non lucratif basées à Helsinki mettent en évidence un lien entre la visualisation du contenu abusif et commet la création d’infractions de contact contre les enfants, même si un lien causal direct n’a pas été prouvé. Selon l’étude, 52% des répondants ont déclaré qu’ils craignaient de voir un tel matériel les conduire à commettre des abus. Pendant ce temps, 44% ont déclaré que cela les avait fait envisager de demander un contact avec un mineur, et 37% ont admis avoir agi sur ces pensées.

Lenaers a déclaré à L’Observatoire de l’Europe que le matériel de maltraitance des enfants générés par l’IA avait augmenté de plus de 1 000% au cours de la dernière année.

La position du Parlement a été accueillie par les acteurs de l’industrie technologique et les défenseurs de la protection de l’enfance. Dans une déclaration conjointe, Dot Europe, un groupe de lobby technologique basé à Bruxelles représentant entre autres Openai, Tiktok, Snapchat et Meta – et Eclag (European Child Sexual Abusing Advocacy Group) a déclaré: « Nous sommes heureux de s’ouvrir pour la première fois pour les moyens de travailler ensemble pour faire de l’IA pour les enfants de la violence sexuelle en ligne.

Cependant, le vote de mardi n’est pas la dernière étape. Les négociations commenceront désormais entre le Parlement, le Conseil de l’UE, qui représente les gouvernements nationaux et la Commission européenne. Ces pourparlers «Trilogue» détermineront la forme finale de la loi.

Le Conseil a adopté sa propre position en décembre, mais n’a pas réussi à inclure la criminalisation du matériel de maltraitance d’enfants générés par l’IA – provoquant de solides appels des députés, des groupes d’industrie et de défense des ministres à s’aligner sur le Parlement.

L’âge du consentement s’est également avéré diviseur lors des négociations du Conseil. Une coalition de sept pays – la Belgique, la Finlande, l’Irlande, la Lettonie, le Luxembourg, la Slovénie et la Suède – ont publié une déclaration conjointe avertissant que, si les enfants qui atteignent l’âge du consentement sexuel peuvent légalement accepter les actes sexuels, ils restent particulièrement vulnérables et nécessitent une forte protection juridique.

La directive proposée va au-delà de l’imagerie d’IA. Il introduit un cadre juridique partagé dans l’UE pour lutter contre la maltraitance des enfants en ligne, avec des définitions claires du «toilettage» et de la «sextorsion» comme crimes. Il cherche également à interdire la diffusion d’actes abusifs, à soulever des limites de temps pour signaler les abus sexuels, à reconnaître que de nombreuses victimes ne se manifestent que des années plus tard, et à interdire les soi-disant «manuels pédophiles», qui fournissent des instructions sur la façon de manipuler les enfants et d’échapper à la détection.

Au cours du débat plénière, le commissaire aux affaires intérieures, Magnus Brunner, a appelé à l’ambition et à l’unité: «Nous ne pouvons pas être assez ambitieux. Il n’y a pas de priorité plus importante que de protéger nos enfants.»

Laisser un commentaire

six + 3 =