« Violation et déshumanisation » : comment les deepfakes de l'IA sont utilisés pour cibler les femmes

Jean Delaunay

« Violation et déshumanisation » : comment les deepfakes de l’IA sont utilisés pour cibler les femmes

Les experts qualifient de « déshumanisant » l’utilisation des images d’une personne pour créer des deepfakes en utilisant l’intelligence artificielle (IA) sans son consentement.

La technologie Deepfake a gagné en popularité au cours des dernières années, et il n’a jamais été aussi facile de les réaliser, avec des personnes capables de falsifier la vidéo ou l’audio de manière hyper réaliste.

Il suffit de quelques photos du visage de quelqu’un pour créer un deepfake.

Certains l’utilisent pour s’amuser car c’est la base d’applications d’échange de visage et de multiples filtres sur les réseaux sociaux, mais il existe également plusieurs utilisations malveillantes allant de fausses vidéos de politiciens aux escroqueries.

Les femmes sont particulièrement ciblées par la pornographie deepfake qui est souvent diffusée sans consentement.

En 2019, Deeptrace, une société spécialisée dans l’intelligence artificielle (IA), estimait que la pornographie représentait 96 % des vidéos deepfake, la grande majorité étant créées sans le consentement de la personne mise en avant.

« C’est une violation. C’est déshumanisant. Et la réalité est que nous savons que cela pourrait avoir un impact sur l’employabilité d’une personne. Cela pourrait avoir un impact sur les relations interpersonnelles et la santé mentale d’une personne », a déclaré Noelle Martin, militante et chercheuse à l’Université de Western. L’Australie, qui est confrontée depuis dix ans à des abus liés à l’image.

Dans l’un des cas les plus récents, des adolescentes d’à peine 11 ans ont été prises pour cible et les photos ont été partagées avec leurs camarades de classe du secondaire via les réseaux sociaux.

Un phénomène ciblant les femmes

Le phénomène des deepfakes a été observé pour la première fois en 2017 sur des forums spécialisés comme Reddit auprès de célébrités féminines ciblées en raison de la grande quantité d’images disponibles sur le web.

« L’une des tendances les plus inquiétantes que je vois sur les forums de personnes créant ce contenu est qu’ils pensent que c’est une blague ou qu’ils ne pensent pas que ce soit sérieux parce que les résultats ne sont pas hyperréalistes, sans comprendre que pour les victimes, c’est quand même vraiment, vraiment douloureux et traumatisant », a déclaré Henry Ajder, expert en IA générative.

Mais aujourd’hui, à mesure que la technologie devient plus largement disponible, toutes les femmes sont confrontées à de graves risques de répercussions sociales et psychologiques.

« C’est horrible et choquant de se voir représenté d’une manière à laquelle on n’a pas consenti », a déclaré Martin.

« La réalité est la suivante. Nous savons que cela pourrait avoir un impact sur l’employabilité d’une personne. Cela pourrait avoir un impact sur les relations interpersonnelles et la santé mentale d’une personne », a-t-elle ajouté.

Parfois, les deepfakes sont réalisés pour discréditer le travail des femmes.

La militante Kate Isaacs et la journaliste Rana Ayyub ont toutes deux été victimes de campagnes de diffamation utilisant des deepfakes en raison de leurs activités professionnelles.

De plus, il n’est pas facile de détecter un deepfake, d’autant plus que la technologie s’améliore.

« En réalité, l’individu et l’œil nu de l’individu ne seront tout simplement pas un marqueur fiable pour détecter les contrefaçons. Vous savez, même maintenant, mais surtout à l’avenir, à mesure que la qualité des résultats s’améliorera », a déclaré Ajder.

Dans un récent communiqué d’intérêt public du Federal Bureau of Investigation (FBI) des États-Unis, il a déclaré qu’il continuait de « recevoir des rapports de victimes, notamment d’enfants mineurs et d’adultes non consentants, dont les photos ou vidéos ont été transformées en contenu explicite ».

Il y a même eu des cas dans lesquels du porno deepfake a été utilisé pour extorquer des personnes.

« Depuis avril 2023, le FBI a observé une augmentation du nombre de victimes de sextorsion signalant l’utilisation de fausses images ou vidéos créées à partir de contenu publié sur leurs sites de réseaux sociaux ou sur le Web, fournies à l’acteur malveillant sur demande, ou capturées lors de chats vidéo. « , lit-on dans l’annonce.

Les crimes restent impunis

Difficiles à détecter, les deepfakes sont également difficiles à poursuivre en justice alors que les législateurs tentent de rattraper leur retard sur la technologie.

Fin 2022, le ministère britannique de la Justice a déclaré que le partage de deepfakes sans le consentement d’une personne pouvait entraîner une peine d’emprisonnement. Taïwan a également mis en œuvre un projet de loi similaire.

En Europe, le Digital Services Act (DSA) ne règle pas la question des deepfakes non consensuels. Cependant, le projet de loi de l’UE sur l’IA, dont le projet vient tout juste d’être négocié, devrait fournir un cadre juridique plus solide.

Aux États-Unis, plusieurs États, dont la Californie, le Texas et la Virginie, ont érigé en infraction pénale les deepfakes non consensuels.

« Il doit y avoir une sorte de réponse globale de la part du gouvernement, des forces de l’ordre, des gens sur le terrain, des communautés de victimes. Il y a donc une responsabilité pour les gens là où ils ne peuvent pas simplement ruiner la vie de quelqu’un et s’en tirer sans subir de répercussions.  » dit Martin.

Pour en savoir plus sur cette histoire, regardez la vidéo dans le lecteur multimédia ci-dessus.

Laisser un commentaire

19 + dix =