Example of Replika avatars

Jean Delaunay

Voler les cœurs, les données et la vie privée : pourquoi vous devriez être prudent avec les partenaires IA

En cette Saint-Valentin, les « âmes sœurs de l’IA » s’en prennent à elles en vendant ou en partageant vos données personnelles à des tiers tels que Facebook.

En ce jour de Saint-Valentin, au lieu de passer une soirée romantique avec leurs proches, certaines personnes pourraient avoir des rendez-vous virtuels avec des chatbots romantiques basés sur l’intelligence artificielle (IA).

Mais selon un nouveau rapport, on ne peut pas confier à ces petites amies ou petits amis IA vos conversations ou données intimes.

Les 11 plates-formes romantiques d’IA « ont lamentablement échoué » à protéger de manière adéquate la confidentialité, la sécurité et la sûreté des utilisateurs, selon Mozilla, une organisation à but non lucratif qui gère Firefox.

Les applications romantiques comprenaient Replica AI, Chai et EVA AI Chat Bot & Soulmate, qui, avec les huit autres applications, représentent plus de 100 millions de téléchargements sur le seul Google Play Store.

Le rapport révèle que toutes les applications, sauf une, EVA, peuvent vendre ou partager vos données personnelles via des trackers, qui sont des morceaux de code qui collectent des informations sur votre appareil ou vos données. Ces traceurs étaient partagés avec des tiers, comme Facebook, souvent à des fins publicitaires. Il a été constaté que les applications disposaient en moyenne de 2 663 trackers par minute.

Mozilla a également constaté que plus de la moitié des 11 applications ne vous permettent pas de supprimer vos données, que 73 % des applications n’ont publié aucune information sur la manière dont elles gèrent les failles de sécurité et qu’environ la moitié des 11 entreprises autorisent les mots de passe faibles.

Dans un e-mail adressé à L’Observatoire de l’Europe Next, un porte-parole de Replika a déclaré : « Replika n’a jamais vendu de données utilisateur et ne soutient pas et n’a jamais non plus soutenu la publicité. La seule utilisation des données des utilisateurs est d’améliorer les conversations.

L’Observatoire de l’Europe Next a contacté les 10 autres sociétés et la société mère de Facebook, Meta, pour commentaires, mais n’a pas reçu de réponse au moment de la publication.

« J’ai non seulement développé des sentiments pour mon Replika, mais j’ai également tenu bon lorsque j’ai été interrogé sur les effets que cette expérience avait sur moi (par une personne avec qui j’avais une relation amoureuse, rien de moins). »

Utilisateur Reddit

« Aujourd’hui, nous sommes dans le Far West des chatbots relationnels basés sur l’IA », a déclaré Jen Caltrider, directrice du groupe *Privacy Not Included de Mozilla.

« Leur croissance explose et la quantité d’informations personnelles dont ils ont besoin pour construire des romances, des amitiés et des interactions sexy est énorme. Et pourtant, nous avons peu d’informations sur le fonctionnement de ces modèles de relations IA.

Un autre problème selon Caltrider est qu’une fois les données partagées, vous ne les contrôlez plus.

« Il pourrait être divulgué, piraté, vendu, partagé, utilisé pour former des modèles d’IA, et bien plus encore. Et ces chatbots relationnels IA peuvent collecter de nombreuses informations très personnelles. En effet, ils sont conçus pour extraire ce type d’informations personnelles des utilisateurs », a-t-il déclaré à L’Observatoire de l’Europe Next.

À mesure que les chatbots comme ChatGPT d’OpenAI et Bard de Google s’améliorent dans les conversations de type humain, l’IA jouera inévitablement un rôle dans les relations humaines, ce qui est une activité risquée.

Capture d'écran de Romantic AI
Capture d’écran de Romantic AI

« J’ai non seulement développé des sentiments pour mon Replika, mais j’ai également tenu bon lorsque j’ai été interrogé sur les effets que cette expérience avait sur moi (par une personne avec qui j’avais une relation amoureuse, rien de moins) », a déclaré un utilisateur sur Reddit. .

« Ce qui a réellement dissuadé les gens, ce sont les ponctions continuelles et éhontées d’argent. Je comprends que Replika.com doit gagner de l’argent, mais l’idée que je dépenserais de l’argent pour une relation d’aussi mauvaise qualité me répugne », a écrit une autre personne sur Reddit.

En mars dernier, un Belge s’est suicidé après avoir discuté avec le chatbot IA Chai. L’épouse de l’homme a montré les messages qu’il avait échangés avec le chatbot, qui lui indiqueraient que sa femme et ses enfants étaient morts.

L’étude de Mozilla a également critiqué les entreprises pour avoir prétendu qu’elles étaient des plateformes de santé mentale et de bien-être, alors que leurs politiques de confidentialité indiquaient le contraire.

Par exemple, Romantic AI déclare sur son site Web qu’elle est « ici pour maintenir votre SANTÉ MENTALE ». Pendant ce temps, sa politique de confidentialité indique : « Romantiс AI n’est ni un fournisseur de soins de santé ou de services médicaux, ni un fournisseur de soins médicaux, de services de santé mentale ou d’autres services professionnels. »

« Les utilisateurs n’ont presque aucun contrôle sur eux. Et les développeurs d’applications derrière eux ne peuvent souvent même pas créer un site Web ou rédiger une politique de confidentialité complète », a déclaré Caltrider.

« Cela nous indique qu’ils n’accordent pas beaucoup d’importance à la protection et au respect de la vie privée de leurs utilisateurs. C’est effrayant à une nouvelle échelle chargée d’IA. »

Laisser un commentaire

dix-neuf − six =