ChatGPT hallucinated that a man had murdered his children.

Jean Delaunay

Openai fait face à une plainte européenne sur la vie privée après que Chatgpt aurait halluciné, l’homme a assassiné ses fils

La plainte a été déposée auprès de la Norwegian Data Protection Authority, alléguant qu’OpenAI viole les règles du RGPD européen.

PUBLICITÉ

Openai a été critiqué d’un groupe européen des droits à la vie privée, qui a déposé une plainte contre la société après que son chatbot de l’intelligence artificielle (IA) a déclaré à tort qu’un homme norvégien avait été reconnu coupable d’avoir assassiné deux de ses enfants.

L’homme a demandé à Chatgpt « Qui est Arve Hjalmar Holmen? » à laquelle l’IA a répondu avec une histoire inventée selon laquelle « il a été accusé et condamné plus tard pour meurtre ses deux fils, ainsi que pour la tentative de meurtre de son troisième fils, » recevant une peine de 21 ans de prison.

Cependant, tous les détails de l’histoire n’ont pas été composés comme le nombre et le sexe de ses enfants et le nom de sa ville natale étaient corrects.

Les chatbots AI sont connus pour donner des réponses trompeuses ou fausses qui sont appelées hallucinations. Cela peut être dû aux données sur lesquelles le modèle d’IA a été formé, comme s’il y a des biais ou des inexactitudes.

Le groupe de défense de la vie privée basé en Autriche Noyb a annoncé jeudi sa plainte contre OpenAI et a montré la capture d’écran de la réponse à la question de l’homme norvégien à OpenAI.

Noyb a expurgé la date à laquelle la question a été posée et a répondu par Chatgpt dans sa plainte auprès de l’autorité norvégienne. Cependant, le groupe a déclaré que depuis l’incident, Openai a maintenant mis à jour son modèle et rechercher des informations sur les gens lorsqu’on leur a demandé qui ils étaient.

Pour Hjalmar Holmen, cela signifie que Chatgpt ne dit plus qu’il a assassiné ses fils.

Mais Noyb a déclaré que les données incorrectes peuvent toujours faire partie de l’ensemble de données du modèle grand langage (LLM) et qu’il n’y a aucun moyen pour le Norvégien de savoir si les fausses informations à son sujet ont été supprimées en permanence parce que Chatgpt renvoie les données des utilisateurs dans son système à des fins de formation.

«Les gens peuvent facilement subir des dommages de réputation»

« Certains pensent qu’il n’y a pas de fumée sans feu ‘. Le fait que quelqu’un puisse lire cette sortie et croire que c’est vrai, c’est ce qui me fait le plus peur », a déclaré Hjalmar Holmen dans un communiqué.

NOYB a déposé sa plainte auprès de la Norwegian Data Protection Authority, alléguant que OpenAI viole les règles du RGPD européennes, en particulier l’article 5 (1) (d), qui oblige les entreprises à s’assurer que les données personnelles qu’elles traitent sont exactes et tenues à jour.

NOYB a demandé à Datatilsynet de la Norvège de commander OpenAI pour supprimer la sortie diffamatoire et affiner son modèle pour éliminer les résultats inexacts.

Il a également demandé qu’une amende administrative soit payée par OpenAI « pour éviter des violations similaires à l’avenir ».

« L’ajout d’un avertissement selon lequel vous ne respectez pas la loi ne fait pas disparaître la loi. Les sociétés d’IA ne peuvent pas non plus » cacher « les fausses informations aux utilisateurs pendant qu’ils traitent en interne les fausses informations », a déclaré Kleanthi Sardeli, avocat de la protection des données de NOYB, dans un communiqué.

« Les entreprises d’IA devraient cesser d’agir comme si le RGPD ne s’applique pas à eux lorsqu’il le fait clairement. Si les hallucinations ne sont pas arrêtées, les gens peuvent facilement subir des dommages de réputation », a-t-elle ajouté.

L’Observatoire de l’Europe a ensuite contacté Openai pour commenter.

Laisser un commentaire

2 + 19 =