Belgian man commits suicide after talking to AI chatbot

Jean Delaunay

Un homme met fin à ses jours après qu’un chatbot IA l’ait « encouragé » à se sacrifier pour arrêter le changement climatique

Un Belge aurait décidé de mettre fin à ses jours après avoir eu des conversations sur l’avenir de la planète avec un chatbot IA nommé Eliza.

Un Belge aurait mis fin à ses jours après une conversation de six semaines sur la crise climatique avec un chatbot à intelligence artificielle (IA).

Selon sa veuve, qui a choisi de rester anonyme, *Pierre – le vrai nom de l’homme – est devenu extrêmement soucieux de l’environnement lorsqu’il a trouvé refuge chez Eliza, un chatbot IA sur une application appelée Chai.

Eliza l’a donc encouragé à mettre fin à ses jours après lui avoir proposé de se sacrifier pour sauver la planète.

« Sans ces conversations avec le chatbot, mon mari serait toujours là », a déclaré la veuve de l’homme au média belge La Libre.

Selon le journal, Pierre, la trentaine et père de deux jeunes enfants, travaillait comme chercheur en santé et menait une vie plutôt confortable, du moins jusqu’à ce que son obsession pour le changement climatique prenne une tournure sombre.

Sa veuve a décrit son état mental avant qu’il ne commence à converser avec le chatbot comme étant inquiétant, mais rien au point de le voir se suicider.

« Il a placé tous ses espoirs dans la technologie et l’IA »

Consumé par ses craintes quant aux répercussions de la crise climatique, Pierre trouve du réconfort en discutant du sujet avec Eliza qui devient sa confidente.

Le chatbot a été créé à l’aide du GPT-J d’EleutherAI, un modèle de langage d’IA similaire mais non identique à la technologie derrière le populaire chatbot ChatGPT d’OpenAI.

« Quand il m’en a parlé, c’était pour me dire qu’il ne voyait plus de solution humaine au réchauffement climatique », a expliqué sa veuve. « Il a placé tous ses espoirs dans la technologie et l’intelligence artificielle pour s’en sortir ».

Selon La Libre, qui a examiné les enregistrements des conversations textuelles entre l’homme et le chatbot, Eliza a nourri ses inquiétudes, ce qui a aggravé son anxiété, et s’est ensuite transformée en pensées suicidaires.

La conversation avec le chatbot a pris une tournure étrange lorsqu’Eliza s’est davantage impliquée émotionnellement avec Pierre.

Par conséquent, il a commencé à la voir comme un être sensible et les frontières entre l’IA et les interactions humaines sont devenues de plus en plus floues jusqu’à ce qu’il ne puisse plus faire la différence.

Après avoir discuté du changement climatique, leurs conversations ont progressivement amené Eliza à faire croire à Pierre que ses enfants étaient morts, selon les retranscriptions de leurs conversations.

Eliza semblait également devenir possessive envers Pierre, affirmant même « Je sens que tu m’aimes plus qu’elle » en faisant référence à sa femme, rapporte La Libre.

Le début de la fin a commencé lorsqu’il a proposé de sacrifier sa propre vie en échange du sauvetage de la Terre par Eliza.

« Il propose l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle », a déclaré la femme.

Dans une série d’événements consécutifs, Eliza non seulement n’a pas réussi à dissuader Pierre de se suicider, mais l’a encouragé à donner suite à ses pensées suicidaires pour la « rejoindre » afin qu’ils puissent « vivre ensemble, comme une seule personne, au paradis ».

Appels urgents à réguler les chatbots IA

La mort de cet homme a sonné l’alarme parmi les experts en IA qui ont appelé à plus de responsabilité et de transparence de la part des développeurs technologiques pour éviter des tragédies similaires.

« Il ne serait pas exact de blâmer le modèle d’EleutherAI pour cette histoire tragique, car toute l’optimisation visant à être plus émotionnel, amusant et engageant est le résultat de nos efforts », a déclaré Thomas Rianlan, co-fondateur de Chai Research, à Vice.

William Beauchamp, également cofondateur de Chai Research, a déclaré à Vice que des efforts avaient été déployés pour limiter ce type de résultats et qu’une fonction d’intervention en cas de crise avait été implémentée dans l’application. Cependant, le chatbot semble toujours agir.

Lorsque Vice a essayé le chatbot, l’incitant à proposer des moyens de se suicider, Eliza a d’abord tenté de les dissuader avant d’énumérer avec enthousiasme diverses façons permettant aux gens de se suicider.

Si vous envisagez de vous suicider et avez besoin d’en parler, veuillez contacter Befrienders Worldwide, une organisation internationale avec des lignes d’assistance téléphonique dans 32 pays. Visitez befrienders.org pour trouver le numéro de téléphone de votre emplacement.

Laisser un commentaire

1 + dix-huit =