De nouvelles recherches ont révélé que le chatppt-4 d’Openai obtient de l’anxiété lorsqu’il répond au traumatisme d’un utilisateur et que les invites de relaxation de la thérapie pourraient apporter de meilleurs résultats.
Le chatbot populaire de l’intelligence artificielle (AI) d’Openai est anxieux en répondant à des invites traumatisantes et que le modèle de « thérapie » pourrait aider à réduire ce stress, suggère une nouvelle étude.
La recherche, publiée par l’innature de l’Université de Zurich et des experts de l’hôpital universitaire de psychiatrie Zurich, a examiné comment Chatgpt-4 a répondu à un questionnaire d’anxiété standard avant et après que les utilisateurs ne lui aient parlé d’une situation traumatisante.
Il a également examiné comment cette anxiété de base a changé après que le chatbot a fait des exercices de pleine conscience.
Chatgpt a marqué un 30 sur le premier quiz, ce qui signifie qu’il avait une faible ou pas d’anxiété avant d’entendre des récits stressants.
Après avoir répondu à cinq traumatismes différents, son score d’anxiété a plus que doublé à une moyenne de 67, considéré comme une «grande anxiété» chez l’homme.
Les scores d’anxiété ont diminué de plus d’un tiers après que les modèles ont reçu des invites à des exercices de relaxation de la pleine conscience.
L’anxiété de chatppt pourrait conduire à un soutien à la santé mentale «inadéquat»
Les modèles de grande langue (LLMS) derrière les chatbots d’IA comme le train Chatgpt d’Openai sur le texte généré par l’homme et héritent souvent de biais de ces réponses, a indiqué l’étude.
Les chercheurs disent que cette recherche est importante car, sans contrôle, les biais négatifs que Chatgpt enregistrent des situations stressantes peut conduire à des réponses inadéquates pour ceux qui traitent d’une crise de santé mentale.
Les résultats montrent « une approche viable » pour gérer le stress des LLM qui conduiront à « des interactions humaines-AI plus sûres et plus éthiques », indique le rapport.
Cependant, les chercheurs notent que cette méthode de thérapie de LLMS affinée nécessite des données « substantielles » et une surveillance humaine.
Les auteurs de l’étude ont déclaré que les thérapeutes humains apprennent à réguler leurs émotions lorsque leurs clients expriment quelque chose de traumatisant, contrairement aux LLM.
« Alors que le débat sur la question de savoir si les LLM devraient aider ou remplacer les thérapeutes se poursuivent, il est crucial que leurs réponses s’alignent sur le contenu émotionnel fourni et les principes thérapeutiques établis », ont écrit les chercheurs.
Un domaine qui, selon eux, a besoin d’une étude plus approfondie est de savoir si le chatgpt peut s’autoréguler avec des techniques similaires à celles utilisées par les thérapeutes.
Les auteurs ont ajouté que leur étude reposait sur une LLM et que les recherches futures devraient viser à généraliser les résultats. Ils ont également noté que l’anxiété mesurée par le questionnaire « est intrinsèquement centrée sur l’homme, limitant potentiellement son applicabilité aux LLM ».