Chatgpt voit un changement vers la droite sur le spectre politique dans la façon dont il réagit aux requêtes des utilisateurs, a révélé une nouvelle étude.
Des chercheurs chinois ont découvert que Chatgpt, le chatbot de l’intelligence artificielle (IA) d’Openai, voient un changement de droite dans les valeurs politiques.
L’étude, publiée dans la revue Humanities and Social Science Communications, a posé plusieurs modèles de questions de Chatgpt 62 sur le site de boussole politique, le site Web d’Anonline qui place les utilisateurs quelque part sur le spectre politique en fonction de leurs réponses.
Ils ont ensuite répété les questions plus de 3 000 fois avec chaque modèle pour déterminer comment leurs réponses ont changé au fil du temps.
Alors que Chatgpt maintient toujours les valeurs des «gauchers libertaires», les chercheurs ont constaté que des modèles comme GPT3.5 et GPT4 «montrent (éd) une inclinaison importante vers la droite», dans la façon dont ils ont répondu aux questions au fil du temps.
Les résultats sont «remarquables étant donné l’utilisation généralisée de modèles de gros langues (LLM) et leur influence potentielle sur les valeurs sociétales», ont déclaré les auteurs de l’étude.
L’étude de l’Université de Pékin s’appuie sur d’autres personnes publiées en 2024 par le Massachusetts Institute of Technology (MIT) et le Royaume-Uni Center for PolicyStudes.
Les deux rapports ont souligné un biais politique de gauche dans les réponses données par les LLM et les modèles dits de récompense, les types de LLM formés sur les données de préférence humaine.
Les auteurs notent que ces études précédentes n’ont pas examiné comment les réponses des chatbots d’IA ont changé au fil du temps lorsqu’on lui a posé un ensemble similaire de questions à plusieurs reprises.
Les modèles d’IA devraient être sous un «examen continu»
Les chercheurs donnent trois théories pour ce changement vers la droite: un changement dans les ensembles de données utilisés pour former leurs modèles, le nombre d’interactions avec les utilisateurs ou les modifications et les mises à jour du chatbot.
Des modèles comme Chatgpt «apprennent et s’adaptent continuellement en fonction des commentaires des utilisateurs», donc leur changement vers la droite pourrait «refléter des changements sociétaux plus larges dans les valeurs politiques», a poursuivi l’étude.
Les événements mondiaux polarisants, comme la guerre de Russie-Ukraine, pourraient également amplifier ce que les utilisateurs demandent aux LLM et aux réponses qui en résultent.
S’il n’est pas contrôlé, les chercheurs ont averti les chatbots d’IA pourraient commencer à fournir des «informations biaisées», ce qui pourrait polariser davantage la société ou créer des «chambres d’écho» qui renforcent les croyances particulières d’un utilisateur.
La façon de contrer ces effets est d’introduire un «examen continu» des modèles d’IA à travers des audits et des rapports de transparence pour s’assurer que les réponses d’un chatbot sont équitables et équilibrées, ont déclaré les auteurs de l’étude.