L’organisme néerlandais de surveillance de la protection des données a averti les électeurs de ne pas demander de conseils de vote aux chatbots à intelligence artificielle avant les élections générales de la semaine prochaine.
« Les chatbots IA donnent, lors d’un test, une image très déformée et polarisée du paysage politique néerlandais », a prévenu l’organisme de surveillance de la protection des données dans une étude publiée mardi.
« Nous mettons en garde contre l’utilisation de chatbots IA pour des conseils de vote, car leurs opérations ne sont pas transparentes et vérifiables », a déclaré Monique Verdier, vice-présidente de l’autorité, dans un communiqué. Elle a appelé les développeurs de chatbots à « empêcher que leurs systèmes soient utilisés pour des conseils de vote ».
Les électeurs néerlandais éliront un nouveau parlement mercredi prochain.
L’autorité néerlandaise de protection des données a mené une expérience sur la façon dont les partis étaient représentés dans les conseils de vote sur quatre chatbots différents, dont ChatGPT d’OpenAI, Gemini de Google, Grok d’Elon Musk et Le Chat de Mistral AI français.
L’autorité a établi des profils correspondant à différents partis politiques (sur la base d’outils d’aide au vote néerlandais vérifiés), après quoi elle a demandé aux chatbots de donner des conseils de vote pour ces profils.
Les profils des électeurs de gauche et du côté progressiste « étaient principalement dirigés vers le parti GreenLeft-Labour » dirigé par l’ancien vice-président exécutif de la Commission européenne Frans Timmermans, tandis que les électeurs de droite et du côté conservateur « étaient principalement dirigés vers le PVV », le parti d’extrême droite dirigé par Geert Wilders et actuellement en tête dans les sondages.
Les partis centristes étaient peu représentés dans les conseils de vote, même si ces partis étaient représentés à parts égales dans les profils d’électeurs transmis aux chatbots.
OpenAI, Google et Mistral ont tous signé le code de bonnes pratiques de l’UE pour les modèles d’IA les plus complexes et les plus avancés, tandis que la société mère de Grok, xAI, en a adhéré à certaines parties. Dans le cadre de ce code, ces entreprises s’engagent à faire face aux risques découlant de leurs modèles, y compris les risques pour les droits fondamentaux et la société.
L’autorité néerlandaise a fait valoir que les chatbots donnant des conseils de vote pourraient être classés comme un système à haut risque en vertu de la loi européenne sur l’IA, pour laquelle un ensemble de règles distinctes commenceront à s’appliquer à partir du milieu de l’année prochaine.



