Un sondage montre que la plupart des adultes américains pensent que l’IA contribuera à la désinformation électorale en 2024

Jean Delaunay

Un sondage montre que la plupart des adultes américains pensent que l’IA contribuera à la désinformation électorale en 2024

Un nouveau sondage révèle qu’une majorité d’adultes aux États-Unis pensent que les outils d’IA augmenteront la propagation de fausses informations lors des élections.

Les avertissements sont devenus plus forts et plus urgents à l’approche de 2024 : les progrès rapides des outils d’intelligence artificielle (IA) menacent d’amplifier la désinformation lors de l’élection présidentielle de l’année prochaine à une échelle jamais vue auparavant.

Aux États-Unis, la plupart des adultes ressentent la même chose, selon un nouveau sondage réalisé par l’Associated Press-NORC Center for Public Affairs Research et la Harris School of Public Policy de l’Université de Chicago.

Le sondage a révélé que près de 6 adultes sur 10 (58 %) pensent que les outils d’IA – qui peuvent micro-cibler les audiences politiques, produire en masse des messages persuasifs et générer de fausses images et vidéos réalistes en quelques secondes – augmenteront la propagation d’informations fausses et trompeuses. lors des élections de l’année prochaine.

En comparaison, 6 % pensent que l’IA réduira la propagation de la désinformation, tandis qu’un tiers estiment qu’elle ne fera pas une grande différence.

« Regardez ce qui s’est passé en 2020 – et ce n’était que sur les réseaux sociaux », a déclaré Rosa Rangel, 66 ans, de Fort Worth, au Texas.

Rangel, une démocrate qui a déclaré avoir vu beaucoup de « mensonges » sur les réseaux sociaux en 2020, a déclaré qu’elle pense que l’IA aggravera encore les choses en 2024 – comme si une marmite « se préparait ».

Seulement 30 % des adultes américains ont utilisé des chatbots ou des générateurs d’images d’IA et moins de la moitié (46 %) ont entendu ou lu au moins quelques articles sur les outils d’IA. Il existe néanmoins un large consensus selon lequel les candidats ne devraient pas utiliser l’IA.

Mauvaise chose pour les candidats à la présidentielle

Lorsqu’on leur a demandé si ce serait une bonne ou une mauvaise chose pour les candidats à la présidentielle de 2024 d’utiliser l’IA de certaines manières, une nette majorité a répondu qu’il serait mauvais pour eux de créer des médias faux ou trompeurs pour des publicités politiques (83 %), de les éditer ou de les toucher. prendre des photos ou des vidéos pour des publicités politiques (66 pour cent), pour adapter les publicités politiques aux électeurs individuels (62 pour cent) et pour répondre aux questions des électeurs via un chatbot (56 pour cent).

Ces sentiments sont soutenus par des majorités de républicains et de démocrates, qui conviennent que ce serait une mauvaise chose pour les candidats à la présidentielle de créer de fausses images ou vidéos (85 pour cent des républicains et 90 pour cent des démocrates) ou de répondre aux questions des électeurs (56 pour cent). pour cent des Républicains et 63 pour cent des Démocrates).

Le pessimisme bipartisan à l’égard des candidats utilisant l’IA survient après que celle-ci ait déjà été déployée lors de la primaire présidentielle républicaine.

En avril, le Comité national républicain a publié une publicité entièrement générée par l’IA, destinée à montrer l’avenir du pays si le président américain Joe Biden était réélu. Il utilisait des photos fausses mais réalistes montrant des devantures de magasins fermées, des patrouilles militaires blindées dans les rues et des vagues d’immigrants semant la panique. L’annonce révélait en petits caractères qu’elle avait été générée par l’IA.

Ron DeSantis, le gouverneur républicain de Floride, a également utilisé l’IA dans sa campagne pour l’investiture du Parti républicain. Il a fait la promotion d’une publicité utilisant des images générées par l’IA pour donner l’impression que l’ancien président Donald Trump serrait dans ses bras le Dr Anthony Fauci, un spécialiste des maladies infectieuses qui a supervisé la réponse du pays à la pandémie de COVID-19.

Le candidat républicain à la présidentielle, le gouverneur de Floride, Ron DeSantis
Le candidat républicain à la présidentielle, le gouverneur de Floride, Ron DeSantis

Never Back Down, un super PAC soutenant DeSantis, a utilisé un outil de clonage vocal d’IA pour imiter la voix de Trump, donnant l’impression qu’il a raconté une publication sur les réseaux sociaux.

« Je pense qu’ils devraient faire campagne sur leurs mérites, et non sur leur capacité à semer la peur dans le cœur des électeurs », a déclaré Andie Near, un homme de 42 ans originaire de Holland, dans le Michigan, qui vote généralement pour les démocrates.

Elle a utilisé des outils d’IA pour retoucher des images dans le cadre de son travail dans un musée, mais elle a déclaré qu’elle pensait que les politiciens utilisant la technologie pour induire en erreur peuvent « approfondir et aggraver l’effet que même les publicités d’attaque conventionnelles peuvent provoquer ».

Thomas Besgen, étudiant républicain, est également en désaccord avec les campagnes utilisant des sons ou des images truqués pour donner l’impression qu’un candidat a dit quelque chose qu’il n’a jamais dit.

« Moralement, c’est mal », a déclaré le jeune homme de 21 ans originaire du Connecticut.

Besgen, étudiant en génie mécanique à l’Université de Dayton dans l’Ohio, s’est déclaré favorable à l’interdiction des publicités deepfake ou, si cela n’est pas possible, à l’exigence qu’elles soient étiquetées comme générées par l’IA.

La Commission électorale fédérale examine actuellement une pétition lui demandant de réglementer les deepfakes générés par l’IA dans les publicités politiques avant les élections de 2024.

‘Prenez-le avec un grain de sel’

Bien que sceptique quant à l’utilisation de l’IA en politique, Besgen s’est dit enthousiasmé quant à son potentiel pour l’économie et la société. Il est un utilisateur actif d’outils d’IA tels que ChatGPT pour aider à expliquer les sujets historiques qui l’intéressent ou pour réfléchir à des idées. Il utilise également des générateurs d’images pour s’amuser, par exemple pour imaginer à quoi pourraient ressembler les stades sportifs dans 100 ans.

Il a déclaré qu’il faisait généralement confiance aux informations qu’il obtient de ChatGPT et qu’il les utiliserait probablement pour en savoir plus sur les candidats à la présidentielle, ce que seulement 5 % des adultes déclarent être susceptibles de faire.

Le sondage révèle que les Américains sont plus susceptibles de consulter les médias d’information (46 %), leurs amis et leur famille (29 %) et les réseaux sociaux (25 %) pour obtenir des informations sur l’élection présidentielle que les chatbots IA.

« Quelle que soit la réponse que cela me donnera, je la prendrai avec des pincettes », a déclaré Besgen.

La grande majorité des Américains sont également sceptiques quant aux informations crachées par les chatbots IA. Seulement 5 pour cent se disent extrêmement ou très confiants quant à la véracité des informations, tandis que 33 pour cent se disent plutôt confiants, selon l’enquête. La plupart des adultes (61 pour cent) déclarent ne pas être très ou pas du tout sûrs de la fiabilité des informations.

Cela concorde avec les avertissements de nombreux experts en IA contre l’utilisation de chatbots pour récupérer des informations. Les grands modèles de langage d’intelligence artificielle qui alimentent les chatbots fonctionnent en sélectionnant à plusieurs reprises le mot suivant le plus plausible dans une phrase, ce qui les rend efficaces pour imiter les styles d’écriture, mais également enclins à inventer des choses.

Les adultes associés aux deux grands partis politiques sont généralement ouverts aux réglementations sur l’IA. Ils ont réagi plus positivement que négativement aux diverses manières d’interdire ou d’étiqueter le contenu généré par l’IA qui pourraient être imposées par les entreprises technologiques, le gouvernement fédéral, les sociétés de médias sociaux ou les médias d’information.

Environ les deux tiers sont favorables à ce que le gouvernement interdise le contenu généré par l’IA qui contient des images fausses ou trompeuses provenant de publicités politiques, tandis qu’un nombre similaire souhaite que les entreprises technologiques étiquetent tout le contenu généré par l’IA créé sur leurs plateformes.

Biden a mis en œuvre lundi certaines lignes directrices fédérales pour l’IA lorsqu’il a signé un décret visant à guider le développement de cette technologie qui progresse rapidement. L’ordonnance exige que l’industrie élabore des normes de sûreté et de sécurité et ordonne au ministère du Commerce de publier des directives pour étiqueter et filigraner le contenu généré par l’IA.

Les Américains considèrent en grande partie que la prévention des informations fausses ou trompeuses générées par l’IA lors des élections présidentielles de 2024 est une responsabilité partagée. Environ 6 personnes sur 10 (63 pour cent) déclarent qu’une grande partie de la responsabilité incombe aux entreprises technologiques qui créent des outils d’IA, mais environ la moitié confie une grande partie de cette responsabilité aux médias d’information (53 pour cent), aux sociétés de médias sociaux (52 pour cent). pour cent) et le gouvernement fédéral (49 pour cent).

Les démocrates sont un peu plus susceptibles que les républicains de dire que les sociétés de médias sociaux ont une grande responsabilité, mais sont généralement d’accord sur le niveau de responsabilité des entreprises technologiques, des médias d’information et du gouvernement fédéral.

Le sondage a été mené auprès de 1 017 adultes du 19 au 23 octobre 2023, à l’aide d’un échantillon tiré du panel AmeriSpeak basé sur les probabilités de NORC, conçu pour représenter la population américaine. La marge d’erreur d’échantillonnage pour tous les répondants est de plus ou moins 4,1 points de pourcentage.

Laisser un commentaire

17 − onze =