AI, Inc. fait preuve de bonne foi lors de ses élections – et recherche des clients

Martin Goujon

AI, Inc. fait preuve de bonne foi lors de ses élections – et recherche des clients

LONDRES — Assise dans un parc inhabituellement chaud de la capitale britannique, Hannah O’Rourke fait figure d’atypique en tant que défenseure de l’intelligence artificielle.

La militante d’une trentaine d’années a passé une grande partie de sa carrière à défendre de meilleurs droits pour les travailleurs et a même fait pression sur le gouvernement britannique en faveur des étudiants pendant la pandémie de Covid-19.

Mais à l’approche des élections générales au Royaume-Uni – désormais attendues à l’automne – O’Rourke canalise son frère technologique intérieur.

Au cours de hackathons mensuels, O’Rourke et d’autres informaticiens progressistes de CampaignLab, une organisation à but non lucratif qu’elle a cofondée, ont mis au point un chatbot alimenté par l’IA. Conçu avec différentes personnalités et émotions variées, il aide les bénévoles à apprendre comment interagir au mieux avec des électeurs potentiellement sceptiques pendant la campagne électorale.

Un autre projet participatif s’est appuyé sur des outils d’IA pour suivre les discussions politiques sur TikTok. Un troisième a utilisé une technologie d’IA disponible dans le commerce pour aider les électeurs confus à déchiffrer le site Web labyrinthique de la commission électorale du pays.

« Il existe des solutions d’IA intéressantes et créatives qui peuvent aider les humains à mieux faire des choses comme faire campagne », a déclaré O’Rourke autour d’un café le mois dernier lors d’une journée de printemps étouffante dans le sud de Londres – avec des enfants riant dans une aire de jeux à proximité et des navetteurs prenant un verre. en rentrant du travail.

« En fin de compte, les gens qui veulent faire de mauvaises choses utiliseront l’IA », a-t-elle ajouté. « La question est donc la suivante : comment pouvons-nous, en tant que personnes désireuses de faire de bonnes choses, utiliser cet outil d’une manière qui soit conforme à ce que nous pensons être juste ? »

O’Rourke n’est pas seul. Au milieu du battage médiatique autour de l’IA – qui s’est accéléré fin 2022 lorsque OpenAI a lancé ChatGPT dans le monde – les militants, les universitaires et les entreprises privées ont rapidement sauté dans le train de la prochaine grande nouveauté technologique.

Cela inclut ceux qui recherchent un avantage lors de la récolte exceptionnelle d’élections prévues cette année – depuis celles du Bangladesh et du Pakistan plus tôt en 2024 jusqu’au vote du Parlement européen en juin jusqu’à l’élection présidentielle de novembre aux États-Unis. D’autres souhaitent moderniser les outils d’IA pour détecter les dommages électoraux potentiels.

Tout comme il y a dix ans, lorsque les campagnes surfaient sur la vague des médias sociaux pour s’adresser directement aux électeurs, les agents politiques, à l’ère actuelle de l’IA, se tournent vers les chatbots, les outils automatisés de ciblage des électeurs et d’autres astuces basées sur l’IA pour obtenir un avantage potentiel. aux urnes en 2024.

Au Pakistan, l’ancien dirigeant emprisonné Imran Khan a mené des élections nationales grâce à des discours de campagne et des vidéos alimentées par des outils d’IA générative. En Indonésie, l’ancien chef militaire – et criminel de guerre présumé – Prabowo Subianto a créé une caricature de lui-même générée par l’IA dans le cadre d’un changement de marque en route vers la victoire à l’élection présidentielle de février.

En Inde, le Premier ministre sortant Narendra Modi s’est tourné vers AI pour traduire automatiquement ses discours dans plusieurs langues locales lors des élections en cours dans le pays. En Biélorussie, l’opposition a soutenu un avatar d’IA – se faisant passer pour un candidat aux élections de février – qui répondrait aux questions politiques des gens sans craindre d’être emprisonné.

Tout cela ne se réalisera pas.

Les vendeurs commerciaux à la recherche de nouveaux marchés présentent avec enthousiasme leurs produits non testés à des campagnes ignorant la technologie, souvent séduits par les promesses de ce que l’IA peut leur offrir. D’autres entreprises ont rebaptisé leurs pratiques de campagne de longue date – comme le ciblage des personnes sur les réseaux sociaux en fonction de leurs intérêts personnels ou l’utilisation de données pour déchiffrer les intentions des électeurs – en services d’IA de nouvelle génération dans l’espoir de devenir riche.

Même des militants comme O’Rourke admettent que, alors que les politiciens s’empressent de suivre les dernières tendances, ils doivent faire attention à ne pas trop s’appuyer sur une technologie qui peut surpromettre ou ne pas tenir ses promesses pour les citoyens ordinaires.

« Chaque fournisseur essaie toujours de trouver un avantage, la prochaine nouveauté », a déclaré Katie Harbarth, une ancienne assistante républicaine américaine qui, tout en travaillant plus tard chez Facebook, a contribué à sensibiliser les législateurs sur le potentiel de campagne du réseau social lors des précédentes élections. engouement technologique.

« Le problème des campagnes, c’est qu’elles ne savent pas qui livre de l’huile de serpent ou qui a la vraie affaire », a-t-elle ajouté.

Randy Saaf et Octavio Herrera ont un argumentaire simple chaque fois qu’ils tentent de vendre leur logiciel : ils créent un clone alimenté par l’IA de la voix du client potentiel.

Les deux techniciens ont commencé par aider les labels de musique, au début des années 2000, à empêcher des sociétés comme Napster, le service de partage de musique rendu célèbre à l’ère du point-com, de pirater leur contenu. Mais lorsque ChatGPT a pris d’assaut l’imagination du public fin 2022, l’équipe basée en Californie a flairé une opportunité.

En quelques mois, ils ont construit un outil connu sous le nom de Wolfsbane AI, qui intègre des marqueurs numériques dans le contenu audio et vidéo, rendant impossible le clonage de ce type de contenu via l’intelligence artificielle. Les utilisateurs peuvent télécharger du contenu sur la plateforme de la startup, protégeant ainsi les clips audio et vidéo contre tout dommage potentiel.

« Nous l’avons créé autour de l’industrie du divertissement, mais nous avons rapidement réalisé qu’il s’agissait d’un problème de sécurité majeur pour les deepfakes », a déclaré Saaf à L’Observatoire de l’Europe via un lien Zoom depuis son bureau à Los Angeles. « C’est à ce moment-là que nous avons commencé à nous intéresser aux personnalités politiques. »

Jusqu’à présent, Saaf et Herrera n’ont recruté qu’un seul député, le représentant démocrate américain Eric Swalwell, un Californien qui siège aux commissions de la patrie et de la justice de la Chambre des représentants.

En décembre, le duo l’a entendu parler de la menace que l’IA faisait peser sur la sécurité des élections – et a téléphoné à son bureau le lendemain. Début avril, leur entreprise avait commencé à protéger le contenu des réseaux sociaux de Swalwell contre la menace des deepfakes générés par l’IA. (Ni Saaf ni Herrera n’ont voulu révéler le coût du service d’IA.)

Herrera, co-fondateur de Saaf, est réaliste quant au défi difficile auquel ils sont confrontés – même si des milliards de dollars sont déjà potentiellement prévus pour le financement de la campagne rien qu’aux États-Unis, avant les élections de novembre. Le discours, a-t-il ajouté, consiste souvent à simuler un clone rapide de la voix d’un législateur, à démontrer ce que la technologie peut faire pour repousser de tels efforts, puis à se tourner rapidement vers des membres du personnel plus compétents en technologie pour comprendre les détails.

« Cela peut prendre des mois », a-t-il concédé, « et malheureusement, les élections arrivent rapidement ».

De l’autre côté de l’Atlantique, Simona Vasytė-Kudakauskė, basée à Vilnius, est confrontée à un problème similaire.

À la tête de Perfection42, une société de conseil qui utilise des modèles de langage étendus pour créer des milliers de contenus générés par l’IA pour les agences de publicité et les marques du monde entier, Vasytė-Kudakauskė souhaite également exploiter le potentiel de la technologie pour les campagnes politiques.

Là où beaucoup se sont concentrés sur les risques – les deepfakes des politiciens et le ciblage des électeurs via des algorithmes – elle soutient que de telles tactiques peuvent également être exploitées pour mieux atteindre les électeurs potentiels. Dans ce monde, ajoute Vasytė-Kudakauskė, l’IA peut traduire automatiquement le matériel de campagne numérique dans plusieurs langues ; générer rapidement des images politiques pour quelques centimes par dollar ; et même adapter des messages spécifiques sur les réseaux sociaux pour attirer les électeurs indécis.

« Nous travaillons avec certaines agences commerciales pour créer du contenu visuel, et les élections ne sont également qu’une campagne publicitaire », a-t-elle déclaré via une vidéoconférence Google Meet au début du mois. « C’est la même chose, mais d’une manière différente et dans un but différent. »

Cela peut paraître plausible – en théorie. Mais la réalité de la campagne politique – en particulier à l’approche des prochaines élections au Parlement européen en juin, lorsque les 27 pays membres du bloc tiendront des votes séparés et simultanés – est complètement différente.

Malgré le discours de Perfection42, Vasytė-Kudakauskė a admis qu’à seulement un peu plus de deux semaines des élections européennes, son cabinet de conseil n’avait pas encore signé une seule campagne pour son offre basée sur l’IA.

Les discussions de L’Observatoire de l’Europe avec plusieurs autres agences à travers l’UE n’ont pas non plus permis de découvrir des campagnes spécifiques qui avaient fait appel à des consultants externes pour compléter les tactiques de campagne traditionnelles avec l’IA – bien que plusieurs candidats aient expérimenté, en interne, la génération de contenu via des outils comme ChatGPT.

« Vous pouvez personnaliser le contenu pour vos utilisateurs, non seulement pour une mauvaise influence, mais aussi pour une bonne influence », a déclaré la Lituanienne, se tournant rapidement lorsque L’Observatoire de l’Europe lui a demandé pourquoi son entreprise – malgré ses efforts pour présenter les aspects positifs de l’IA dans ses campagnes – n’avait pas encore réussi à le faire. trouver des preneurs. « Pour une raison quelconque, les gens ne font pas cela. Ils perdent la guerre parce qu’ils ne jouent pas sur le même terrain. »

Oren Etzioni a la flexibilité ultime pour décrire comment son organisation à but non lucratif axée sur l’IA a démarré.

L’entrepreneur américain en technologie et universitaire en IA était présent à une réunion à San Francisco l’été dernier avec une tête d’affiche notable : le président américain Joe Biden.

Au cours d’une discussion avec d’autres experts, a déclaré Etzioni à L’Observatoire de l’Europe, chacun a fait le tour de la pièce pour décrire un projet dit « moonshot », ou une idée passionnante sur laquelle ils travaillaient. Alors qu’il attendait son tour, le chercheur s’est rendu compte qu’en cette année d’élections mondiales, il n’existait pas de bon moyen de détecter rapidement les deepfakes pour sensibiliser le grand public.

« Il n’y avait vraiment pas d’outil adéquat à la disposition de la presse, des vérificateurs des faits et du public pour évaluer quand vous voyez une image, une vidéo ou un audio, s’il s’agit d’un deepfake ou non », a déclaré Etzioni. « Nous avons décidé d’en construire un. »

Les fournisseurs commerciaux comme Reality Defender ou Sensity AI facturent déjà des frais élevés pour une telle détection. Mais en quelques mois, Etzioni avait fait appel à Garrett Camp, co-fondateur d’Uber, pour obtenir un financement et avait créé TrueMedia.org.

L’organisation à but non lucratif associe les outils de détection de ses concurrents payants et ses propres méthodes internes pour donner aux utilisateurs un pourcentage permettant d’évaluer la probabilité qu’une image, une vidéo ou un clip audio soit faux. Les utilisateurs peuvent insérer un lien Web vers un contenu suspect ou télécharger directement du matériel. TrueMedia évalue ensuite la probabilité que quelque chose soit généré par l’IA – bien qu’Etzioni admette que les résultats ne sont pas parfaits.

Lorsque L’Observatoire de l’Europe a utilisé le service gratuit, par exemple, le système a pu détecter environ 85 % des deepfakes.

Etzioni a déclaré qu’en mai, des milliers de personnes – des universitaires et journalistes aux responsables électoraux et membres du gouvernement fédéral américain – utilisaient son produit. Il n’a pas voulu dire combien de temps il a fallu pour faire fonctionner l’outil de détection. Mais les coûts, selon l’expert en IA, ont diminué à mesure que les systèmes d’IA de TrueMedia étaient formés sur un nombre de plus en plus grand de requêtes.

« C’est, de par sa conception, — maintenant et à l’avenir — une proposition perdante d’argent », a-t-il admis – refusant encore une fois de commenter ses projets concernant le service après les élections américaines de novembre. « Notre idée est d’être un service public, et les services publics ont un coût. »

Pour Kate Dommett, professeur de politique numérique à l’Université de Sheffield au Royaume-Uni, la montée en puissance des outils d’IA dédiés au cycle électoral de cette année – provenant de fournisseurs commerciaux et d’organisations à but non lucratif – représente le coup d’envoi, et non la ligne d’arrivée, dans l’évolution de la technologie. évolution.

Dommett est un expert de la manière dont les campagnes politiques du monde entier ont exploité les dernières avancées technologiques. Au milieu du battage médiatique autour de l’IA, elle reste sceptique quant au fait que la cohorte actuelle de services, en particulier ceux offrant une voie privilégiée pour atteindre les gens sur les médias sociaux via des algorithmes complexes et ce qu’on appelle l’analyse de données, n’est rien de plus que de la fumée et des miroirs.

Il s’agit davantage de consultants réutilisant des services existants avec un label IA, a-t-elle ajouté, que de quelque chose de véritablement révolutionnaire.

« C’est si tôt que c’est vraiment difficile de savoir ce qui se passe réellement », a déclaré Dommett. « Beaucoup de ces outils sont assez défectueux. Je ne pense tout simplement pas que nous soyons encore au point où nous pouvons vraiment leur faire confiance pour faire du bon travail. »

Laisser un commentaire

dix-sept + quatre =