A smartphone displays the apps for Facebook and Messenger in New Orleans.

Jean Delaunay

Élections européennes : comment l’Europe se prépare-t-elle à d’éventuelles campagnes de désinformation ?

Voici un aperçu de certains des efforts déployés en Europe pour lutter contre la désinformation et de ce à quoi les électeurs doivent faire attention avant le vote de juin.

Les inquiétudes grandissent concernant les contenus générés par la désinformation et l’intelligence artificielle (IA) à l’approche des élections européennes de juin.

La Commission européenne a publié en mars des mesures recommandées pour les plateformes numériques comptant plus de 45 millions d’utilisateurs basés dans l’UE par mois « afin d’atténuer les risques systémiques en ligne susceptibles d’avoir un impact sur l’intégrité des élections ».

En outre, de nombreuses plateformes se sont engagées à respecter le code de bonnes pratiques de l’UE en matière de désinformation « pour lutter contre la désinformation et la désinformation au sein de leurs services », a déclaré un porte-parole de la Commission.

Nous nous attendons à ce que les principaux discours de désinformation comportent des nuances très nationales et locales.

Tommaso Canetta

Vice-directeur du fact-checking de l’Observatoire européen des médias numériques

Les experts qui ont étudié les élections précédentes dans les pays européens ont noté que la désinformation peut prendre plusieurs formes, les principaux discours ciblant le changement climatique, l’immigration et le soutien à l’Ukraine.

« Compte tenu de la nature très spécifique des élections européennes, nous pensons que la situation sera dégradée au niveau national dans la plupart des cas », a déclaré à L’Observatoire de l’Europe Tommaso Canetta, vice-directeur de la vérification des faits à l’Observatoire européen des médias numériques (EDMO). .

« Nous nous attendons donc à ce que les principaux discours de désinformation comportent des nuances très nationales et locales ».

Roberta Schmid, rédactrice en chef pour l’Allemagne et l’Autriche de la société américaine NewsGuard qui évalue les sites d’information, convient que de fausses allégations concernant les réfugiés ukrainiens et la politique en matière de changement climatique sont susceptibles de se propager.

Elle a également remarqué que « beaucoup de fausses affirmations sont personnelles, ce qui signifie qu’elles concernent en grande partie des politiciens spécifiques ».

Les vérificateurs des faits examinent « le niveau de risque », mais également « l’étendue des écarts d’une réclamation » pour sélectionner celles qu’ils vont démystifier.

L’audio Deepfake est la principale préoccupation en matière de désinformation de l’IA

Concernant l’IA, Schmid estime qu’il s’agit « d’un risque supplémentaire en plus du risque qui existait déjà ».

« Les Deepfakes existent depuis un certain temps maintenant. La grande différence, c’est qu’ils s’améliorent de plus en plus. Et surtout maintenant, il y a des deepfakes de voix qui sont vraiment convaincants », a-t-elle déclaré.

Canetta ajoute que même si l’IA générative a fait un bond technique ces derniers mois, les images et vidéos générées par l’IA ne sont pas encore assez bonnes pour offrir des résultats entièrement réalistes.

Cependant, l’audio généré par l’IA peut passer pour réel en raison du manque d’indices visuels.

« C’est un problème pour l’utilisateur moyen de détecter l’origine artificielle du contenu », a déclaré Canetta.

Lors des élections slovaques de 2023, Michal Šimečka, leader du parti progressiste, a été victime d’une campagne de désinformation avec un faux enregistrement de lui discutant de fraude électorale avec un journaliste, selon plusieurs informations.

« C’est délicat, car pour démystifier ce genre de contenu, il faut du temps. Cela peut donc être potentiellement préjudiciable aux élections », a ajouté Canetta.

La plupart des partis politiques européens ont signé un code de conduite pour les élections s’engageant à « s’abstenir de produire, d’utiliser ou de diffuser des contenus trompeurs ».

Le Code de bonnes pratiques en matière de désinformation indique également que les signataires s’engagent à résoudre des problèmes tels que les « deep fakes malveillants ». Cependant, il n’existe actuellement aucun système infaillible pour les détecter.

Les experts ont également averti que les utilisateurs ne devraient pas faire confiance aux chatbots IA, qui sont sujets aux « hallucinations » et peuvent communiquer de fausses informations de manière très réaliste.

L’un des phénomènes alimentés par l’IA qui suscite une préoccupation croissante est la création de deepfakes pornographiques utilisés comme arme contre les candidates féminines.

La Première ministre italienne Giorgia Meloni en a été l’une des victimes et réclame 100 000 euros de dommages et intérêts, a rapporté la BBC.

Une multitude d’outils pour lutter contre la désinformation sur les plateformes sociales

La Commission européenne a organisé le 24 avril un « stress test », invitant toutes les très grandes plateformes et moteurs de recherche.

« Les participants travailleront sur des scénarios dans lesquels plusieurs instruments et mécanismes pourraient être utilisés pour faire face à des incidents, tels qu’une campagne de désinformation visant à saper les élections », a déclaré un porte-parole à L’Observatoire de l’Europe Next.

« L’exercice sera utilisé par tous les participants pour expliquer leurs plans, procédures et politiques », a-t-il ajouté.

Confrontées à une surveillance accrue après de précédents scandales, plusieurs plateformes de médias sociaux ont pris plusieurs mesures pour accroître la surveillance de la désinformation.

TikTok, propriété de la société chinoise Bytedance, a mis en place un centre électoral européen en ligne, ajoutant que 30 pour cent des députés européens étaient présents sur la plateforme.

« Nous travaillons avec 15 organisations de vérification des faits dans le monde qui prennent en charge plus de 40 langues », a déclaré la société à L’Observatoire de l’Europe Next, ajoutant que les vidéos au « contenu non vérifié » ont été signalées aux utilisateurs et n’apparaissent pas dans la section « Pour vous ». alimentation.

Quelques semaines après l’annonce de TikTok, Meta a également déclaré qu’elle mettait en place son propre centre d’opérations pour les élections « afin d’identifier les menaces potentielles et de mettre en place des mesures d’atténuation en temps réel ».

Dans un communiqué distinct, la société mère de Facebook a déclaré qu’elle prévoyait de commencer à étiqueter le contenu généré par l’IA en mai 2024.

Google a également renforcé son groupe de travail anti-désinformation Jigsaw et se prépare à lancer une campagne dans cinq pays de l’UE, selon Reuters. La société a également commencé à imposer des restrictions sur les requêtes électorales posées à son chatbot Gemini AI.

La plateforme de médias sociaux X, anciennement Twitter, n’a fait aucune annonce relative aux élections.

Les entreprises s’exposent à des amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires annuel mondial si elles ne se conforment pas à la loi sur les services numériques (DSA), qui oblige les plateformes à atténuer les manipulations électorales.

Les experts estiment que les électeurs doivent être prudents.

Il est important de vérifier la source des informations partagées, d’autant plus que des sites Web doubles peuvent être créés pour imiter des médias dignes de confiance, a déclaré Schmid.

« Réfléchissez avant de partager, voyez la source du contenu que vous vous apprêtez à partager, voyez ce que disent les autres sources, les médias traditionnels, même s’ils diffusent parfois des informations erronées, restent la source d’information la plus fiable », a ajouté Canetta. .

« Nourrissez un scepticisme sain sans tomber dans le piège de ne rien croire de ce que vous voyez. Il devrait y avoir une bonne voie au milieu ».

Laisser un commentaire

deux × 2 =