Facebook CEO Mark Zuckerberg at a meeting at the European Commission in 2020.

Jean Delaunay

Politique de l’UE. Enquêtes sur la désinformation : trop tard pour faire la différence ?

La Commission européenne s’interroge sur la solidité de Facebook et d’Instagram en matière de désinformation, tout comme les chercheurs nordiques.

La semaine dernière (30 avril), Facebook et Instagram de Meta ont fait l’objet d’une enquête en vertu des règles de l’UE sur les plateformes en ligne, car ils semblent manquer de robustesse pour contrer la désinformation russe, la dernière d’une série d’enquêtes sur la gestion par les plateformes de la loi sur les services numériques (DSA). .

Les ONG et chercheurs baltes et nordiques ont dressé un tableau sombre des efforts des grandes technologies pour arrêter les trolls pro-Kremlin, et doutent que ces enquêtes mettent un terme aux campagnes de désinformation en cours visant à saper l’OTAN et l’UE, tout en essayant de renforcer la crédibilité de la Russie.

Faktabaari, un service finlandais de vérification des faits et d’alphabétisation numérique, lutte contre la désinformation depuis les élections européennes de 2014. Son fondateur, Mikko Salo, a déclaré à L’Observatoire de l’Europe que l’UE avait fait beaucoup de travail de pionnier dans ce domaine, mais a déclaré que ces enquêtes DSA arrivaient « un peu tard » pour apporter un changement avant les élections européennes de juin.

« Je pense que ces procédures prendront du temps et que les élections auront lieu dans un mois. Elles sont cependant utiles pour appliquer les politiques actuelles et en élaborer de meilleures pour le mandat 2025-2029 et pour garantir les prochaines élections américaines », a déclaré Salo, supposant que les États-Unis se tourneraient vers l’UE pour obtenir certaines meilleures pratiques en matière d’intégrité électorale.

Lukas Andriukaitis, l’un des cofondateurs de Civic Resilience Initiative (CRI), une ONG lituanienne visant à mettre fin à la désinformation, fait écho à ces propos.

« C’est un peu une arme à double tranchant ; nous soutenons le DSA depuis le tout début, car je pense que c’est un moyen très efficace, sinon le seul, de motiver les plateformes de médias sociaux à agir », a déclaré Andriukaitis.

Il a ajouté que la communauté des ONG tire la sonnette d’alarme depuis un certain temps sur ce qui se passe avec les plateformes en ligne. «Malgré les efforts déployés par les plateformes, elles n’étaient pas suffisantes et se concentraient définitivement sur se montrer sous un jour positif. Nous avons vu des cas en Lituanie où le gouvernement a tenu des auditions semi-publiques sévères avec Meta, à la suite desquelles des changements positifs ont eu lieu », a-t-il déclaré.

Efforts de l’UE

Les chiffres publiés l’année dernière par l’agence de sondage Ipsos montrent que les niveaux de désinformation en provenance de Russie ont considérablement augmenté ces dernières années, en particulier dans les États baltes – Estonie, Lituanie et Lettonie, où un citoyen sur quatre se dit fortement exposé à la désinformation.

La Finlande, par exemple, a été témoin de nombreuses fausses nouvelles concernant son adhésion à l’OTAN – avant son adhésion à l’Alliance en avril 2023 – visant principalement à convaincre les utilisateurs que la Russie ne représente pas une menace pour la Finlande, a déclaré Disinfo Lab dans un rapport.

Solvita Denisa-Liepniece, chercheuse lettone dans le domaine de la sécurité cognitive, a déclaré à L’Observatoire de l’Europe qu’il « a fallu une décennie pour comprendre comment gérer les grandes technologies » et que, même si des progrès ont été réalisés dans la réglementation des géants technologiques « occidentaux », il y a eu entre-temps des progrès. des changements significatifs dans la consommation des médias sociaux.

« Dans les États baltes, par exemple, nous observons une utilisation accrue de TikTok et Telegram, quel que soit l’âge et le profil du public », a-t-elle déclaré.

Au cours du mandat de la Commission von der Leyen, plusieurs efforts ont été déployés pour réprimer les campagnes de désinformation. Un exemple est le code de conduite renforcé contre la désinformation que la Commission a mis en place en 2022 et qui a été signé par 34 entreprises – dont Google et TikTok – qui s’engagent à lutter contre les fausses informations en ligne.

Une autre tentative visant à renforcer les conditions de base pour des médias libres et indépendants – la loi européenne sur la liberté des médias – a reçu le feu vert des législateurs européens en mars. La loi obligera les gouvernements de l’UE à mieux protéger les médias contre les interférences malveillantes et à limiter l’utilisation de logiciels espions contre les journalistes. Le ministre lituanien de la Culture, Simonas Kairys, a souligné en novembre dernier la nécessité d’établir des règles, car l’espace européen de l’information est soumis « à des attaques intenses chaque jour et à chaque heure de la part de la propagande de guerre et de la désinformation russes ».

DSA

La loi sur les services numériques (DSA) semble offrir un recours efficace, compte tenu des six enquêtes de la Commission déjà ouvertes sur la non-conformité des plateformes depuis que les règles ont commencé à s’appliquer en août.

En vertu du DSA, les entreprises désignées comme très grandes plateformes en ligne (VLOP) – celles qui comptent plus de 45 millions d’utilisateurs mensuels moyens dans l’UE – doivent respecter des règles strictes, telles que des exigences de transparence et de protection des mineurs en ligne. Outre les enquêtes Meta, X fait également l’objet d’une enquête sur sa gestion de la guerre Hamas-Gaza.

Salo, de Faktabaari, a déclaré que même si ces actions de l’UE ont conduit à une plus grande prise de conscience de la désinformation, le défi des fausses nouvelles lui-même s’est également accru en raison du développement technologique rapide tel que l’IA générative.

« L’invasion russe à grande échelle en Ukraine a « dévoilé les masques » dans de nombreux pays, permettant des discussions plus efficaces et plus directes sur des questions pertinentes, notamment la militarisation des plateformes de médias sociaux par des acteurs étrangers et nationaux. Nous devons suivre cela de près, également indépendamment des acteurs étatiques », a déclaré Salo.

Il a ajouté que la preuve du succès résidera dans la stratégie de mise en œuvre. « Il est important de maintenir la pression, de sensibiliser les citoyens et de tenir les plateformes responsables de leurs actes et de leurs paroles », a-t-il déclaré.

La chercheuse lettone Denisa-Liepniece a déclaré que l’atténuation devrait également être globale. « Nous ne devrions pas seulement limiter les efforts de désinformation, mais aussi aller au-delà de la vérification des faits et nous concentrer sur le renforcement de la compréhension des gens sur le traitement de l’information », a-t-elle déclaré.

Modérateurs de contenu

Afin de lutter contre les fausses nouvelles, Meta travaille déjà avec des organisations indépendantes de vérification des faits dans toute l’Europe. En Finlande, par exemple avec l’agence de presse AFP et en Estonie, Lettonie et Lituanie avec Delfi et Re:Baltica.

Avant le vote de juin, le géant de la technologie a déclaré qu’il mettait en place son propre centre d’opérations pour les élections « afin d’identifier les menaces potentielles et de mettre en place des mesures d’atténuation en temps réel ». Dans un communiqué distinct, la société mère de Facebook a déclaré qu’elle prévoyait de commencer à étiqueter le contenu généré par l’IA en mai 2024.

Cependant, le nombre de modérateurs de contenu pour les langues nordiques reste faible, malgré la menace de désinformation russe. Facebook compte trois employés qui examinent le contenu en estonien, deux en letton, six en lituanien et 15 en finnois, affirmant qu’une grande partie du processus est automatisée. À titre de comparaison, la plateforme compte environ 226 personnes qui consultent du contenu en français, 54 en néerlandais et 242 en allemand.

Un rapport récent (1er mai) publié par l’organisation indépendante de vérification des faits, l’Observatoire européen des médias numériques, indique que les campagnes de désinformation en Russie sont toujours bien vivantes.

Il a allégué une vaste campagne de désinformation russe menée par l’ancien média d’information Pravda et citant des médias publics, tels que Tass ou RIA, sur des sites Web dans les langues locales de l’UE et citant souvent des comptes Telegram pro-russes. Les sites Web publient des centaines d’articles par heure via des modèles basés sur l’IA, selon le rapport.

Meta a déclaré dans sa déclaration de préparation aux élections européennes qu’elle avait signé l’accord technologique à l’échelle de l’industrie, aux côtés d’entreprises telles que Google, Amazon et Snapchat, pour lutter contre la propagation de contenus trompeurs d’IA lors des élections de 2024. « Ce travail dépasse la portée de n’importe quelle entreprise et nécessitera un effort considérable de la part de l’industrie, du gouvernement et de la société civile », a déclaré Meta.

Laisser un commentaire

4 − deux =