Meta CEO Mark Zuckerberg at F8 event in 2019

Jean Delaunay

Meta pour identifier davantage d’images générées par l’IA alors que la fièvre électorale mondiale s’intensifie

Meta devient plus sévère face à la désinformation alors que les pays du monde entier organisent des élections cette année.

Meta commencera à étiqueter les photos générées par l’intelligence artificielle (IA) téléchargées sur ses plateformes Instagram, Facebook et Threads dans les mois à venir, alors que la saison électorale commence dans le monde, a annoncé la société mardi.

L’entreprise de Mark Zuckerberg développe des outils pour identifier le contenu de l’IA à grande échelle afin de trier la désinformation et les deepfakes.

Meta indique qu’elle cherchera désormais à étiqueter le contenu généré par l’IA provenant de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Cela punira également les utilisateurs qui ne divulguent pas si une pièce vidéo ou audio réaliste a été réalisée avec l’IA.

Jusqu’à présent, Meta étiquetait uniquement les images générées par l’IA qui utilisaient ses propres outils d’IA.

Le président des affaires mondiales de Meta, Nick Clegg, a écrit mardi dans un article de blog que la société commencerait l’étiquetage généré par l’IA par des sociétés externes « dans les mois à venir » et continuerait à travailler sur le problème « tout au long de l’année prochaine ».

De plus, il a déclaré que Meta « travaille dur pour développer des classificateurs qui peuvent nous aider à détecter automatiquement le contenu généré par l’IA, même si le contenu manque de marqueurs invisibles ».

Pourquoi maintenant?

Lors des élections présidentielles américaines de 2016 et 2020, Meta, alors connue sous le nom de Facebook, a été critiquée pour la désinformation liée aux élections provenant d’acteurs étrangers, en grande partie russes, se propageant sur son site. L’entreprise a également été critiquée lors de la pandémie de COVID-19 de 2019, lorsque la désinformation sur la santé s’est également répandue sur la plateforme.

La nouvelle politique de Meta en matière d’IA est également susceptible de réprimer le conseil de surveillance indépendant de l’entreprise, qui a critiqué lundi sa politique médiatique comme étant « incohérente » et « manquant de justification convaincante ».

Cela fait suite à une décision confirmée par Meta selon laquelle une vidéo manipulée de Joe Biden, qui montrait à l’origine le président américain échangeant des autocollants « J’ai voté » avec sa petite-fille adulte en 2022, a ensuite été manipulée pour donner l’impression qu’il lui a touché la poitrine de manière inappropriée.

Meta a déclaré que la vidéo n’enfreignait pas ses politiques actuelles car la vidéo n’avait pas été manipulée avec l’IA.

Clegg a déclaré que l’industrie des médias sociaux était en retard dans l’élaboration de normes pour identifier la vidéo et l’audio générés par l’IA, mais a admis que l’entreprise ne pouvait pas détecter seule tous les faux médias.

« Ce travail est particulièrement important car il est probable que cet espace deviendra de plus en plus conflictuel dans les années à venir », a déclaré Clegg.

« Les personnes et les organisations qui souhaitent activement tromper les gens avec du contenu généré par l’IA chercheront des moyens de contourner les garanties mises en place pour le détecter. Dans notre secteur et dans la société en général, nous devrons continuer à chercher des moyens de garder une longueur d’avance.

Laisser un commentaire

6 − deux =