A person stands in front of a Meta sign outside of the company

Milos Schmidt

Le régulateur brésilien interdit à Meta d’utiliser des données pour la formation de l’IA

Le Brésil suit l’exemple de l’Europe en interdisant à Meta d’utiliser les publications publiques pour la formation de l’IA.

D’abord en Europe et maintenant au Brésil : la nouvelle politique de confidentialité de Meta, qui vise à exploiter les publications publiques des internautes sur les réseaux sociaux pour former leur intelligence artificielle (IA), a de nouveau été officiellement bloquée.

L’autorité nationale de protection des données du Brésil a déterminé plus tôt cette semaine que sa nouvelle politique entraîne « un risque imminent de préjudice grave et irréparable ou difficile à réparer aux droits fondamentaux des personnes concernées », a déclaré l’agence dans le journal officiel du pays.

Le Brésil est l’un des plus grands marchés de Meta, Facebook comptant à lui seul environ 102 millions d’utilisateurs actifs dans le pays, a indiqué l’agence dans un communiqué.

Bloqué également en Europe

L’entreprise de médias sociaux a également rencontré une résistance à la mise à jour de sa politique de confidentialité en Europe, où elle a récemment suspendu son projet de commencer à utiliser les publications publiques des gens pour former des systèmes d’IA – ce qui était censé commencer la semaine dernière.

Les changements de politique en Europe auraient concerné les publications, images, légendes d’images, commentaires et stories partagés publiquement par des utilisateurs de plus de 18 ans sur Facebook et Instagram. Ils ne s’étendaient pas aux messages privés.

La Commission irlandaise de protection des données (DPC) est intervenue en envoyant à Meta une demande d’autres organismes européens demandant à l’entreprise de retarder la formation de grands modèles linguistiques (LLM) qui alimentent des chatbots comme ChatGPT d’OpenAI utilisant ce type de données.

Meta a fait valoir que sans données locales, elle ne pourrait fournir aux utilisateurs de MetaAI qu’« une expérience de second ordre », avec des produits d’IA qui « ne comprendront pas avec précision les langues régionales importantes, les cultures ou les sujets d’actualité », et a donc retardé son déploiement.

L’entreprise aurait rendu Llama, son chatbot IA et l’assistant MetaAI disponibles si elle avait eu accès à ces données.

Meta a déclaré que son approche en Europe « est conforme aux lois et réglementations » et qu’elle est « plus transparente que nombre de ses homologues du secteur ».

La méthode « est conforme aux lois sur la confidentialité »

Un porte-parole de Meta a déclaré à l’Associated Press dans un communiqué que la société était « déçue » et insiste sur le fait que sa méthode « est conforme aux lois et réglementations sur la confidentialité au Brésil ».

« Il s’agit d’un pas en arrière pour l’innovation, la concurrence dans le développement de l’IA et de nouveaux retards dans la mise à disposition des bénéfices de l’IA aux Brésiliens », a ajouté le porte-parole.

Refuser de participer est possible, a déclaré Meta dans cette déclaration.

Malgré cette possibilité, il existe des « obstacles excessifs et injustifiés à l’accès à l’information et à l’exercice » du droit de retrait, a déclaré l’agence dans un communiqué.

Meta n’a pas fourni suffisamment d’informations pour permettre aux gens d’être conscients des conséquences possibles de l’utilisation de leurs données personnelles pour le développement de l’IA générative, a-t-elle ajouté.

Cette décision « nuira à la transparence » sur la manière dont les données sont utilisées

Hye Jung Han, chercheuse basée au Brésil pour Human Rights Watch au Brésil, a déclaré dans un courriel mardi que l’action du régulateur « contribue à protéger les enfants contre la crainte que leurs données personnelles, partagées avec leurs amis et leur famille sur les plateformes de Meta, puissent être utilisées pour leur infliger des dommages d’une manière impossible à anticiper ou à contrer ».

La décision concernant Meta va « très probablement » encourager d’autres entreprises à s’abstenir d’être transparentes dans l’utilisation des données à l’avenir, a déclaré Ronaldo Lemos, de l’Institut de technologie et société de Rio de Janeiro, un groupe de réflexion.

« Meta a été sévèrement punie pour avoir été la seule parmi les grandes entreprises technologiques à notifier clairement et à l’avance dans sa politique de confidentialité qu’elle utiliserait les données de ses plateformes pour former l’intelligence artificielle », a-t-il déclaré.

La conformité doit être démontrée par l’entreprise dans un délai de cinq jours ouvrables à compter de la notification de la décision, et l’agence a établi une amende quotidienne de 50 000 reais (8 330 €) en cas de non-respect de cette obligation.

Laisser un commentaire

dix-huit − dix =