Les documents relatifs aux conditions générales sont de plus en plus difficiles à lire et renoncent parfois au droit d’un utilisateur de poursuivre la plateforme en justice, selon une nouvelle analyse.
Les « termes et conditions » denses que la plupart des utilisateurs consultent lorsqu’ils ouvrent un compte de réseau social contiennent des autorisations étendues pour collecter des données utilisateur et limitent la capacité des utilisateurs à poursuivre les entreprises en justice.
Telles sont quelques-unes des conclusions d’un nouvel outil de recherche de l’Université Harvard qui documente les versions anciennes et actuelles des documents juridiques.
Le Transparency Hub stocke plus de 20 000 documents et suit les conditions de plus de 300 plateformes, dont TikTok et Instagram.
L’objectif de la plateforme est de permettre aux gens de savoir plus facilement où vont leurs données et quels sont leurs droits, selon Jonathan Zittrain, professeur de droit international à Harvard.
L’une des conclusions est que ces documents deviennent de plus en plus difficiles à comprendre au fil des années. À l’aide d’une mesure de lisibilité appelée Flesch-Kincaid Grade Level, les chercheurs ont analysé les politiques de confidentialité de 2016 à 2025 et ont découvert qu’environ 86 % d’entre elles nécessitent désormais une capacité de lecture de niveau universitaire.
Cet outil intervient alors que des pays européens comme la France, le Portugal, l’Espagne et le Danemark décident des restrictions, le cas échéant, à imposer sur les réseaux sociaux pour limiter leur utilisation nocive par les enfants.
Un éloignement de la salle d’audience
Une autre tendance émergente est que de nombreuses plateformes éloignent les litiges des tribunaux publics.
Les utilisateurs sont souvent invités à régler les conflits par arbitrage : un processus privé dans lequel un tiers neutre rend une décision contraignante, selon une déclaration de Kevin Wrenn, chercheur à l’Université de Boston, qui a utilisé le Transparency Hub.
Wrenn a déclaré que dans la plupart des cas, ces entreprises choisissent également elles-mêmes des médiateurs pour les régler, ce qui supprime discrètement le droit de l’utilisateur de les poursuivre devant les tribunaux.
Les conditions générales actuelles des plates-formes d’IA telles qu’Anthropic et Perplexity comportent des avis indiquant que les utilisateurs ne peuvent pas participer à un recours collectif contre l’entreprise.
Cela oblige les utilisateurs qui subissent des dommages dus à l’utilisation des plateformes à intenter une action en justice individuellement, plutôt que de poursuivre collectivement leurs réclamations devant un juge ou un jury.
Les utilisateurs peuvent se désinscrire des restrictions de Perplexity en envoyant une notification écrite à un e-mail d’assistance dans les 30 jours suivant la première utilisation de l’IA, conformément aux conditions de service.
L’Observatoire de l’Europe Next a contacté Anthropic et Perplexity pour obtenir des commentaires sur leurs politiques d’arbitrage, mais n’a pas reçu de réponse immédiate.
Il n’est pas immédiatement clair si les termes et conditions diffèrent pour les utilisateurs européens par rapport à ceux des États-Unis.


