Les changements apportés aux flux de médias sociaux façonnent le contenu mais pas les opinions politiques, selon une étude

Jean Delaunay

Les changements apportés aux flux de médias sociaux façonnent le contenu mais pas les opinions politiques, selon une étude

Les chercheurs ont modifié les algorithmes des médias sociaux pour des dizaines de milliers d’utilisateurs consentants afin de voir si cela avait un impact sur leurs opinions politiques lors des élections américaines de 2020.

Les changements apportés aux algorithmes des médias sociaux sur Facebook et Instagram n’ont pas modifié de manière significative les opinions politiques des utilisateurs, mais ils ont façonné ce qu’ils voient sur leurs flux, selon de nouvelles recherches approfondies sur l’impact des plateformes sur la polarisation politique.

Les premiers résultats d’une équipe multi-universitaire travaillant en tandem avec des chercheurs de Meta ont fourni un aperçu de l’impact des algorithmes des médias sociaux sur ce que les utilisateurs voient.

Co-dirigée par Talia Stroud de l’Université du Texas à Austin et Joshua Tucker de l’Université de New York, l’étude a révélé que la modification des algorithmes, qui aident à classer les actualités et à rechercher des éléments sur les réseaux sociaux, influençait ce que les gens voyaient sur leurs flux.

Mais cela n’a pas nécessairement changé leurs convictions politiques.

« Nous savons maintenant à quel point l’algorithme a une influence sur l’expérience des utilisateurs sur la plate-forme, mais nous savons également que le fait de modifier l’algorithme même pour quelques mois ne changera probablement pas les attitudes politiques des gens », ont déclaré Stroud et Tucker dans une déclaration commune..

« Ce que nous ne savons pas, c’est pourquoi. Cela pourrait être dû au fait que la durée pendant laquelle les algorithmes ont été modifiés n’était pas assez longue, ou que ces plateformes existent déjà depuis des décennies, ou que si Facebook et Instagram sont des sources influentes de informations, ce ne sont pas les seules sources des gens », ont-ils déclaré.

La nouvelle recherche, qui fait partie de l’étude électorale Facebook et Instagram 2020 (FIES), a été publiée jeudi dans une série de quatre articles dans Science and Nature.

Malgré l’implication de Meta, les chercheurs universitaires ont déclaré qu’ils avaient le dernier mot sur les décisions d’écriture et de recherche.

Expérimenter avec différents flux de médias sociaux

Les chercheurs ont expérimenté trois changements dans la façon dont les utilisateurs de Facebook et d’Instagram voyaient le contenu lors de l’élection présidentielle américaine de 2020.

Les expériences avec des dizaines de milliers d’utilisateurs américains consentants comprenaient l’arrêt des partages, la modification du flux d’un flux algorithmique à un flux chronologique et la réduction de l’exposition à un contenu partageant les mêmes idées.

Les chercheurs ont constaté que la suppression du contenu repartagé, par exemple, réduisait la quantité de nouvelles politiques ainsi que les clics et les réactions en général. Cela a également réduit les clics partisans sur les informations, ont-ils déclaré.

Pendant ce temps, le passage à des flux chronologiques inversés au lieu d’un contenu sélectionné sur la base d’un algorithme « a considérablement réduit » le temps passé par les utilisateurs sur la plate-forme.

Dans la troisième expérience, les chercheurs ont réduit d’un tiers le contenu de milliers d’utilisateurs consentants sur la plate-forme, ce qui, selon eux, a accru l’exposition à d’autres sources mais n’a pas changé les idéologies des utilisateurs.

« Ces résultats estimés avec précision suggèrent que bien que l’exposition au contenu de sources partageant les mêmes idées sur les réseaux sociaux soit courante, la réduction de sa prévalence lors de l’élection présidentielle américaine de 2020 n’a pas réduit de manière correspondante la polarisation des croyances ou des attitudes », ont déclaré les chercheurs dans l’article publié dans Nature.

Dans l’un des articles publiés dans Science, les chercheurs ont analysé les données de 208 millions d’utilisateurs américains de Facebook sur leur consommation d’informations sur la plate-forme de médias sociaux pendant l’élection.

Ils ont trouvé une grande ségrégation idéologique entre les publics de droite et de gauche aux États-Unis, « avec une part substantielle de l’écosystème de l’information consommée exclusivement par les conservateurs ».

« La plupart des informations erronées, telles qu’identifiées par le programme tiers de vérification des faits de Meta, existent dans ce coin conservateur homogène », ont déclaré les auteurs de l’étude.

« Eviter de rendre des comptes »

Les médias sociaux ont longtemps été critiqués pour avoir alimenté la polarisation idéologique, mais Facebook a contesté son rôle à cet égard.

Dans un communiqué jeudile président des affaires mondiales de Meta, Nick Clegg, a écrit que ces nouvelles études s’ajoutaient « à un nombre croissant de recherches montrant qu’il y a peu de preuves que les principales caractéristiques des plates-formes de Meta provoquent à elles seules une polarisation » affective « préjudiciable, ou ont des effets significatifs sur les attitudes politiques clés, croyances ou comportements ».

Free Press, une organisation américaine à but non lucratif prônant une réforme des médias, a déclaré que Meta déformait les études, ajoutant qu’elles étaient limitées et se sont déroulées sur une « période étroite ».

« Les méta-dirigeants s’appuient sur des recherches limitées comme preuve qu’ils ne devraient pas partager le blâme pour l’augmentation de la polarisation politique et de la violence », a déclaré Nora Benavidez, avocate principale de Free Press et directrice de la justice numérique et des droits civils.

« Cette tournure calculée de ces sondages fait simplement partie d’un retrait continu de la responsabilité pour le fléau de la désinformation politique qui s’est propagé en ligne et a sapé des élections libres, justes et sûres dans le monde entier. »

Laisser un commentaire

un × trois =