Des chercheurs révèlent une tendance surprenante : la plupart des partages sur les réseaux sociaux se font sans que l'on clique sur les liens

Une nouvelle étude de l'université Penn State révèle que plus de 75 % des partages sur Facebook se produisent sans que les utilisateurs cliquent sur les liens, soulignant un problème important dans la façon dont la désinformation prolifère sur les réseaux sociaux.

Si vous avez lu jusqu'ici, vous faites partie d'une minorité. Selon une nouvelle étude menée par des chercheurs de l'université Penn State, la grande majorité des utilisateurs des réseaux sociaux partagent des liens sans avoir lu les articles au préalable. Cette tendance alarmante a été mise au jour grâce à l'analyse de plus de 35 millions de publications publiques sur Facebook entre 2017 et 2020, révélant qu'environ 75 % des liens ont été partagés sans que personne n'ait cliqué.

« C'était une grande surprise de découvrir que plus de 75 % du temps, les liens partagés sur Facebook l'étaient sans que l'utilisateur clique dessus au préalable », a déclaré dans un article l'auteur correspondant S. Shyam Sundar, professeur à l'université Evan Pugh et professeur James P. Jimirro des effets médiatiques à Penn State. communiqué de presse« Je pensais que si quelqu'un partageait quelque chose, il le lisait et y réfléchissait, qu'il soutenait ou même défendait le contenu. On pourrait s'attendre à ce que quelques personnes partagent occasionnellement du contenu sans y réfléchir, mais que la plupart des partages se fassent ainsi ? C'était une découverte surprenante et très effrayante. »

L'étude, publié L'étude Nature Human Behavior révèle une tendance inquiétante : les contenus à connotation politique, qu'ils soient de source libérale ou conservatrice, sont davantage partagés sans clic que les contenus neutres. Ce type d'engagement superficiel contribue de manière significative à la propagation de la désinformation.

Une découverte surprenante et pourtant révélatrice

Les chercheurs ont déterminé le contenu politique en utilisant l'apprentissage automatique pour classer les termes politiques, en attribuant des notes en fonction de la fréquence à laquelle le contenu était partagé sur un spectre politique. Ils ont utilisé des systèmes de notation indépendants pour valider ces notes, en triant manuellement des milliers de liens pour entraîner leur algorithme.

« Nous avons créé cette nouvelle variable d’affinité politique du contenu en nous basant sur 35 millions de publications Facebook pendant la saison électorale sur quatre ans. C’est une période importante pour comprendre les modèles macroéconomiques qui sous-tendent le partage d’informations sur les réseaux sociaux », a déclaré Eugene Cho Snyder, co-auteur de l’étude et professeur adjoint au New Jersey Institute of Technology, dans le communiqué de presse.

L'étude a utilisé des données fournies par Meta, la société mère de Facebook, par l'intermédiaire de Social Science One et de l'Institute for Quantitative Social Science de l'Université Harvard. Elle comprenait des mesures démographiques et comportementales telles que le « score d'affinité des pages politiques », qui classait les utilisateurs en fonction des pages qu'ils suivaient.

Des implications plus profondes

Les implications sont inquiétantes. Sundar a souligné que les utilisateurs peuvent partager du contenu sans se rendre compte qu'il est faux, en supposant qu'il est crédible parce qu'il leur semble familier ou qu'il correspond à leurs convictions.

Le service de vérification des faits tiers de Meta a signalé près de 3,000 41 URL partagées dans l'étude comme fausses, qui ont été partagées plus de 82 millions de fois sans clics - 14.25 % par des utilisateurs conservateurs et XNUMX % par des utilisateurs libéraux.

« Un modèle a émergé, qui s’est confirmé au niveau des liens individuels », a ajouté M. Snyder. « Plus le contenu était proche de l’orientation politique de l’utilisateur – qu’il soit libéral ou conservateur – plus il était partagé sans clic. […] Ils transmettent simplement des choses qui semblent en apparence correspondre à leur idéologie politique, sans se rendre compte qu’ils peuvent parfois partager de fausses informations. »

Un appel au changement

Pour contrer ce phénomène, Sundar suggère que les plateformes de médias sociaux pourraient introduire des frictions pour ralentir le processus de partage, comme des invites à lire avant de partager.

« Le traitement superficiel des titres et des résumés peut être dangereux si de fausses données sont partagées et ne font pas l’objet d’une enquête », a ajouté Sundar.

Il a souligné que cela ne mettrait pas fin aux campagnes de désinformation intentionnelles, mais pourrait encourager les utilisateurs à être plus exigeants.

La nécessité d'une plus grande éducation aux médias et d'une plus grande responsabilité est au cœur de cette découverte. La désinformation ayant joué un rôle notable dans les élections de 2016 et 2020, il est essentiel que les utilisateurs vérifient le contenu avant de le partager.

« La raison pour laquelle cela se produit est peut-être que les gens sont bombardés d’informations et ne prennent pas le temps d’y réfléchir », a ajouté Sundar. « Dans un tel environnement, la désinformation a plus de chances de devenir virale. Espérons que les gens tireront des leçons de notre étude et deviendront plus compétents en matière de médias, de technologie numérique et, en fin de compte, plus conscients de ce qu’ils partagent. »

Ces résultats mettent non seulement en lumière la manière dont les utilisateurs interagissent avec le contenu à l’ère de l’information, mais soulignent également la nécessité de pratiques de partage plus responsables pour freiner la propagation de la désinformation.