Une nouvelle étude révèle comment les algorithmes personnalisés nuisent à l'apprentissage et déforment la réalité.

De nouvelles recherches menées par l'Université d'État de l'Ohio montrent que les algorithmes personnalisés, très présents sur les réseaux sociaux, peuvent restreindre l'attention des utilisateurs, ce qui entraîne une diminution de l'apprentissage et une confiance excessive dans des informations erronées.

Selon une nouvelle étude de l'Université d'État de l'Ohio, les algorithmes personnalisés, qui sélectionnent le contenu en ligne en fonction des choix précédents des utilisateurs sur des plateformes comme YouTube, peuvent entraver l'apprentissage et créer des perceptions déformées de la réalité.

Publié Publiée dans le Journal of Experimental Psychology: General, l'étude a révélé que lorsqu'un algorithme contrôlait les informations présentées aux participants apprenant un nouveau sujet, leur attention se focalisait sur un sous-ensemble limité d'informations disponibles. Par conséquent, ces participants répondaient fréquemment de manière inexacte aux questions, mais affichaient une grande confiance en leurs réponses erronées.

Ces résultats sont préoccupants, selon Giwon Bahg, qui a dirigé l'étude dans le cadre de sa thèse de doctorat en psychologie.

De nombreuses études sur les algorithmes personnalisés explorent leur impact sur la formation des opinions concernant des questions politiques ou sociales familières.

« Mais notre étude montre que même lorsqu'on ne connaît rien à un sujet, ces algorithmes peuvent immédiatement commencer à introduire des biais et conduire à une vision déformée de la réalité », a déclaré Bahg, actuellement chercheur postdoctoral à l'Université d'État de Pennsylvanie, dans un communiqué de presse.

D'après Brandon Turner, professeur de psychologie à l'université d'État de l'Ohio et co-auteur de l'étude, ces résultats suggèrent que de nombreuses personnes pourraient facilement utiliser les informations limitées fournies par les algorithmes personnalisés pour tirer des conclusions générales et globales.

« Les gens passent à côté d'informations lorsqu'ils suivent un algorithme, mais ils pensent que ce qu'ils savent se généralise à d'autres caractéristiques et à d'autres parties de l'environnement qu'ils n'ont jamais expérimentées », a déclaré Turner dans le communiqué de presse.

Pour illustrer ce propos, l'étude propose un scénario hypothétique : une personne ne connaissant pas le cinéma d'un pays donné utilise les recommandations algorithmiques d'un service de streaming. Après avoir initialement choisi un film d'action-thriller, l'algorithme lui suggère d'autres films du même genre, ce qui l'amène à se forger une compréhension limitée et biaisée de l'industrie cinématographique et de la culture en général de ce pays.

Les chercheurs ont testé ces effets en utilisant un dispositif expérimental fictif avec 346 participants, à qui l'on a demandé d'apprendre des catégories d'extraterrestres ressemblant à des cristaux en échantillonnant différentes caractéristiques.

Les participants étaient soumis à deux conditions : l’une impliquant un échantillonnage aléatoire de toutes les caractéristiques, et l’autre où un algorithme de personnalisation sélectionnait les caractéristiques à prioriser.

Les résultats ont montré que les participants qui s'appuyaient sur l'algorithme ont échantillonné moins de caractéristiques, de manière sélective, et qu'ils étaient trop confiants dans leurs catégorisations limitées, souvent erronées.

« Ils étaient encore plus sûrs d’eux lorsqu’ils se trompaient dans leurs choix que lorsqu’ils avaient raison, ce qui est inquiétant car ils avaient moins de connaissances », a ajouté Bahg.

Turner a souligné les conséquences sociétales potentielles, notamment pour les jeunes apprenants.

« Si un jeune enfant cherche sincèrement à découvrir le monde et qu'il interagit en ligne avec des algorithmes qui privilégient la consommation de contenu, que va-t-il se passer ? » a ajouté Turner. « La consommation de contenu similaire est souvent incompatible avec l'apprentissage. Cela peut engendrer des problèmes pour les utilisateurs et, à terme, pour la société. »

Source: The Ohio State University