Une nouvelle étude de l'Université Cornell met en évidence la manière dont les essais d'admission à l'université générés par l'IA imitent les styles d'écriture des étudiants masculins privilégiés, suscitant une conversation sur les biais inhérents aux outils d'IA dans les milieux éducatifs.
L'intelligence artificielle pourrait transformer la façon dont les étudiants abordent les essais d'admission à l'université, mais une nouvelle étude menée par des chercheurs de l'Université Cornell suggère que cette aide technologique s'accompagne de biais notables. Les résultats, publié dans le Journal of Big Data, révèlent que les essais générés par l'IA ont tendance à refléter les styles d'écriture des étudiants masculins issus de milieux socio-économiques plus aisés.
« Nous voulions découvrir à quoi ressemblent ces modèles que nous voyons dans les essais écrits par des humains dans un monde ChatGPT », a déclaré dans un communiqué AJ Alvero, co-auteur correspondant et professeur adjoint de recherche en sciences de l'information à l'université Cornell. communiqué de presse« S’il existe un lien fort entre l’écriture humaine et l’identité, comment cela se compare-t-il aux essais rédigés par l’IA ? »
L'équipe d'Alvero a examiné plus de 150,000 25,000 essais d'admission à l'université, soumis au système de l'Université de Californie et à un programme d'ingénierie d'élite de la côte Est, ainsi que 3.5 4 essais générés par les modèles d'IA GPT-XNUMX et GPT-XNUMX, répondant à des questions d'essai identiques.
Leur analyse a utilisé le programme Linguistic Inquiry and Word Count (LIWC), conçu pour mesurer les caractéristiques d’écriture et les comparer à des lexiques prédéfinis.
Les résultats ont révélé que les essais générés par l’IA « ressemblent » davantage à ceux rédigés par des étudiants de sexe masculin issus de milieux privilégiés. Notamment, l’IA a tendance à utiliser des mots plus longs et présente moins de variété stylistique que les essais rédigés par des humains.
De plus, bien qu’elle n’ait aucune affiliation réelle, l’IA a écrit sur des groupes et des organisations à un rythme similaire à celui des auteurs humains.
En discutant des implications plus larges, le co-auteur Rene Kizilcec, professeur associé de sciences de l'information à Cornell, a souligné l'utilisation abusive potentielle de l'IA dans la rédaction d'essais universitaires.
« Il est probable que les étudiants utiliseront l'IA pour les aider à rédiger ces essais – probablement pas en lui demandant simplement d'écrire le tout, mais plutôt en lui demandant de l'aide et des commentaires », a déclaré Kizilcec dans le communiqué de presse.
Il a averti que les suggestions générées par l’IA pourraient ne pas refléter la voix authentique d’un étudiant.
« Il est important de se rappeler que si vous utilisez une IA pour vous aider à rédiger un essai, il est probable que celui-ci ressemblera moins à vous et davantage à quelque chose d'assez générique », a-t-il ajouté. « Et les étudiants doivent savoir que les personnes qui liront ces essais ne auront pas trop de mal à déterminer qui a beaucoup utilisé l'IA. L'essentiel sera de l'utiliser pour aider les étudiants à raconter leurs propres histoires et pour améliorer ce qu'ils veulent transmettre, et non pour remplacer leur propre voix. »
Alors que des outils comme ChatGPT sont de plus en plus intégrés dans les environnements éducatifs, cette étude souligne la nécessité de prendre conscience de leurs biais et de leurs limites.