Une étude récente menée par des chercheurs allemands indique que les émissions de carbone des requêtes d'IA peuvent varier considérablement selon la complexité des tâches. Découvrez l'équilibre crucial entre précision et durabilité.
À une époque où l’intelligence artificielle est de plus en plus utilisée, une nouvelle étude menée par des chercheurs allemands a révélé un coût environnemental surprenant : certaines commandes de l’IA peuvent entraîner 50 fois plus d’émissions de CO₂ que d’autres.
Des chercheurs de l'Université des sciences appliquées de Munich ont mesuré les émissions de carbone de 14 grands modèles linguistiques (LLM) différents à l'aide d'un ensemble standardisé de 1,000 XNUMX questions.
Leurs découvertes, publié Dans Frontiers in Communication, jetez un nouvel éclairage sur l’empreinte écologique cachée des technologies d’IA.
« L'impact environnemental du questionnement des LLM formés est fortement déterminé par leur approche raisonnée, les processus de raisonnement explicites augmentant significativement la consommation d'énergie et les émissions de carbone », a déclaré Maximilian Dauner, premier auteur et chercheur à la Hochschule de Munich, dans un communiqué de presse. « Nous avons constaté que les modèles basés sur le raisonnement produisaient jusqu'à 50 fois plus d'émissions de CO₂ que les modèles à réponse concise. »
Comprendre les émissions
L'étude a analysé des modèles dont les paramètres variaient de 72 à XNUMX milliards, en se concentrant sur l'influence de ces paramètres sur les émissions de carbone. Les paramètres déterminent la manière dont les LLM apprennent et traitent l'information.
Les chercheurs ont constaté que les modèles basés sur le raisonnement, qui nécessitent des jetons de « réflexion » supplémentaires pour générer des réponses, augmentaient considérablement les émissions de carbone. En moyenne, ces modèles produisaient 543.5 jetons par question, tandis que les modèles concis n'en nécessitaient que 37.7.
« Actuellement, nous constatons un compromis évident entre précision et durabilité inhérent aux technologies LLM », a ajouté Dauner. « Aucun des modèles limitant les émissions à moins de 500 grammes d'équivalent CO₂ n'a atteint une précision supérieure à 80 % en répondant correctement aux 1,000 XNUMX questions. »
Impact sur différents sujets
L’étude a également souligné que la complexité du sujet affecte les émissions.
Il a été constaté que les questions d’algèbre abstraite ou de philosophie, qui nécessitent de longs processus de raisonnement, génèrent jusqu’à six fois plus d’émissions de CO₂ que des matières plus simples comme l’histoire au lycée.
Implications futures
Les chercheurs espèrent que leurs travaux guideront les utilisateurs vers des décisions plus respectueuses de l’environnement lorsqu’ils utilisent l’IA.
« Les utilisateurs peuvent réduire considérablement les émissions en incitant l’IA à générer des réponses concises ou en limitant l’utilisation de modèles à haute capacité aux tâches qui nécessitent réellement cette puissance », a ajouté Dauner.
Le choix du modèle d’IA joue également un rôle important.
Par exemple, l’étude a révélé que le modèle DeepSeek R1 (70 milliards de paramètres) émet l’équivalent en CO₂ d’un vol aller-retour de Londres à New York lorsqu’il répond à 600,000 XNUMX questions.
En revanche, le modèle Qwen 2.5 (72 milliards de paramètres) peut répondre à près de trois fois plus de questions avec la même empreinte carbone.
Les chercheurs ont toutefois reconnu certaines limites, notant que les facteurs d’émission pourraient varier en fonction du matériel et des réseaux énergétiques utilisés, ce qui pourrait affecter la généralisabilité de leurs résultats.
Conclusion
« Si les utilisateurs connaissent le coût exact en CO₂ de leurs productions générées par l’IA, comme se transformer négligemment en figurine, ils pourraient être plus sélectifs et réfléchis quant au moment et à la manière dont ils utilisent ces technologies », a conclu Dauner.
L’étude souligne un besoin croissant de sensibilisation aux impacts environnementaux de nos habitudes numériques et appelle à une approche équilibrée pour exploiter de manière responsable les puissantes capacités de l’IA.
Source: Frontières