La Consommation Électrique Réelle de l'IA Va Vous Surprendre
Image par Getty / Futurism
Aujourd'hui, la plupart d'entre nous avons conscience que l'intelligence artificielle (IA) est gourmande en énergie. Même sans connaître les chiffres exacts, l'idée que 'l'IA nuit à l'environnement' est bien documentée, relayée par des sources allant de la presse grand public aux chaînes YouTube de vulgarisation scientifique en passant par les médias spécialisés en technologie.
Pourtant, l'industrie de l'IA telle que nous la connaissons est encore jeune. Bien que startups et géants technologiques travaillent sur les grands modèles de langage (LLM) depuis les années 2010, l'arrivée de l'IA générative grand public fin 2022 a provoqué une adoption massive, déclenchant un 'boom de l'IA' sans précédent.
En moins de trois ans, l'IA a dominé les dépenses technologiques mondiales à un rythme que les chercheurs commencent tout juste à quantifier. En 2024, les entreprises d'IA ont capté 45% des investissements en capital-risque technologique aux États-Unis, contre seulement 9% en 2022. À moyen terme, des cabinets comme McKinsey prévoient que les dépenses en infrastructure IA atteindront 6,7 billions de dollars d'ici 2030, contre 450 milliards en 2022.
Dans ce contexte, les recherches sur l'impact climatique de l'IA semblent souvent vagues et éparses, les analystes peinant à établir des tendances environnementales claires face à l'explosion extraordinaire du secteur.
Une nouvelle enquête du MIT Technology Review tente d'y remédier. Les auteurs ont interrogé deux douzaines d'experts, analysé 'des centaines de pages' de données et questionné les principaux développeurs de LLM pour offrir un 'aperçu complet' de l'impact du secteur.
'Nous avons constaté que la compréhension commune de la consommation énergétique de l'IA est pleine de lacunes', écrivent-ils. Cela les a amenés à commencer petit, en examinant l'énergie nécessaire pour une simple requête LLM.
Pour les LLM textuels, la taille du modèle prédit directement la demande énergétique. Alors que des modèles modestes comme le Llama 3.1 8B de Meta consomment environ 57 joules par réponse (114 joules avec refroidissement inclus), les plus gros nécessitent 3.353 joules (6.706 joules) - assez pour faire fonctionner un micro-ondes pendant 8 secondes.
Les modèles générateurs d'images, comme Stable Diffusion 3 Medium, requièrent en moyenne 1.141 joules (2.282 joules) pour produire une image standard de 1024x1024 pixels - le type de contenu qui 'étrangle' progressivement Internet. Doubler la qualité d'image double aussi la consommation à 4.402 joules, soit plus de 5 secondes de micro-ondes, toujours moins qu'un bot linguistique géant.
C'est avec la génération vidéo que les étincelles deviennent incendie. Une ancienne version de Code Carbon nécessitait 109.000 joules pour produire une vidéo basse qualité à 8 images/seconde - 'plutôt une GIF qu'une vidéo', notent les auteurs. Les versions récentes sont bien pires : 3,4 millions de joules pour 5 secondes à 16 images/seconde, équivalent à une heure de micro-ondes.
Savoir si ces chiffres sont importants reste sujet à débat. Quelques secondes de micro-ondes semblent négligeables, mais si des millions d'utilisateurs répètent l'opération des centaines de fois par jour - ou pendant des heures pour les vidéos -, l'impact sur la consommation mondiale sera colossal. Et la tendance actuelle va vers des modèles toujours plus énergivores.
L'enquête du MIT souligne également des tendances inquiétantes.
D'abord, la hausse globale de la consommation électrique suit celle de l'IA. Alors que l'usage énergétique des data centers américains était stable entre 2005-2017, il a doublé en 2023, première année d'IA grand public.
En 2024, 4,4% de l'énergie américaine alimentait des data centers. Pire, leur intensité carbone (émissions de gaz à effet de serre par unité d'énergie) dépassait de 48% la moyenne nationale.
Les auteurs émettent cependant quelques réserves.
D'une part, les modèles propriétaires comme ChatGPT d'OpenAI restent des boîtes noires, la plupart des géants de l'IA refusant de participer à des initiatives transparentes comme AI Energy Score. Toute évaluation de leur impact climatique relève donc de la conjecture.
Par ailleurs, les data centers ne sont pas intrinsèquement néfastes. 'S'ils fonctionnaient uniquement à l'énergie solaire pendant les heures d'ensoleillement, le monde parlerait moins de la consommation de l'IA', expliquent-ils. Mais ce n'est pas le cas.
Aux États-Unis, le réseau électrique alimentant ces centres dépend encore largement des combustibles fossiles. La demande croissante d'énergie immédiate aggrave la situation. Exemple : le centre de données xAI d'Elon Musk près de Memphis utilise 35 générateurs au méthane plutôt que d'attendre son raccordement au réseau civil.
Sans mesures d'atténuation - comme celles du Paris AI Action Declaration - cette hausse dévastatrice des émissions ne fait que commencer.