La Consommation Électrique Réelle de l'IA Va Vous Surprendre

How Much Electricity It Actually Takes to Use AI May Surprise You

La Consommation Électrique Réelle de l'IA Va Vous Surprendre

Image par Getty / Futurism

Aujourd'hui, la plupart d'entre nous avons conscience que l'intelligence artificielle (IA) est gourmande en énergie. Même sans connaître les chiffres exacts, l'idée que 'l'IA nuit à l'environnement' est bien documentée, relayée par des sources allant de la presse grand public aux chaînes YouTube de vulgarisation scientifique en passant par les médias spécialisés en technologie.

Pourtant, l'industrie de l'IA telle que nous la connaissons est encore jeune. Bien que startups et géants technologiques travaillent sur les grands modèles de langage (LLM) depuis les années 2010, l'arrivée de l'IA générative grand public fin 2022 a provoqué une adoption massive, déclenchant un 'boom de l'IA' sans précédent.

En moins de trois ans, l'IA a dominé les dépenses technologiques mondiales à un rythme que les chercheurs commencent tout juste à quantifier. En 2024, les entreprises d'IA ont capté 45% des investissements en capital-risque technologique aux États-Unis, contre seulement 9% en 2022. À moyen terme, des cabinets comme McKinsey prévoient que les dépenses en infrastructure IA atteindront 6,7 billions de dollars d'ici 2030, contre 450 milliards en 2022.

Dans ce contexte, les recherches sur l'impact climatique de l'IA semblent souvent vagues et éparses, les analystes peinant à établir des tendances environnementales claires face à l'explosion extraordinaire du secteur.

Une nouvelle enquête du MIT Technology Review tente d'y remédier. Les auteurs ont interrogé deux douzaines d'experts, analysé 'des centaines de pages' de données et questionné les principaux développeurs de LLM pour offrir un 'aperçu complet' de l'impact du secteur.

'Nous avons constaté que la compréhension commune de la consommation énergétique de l'IA est pleine de lacunes', écrivent-ils. Cela les a amenés à commencer petit, en examinant l'énergie nécessaire pour une simple requête LLM.

Pour les LLM textuels, la taille du modèle prédit directement la demande énergétique. Alors que des modèles modestes comme le Llama 3.1 8B de Meta consomment environ 57 joules par réponse (114 joules avec refroidissement inclus), les plus gros nécessitent 3.353 joules (6.706 joules) - assez pour faire fonctionner un micro-ondes pendant 8 secondes.

Les modèles générateurs d'images, comme Stable Diffusion 3 Medium, requièrent en moyenne 1.141 joules (2.282 joules) pour produire une image standard de 1024x1024 pixels - le type de contenu qui 'étrangle' progressivement Internet. Doubler la qualité d'image double aussi la consommation à 4.402 joules, soit plus de 5 secondes de micro-ondes, toujours moins qu'un bot linguistique géant.

C'est avec la génération vidéo que les étincelles deviennent incendie. Une ancienne version de Code Carbon nécessitait 109.000 joules pour produire une vidéo basse qualité à 8 images/seconde - 'plutôt une GIF qu'une vidéo', notent les auteurs. Les versions récentes sont bien pires : 3,4 millions de joules pour 5 secondes à 16 images/seconde, équivalent à une heure de micro-ondes.

Savoir si ces chiffres sont importants reste sujet à débat. Quelques secondes de micro-ondes semblent négligeables, mais si des millions d'utilisateurs répètent l'opération des centaines de fois par jour - ou pendant des heures pour les vidéos -, l'impact sur la consommation mondiale sera colossal. Et la tendance actuelle va vers des modèles toujours plus énergivores.

L'enquête du MIT souligne également des tendances inquiétantes.

D'abord, la hausse globale de la consommation électrique suit celle de l'IA. Alors que l'usage énergétique des data centers américains était stable entre 2005-2017, il a doublé en 2023, première année d'IA grand public.

En 2024, 4,4% de l'énergie américaine alimentait des data centers. Pire, leur intensité carbone (émissions de gaz à effet de serre par unité d'énergie) dépassait de 48% la moyenne nationale.

Les auteurs émettent cependant quelques réserves.

D'une part, les modèles propriétaires comme ChatGPT d'OpenAI restent des boîtes noires, la plupart des géants de l'IA refusant de participer à des initiatives transparentes comme AI Energy Score. Toute évaluation de leur impact climatique relève donc de la conjecture.

Par ailleurs, les data centers ne sont pas intrinsèquement néfastes. 'S'ils fonctionnaient uniquement à l'énergie solaire pendant les heures d'ensoleillement, le monde parlerait moins de la consommation de l'IA', expliquent-ils. Mais ce n'est pas le cas.

Aux États-Unis, le réseau électrique alimentant ces centres dépend encore largement des combustibles fossiles. La demande croissante d'énergie immédiate aggrave la situation. Exemple : le centre de données xAI d'Elon Musk près de Memphis utilise 35 générateurs au méthane plutôt que d'attendre son raccordement au réseau civil.

Sans mesures d'atténuation - comme celles du Paris AI Action Declaration - cette hausse dévastatrice des émissions ne fait que commencer.

Sự Thật Gây Sốc Về Lượng Điện Khổng Lồ Mà AI Tiêu Thụ

Hình ảnh bởi Getty / Futurism

Đến nay, hầu hết chúng ta đều phần nào nhận thức rằng trí tuệ nhân tạo (AI) là một 'con quái vật' háu năng lượng. Dù không nắm rõ con số cụ thể, những cáo buộc rằng 'AI gây hại cho môi trường' đã được ghi nhận rộng rãi, xuất hiện trên mọi nền tảng từ báo chí truyền thống đến kênh YouTube khoa học phổ thông và cả giới công nghệ.

Dù vậy, ngành công nghiệp AI vẫn còn non trẻ. Dù các startup và tập đoàn công nghệ lớn đã nghiên cứu mô hình ngôn ngữ lớn (LLM) từ thập niên 2010, sự bùng nổ AI chỉ thực sự bắt đầu từ cuối năm 2022 với sự xuất hiện của AI sinh sản nội dung dành cho người dùng phổ thông.

Chưa đầy ba năm, AI đã chiếm lĩnh chi tiêu công nghệ toàn cầu với tốc độ khiến giới nghiên cứu phải đau đầu đo lường. Năm 2024, các công ty AI chiếm tới 45% tổng đầu tư mạo hiểm vào công nghệ tại Mỹ, tăng vọt từ mức 9% năm 2022. Các hãng tư vấn lớn như McKinsey dự đoán chi tiêu cho hạ tầng AI sẽ đạt 6,7 nghìn tỷ USD vào năm 2030, so với con số khiêm tốn 450 tỷ USD năm 2022.

Trong bối cảnh đó, các nghiên cứu về tác động môi trường của AI thường mơ hồ và rời rạc, khi các nhà phân tích chật vật theo kịp tốc độ phát triển chóng mặt của ngành.

Một khảo sát mới từ MIT Technology Review đang cố gắng thay đổi tình hình. Nhóm tác giả đã phỏng vấn hai chục chuyên gia AI, phân tích hàng trăm trang dữ liệu và đối thoại với các nhà phát triển LLM hàng đầu để đưa ra cái nhìn toàn diện về tác động của ngành.

'Chúng tôi phát hiện hiểu biết chung về mức tiêu thụ năng lượng của AI đầy lỗ hổng', nhóm nghiên cứu viết. Điều này khiến họ bắt đầu từ quy mô nhỏ: năng lượng cho một truy vấn LLM đơn lẻ.

Với các LLM xử lý văn bản, kích thước mô hình tỷ lệ thuận với nhu cầu năng lượng. Trong khi phiên bản nhỏ như Llama 3.1 8B của Meta tiêu thụ khoảng 57 joule mỗi phản hồi (114 joule nếu tính cả làm mát), các mô hình lớn ngốn tới 3.353 joule (6.706 joule) - đủ để chạy lò vi sóng trong 8 giây.

AI tạo ảnh như Stable Diffusion 3 Medium cần trung bình 1.141 joule (2.282 joule) để tạo ra bức ảnh 1024x1024 pixel - loại nội dung đang 'bóp nghẹt' internet. Tăng gấp đôi chất lượng ảnh đồng nghĩa với việc tăng gấp đôi năng lượng tiêu thụ lên 4.402 joule, tương đương hơn 5 giây dùng lò vi sóng.

Lĩnh vực tạo video mới thực sự gây sốc. Phiên bản cũ của Code Carbon cần tới 109.000 joule để tạo video chất lượng thấp 8fps - mà nhóm nghiên cứu mô tả là 'giống GIF hơn phim'. Bản cập nhật mới nhất của công cụ này ngốn tới 3,4 triệu joule cho video 5 giây ở 16fps, tương đương chạy lò vi sóng hơn một tiếng.

Những con số này lớn hay nhỏ còn tùy góc nhìn. Vài giây dùng lò vi sóng có vẻ không đáng kể, nhưng nếu hàng triệu người cùng làm hàng trăm lần mỗi ngày - hoặc hàng giờ với video - tác động lên hệ thống điện toàn cầu sẽ khủng khiếp. Đáng lo ngại, xu hướng hiện nay là các mô hình AI ngày càng 'khát' điện hơn.

Ở góc độ vĩ mô, khảo sát của MIT Tech còn chỉ ra những xu hướng đáng báo động khác.

Một là sự gia tăng song song giữa AI và mức tiêu thụ điện. Trong khi mức tiêu thụ điện của các trung tâm dữ liệu Mỹ gần như không đổi từ 2005-2017, nó đã tăng gấp đôi vào năm 2023 - năm đầu tiên AI tiếp cận đại chúng.

Năm 2024, các trung tâm dữ liệu chiếm 4,4% tổng lượng điện tiêu thụ tại Mỹ. Đáng chú ý, cường độ carbon (lượng khí thải gây tan băng trên mỗi đơn vị năng lượng) của chúng cao hơn 48% so với mức trung bình toàn quốc.

Dù vậy, nhóm tác giả MIT cũng đưa ra vài lưu ý quan trọng.

Thứ nhất, chúng ta không thể 'soi' các mô hình AI độc quyền như ChatGPT của OpenAI, khi hầu hết gã khổng lồ AI từ chối tham gia các sáng kiến minh bạch như AI Energy Score. Trong tình hình này, mọi đánh giá tác động môi trường đều mang tính phỏng đoán.

Hơn nữa, trung tâm dữ liệu không tự thân gây hại. 'Nếu tất cả chạy bằng năng lượng mặt trời và chỉ hoạt động khi có nắng, thế giới sẽ ít quan tâm đến mức tiêu thụ năng lượng của AI hơn', họ viết. Tiếc rằng thực tế không như vậy.

Tại Mỹ, lưới điện cung cấp cho các trung tâm dữ liệu vẫn phụ thuộc nhiều vào nhiên liệu hóa thạch. Nhu cầu điện tức thời tăng cao chỉ làm tình hình tồi tệ hơn. Đơn cử, trung tâm dữ liệu xAI của Elon Musk gần Memphis đang dùng 35 máy phát chạy khí methane để vận hành, thay vì chờ kết nối lưới điện dân dụng.

Nếu ngành công nghiệp không áp dụng các biện pháp giảm thiểu tác động - như trong Tuyên bố Hành động Paris về AI - đây mới chỉ là khởi đầu cho cơn sóng khí thải hủy hoại khí hậu.