Les modèles de langage sur lesquels sont basés les IA génératives exigent d’énormes capacités de calcul pour s’entraîner sur des milliards de données, ce qui nécessite des serveurs puissants. Par la suite, chaque fois qu’un utilisateur envoie une requête à ChatGPT ou toute autre IA générative, cela fait fonctionner des serveurs situés dans un centre de données. Ces serveurs consomment de l’électricité, chauffent et doivent être refroidis avec des systèmes qui nécessitent à leur tour de l’énergie.
Selon l’Agence internationale de l’énergie (AIE), les centres de données utilisent en général près de 40% de leur électricité pour alimenter les serveurs et 40% pour les refroidir. Une requête à ChatGPT nécessite ainsi en moyenne 10 fois plus d’énergie qu’une simple requête sur le moteur de recherche Google, ont montré plusieurs études.
Or le boom de l’IA depuis 2022 a conduit les géants d’internet, comme Amazon, Google et Microsoft, à investir massivement dans la création de centres de données à travers le monde. Google met notamment en avant, dans son rapport environnemental, la hausse de la consommation d’énergie dans ses centres de données ainsi que le bond des émissions liées à la construction de nouveaux “data centers” et la modernisation de ceux existants.
COMBIEN L’IA CONSOMME-T-ELLE D’ÉNERGIE ?
Avant l’engouement pour l’intelligence artificielle, les centres de données représentaient environ 1% de la consommation électrique mondiale, selon l’AIE. Si on ajoute l’IA et le secteur des cryptomonnaies, les centres de données ont consommé près de 460 Twh d’électricité en 2022, soit 2% de la production mondiale totale, d’après l’institution. Un chiffre qui pourrait doubler en 2026, pour atteindre 1.000 Twh, ce qui correspondrait à la consommation en électricité du Japon, met-elle en garde dans un rapport.
Alex de Vries, économiste à l’Université libre d’Amsterdam, a de son côté modélisé l’usage électrique nécessaire pour l’intelligence artificielle seule à partir des projections de vente de l’entreprise Nvidia, dont les processeurs sont indispensables pour entraîner les modèles d’IA. Si les estimations de vente pour 2023 de Nvidia sont correctes et si tous les serveurs tournent au maximum de leur capacité, ils pourraient consommer entre 85,4 et 134 Twh par an, soit ce que consomme un pays comme l’Argentine, écrit-il dans un article. “Les chiffres que j’ai mis dans mon papier étaient plutôt prudents au départ parce qu’ils ne prennent pas en compte des processus comme les besoins en refroidissement“, a-t-il détaillé. L’année dernière, les ventes de Nvidia ont dépassé leurs projections, donc les chiffres pourraient être encore plus élevés, a-t-il poursuivi.
COMMENT LES CENTRES DE DONNÉES GÈRENT-ILS CETTE DEMANDE ÉNERGÉTIQUE ACCRUE ?
L’IA va transformer le secteur des centres de données, reconnaît Fabrice Coquio, de l’entreprise Digital Realty, qui gère un énorme centre de données en périphérie de Paris, dont une partie sera dédiée à l’intelligence artificielle. “Cela sera exactement comme le cloud (informatique dématérialisée), peut-être un peu plus massif en terme de déploiement”, a-t-il expliqué lors d’une visite des infrastructures en avril.
Si les serveurs à la puissance de calcul moyenne peuvent être placés dans des pièces avec des systèmes d’air conditionné, ceux beaucoup plus puissants nécessaires à l’IA ont tendance à chauffer davantage et exigent que de l’eau soit pompée directement dans les équipements pour les refroidir, a précisé M. Coquio. “Il est certain que cela demande des serveurs, un équipement de stockage et de communication différents“, a-t-il insisté.
COMMENT LES GÉANTS DU NET RÉAGISSENT-ILS ?
Au moment où les mastodontes de la tech cherchent à mettre toujours plus d’intelligence artificielle dans leurs produits, les experts craignent une explosion de la consommation d’électricité. A l’instar de Google, Microsoft, numéro deux mondial du cloud, a vu ses émissions de CO2 bondir de 30% en 2023 par rapport à 2020.
Si Google, Amazon et Microsoft mettent en avant leur investissement dans les énergies renouvelables pour alimenter leurs centres de données, leurs objectifs de neutralité carbone semblent s’éloigner. AWS (la branche cloud d’Amazon) s’est engagée à devenir une entreprise à zéro émission de carbone d’ici à 2040, tandis que Google prévoit de parvenir à des émissions nettes nulles dans l’ensemble de ses activités d’ici à 2030.
Microsoft s’est lui donné pour objectif, aussi d’ici 2030, un bilan carbone négatif. Une promesse faite avant l’explosion de l’IA, a avoué en mai le président de Microsoft Brad Smith, lors d’un entretien à Bloomberg.