L’essor rapide de l’intelligence artificielle soulève une question rarement au centre du débat public : comment assurer la durabilité des centres de données conçus pour l’IA, alors que leurs besoins en calcul et en énergie augmentent fortement ? Une tribune signée par 윤석준, vice‑président de Lenovo Korea, met en lumière des projections de consommation préoccupantes et présente des pistes techniques et politiques pour réduire l’empreinte énergétique.

Contexte et chiffres clés

Les modèles d’IA modernes demandent des volumes massifs de calcul pour l’entraînement et l’inférence, ce qui se traduit par une consommation électrique élevée et des besoins de refroidissement importants. Selon l’analyse citée dans la tribune, le cabinet Gartner anticipe un doublement de la consommation électrique mondiale des centres de données, de 448 TWh en 2025 à 980 TWh en 2030. En Corée, les projections nationales évoqueraient une hausse annuelle supérieure à 30 %, avec une consommation passant de 5 TWh en 2023 à 30 TWh en 2038 selon le plan national mentionné.

Ces chiffres sont des projections et traduisent une tendance : l’intensification des usages d’IA pourrait transformer les centres de données en facteurs non négligeables d’augmentation des émissions si des mesures d’efficacité et de transition énergétique ne sont pas mises en œuvre.

Leviers techniques pour réduire la consommation

Plusieurs pistes techniques sont déjà mobilisées par l’industrie pour limiter l’empreinte énergétique :

  • optimisation des modèles : réduction du nombre de paramètres et amélioration de l’efficacité algorithmique pour diminuer le coût en calcul ;
  • recours aux énergies renouvelables pour alimenter les installations et réduire l’intensité carbone ;
  • innovations en matière de refroidissement : passage de la climatisation à des systèmes de refroidissement liquide plus efficaces.

La tribune cite en particulier la technologie Neptune de Lenovo, présentée comme une solution de refroidissement liquide en sixième génération. Elle aurait permis, d’après l’auteur, une réduction d’environ 40 % de la consommation par rapport à un refroidissement par air. Neptune accepterait des eaux de refroidissement jusqu’à 45 °C et, appliquée sur le serveur ThinkSystem SR780a, permettrait d’atteindre un PUE (Power Usage Effectiveness) de 1,1, un niveau très proche de l’idéal théorique de 1,0.

Le PUE est une métrique couramment utilisée pour évaluer l’efficacité énergétique d’un centre de données : plus il est proche de 1,0, moins d’énergie est perdue hors des équipements informatiques. Dans l’exemple cité, un PUE de 1,1 signifie qu’une très faible portion d’énergie est utilisée pour le refroidissement et l’infrastructure non informatique.

Enjeux politiques, économiques et climatiques

L’auteur appelle à intégrer la question de la durabilité dans toutes les dimensions du développement de l’IA : conception des modèles, architecture des infrastructures et politiques énergétiques. Trois axes émergent :

  • coordination entre entreprises, chercheurs et pouvoirs publics pour financer et promouvoir les solutions efficaces ;
  • fixation d’objectifs clairs en matière d’efficacité énergétique et d’usage d’énergies renouvelables pour les centres de données ;
  • incitations à la recherche sur des architectures matérielles et logicielles moins consommatrices.

Sans mesures coordonnées, les centres de données optimisés pour l’IA, plus « énergivores » que les centres traditionnels, risquent d’aggraver les émissions liées au secteur numérique. À l’inverse, en combinant modèles plus efficients, approvisionnement renouvelable et innovations de refroidissement, ces mêmes centres pourraient contribuer à limiter l’impact climatique.

Ce que cela change pour nous

Pour les entreprises et les acteurs publics, la question dépasse le seul choix technologique : il s’agit d’inscrire la consommation et l’efficacité énergétique dans les critères d’évaluation des projets d’IA. Pour le grand public, cela signifie que le développement responsable de services reposant sur l’IA dépend aussi d’engagements concrets sur l’énergie et l’infrastructure.

Ce qui reste à confirmer

Les projections citées sont des estimations et dépendent d’hypothèses sur l’évolution des usages, des technologies et des politiques énergétiques. L’efficacité réelle des solutions de refroidissement et l’impact global des modèles allégés devront être confirmés par des évaluations indépendantes et des mesures opérationnelles au fil du déploiement.

À retenir

  • L’essor de l’IA augmente fortement les besoins énergétiques et de refroidissement des centres de données.
  • Des leviers techniques existent : modèles plus efficients, énergies renouvelables et refroidissement liquide comme Neptune.
  • Des objectifs et un financement coordonnés entre entreprises, chercheurs et pouvoirs publics sont jugés nécessaires.
  • Les projections restent conditionnelles et appellent des validations empiriques lors des déploiements.