Premier Hubblo Day

Compte-rendu partiel et partial du premier Hubblo Day, 10 octobre 2025

L’apport majeur de la journée était la description du démontage et de l’analyse d’un GPU A100 : c’est la première fois que sont mesurées les différentes compositions d’une carte et donc les impacts environnementaux liées à leur fabrication. En résumé, ils proviennent d’abord de la puce GPU et la VRAM.
Plus une puce est grande, plus le rendement d’un wafer – ces disques de silicium découpés pour fabriquer les puces – se dégradent. Ici, le taux est d’environ 50 %, ie. la moitié des puces de bases finissent à la décharge. Les impacts augmentent donc en absolu, avec des problèmes d’approvisionnement en eau par camion (!) pour les fonderies de l’ouest de Taïwan.

A noter que les résultats de l’analyse présentée dans l’article de Sophia Falk et al. – dont deux co-auteurs, Etienne Lees Perasso (Tide) et David Ekchajzer (Hubblo) étaient sur scène – rejoignaient ceux publiés récemment par Nvidia. C’est intéressant puisque la défiance des chiffres des industrielles est la règle, et avec de bonnes raisons.

La puissance d’une baie a été multipliée par 250 depuis 2011.
Or, le radiateur en cuivre de la carte représente 45 % des matériaux, en lien avec l’élévation constante de la chaleur produite par l’augmentation de l’énergie consommée. Quelque soit le mode de refroidissement, cuivre ou eau, il y sera toujours indispensable. Le refroidissement par eau semble le moins dommageable au vu les dommages environnementaux d’une mine de cuivre, d’une part, et le fait que l’eau de refroidissement n’est que prélevée avant d’être rejetée dans le milieu.
Elle implique désormais de revoir la conception même des centres de données. 

Conflits d’usage
Benoit Petit et Éric Fourboul (Hubblo) montrent ainsi des images satellites d’un centre de données de Google construit puis détruit deux fois en quatre ans pour, sans doute, s’adapter à ces puissances considérables.
Je fais partie de ceux qui estiment que la part des centres de données d’IA dans la consommation d’énergie est globalement moins que marginale. Sauf qu’en lien avec la politique fiscale du pays, elle serait de 18 % en Irlande, avec une intensité carbone de 302 g eqCO2, dix fois plus qu’en France. Ce qui créé des conflits d’usage locaux, notamment à Dublin puisque les centres de données se concentrent dans les zones urbaines denses. Les Pays-Bas et le Danemark seraient autour de 5 %. 

Un autre graphique présente que les conflits d’usage de l’eau restent, de très loin, ceux de l’eau potable et de l’agriculture, qui la consomme, alors que les centres de données, comme les centrales nucléaires, les rendent au milieu (ce qui n’est pas sans conséquence en cas de canicule par ailleurs).

Ensuite, dans le cadre d’une étude à horizon 2060 (oui, c’est étrange de viser un si lointain horizon, le cadre est une étude de l’ADEME, dont acte), ils présentent leurs travaux pour compter les centres de données en France .
Plus intéressant est la méthode : les dénombrer à partir de la littérature financière, de les mesurer avec des données géographiques (cadastre + lidar HD, vive l’IGN) puis d’appliquer un taux de consommation énergétique de 4,6 kWh/m² issu d’autres travaux. Je n’entrerai pas dans les détails des centres de données inclus ou pas, il me paraît plus utile de retenir le nombre de 2,4 GW installés, celui des projets en cours ou annoncés m’apparaissant hypothétique en raison des incertitudes actuelles sur une bulle IA.

Enfin, Gauthier Roussilhe (directeur R&D d’Hubblo) donne une leçon, au meilleur sens du terme, sur l’analyse de cycle de vie. A partir d’études réelles pour des clients, il montre l’importance du contexte – favorable ou non – dans les effets et donc dans les solutions proposées, comme de la prise en compte de l’évolution de l’unité fonctionnelle de référence dans le temps – rien n’est statique !

De plus, il explique que l’effet rebond est à analyser davantage en proportion qu’en quantité absolue, et sur le périmètre étudié plutôt que sur un absolu de toutes façons indicible. Ainsi, il n’est étudié que dans le périmètre de l’entreprise, c’est-à-dire dans un champ maîtrisable de façon opérationnelle, ce que la Spec AFNOR ne définissait pas.

Sur un cas de Schneider Electric, il explique également que l’objectif de l’entreprise était d’abord heuristique, de compréhension de la démarche puis de la construction d’un discours interne. Je crois en effet qu’il faut passer par la compréhension des décideurs et des personnels pour changer les habitudes et s’engager dans la sobriété.

Son intervention devrait aider grandement les praticiens de l’analyse de cycle de vie, par exemple en précisant ce qui est atteignable et comment, notamment sur les effets rebonds qui sont aujourd’hui plutôt laissés de côté faute de savoir comment les étudier.

En conclusion, ce fut une de ces journées enrichissantes qui éclaircissent la réflexion (d’où ce trop long mémo !). L’un des éléments les plus appréciables fut l’honnêteté intellectuelle des orateurs sur les limites de leurs travaux et les incertitudes de leurs chiffres, que je n’avais vu auparavant que dans les travaux de Labos 1point5. Dans le cas d’une entreprise privée, c’est unique, non ?


Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *