
Google vient de lever le voile sur l’impact environnemental réel de son intelligence artificielle (IA) Gemini avec une étude inédite. Cette recherche, menée en interne sur l’infrastructure de production, mesure la consommation d’énergie, les émissions carbone et l’usage d’eau de chaque requête textuelle soumise à l’assistant conversationnel. Des experts nuancent.
Les résultats surprennent par leur modestie: une requête médiane consomme 0,24 wattheure* (Wh) d’énergie, soit l’équivalent de neuf secondes de télévision (env. 100W) ou d’une seconde de l’utilisation d’un micro-ondes à une puissance de 860 W environ. L’empreinte carbone s’établit à 0,03 gramme d’équivalent CO2, tandis que la consommation d’eau se limite à cinq gouttes (0,26 millilitre), selon Google.
Des gains d’efficacité spectaculaires
L’évolution technologique impressionne davantage encore que ces chiffres absolus. En douze mois seulement, Google, selon ses dires, a divisé par 33 la consommation énergétique de ses requêtes et par 44 leur empreinte carbone totale. Cette amélioration découle d’optimisations logicielles, d’architectures de modèles plus efficaces et d’une meilleure utilisation des serveurs.
Ces progrès s’expliquent notamment par des techniques avancées, comme le «décodage spéculatif**» qui accélère les réponses, ou l’usage de modèles plus petits et spécialisés pour certaines tâches. L’entreprise californienne mise également sur ses processeurs TPU, conçus spécifiquement pour l’intelligence artificielle et 30 fois plus économes que la première génération, selon ce texte de Google.
Une méthodologie révolutionnaire
Cette étude se distingue par son approche globale, inédite dans le domaine. Contrairement aux estimations habituelles qui se contentent de mesurer la consommation des processeurs graphiques, Google comptabilise l’ensemble de l’infrastructure: serveurs en veille, systèmes de refroidissement, et consommation électrique des centres de données.
Les autres études du marché sous-estiment largement l’impact réel, car elles ignorent ces coûts cachés. Selon Google, une mesure complète multiplie par 2,4 la consommation apparente d’une requête par rapport aux approches traditionnelles centrées sur les seuls accélérateurs d’IA, selon le rapport reproduit ci-dessous, dont l’intérêt a été relevé par le MIT dans cet article.

Des résultats à nuancer
Pour un utilisateur moyen effectuant dix requêtes quotidiennes sur Gemini, la consommation énergétique atteint 2,4 Wh par jour, soit 876 Wh annuels. Cette quantité d’énergie équivaut à regarder deux heures et demie de vidéos sur une télévision de 55 pouces (consommant environ 100 watts). En comparaison, le même temps passé sur TikTok via smartphone consommerait environ 10 fois moins d’énergie.
Selon les données de Google, la consommation d’eau par jour paraît insignifiante, équivalant à seulement 2,6 ml, ce qui correspond à environ une demi-cuillère à café. Ces chiffres, bien qu’optimistes, doivent être multipliés par les milliards de requêtes traitées quotidiennement dans le monde pour appréhender l’impact global de l’intelligence artificielle générative.
Des experts critiques
Plus fondamentalement, il faut toutefois prendre ces résultats avec la distance qu’il convient. L’étude n’a pas encore fait l’objet d’une relecture par les pairs, et plusieurs spécialistes jugent sa méthodologie discutable. Comme le souligne The Verge, Google met en avant la médiane plutôt que la moyenne utilisée dans d’autres sources et passe sous silence certaines consommations indirectes, comme l’eau utilisée par les centrales électriques qui alimentent ses centres de données.
De son côté, le Wall Street Journal rappelle que, même si l’empreinte par requête semble négligeable, l’ampleur colossale des usages fait peser un impact environnemental global bien plus préoccupant. Bref, encore une fois, on ne peut donc que conseiller d’utiliser le numérique avec modération, de manière mesurée et «intelligente»…
Xavier Studer
- Un wattheure (Wh) représente la quantité d’énergie consommée ou fournie par un appareil d’une puissance de 1 watt pendant une heure.
** Le décodage spéculatif consiste à faire rédiger un brouillon par un petit modèle rapide, puis à le faire valider par un grand modèle plus puissant: si le brouillon est bon, on économise du temps et de l’énergie, car le grand modèle n’a plus à tout recalculer.
En savoir plus sur Le blog high-tech & telecom de Xavier Studer
Subscribe to get the latest posts sent to your email.
J’espère sincèrement que les chiffres de Goolge sont vrais. A prendre avec des pincettes, philip morris avait aussi fait des études 😉