
Habitué aux déclarations fracassantes, Sam Altman, grand patron d’OpenAI, n’a pas hésité à comparer l’entraînement de l’intelligence artificielle à celle des êtres humains pour justifier les dépenses énergétiques colossales qui sont associées au développement des centres de données. Une prise de position qui interroge.
Les plus grands acteurs de l’intelligence artificielle se sont récemment réunis à New Delhi, en Inde, pour parler de son impact sur le monde. Si des thématiques comme la démocratisation de l’IA, la souveraineté numérique ainsi que des questions d’éthique ont été évoquées, la question de l’énergie a également été abordée, notamment par Sam Altman, CEO de OpenAI.
Lors d’une interview en marge du sommet, Sam Altman a voulu répondre aux critiques sur la consommation d’énergie des centres de données, et défendre l’impact environnemental de l’intelligence artificielle en rappelant qu’il fallait aussi beaucoup d’énergie « pour former un être humain ».
À lire aussiLa France, futur paradis de l’intelligence artificielle grâce à son mix électrique bas-carbone ?Dans le détail, Sam Altman a déclaré : « Les gens parlent de la quantité d’énergie nécessaire pour entraîner une IA, mais il faut aussi beaucoup d’énergie pour former un être humain. Il faut environ 20 ans de vie – et toute la nourriture que vous consommez pendant cette période – avant de devenir intelligent ».
Qu’il s’agisse d’une simple maladresse, ou d’un véritable cynisme, cette vision pose plusieurs problèmes. Le premier est, évidemment, que l’être humain n’a pas vocation à être efficace, et la vie humaine ne se résume pas à répondre à des questions de manière efficiente. D’autre part, il était évoqué ici l’énergie utilisée lors de la phase d’apprentissage d’une IA. Une vraie comparaison nécessiterait la prise en compte de l’ensemble du cycle de vie du modèle IA, ainsi que de l’infrastructure nécessaire pour le faire fonctionner, de l’extraction des minéraux jusqu’au recyclage des composants.
À lire aussiIntelligence artificielle : faut-il réellement s’inquiéter de sa consommation électrique ?Sam Altman regrette notamment que de fausses informations circulent sur la quantité d’énergie ainsi que la quantité d’eau nécessaire pour chaque requête sur ChatGPT. D’ailleurs, selon les grands acteurs de l’intelligence artificielle, l’impact énergétique serait compensé par l’importance de l’IA pour résoudre des problématiques mondiales. C’est sans compter le fait que 70 % des requêtes réalisées sur ChatGPT n’ont rien de professionnel, selon une étude récente.
Selon l’AIE, en 2024, les centres de données représentaient 1,5 % de la consommation électrique mondiale. Toujours selon l’agence, ce chiffre devrait augmenter de 15 % par an jusqu’en 2030, affichant ainsi une croissance quatre fois supérieure aux autres secteurs.
D’ailleurs, OpenAI participe grandement à cette dynamique, en ambitionne d’atteindre 250 GW de capacité énergétique d’ici 2033, soit presque quatre fois la capacité totale du parc nucléaire français. Sam Altman, a tout de même reconnu qu’une évaluation des besoins énergétiques liés à l’IA était nécessaire, et qu’il fallait viser des modes de production décarbonés comme le photovoltaïque, l’éolien et le nucléaire.
À lire aussiQuelle-est la consommation d’énergie des 8 milliards d’humains sur terre ?Outre le sujet de l’énergie, la question de l’eau fait également débat concernant l’impact environnemental des centres de données. Le patron d’OpenAI a déploré que de fausses informations circulent à ce sujet sur les réseaux sociaux, citant un besoin de 17 gallons d’eau (soit 64 litres) par requête sur ChatGPT. Il a expliqué qu’une requête auprès de l’agent conversationnel ne nécessitait, en réalité, que de 0,000085 gallon d’eau, soit 0,32 mL. Il a également rappelé que le refroidissement des serveurs par évaporation, qui entraîne une grande consommation d’eau, n’est plus utilisé pour les centres de données d’OpenAI.
De la même manière que pour l’électricité, l’efficacité individuelle de chaque requête sur ChatGPT ne change pas le fait que la consommation globale d’eau, liée aux centres de données et à l’intelligence artificielle, est en progression. Selon le spécialiste Xylem dans un rapport de janvier 2026, la consommation totale d’eau par les centres de données a augmenté de 38 % entre 2020 et 2025 pour atteindre 23,7 km³ ! C’est 18 fois le réservoir du barrage de Serre-Ponçon !
La suite de votre contenu après cette annonce
Notre Newsletter
Ne ratez plus les dernières actualités énergetiques
S'inscrire gratuitement