La croissance exponentielle de l'intelligence artificielle générative pourrait tripler la consommation énergétique des data centers d'ici 2030. Une contrainte majeure pour les entreprises françaises qui misent sur ces technologies.
Une explosion éner…
© L'entreprise Intelligente
La croissance exponentielle de l'intelligence artificielle générative pourrait tripler la consommation énergétique des data centers d'ici 2030. Une contrainte majeure pour les entreprises françaises qui misent sur ces technologies.
L'enthousiasme pour l'IA générative se heurte à une réalité physique implacable : sa consommation énergétique. Selon les dernières projections, les data centers dédiés à l'intelligence artificielle pourraient tripler leur consommation électrique d'ici 2030, passant de leur niveau actuel à des niveaux équivalents à la consommation de petits pays européens.
Cette augmentation s'explique par la complexité croissante des modèles d'IA générative. Chaque interaction avec un système comme ChatGPT ou Claude nécessite des calculs massifs sur des puces spécialisées, gourmandes en électricité. L'entraînement d'un modèle de langage de dernière génération peut consommer autant d'énergie qu'une ville de 100 000 habitants pendant une semaine.
Cet article est réservé aux abonnés
Accédez à l'intégralité de l'actualité AI pour les PME françaises
à partir de 4,90 € / mois.