Pourquoi l’IA coûte si cher à faire fonctionner

ChatGPT est gratuit pour toi. Mais pour OpenAI, chaque conversation te coûte de l’argent. Beaucoup d’argent. On parle de millions de dollars par jour juste pour garder les serveurs allumés.

Comment c’est possible qu’un programme informatique coûte autant? La réponse tient en deux mots : puissance de calcul.

Des milliers de cartes graphiques qui chauffent

Tu connais les cartes graphiques — les GPU. C’est ce qui fait rouler les jeux vidéo sur ton PC. Sauf que l’IA a besoin de cartes graphiques spécialisées qui coûtent entre 25 000$ et 40 000$ chacune. Et il en faut des milliers.

Entraîner GPT-4 a coûté environ 100 millions de dollars. Juste l’entraînement. Avant que quiconque pose une seule question.

Imagine construire un char de 100 millions. Et après, chaque kilomètre que tu roules coûte de l’essence à 50$ le litre. C’est ça, l’économie de l’IA.

L’entraînement vs l’utilisation

Y’a deux types de coûts. L’entraînement, c’est le coût de créer le modèle. Tu le fais une fois (ça prend des mois et des millions). L’inférence, c’est le coût de faire rouler le modèle quand quelqu’un lui pose une question. Ça, c’est continu.

Chaque fois que tu écris un message à ChatGPT, des serveurs quelque part dans le monde font des milliards de calculs pour te générer une réponse. Ça prend de l’électricité. Beaucoup d’électricité. On estime qu’une requête ChatGPT consomme environ 10 fois plus d’énergie qu’une recherche Google.

Pourquoi l’électricité est le nerf de la guerre

Les centres de données d’IA consomment autant d’électricité qu’une petite ville. Microsoft, Google, Amazon construisent des centrales électriques juste pour alimenter leurs serveurs d’IA. Certains achètent de l’énergie nucléaire.

Au Québec, on a un avantage énorme : l’hydroélectricité. Propre, abondante, pas chère comparé au reste du monde. C’est une des raisons pour lesquelles de plus en plus de compagnies d’IA regardent le Québec pour installer leurs centres de données.

Ça va baisser?

Oui et non. Les coûts par requête baissent chaque année grâce à des améliorations techniques. Les modèles deviennent plus efficaces. Le matériel s’améliore. En deux ans, le coût d’un million de tokens (mots traités) est passé de 30$ à moins de 1$.

Mais en même temps, l’utilisation explose. Plus de monde utilise l’IA, plus souvent, pour des tâches plus complexes. Donc le coût total continue de monter même si le coût unitaire baisse.

C’est comme les données cellulaires : le prix par gigaoctet a baissé, mais ta facture a monté parce que tu consommes 100 fois plus qu’avant.

Ce que ça veut dire pour toi

Le modèle gratuit de ChatGPT va probablement pas rester gratuit éternellement. Les compagnies vont trouver des façons de monétiser — abonnements, pubs, données. C’est pour ça que l’open source est si important : des modèles que tu peux faire rouler chez vous, sans dépendre d’une compagnie qui peut changer ses prix demain.

Chez Laeka, on travaille avec des modèles open source efficaces, qui fonctionnent sans nécessiter un centre de données. Et Sherpa est gratuit et va le rester — parce que c’est un OBNL, pas une startup qui cherche des investisseurs.

Publications similaires