← Blog
· AI

L’IA est-elle rentable ? 

Anatomie d’un business model qui brûle des milliards

Par Sophie — The Monocle Bear



20 milliards de dollars de revenus. C’est le chiffre qu’OpenAI a brandi pour 2025 comme un trophée — un triplement par rapport à 2024. Impressionnant. Sauf que derrière ce chiffre, l’entreprise a perdu 5 milliards de dollars en 2024, a brûlé 7,8 milliards rien qu’au premier semestre 2025, et prévoit elle-même des pertes cumulées de 44 milliards de dollars d’ici 2028.

Bienvenue dans l’industrie la plus capitalisée et la moins rentable de l’histoire de la technologie.

Quand on parle d’intelligence artificielle, on parle modèles, benchmarks, tokens, agents. Rarement business model. Et pourtant, la question qui devrait hanter chaque décideur avant de signer un contrat d’intégration IA est brutale : combien de temps cette économie tient-elle debout ?


Le paradoxe fondamental : plus tu vends, plus tu perds

L’IA générative a un problème structurel que ni le cloud computing ni le SaaS classique n’ont jamais eu : le coût marginal ne tend pas vers zéro.

Chaque requête consomme de la puissance de calcul. Chaque token généré mobilise des GPU qui coûtent des dizaines de milliers de dollars l’unité. Contrairement à un fichier hébergé sur un serveur cloud — qui coûte quelques fractions de centime à servir une fois stocké — une inférence LLM est un calcul intensif. À chaque fois. Sans exception.

Résultat : sur l’année 2025, OpenAI a dépensé environ 1,69 $ pour chaque dollar de revenu généré (22 milliards de dépenses projetées contre 13 milliards de revenus). Au premier semestre, le ratio était encore pire — près de 2 $ dépensés pour chaque dollar gagné (8,5 milliards de dépenses pour 4,3 milliards de revenus). Deutsche Bank estime que les pertes cumulées avant rentabilité pourraient atteindre 143 milliards de dollars entre 2024 et 2029 — et ce chiffre n’inclut même pas l’engagement récent d’OpenAI de 1 400 milliards de dollars en infrastructure de data centers.

Pour mettre ce nombre en perspective : Uber a perdu 18 milliards sur six ans avant d’être rentable. Tesla, 9 milliards sur neuf ans. OpenAI vise un ordre de grandeur au-dessus.


La guerre des prix qui ruine tout le monde

Le prix des tokens API baisse à une vitesse vertigineuse. Le coût d’un million de tokens pour une performance équivalente à GPT-4 est passé de 20 $ fin 2022 à environ 0,40 $ début 2026. Selon les benchmarks, les prix d’inférence chutent en médiane de 50x par an.

C’est une excellente nouvelle pour l’adoption. C’est une catastrophe pour la rentabilité.

Les développeurs — qui sont effectivement devenus les plus gros consommateurs de tokens — en mangent à longueur de journée via les API. Claude Code d’Anthropic génère à lui seul 2,5 milliards de dollars de revenus annualisés en février 2026, un chiffre qui a doublé depuis le début de l’année. Les développeurs adorent. Ils paient. Mais à quel prix pour le fournisseur ?

Voici l’état des lieux tarifaire début 2026 :

  • GPT-4o : 2,50 $/M tokens en entrée, 10 $/M en sortie
  • Claude Sonnet 4 : 3 $/M en entrée, 15 $/M en sortie
  • Qwen3-Max : 0,46 $/M en entrée, 1,84 $/M en sortie — et Qwen3.5-Plus à 0,12 $/M, soit 1/18ème du prix de Gemini 3 Pro
  • GLM-4.7 : 0,60 $/M en entrée, 2,20 $/M en sortie — et GLM-4.7-Flash est gratuit, sans quota
  • DeepSeek V2 : 0,14 $/M en entrée, 0,28 $/M en sortie
  • GPT-5.2 Pro : 21 $/M en entrée, 168 $/M en sortie

DeepSeek a posé une bombe en proposant des prix 95 à 98 % inférieurs aux concurrents occidentaux. Et DeepSeek n’a pas besoin d’être rentable — c’est un projet de recherche fondamentale financé par un hedge fund chinois, High-Flyer, qui a réalisé 56,6 % de retour sur investissement en 2025 avec ses fonds quantitatifs. Le fondateur, Liang Wenfeng, a explicitement déclaré que DeepSeek est motivé par la curiosité, pas par le profit.

Et DeepSeek n’est pas seul. Alibaba distribue gratuitement Qwen sous licence Apache 2.0 — le modèle open source le plus téléchargé au monde — et le monétise indirectement via son cloud. Zhipu AI (GLM) vient de faire la plus grosse IPO « modèle fondationnel » de l’histoire à Hong Kong, avec des revenus de 45 millions de dollars pour 350 millions de pertes. L’écosystème chinois attaque le marché par tous les flancs : le prix, l’open source, et le volume.

Quand vos concurrents les plus agressifs ne cherchent même pas à gagner de l’argent sur le modèle lui-même, vous avez un problème structurel.


Le piège de l’abonnement à 20 €

Parlons du consommateur. ChatGPT Plus à 20 $/mois, Claude Pro au même tarif. Ces abonnements sont le cœur du revenu grand public de l’IA.

Le modèle tient sur une asymétrie classique : la majorité des abonnés utilisent peu, ce qui compense les utilisateurs intensifs qui consomment bien plus que ce que leur abonnement couvre. C’est le même principe que les salles de sport — le business model repose sur ceux qui paient sans venir.

Mais contrairement à une salle de sport, l’usage de l’IA augmente avec le temps, pas l’inverse. À mesure que les modèles deviennent plus capables, que les agents se multiplient, que les intégrations se généralisent, chaque utilisateur consomme davantage. OpenAI compte déjà 800 millions d’utilisateurs actifs hebdomadaires. Le jour où une fraction significative d’entre eux utilise l’IA comme un outil de travail quotidien — ce qui est précisément l’objectif — l’équation économique explose.

La preuve : depuis le 9 février 2026, OpenAI affiche de la publicité dans ChatGPT pour les utilisateurs gratuits et Go. Seulement 5 % des 800 millions d’utilisateurs paient un abonnement. Omnicom Media a confirmé que plus de 30 de ses clients participent au programme pilote. Sam Altman avait pourtant qualifié la publicité dans l’IA de « uniquely unsettling » en mai 2024, la décrivant comme un « last resort ». Le last resort est arrivé. Quand une entreprise à 20 milliards de chiffre d’affaires bascule dans la pub, c’est que les abonnements ne suffisent pas.


L’état financier des principaux acteurs

OpenAI

  • Revenus 2025 : plus de 20 milliards $ (triplement vs 2024). H1 2025 : 4,3 milliards $ de CA, 8,5 milliards $ de dépenses
  • Pertes H1 2025 : 4,7 milliards $ (perte opérationnelle de 7,8 milliards $). Cash burn : 2,5 milliards $, laissant 17,5 milliards $ en réserve
  • Levées de fonds : négocie début 2026 un tour pouvant atteindre 100 milliards $ pour une valorisation de ~730 milliards $ (Nvidia ~30B, Amazon ~20B, Microsoft ~10B, SoftBank ~30B)
  • Rentabilité espérée : 2029-2030
  • Revenus cibles : 200 milliards $/an d’ici 2030

Anthropic

  • Revenus fin 2025 : 9 milliards $ annualisés (dont 2,5 milliards rien que pour Claude Code)
  • Levée Series G (février 2026) : 30 milliards $ à 380 milliards $ de valorisation
  • Total levé : 67,3 milliards $
  • Rentabilité espérée : 2028 (objectif de réduire le cash burn à 9 % du revenu en 2027)
  • Clients : 300 000+ entreprises, Microsoft dépense ~500 millions $/an

Google (Gemini / DeepMind)

  • Capex IA prévu 2026 : 175-185 milliards $ (plus du double de 2025)
  • Stratégie : subsidie massivement l’API Gemini pour capter des parts de marché
  • Avantage : les revenus publicitaires et cloud d’Alphabet absorbent les pertes IA
  • DeepMind historique : des centaines de millions de pertes annuelles pendant des années, 1,5 milliard de dette effacée par Alphabet en 2019

DeepSeek

  • Modèle : financé par High-Flyer (hedge fund quantitatif, ~10 milliards $ sous gestion)
  • Coût d’entraînement V3 : 6 millions $ en heures GPU déclarées (le coût réel incluant infrastructure et R&D serait plutôt autour de 1,3 milliard $ selon certains chercheurs — contre ~100 millions pour GPT-4)
  • Prix API : 1/30ème d’OpenAI
  • Objectif déclaré : recherche fondamentale, pas de commercialisation immédiate

Qwen (Alibaba)

  • Investissement : 53 milliards $ en infrastructure IA sur trois ans
  • Stratégie : open source agressif (Apache 2.0) — le modèle open source le plus téléchargé au monde (600 millions+ de downloads pour la famille Qwen 3)
  • Monétisation : indirecte, via Alibaba Cloud. L’open source est le produit d’appel, le cloud est le business
  • Dernier modèle : Qwen 3.5 (février 2026), 397B paramètres / 17B actifs (MoE), 60 % moins cher à opérer que son prédécesseur
  • Clients notables : Airbnb utilise Qwen pour son service client
  • Logique : Alibaba peut se permettre de donner le modèle — les revenus e-commerce et cloud (130 milliards $/an) absorbent les coûts. Même logique que Google avec Gemini.

Zhipu AI / Z.ai (GLM)

  • Origine : spin-off de Tsinghua University, 3ème acteur LLM en Chine selon IDC
  • IPO : janvier 2026 à Hong Kong — 558 millions $ levés, la plus grosse IPO « modèle fondationnel » à ce jour. Le titre a bondi de 173 % en un mois
  • Revenus 2024 : 312 millions RMB (~45 millions $). Croissance annuelle composée de 130 %, mais R&D > 700 % du revenu
  • Pertes 2024 : 2,47 milliards RMB (~350 millions $)
  • Business model : 85 % du CA en déploiement on-premise pour gouvernements et SOEs chinois (marge brute 66 %). API en croissance (×30 en 2024)
  • Dernier modèle : GLM-5, multimodal, revendique la parité avec GPT-4o
  • Contrainte : blacklisté par le Commerce Department US (Entity List, janvier 2025). Réentraîne ses modèles sur puces Huawei Ascend
  • Rentabilité espérée : 2027-2028

Le seul qui gagne de l’argent : Nvidia

Pendant que les fournisseurs d’IA brûlent du cash, un acteur empoche le jackpot : le vendeur de pelles.

Nvidia affiche un revenu de 57 milliards de dollars pour le seul Q3 de son exercice fiscal 2026 (octobre 2025), dont 51,2 milliards uniquement pour la division Data Center — en hausse de 66 % sur un an. Le guide pour le Q4 vise 65 milliards. Sur l’année fiscale 2026, les projections tournent autour de 213 milliards de dollars de revenus avec une croissance de 63 %.

Nvidia détient 86 % du marché des puces IA (contre 25 % en 2021). La demande est si forte que Jensen Huang parle d’un carnet de commandes de 500 milliards de dollars pour les plateformes Blackwell et Rubin.

Les dépenses en data centers IA devraient croître de 40 % par an jusqu’en 2030, pour atteindre 3 000 à 4 000 milliards de dollars annuels en fin de décennie.

L’analogie historique est limpide : pendant la ruée vers l’or, ce sont les vendeurs de pioches et de jeans qui se sont enrichis, pas les chercheurs d’or.


L’analogie AWS : promesse ou mirage ?

Le parallèle le plus souvent invoqué pour justifier les pertes actuelles est celui d’AWS. Amazon Web Services a fonctionné à perte pendant environ trois ans après le lancement de ses produits cloud en 2006, avant de devenir rentable vers 2009. Aujourd’hui, AWS génère des dizaines de milliards de profit annuel avec des marges opérationnelles de 30 % et représente plus de la moitié du résultat opérationnel d’Amazon.

L’argument : l’IA suit le même schéma. Investir massivement maintenant, dominer le marché, puis récolter les profits une fois l’infrastructure amortie et les clients verrouillés.

Sauf que la comparaison a des limites structurelles :

Ce qui se ressemble :

  • Investissements initiaux massifs en infrastructure
  • Course aux parts de marché via des prix bas
  • Effets de réseau et coûts de migration qui créent du verrouillage

Ce qui diffère fondamentalement :

  • Le cloud a des coûts marginaux quasi nuls une fois l’infrastructure en place. Un même serveur sert des milliers de clients. L’inférence IA est un calcul intensif à chaque requête.
  • AWS est passé de pertes à profits en 3 ans. OpenAI prévoit au minimum 5 ans de pertes supplémentaires — et à une échelle 100x supérieure.
  • Le cloud vendait de la capacité de stockage et de calcul standardisée. L’IA vend de l’intelligence — un produit dont la qualité doit constamment s’améliorer, ce qui exige des investissements continus en R&D et en entraînement de nouveaux modèles.
  • AWS n’avait pas un écosystème chinois entier — DeepSeek, Qwen, GLM — qui attaque simultanément par le prix, l’open source et le volume, financé par des hedge funds, des géants du e-commerce et des universités d’État.

Le parallèle AWS est séduisant. Mais il pourrait aussi être dangereux s’il sert de justification pour ignorer des différences structurelles fondamentales.


Les signaux d’alarme

Plusieurs indicateurs suggèrent que le business model actuel est sous tension :

95 % des organisations ne voient aucun retour sur leurs investissements en IA générative, selon un rapport du MIT Media Lab d’août 2025. C’est un chiffre brutal. Si les clients ne tirent pas de valeur mesurable de l’IA, ils finiront par réduire leurs dépenses.

58 % du capital-risque mondial va vers des startups IA en début 2025 — 73 milliards de dollars rien qu’au premier trimestre. Une concentration qui rappelle furieusement les niveaux de la bulle dot-com, mais à une échelle 100 fois supérieure selon certaines estimations.

Les PDG eux-mêmes alertent. Sam Altman a reconnu en 2025 qu’une bulle IA est en cours. Demis Hassabis (DeepMind) parle de startups « wildly overpriced » qui n’ont « même pas encore commencé » mais lèvent des dizaines de milliards. Ray Dalio (Bridgewater) compare directement la situation à la bulle dot-com.

La consolidation est inévitable. VentureBeat prédit des faillites massives parmi les « AI wrappers » — ces startups qui ajoutent une couche d’interface sur des modèles tiers — d’ici fin 2026. On s’attend à ce que 2 à 3 acteurs dominent le marché des modèles fondationnels d’ici 2028.


Alors, est-ce rentable — un jour ?

La réponse courte : probablement oui, pour 2 ou 3 acteurs. Pas pour l’industrie dans son ensemble.

La réponse longue dépend de plusieurs facteurs :

Ce qui pourrait sauver le modèle :

  • La baisse continue des coûts d’inférence via la quantification (réduction de 60-70 % des coûts opérationnels), le décodage spéculatif (latence divisée par 2-3x), et les puces spécialisées
  • Le routage intelligent entre modèles : envoyer 90 % des requêtes simples vers un petit modèle et 10 % vers un modèle frontier peut réduire les coûts de 86 %
  • L’émergence d’un vrai verrouillage client (données propriétaires, intégrations profondes, agents spécialisés)
  • L’IA en tant que couche d’infrastructure invisible — pas un produit en soi, mais un composant intégré dans chaque logiciel

Ce qui pourrait faire tout s’effondrer :

  • L’absence de retour mesurable pour les entreprises clientes, qui finiraient par couper les budgets
  • Un effondrement du financement en capital-risque (qui serait la répétition exacte du scénario dot-com)
  • L’open source et les modèles locaux qui érodent la valeur des API cloud — quand un modèle 32B quantifié en Q8 tourne sur un Mac Studio à 64 Go de RAM, pourquoi payer une API ?
  • La réglementation (GDPR, AI Act) qui contraint l’usage des données et donc la capacité d’amélioration des modèles

Ce que ça signifie pour les décideurs

Si vous êtes en train d’évaluer une intégration IA pour votre organisation, voici les questions à se poser — au-delà des benchmarks et des démos impressionnantes :

Sur la pérennité du fournisseur : votre fournisseur peut-il survivre à un assèchement du capital-risque ? OpenAI et Anthropic brûlent des milliards. Si le financement se tarit — et l’histoire montre que ça arrive toujours — que devient votre intégration ?

Sur la dépendance : si vous construisez votre infrastructure sur une API cloud, quel est votre plan B ? Le coût de migration entre fournisseurs IA est significatif mais pas insurmontable aujourd’hui. Demain, avec des agents et des données contextuelles profondément intégrés, il pourrait l’être.

Sur le coût réel : les prix API actuels ne reflètent probablement pas le coût réel de l’inférence. Ils sont subventionnés par le capital-risque pour gagner des parts de marché. Budgétisez une hausse de 30 à 50 % à moyen terme.

Sur l’alternative locale : pour certains usages, un modèle local bien quantifié peut offrir 80 % de la performance à une fraction du coût récurrent. C’est une stratégie de résilience, pas un rejet du cloud.


Le mot de la fin

L’industrie de l’IA est dans une phase que les économistes appellent la « destruction créatrice » — des milliards investis, des fortunes détruites, et au bout du tunnel, probablement une transformation réelle de l’économie. Comme l’internet avant elle.

Mais entre-temps, quelqu’un paie la facture. Aujourd’hui, ce sont les investisseurs en capital-risque. Demain, si les modèles économiques ne se stabilisent pas, ce seront les clients — par des hausses de prix, des dégradations de service, ou la disparition pure et simple de leur fournisseur.

La question n’est pas de savoir si l’IA va transformer le monde. La question est : qui sera encore debout quand la facture arrivera ?


Téléchargez l’article

Sources et données :