- Bourseko
- Posts
- Les LLM : perdants inévitables de la course à l'IA ?
Les LLM : perdants inévitables de la course à l'IA ?
#112 Notre avis sur OpenAI, Anthropic et les autres éditeurs de LLM
Hello,
Avant de commencer, nous espérons que tout va bien de ton côté. Nous sommes heureux de te retrouver pour cette édition #112 de la Bourseko | Newsletter ! Nous sommes 11 707 abonnés. Bienvenue aux nouveaux et merci à tous pour votre confiance !
Si on t’a transféré cette édition et que tu souhaites recevoir les prochaines newsletter, c’est ici 😊
📣 L’actualité du Club Bourseko
Si tu es membre du club, voici les principaux événements de la semaine qui vient de s’achever :
Retour du management sur le luxe 💎
La période reste difficile pour l’ensemble des acteurs du luxe et clairement les déclarations des entreprises comme Moncler et autres ne sont pas rassurantes pour le prochain trimestre.
Nous avons évoqué tout ceci dans cet article.

Questions/Réponses avec Xavier
Cette semaine, Xavier a publié la 5ème édition du format “Questions/Réponses”.
Au programme 👇
Les actions chinoises et leurs montages parfois tordus,
l’immobilier locatif à 3 % net, faut-il le fuir ?
Les valorisations délirantes des super-moats
mais aussi liquidités, croissance des big caps à 1 000 milliards, arbitrages PEA/CTO et renforcement de lignes gagnantes.
Pour que tu puisses te faire une idée de ce format, voici un extrait ⤵️
Pour information, si tu n’es pas satisfait du Club, nous remboursons sans justificatif jusqu’à 14 jours après l’abonnement.
Les LLM : perdants inévitables de la course à l'IA ?
Depuis fin 2022, l’intelligence artificielle est devenue le sujet incontournable des marchés financiers. Et au cœur de cette révolution, on trouve les grands modèles de langage, les fameux LLM comme ChatGPT ou Gemini.
Si vous suivez un peu l’actualité, vous avez sans doute vu passer des noms comme OpenAI (créateur de ChatGPT) ou Anthropic (éditeur de Claude). Ces entreprises ont levé des montants colossaux et sont souvent vues comme les grands gagnants de cette nouvelle révolution technologique.

Mais est-ce vraiment le cas ? Est-ce vraiment rentable de développer un LLM ? C’est ce que nous allons voir dans cette newsletter.
⚡️ A NOTER
Une partie de cette analyse s’appuie sur le dossier d’InfoEco dédié à l’IA. Le lien pour le consulter gratuitement est disponible ici.
Cependant, nous tenons à préciser que cette newsletter n’est pas sponsorisée. Nous voulions juste préciser une source importante.
Allons-y ⤵️
Quel coût pour développer les modèles les plus performants ?
Le premier fait marquant dans l’économie des LLM, c’est leur coût fixe colossal. Entraîner un modèle comme GPT-4 nécessite des dizaines de milliers de GPU (quasi-exclusivement produites par NVIDIA), mobilisés pendant des semaines, voire des mois. Chaque phase d’entraînement peut dépasser les 100 millions de dollars, rien qu’en puissance de calcul.

Coût d’entraînement - uniquement la puissance de calcul
À cela s’ajoutent d’autres coûts. En effet, un LLM est gourmand en données variées (textes, images, code...) pour apprendre. Rassembler et exploiter légalement des téraoctets de données représentatives du langage humain constitue un défi technique et juridique. Techniquement, il faut stocker, filtrer et alimenter le modèle avec des corpus titanesques (pages web, livres numérisés, code open source...). Enfin, juridiquement, la collecte massive de données soulève des questions de propriété intellectuelle et de vie privée.
On l’a vu en Europe où certains régulateurs ont sévi. L’Italie, par exemple, a brièvement banni ChatGPT en 2023 pour des atteintes présumées à la confidentialité des données personnelles utilisées pour l’entraîner.

Les concepteurs doivent donc non seulement réunir ces données, mais aussi naviguer dans un flou réglementaire pour s’assurer que l’entraînement de l’IA respecte la réglementation en vigueur.
De plus, développer un modèle d’IA requiert des équipes de chercheurs et ingénieurs parmi les meilleurs au monde. Les avancées majeures en IA (architectures de réseaux neuronaux, techniques d’entraînement, alignement éthique) proviennent souvent d’un cercle restreint d’experts travaillant dans quelques laboratoires de pointe. Ces talents sont rares et disputés par tous les acteurs du secteur.

Mark Zuckerberg a proposé 100 millions de dollars à certains employés d’OpenAI
Bref, la barrière à l’entrée est vertigineuse. C’est ce qui explique pourquoi seuls quelques acteurs (OpenAI, Google ou Anthropic) sont capables de jouer à ce niveau.
Une équation économique incertaine
Et ces coûts d’entraînement ne représentent qu’une partie du problème. Il faut aussi prendre en compte l’inférence, c’est-à-dire le fait de faire tourner le modèle une fois qu’il est en production. Chaque requête utilisateur consomme des ressources, ce qui génère un coût variable non négligeable.
À petite échelle, quelques centimes par requête peuvent sembler acceptables. Mais lorsque des millions d’utilisateurs sont actifs simultanément, l’addition devient rapidement problématique.
C’est un vrai changement de paradigme par rapport aux logiciels traditionnels, où l’essentiel du coût est fixe et l’effet d’échelle joue en faveur de la rentabilité.
Et malgré ces dépenses massives, les revenus directs restent limités. En 2025, OpenAI a dû procéder à une nouvelle levée de fonds, d’un montant supérieur à l’ensemble des levées dans le secteur sur les huit dernières années.

En effet, les développeurs de modèles comme OpenAI ou Anthropic se retrouvent dans une position délicate : ils supportent les coûts élevés de développement, mais ne maîtrisent pas toujours la distribution. Ce sont souvent les intégrateurs (éditeurs de logiciels, plateformes cloud, fabricants de matériel ou navigateurs) qui captent la valeur.
Cela introduit un déséquilibre structurel : le coût est en amont, le revenu en aval. Cette logique contraint les développeurs de LLM à nouer des partenariats avec les distributeurs les plus puissants, au risque de devenir dépendants de leur écosystème.
L’exemple le plus emblématique est bien sûr OpenAI avec Microsoft. Même si les termes exacts du partenariat restent confidentiels, la dépendance d’OpenAI à la distribution via Azure ou Microsoft 365 limite sa capacité à fixer ses propres prix, ou à contrôler entièrement les usages de ses modèles.
Et comme si cela ne suffisait pas, ces acteurs doivent désormais composer avec la montée en puissance des modèles open source, plus flexibles, moins coûteux, et souvent suffisants pour de nombreux cas d’usage.
La concurrence de l’open source
Pendant des années, les modèles d’intelligence artificielle en open source étaient surtout utilisés par des chercheurs ou quelques passionnés. Mais depuis fin 2023, les choses ont changé. Des modèles comme Llama (créé par Meta), Deepseek R1 ou encore Mixtral, développé par la startup française Mistral, ont marqué un tournant.

Ces nouveaux modèles bouleversent le paysage des LLM.
1 - Des modèles gratuits qui font presque aussi bien que les payants
Quand un modèle gratuit devient presque aussi bon qu’un modèle payant, une question se pose naturellement : pourquoi payer pour un service qu’on peut obtenir gratuitement ?
Résultat : cela met une pression forte sur les prix et les tirent vers le bas.
2 - Une avance qui fond comme neige au soleil
Avant, les OpenAI et Anthropic avaient une longueur d’avance. Aujourd’hui, dès qu’un nouveau modèle sort, une version équivalente open source arrive très vite.
3 - Des modèles conçus pour chaque métier
Autre avantage de l’open source : on peut créer des modèles sur mesure, adaptés à un domaine précis comme la santé, le droit ou la finance. Et souvent, ces modèles spécialisés font mieux que les modèles généralistes pour les besoins de ces entreprises spécialisées.

4 - Une transparence rassurante
Dernier point important : la transparence. Avec l’open source, tout est visible : les données utilisées, la façon dont le modèle fonctionne, ses limites. C’est essentiel dans des secteurs sensibles comme la santé ou la finance, où la confiance et la conformité sont clés.
Contrairement aux modèles “boîtes noires”, avec l’open source, on sait ce qu’on utilise, et on peut le vérifier. Cela crée un climat de confiance et ça compte de plus en plus.
Quelles solutions pour les LLM ?
Face à tous ces défis, une idée fait peu à peu l’unanimité : ne plus vendre uniquement l’IA, mais vendre ce qu’elle permet de faire. En clair, il s’agit de monter dans la chaîne de valeur, en intégrant l’IA dans des produits ou services concrets, faciles à utiliser.
Microsoft illustre parfaitement cette stratégie. En ajoutant GPT dans Office, GitHub ou Azure, l’entreprise offre une valeur immédiate à ses clients. Elle peut justifier une hausse des prix et, au passage, rendre OpenAI dépendant de ses plateformes pour toucher les utilisateurs.

D’autres géants suivent le même chemin :
Salesforce avec Einstein AI
Google avec Gemini
Amazon avec Bedrock
Et même des acteurs comme Zoom, Notion ou Canva s’y mettent. Tous cherchent à créer des interfaces IA qui se démarquent, faciles à utiliser et intégrées à leurs outils. Dans cette logique, l’IA n’est plus un produit, mais une technologie qui rend le service plus intelligent.

Mais pour ceux qui créent les modèles d’IA, ce changement est un vrai défi. S’ils ne parviennent pas à créer leurs propres produits, ils risquent de rester de simples fournisseurs. Autrement dit, facilement remplaçables.
Conclusion : qui captera la valeur de l’IA ?
Les grands modèles de langage ont changé la manière dont on perçoit l’intelligence artificielle. Mais aujourd’hui encore, leur monétisation reste incertaine et leur place dans la chaîne de valeur fragile.
Chez Bourseko, on préfère se positionner sur les entreprises qui ont la relation directe avec les clients. Celles qui peuvent intégrer l’IA dans leurs produits et la monétiser concrètement. C’est là, selon nous, que se captera l’essentiel de la valeur créée.
Parmi les acteurs les mieux placés, Alphabet (Google) et Microsoft sont les choix qui paraissent les plus évidents. Mais d’autres acteurs peuvent aussi tirer leur épingle du jeu. On pense notamment à Salesforce, SAP, Amazon ou encore Meta.
Et bien sûr, il y a tout l’écosystème des semi-conducteurs, qui profite directement de cette révolution. Evidemment, on pense à NVIDIA, qui capte à elle seule près de 50% des dépenses d’investissement des géants de la tech.
Même si on peut parler d’AMD comme concurrent, NVIDIA garde 90% de part de marché, et conserve une avance technologique confortable. C’est pourquoi nous sommes confiants sur ce dossier.

Cours de bourse de Nvidia vs Free Cash Flow
Enfin, on aime aussi les vendeurs de pelles dans la ruée vers l’or de l’IA. ASML en est l’exemple parfait. Même si le titre est un peu délaissé ces derniers mois (et tant mieux!), sa technologie reste incontournable.

Cours de bourse vs Bénéfices
Bien sûr, ASML n’est pas la seul valeur de ce style, vous pouvez aussi choisir d’aller sur des dossiers comme TSMC, BESI, Cadence Design, ASMI ou d’autres.
D’ailleurs, quelles sont tes valeurs préférées sur cette thématique ?
Qu'en as tu pensé ?Ca te prend moins d'une seconde et ça nous aide beaucoup |
Si tu as des questions sur le Club, cette newsletter ou tout autre sujet, n’hésite pas à nous les poser. Nous y répondrons avec plaisir. Tu peux répondre à ce mail ou nous contacter directement à [email protected]
Et si tu penses que cette newsletter pourrait plaire à une personne de ton entourage, transfère-lui directement cet email.
Passe une excellente journée et à bientôt dans la prochaine newsletter 😊
Reply