• Bourseko
  • Posts
  • Comprendre le MOAT de Nvidia

Comprendre le MOAT de Nvidia

#148 CUDA, Blackwell, NVLink, rack-scale, dual-die... kesako ?

Hello,

Avant de commencer, nous espérons que tout va bien de ton côté. Nous sommes heureux de te retrouver pour cette édition #148 de la Bourseko | Newsletter ! Nous sommes 16 257 abonnés. Bienvenue aux nouveaux et merci à tous pour votre confiance !

Si on t’a transféré cette édition et que tu souhaites recevoir les prochaines newsletters, c’est ici 😊

📣 Communication

Avant de commencer, si tu veux aller plus loin, tu peux t’abonner au Club Bourseko. Pour rappel, voici ce qu’on propose au sein du Club :

  • Un espace d’échange entre +550 investisseurs pour s’entraider, progresser et partager ses investissements

  • Des analyses fondamentales sur des actions de qualité 2x par mois

  • Le suivi trimestriel des résultats de plus de 70 actions que nous surveillons

  • Des sessions de Questions/Réponses avec Xavier 1 fois par mois

  • Notre watchlist d’actions mensuelle, directement dans ta boîte mail chaque 1er du mois.

  • Des événements physiques réservés aux membres

  • Et bien d’autres choses…

Comprendre le MOAT de Nvidia

Si vous vous intéressez à la Bourse, vous n’avez pas pu passer à côté du phénomène Nvidia.

Depuis la sortie de ChatGPT le 30 novembre 2022, l’entreprise de Jensen Huang s’est imposée comme la star des marchés financiers avec une hausse de 1140 % en trois ans ! Partout dans les médias, on la présente comme le vendeur de pelles dans la ruée vers l’or de l’intelligence artificielle.

Performance de Nvidia depuis le 30 novembre 2022

Aujourd’hui, Nvidia s’est hissée au rang de plus grande capitalisation boursière mondiale, valorisée autour de 5 000 milliards $.

Pourtant, dans les faits, peu de personnes comprennent réellement ce que vend Nvidia, ni pourquoi ses produits sont devenus si incontournables.

Classement des 10 premières capitalisations boursières au niveau mondial.

Dans cette newsletter, nous avons demandé à Julien, ingénieur réseau chez AWS et premier membre du Club Bourseko, d’écrire un article vulgarisant au mieux ce que vend Nvidia, comment tout son écosystème s’imbrique et pourquoi ses produits sont indispensables.

👉️ Nous avons essayé de rendre cet article au maximum accessible mais il reste dense. Cependant, nous vous garantissons que, sauf pour les experts du sujet, vous apprendrez beaucoup de choses.

Partie 1 : Les bases

Avant de rentrer dans le vif du sujet, il me paraît essentiel de faire une mise au point technique car, il est difficile d’expliquer le MOAT de l’écosystème hardware de NVIDIA sans expliquer en premier lieu certains concepts fondamentaux.

CPU, GPU, NPU, TPU, késaco ?

Commençons par le début, les puces. Vous avez sûrement déjà entendu dire que Nvidia vendait des GPUs. Mais qu’est-ce que c’est exactement ?

Dans le monde de l’informatique, il existe deux grandes approches pour concevoir une puce :

  • Le General Purpose Computing, c’est-à-dire les puces polyvalentes

  • Le Dedicated Circuit Computing, autrement dit les puces spécialisées

Ainsi, soit on conçoit une puce capable de tout faire correctement, soit on conçoit une puce optimisée pour une seule tâche, mais qui le fait extrêmement bien.

Côté forces et faiblesses, les puces généralistes ont l’avantage d’être compatibles avec un grand nombre d’algorithmes et de durer plus longtemps. Même si les fabricants peuvent faire évoluer leurs architectures et ajouter de nouveaux blocs, ces changements ne rendent que rarement les anciens modèles obsolètes. Ces puces vieillissent donc plutôt bien.

À l’inverse, les puces spécialisées sont conçues pour un usage précis. Elles sont très efficaces mais seulement dans leur domaine et elles vieillissent vite. Dans le cas des puces spécialisées utilisées pour l’intelligence artificielle, on estime qu’elles peuvent perdre jusqu’à 40% de performance en 18 mois, uniquement à cause de l’évolution du software.

Cependant, cette spécialisation permet une efficacité et un coût bien meilleurs que les puces généralistes.

CPU vs GPU : deux philosophies de calcul

Parmi les puces généralistes, on distingue deux grandes familles :

  1. Les CPUs pour Central Processing Unit

  2. Les GPUs pour Graphics Processing Unit

La principale différence entre les deux, c’est que les CPUs ont une approche de calcul séquentiel alors que les GPUs ont une approche de calcul parallèle. Un CPU a souvent quelques cœurs de calcul très puissants, là où un GPU a plusieurs centaines de cœurs, mais qui sont individuellement beaucoup moins puissants. 

CPU vs GPU

Cette différence rend les CPU extrêmement utiles pour les tâches courantes, tandis que les GPUs peuvent se spécialiser sur les tâches nécessitant beaucoup de calculs parallèles comme le rendu et simulations 3D ainsi que l’IA.

Avant d’aller plus loin, il faut poser quelques bases et comprendre comment se structure une puce. Pour ça, imaginons ensemble le schéma que tu vois ci-dessous.

Une puce, c’est en quelque sorte un petit cerveau composé de deux grandes parties :

  • un cœur logique (en vert), qui réalise les calculs

  • de la mémoire (en blanc), qui stocke les informations nécessaires à ces calculs

En réalité, un ordinateur ne fait que manipuler des variables. Il les additionne, les multiplie, les compare, mais il le fait des milliards de fois par seconde. Pour cela, il a besoin d’un espace où conserver temporairement toutes ces variables, d’où le rôle essentiel de la mémoire.

Sur le schéma, la mémoire est indiquée comme Stacked DRAM, autrement dit de la mémoire DRAM empilée (DRAM est le mot technique pour le terme courant “mémoire vive”). C’est ce qu’on appelle plus précisément la HBM, pour High Bandwidth Memory ou Mémoire à bande passante élevée en français.

Cette mémoire HBM joue un rôle crucial. L’IA ne dépend pas seulement de la puissance brute de calcul, mais surtout de la rapidité avec laquelle les données circulent. Plus la bande passante est élevée, plus les modèles tournent vite.

Pour illustrer l’importance de l’HBM à l’ère de l’IA, voici ci-dessous la croissance du chiffre d’affaires de SK Hynix, l’entreprise sud-coréenne leader mondial de la production de HBM.

Chiffre d’affaires depuis 2016 en milliards de $ - SK Hynix

Les ASICs

Pour ce qui est des puces spécifiques, vous avez sans doute déjà entendu le terme ASIC (Application Specific Integrated Circuit) qui désigne en réalité tout type de puce spécifique et pas seulement les puces IA. Ainsi, un ASIC peut aussi bien désigner une puce IA qu’un contrôleur automobile spécifique. 

Dans le cas des puces IA, puisque c’est le sujet de cet article, on retrouve globalement 5 types de puces, en plus des contrôleurs réseau : 

  1. Les TPUs (Tensor Processing Unit) qui sont surtout connus par le biais de Google qui est l’acteur les mettant le plus en avant via son Cloud

  2. Les XPU (eXtended Processing Unit) qui sont en réalité des TPUs, mais mis en avant par Broadcom cette fois-ci

  3. Les NPU (Neural Processing Unit), mis en avant par Apple avec son Neural Engine

  4. Les LPU (Language Processing Unit), mis en avant par Cerebras et Groq

  5. Les DPU (Data Processing Unit), mis en avant par Nvidia avec ses contrôleurs réseau

Je ne rentrerais pas dans le détail des spécificités de chaque puce, puisque ça nécessiterait des bases avancées en architecture ainsi qu’en informatique.

Globalement ce qu’il faut retenir, c’est que les CPUs sont les puces les plus polyvalentes, suivies par les GPUs. Les ASICs englobent tout type de puce conçu pour une application spécifique. Dans l’IA, on retrouve 5 types de puces avec les TPU et XPU qui sont les plus répandues.

Switch, routeur, le matériel réseau essentiel pour l’IA

S’il y a bien un sujet qui attire toute l’attention des marchés, ce sont les puces destinées aux besoins de l’intelligence artificielle. Pourtant, sans une infrastructure réseau solide, ces puces ne serviraient pas à grand-chose.

Aujourd’hui, les modèles de langage (LLM) comme ChatGPT, Gemini ou Claude s’entraînent sur des clusters regroupant parfois plus de 100 000 à 1 million de puces interconnectées. Les infrastructures réseaux sont donc un maillon essentiel pour faire communiquer toutes ces puces entre elles.

Au niveau des infrastructures réseau, on y retrouve 4 types de matériels : les switchs, les routers, les optiques et les NICs (ou carte réseau dans le langage courant). Pour expliquer comment tout ça s’emboîte, je vais utiliser l’analogie que j’utilise toujours, celle d’un courrier qui va de Alice à Bob.

Imaginons qu’Alice envoie une lettre à Bob.

Elle la dépose dans une boîte postale, d’où elle sera collectée, triée dans un centre postal, puis redirigée vers d’autres centres avant d’arriver dans la boîte aux lettres de Bob. Dans un réseau informatique, c’est exactement la même chose.

Les routeurs et switchs jouent le rôle des centres de tri postal : ils reçoivent des “lettres” (les paquets de données), les examinent et les envoient à leur prochaine destination. Leur objectif est de faire parvenir chaque paquet du point A au point B, le plus rapidement possible.

👉 Techniquement, un routeur et un switch n’ont pas la même fonction, mais on peut les regrouper ici pour simplifier la compréhension.

Dans un data center, les switchs gèrent surtout le trafic interne, c’est-à-dire les échanges de données entre serveurs. Les routeurs, eux, relient plusieurs réseaux entre eux, par exemple, pour connecter le data center au monde extérieur.

Reste à comprendre le rôle des deux derniers éléments : les interconnexions optiques et les NICs.

Les interconnexions optiques servent à relier physiquement les équipements réseau entre eux (par exemple, deux switchs, deux routeurs, ou un switch et un serveur). Dans les data centers modernes, on utilise presque exclusivement de la fibre optique, car elle offre une bande passante élevée et une latence réduite.

Pour être encore plus concret, les interconnexions sont les câbles branchés aux switchs et qu’on voit partout sur les images de data centers.

Côté serveur, cette connexion passe par une NIC. C’est elle qui assure la conversion du signal entre le monde physique (la fibre) et le monde numérique. En clair, la NIC encode et décode les données pour que le serveur puisse les envoyer ou les recevoir correctement.

Ainsi, derrière chaque data center se cache une infrastructure réseau d’une complexité considérable, faite de milliers de switchs, routeurs, fibres et cartes réseau. C’est cette ingénierie qui a rendu, entre autres, l’IA possible.

⚡️ À NOTER

Dans l’industrie de l’infrastructure réseau, la bande passante et la latence sont deux concepts essentiels.

La bande passante est la quantité de données pouvant être transférée par seconde (souvent mesurée en Mégabits/seconde), représentant la capacité du "tuyau".

La latence est le temps que prend un paquet de données pour aller d'un point à un autre (mesurée en nanosecondes dans les data centers IA), représentant la vitesse ou le délai de transmission.

Comme vous l’aurez compris, l’objectif est donc de maximiser la bande passante et de minimiser la latence.

Partie 2 - Présentation des produits et explication des interconnexions et de l’écosystème

Maintenant qu’on a les bases pour comprendre ce que vend Nvidia dans son segment data center, je vous propose de plonger dans leur gamme de produits. Commençons par les stars du moment: les GPUs.

Actuellement, Nvidia vend 2 générations de puces: Hopper et Blackwell (avant l’arrivée de Rubin fin 2026)

Rubin > Blackwell > Hopper

⚡️ ANECDOTE

Pour information, Nvidia développe nouvelle génération de puces tous les 2 ans. À chaque fois, l’entreprise rend hommage à une figure scientifique majeure.

Ainsi, Hopper doit son nom à Grace Hopper, pionnière de l’informatique et mathématicienne américaine, connue pour avoir développé l’un des premiers langages de programmation textuelle dans les années 1950.

La génération suivante, Blackwell, rend hommage à David Blackwell, statisticien de génie et premier Afro-Américain élu à la prestigieuse Académie nationale des sciences des États-Unis.

Les GPU de la génération Hopper

L'architecture Hopper vient remplacer l'architecture Ampere, qui était la première génération de puces véritablement conçue pour l'intelligence artificielle.

La nouveauté la plus significative de Hopper est le Transformer Engine, un moteur spécialement optimisé pour accélérer les grands modèles de Deep Learning (comme ceux utilisés derrière les IA conversationnelles de type GPT). Ce moteur intègre notamment un mécanisme matériel dédié qui gère de manière optimale le passage entre les différents niveaux de précision des calculs.

Cette unique innovation permet à elle seule d'atteindre des performances spectaculaires, soit une augmentation de plus de 500 % par rapport à l'architecture précédente.

Bien entendu, Hopper ne s'arrête pas là et apporte d'autres améliorations cruciales (support du FP8, une nouvelle génération de NVLink et de CUDA…)

On retrouve l’architecture Hopper sous trois déclinaisons : la H20, la H100 et la H200. Toutes reposent sur les mêmes fondations techniques, mais ne s’adressent pas aux mêmes marchés.

La H20, dérivée de la H100, est la version pensée pour la Chine. Elle se distingue par plusieurs limitations dont l’incompatibilité avec NVLink et une puissance volontairement bridée, plafonnant à environ 40 à 50% des performances d’une H100.

Pour revenir à Hopper, les H100 et H200, sont presque jumelles. La seule vraie différence réside dans la mémoire embarquée : 80 Go de HBM3 (3,35 To/s de bande passante) pour la H100, contre 141 Go de HBM3e (4,8 To/s) pour la H200. En pratique, cette dernière peut offrir entre 1,4 et 1,8 fois les performances d’une H100 sur certaines charges de travail d’intelligence artificielle.

Les GPU de la génération Blackwell

Comme expliqué plus haut, Hopper a vraiment été la pierre angulaire du succès récent de Nvidia. Cependant, Hopper arrive en fin de vie et c’est actuellement Blackwell qui est le produit phare. Présentée en mars 2024, l’architecture Blackwell est une véritable révolution.

Bien sûr, on y retrouve les évolutions attendues : une nouvelle génération de CUDA, de NVLink et de NVSwitch, l’introduction du format FP4, et une mémoire HBM3e encore plus importante (192 Go par puce, pour une bande passante pouvant grimper jusqu’à 8 To/s).

Source : NVIDIA

Mais deux innovations ont réellement marqué un tournant : l’architecture dual-die et le système rack-scale NVL.

L’architecture dual-die permet pour la première fois de connecter deux puces entre elles pour qu’elles fonctionnent comme une seule. Mais plutôt que de m’attarder sur une explication longue et complexe, je vous mets le schéma ci-dessous :

Pour faire simple, un die (ou réticule), c’est une puce unitaire. Dans le cas de Blackwell, Nvidia connecte deux B100 ensemble pour n’en faire qu’un seul GPU.

Dit comme ça, cela peut sembler anodin. En réalité, c’est une avancée majeure. Car relier deux puces entre elles n’a rien de trivial, cela génère habituellement de la latence et des pertes de bande passante, qui dégradent la performance globale. Ici, Nvidia a réussi l’exploit de faire communiquer les deux dies comme s’ils ne faisaient qu’un, sans aucune perte de performance mesurable.

Mais la véritable révolution ne s’arrête pas là, elle vient du système NVL.

Pour comprendre ce que change NVL, il faut d’abord rappeler comment Nvidia vendait ses GPU jusqu’à présent.

Les clients avaient le choix entre deux formats :

  • Le système HGX : des GPU à l’état brut, que le client doit intégrer lui-même dans son infrastructure, avec sa propre gestion du châssis, du refroidissement, de l’alimentation et du réseau.

  • Le système DGX : une solution clé en main, où tout est déjà intégré

Le système NVL, lui, va bien plus loin. Il connecte 72 GPU dans un seul et même pod, formant un supercalculateur unifié. Pour le client, tout est prêt et il suffit de le brancher au réseau.

Avant de continuer, il faut comprendre le vocabulaire utilisé :

  • Un rack correspond à un serveur (2 GPU pour un GB200 Superchip).

  • Un pod, c’est une armoire qui regroupe plusieurs serveurs (36 racks, ce qui fait donc 72 GPU pour un pod NVL72)

  • Un cluster, c’est un ensemble de plusieurs pods.

Et parce qu’une image vaut mieux qu’une explication :

  • En rouge, c’est le rack

  • En vert, le pod

  • En orange, le cluster

Le système rack-scale NVL marque une rupture technologique car il permet de concevoir l'armoire entière comme une seule et unique unité informatique, plutôt que d'empiler des serveurs individuels et indépendants.

Le pod agit ainsi comme un serveur unique, doté d’une mémoire partagée et cohérente, d’une gestion centralisée des ressources et d’une interconnexion interne sans friction.

C’est une architecture qui élimine, d’un coup, plusieurs limites historiques du calcul distribué :

  • Problème de gestion des ressources : certaines puces sont surchargées pendant que d’autres restent sous-utilisées.

  • Problème de mémoire : chaque serveur possède la sienne, sans pouvoir la partager nativement, et les échanges entre serveurs sont bridés par la bande passante.

  • Problème réseau : plus on ajoute de machines, plus la latence augmente, avec des pertes de paquets et des ralentissements.

En théorie, multiplier les serveurs devrait accroître la puissance de calcul. En pratique, l’efficacité finit par se dégrader au-delà d’un certain seuil. Le pod NVL corrige cette limite.

Résultat : on peut désormais connecter des dizaines de milliers de GPU sans perte d’efficacité.

Autre particularité, le système NVL n’est disponible qu’avec Grace, le processeur maison de Nvidia. Dans chaque module, le CPU Grace est relié à deux puces Blackwell, et l’ensemble est interconnecté via NVSwitch et NVLink.

Aujourd’hui, Nvidia est le seul acteur à proposer un système rack-scale complet. Son concurrent AMD travaille encore sur le sien, mais ne devrait pas le commercialiser avant fin 2026 au mieux.

Il faut dire que développer une telle architecture demande une expertise rare. Nvidia elle-même a connu de nombreuses difficultés avant d’y parvenir.

Néanmoins, c’est précisément cette combinaison d’une performance brute exceptionnelle et une facilité d'intégration inégalée qui a généré cette extraordinaire demande client.

Matériel réseau

Toutefois, Nvidia ne se contente pas de fabriquer des puces. L’entreprise a bâti, au fil des années, une véritable colonne vertébrale réseau pour relier ses GPU entre eux, qui est devenu un des éléments majeurs de son avantage concurrentiel. Une architecture complète, articulée autour de quatre piliers :

  • NVSwitch, le commutateur central qui relie physiquement plusieurs GPU.

  • Quantum-X, le routeur InfiniBand.

  • Spectrum-X, son équivalent en Ethernet.

  • Spectrum-XGS, le petit dernier, conçu pour relier plusieurs data centers entre eux.

Si ces noms ne vous disent pas grand-chose, c’est normal. Alors reprenons tout dans l’ordre.

Tout commence avec NVLink, une interface de connexion développée par Nvidia pour permettre à plusieurs GPU de communiquer directement entre eux, sans passer par le CPU.

Résultat : une latence réduite, une bande passante démultipliée. Bref, exactement ce qu’il faut pour des modèles d’intelligence artificielle qui manipulent des montagnes de données en continu.

NVLink permet aussi le partage de mémoire entre plusieurs GPU, tout en maintenant une parfaite cohérence. Chaque processeur “voit” la même donnée au même moment.

Aujourd’hui, Nvidia en est à la sixième génération de NVLink. En face, UALink, le standard concurrent soutenu par AMD, Intel, Cisco, Microsoft, Google et Meta, reste encore à la traîne. Le projet a même perdu l’un de ses soutiens majeurs, Broadcom, fragilisant encore son développement.

Combiné à un NVSwitch, NVLink prend toute son ampleur. Le NVSwitch agit comme un commutateur matériel à très haute bande passante. Il relie plusieurs GPU interconnectés via NVLink et leur permet de communiquer comme s’ils partageaient une seule mémoire. Ensemble, ils forment un véritable supercalculateur unifié, sans les contraintes habituelles du calcul distribué.

Mais le réseau d’un data center ne s’arrête pas aux GPU. Il faut aussi relier les serveurs entre eux. Et à ce niveau, deux grands protocoles coexistent : InfiniBand et Ethernet.-

InfiniBand est la technologie historique du HPC (Calcul Haute Performance). Elle privilégie la performance pure (faible latence, bande passante élevée). Nvidia en est aujourd’hui le principal fournisseur, depuis le rachat de Mellanox en 2020.

Source : Les Echos - 11 mars 2019

Ethernet, à l’inverse, est un standard universel, ouvert, utilisé par la quasi-totalité de l’industrie.

C’est là qu’entrent en scène Quantum-X et Spectrum-X. Ces deux routeurs remplissent le même rôle, acheminer les paquets de données au sein du data center. La différence se joue sur le protocole. Quantum-X utilise InfiniBand, tandis que Spectrum-X repose sur Ethernet.

Dans la pratique, Quantum-X est privilégié dans les clusters les plus denses, où la latence est critique. Spectrum-X, plus souple, s’intègre facilement aux infrastructures existantes, un atout pour les géants du Cloud (Microsoft, Alphabet et Amazon).

Mais Nvidia ne s’est pas arrêté là. Avec Spectrum-XGS, la l’entreprise pousse la logique encore plus loin. Après avoir relié les GPU entre eux (scale-up) et les serveurs au sein d’un même cluster (scale-out), elle travaille maintenant sur le scale-across, c’est-à-dire connecter plusieurs clusters entre eux, voire plusieurs data centers.

Mais où est la concurrence ?

L’activité networking de Nvidia est relativement jeune. Elle est née du rachat de Mellanox, mais connaît depuis quelques trimestres une montée en puissance impressionnante. Le tournant a été l’arrivée de Spectrum-X, aujourd’hui adopté par Meta et Google, tandis que Microsoft et Amazon continuent de s’appuyer sur du matériel Broadcom.

Pourquoi Nvidia gagne-t-il du terrain face à Broadcom ?

Premièrement, même si le matériel Nvidia est plus cher que celui de Broadcom, son intégration est bien plus simple et nécessite moins d’ingénierie. C’est un peu comme comparer l’iPhone et un téléphone Androïd. Si vous cherchez quelque chose de simple et clé en main, vous irez sur un iPhone, alors que si vous cherchez plus de personnalisation ou un prix plus attractif, vous irez sur Android. 

Ensuite, parce que Nvidia a su jouer sur la rareté. Les GPU Blackwell sont si demandés qu’il faut plus d’un an d’attente pour en obtenir. Mais certains clients, notamment ceux qui achètent aussi le matériel réseau Nvidia, sont mieux servis. Une stratégie à la Rolex ou Hermès, où le privilège d’accès devient un levier commercial.

Qu’est ce qui justifie la domination hégémonique de NVIDIA ?

Maintenant qu’on a expliqué ce que vend Nvida, vous demandez certainement pourquoi Nvidia domine autant ? La réponse tient en 4 raisons majeures.

1 - Même si le matériel Nvidia coûte plus cher à l’achat, il offre le TCO (Total Cost of Ownership - Coût Total de Propriété) le plus bas du marché.

Le TCO ne se limite pas au prix d’acquisition, il inclut aussi la maintenance, la consommation électrique et la performance obtenue qu’on mesure en revenus générés ou en tokens produits.

Or, sur ce rapport performance/coût global, Nvidia reste imbattable.

2 - La fiabilité du matériel Nvidia surpasse celle de ses concurrents.

Ses GPU affichent un AFR (Average Failure Rate - Taux d’échec moyen) nettement inférieur, ce qui les rend adaptés aux tâches longues, complexes et critiques.

Une anecdote illustre bien cet écart : lors d’un benchmark mené par SemiAnalysis pour comparer les H100/H200 aux GPU d’AMD, Nvidia n’avait affecté qu’un seul ingénieur pour accompagner l’équipe. Celui-ci n’a été contacté qu’une fois.

AMD, de son côté, avait mobilisé une équipe complète d’ingénieurs seniors et a dû échanger continuellement avec SemiAnalysis, allant jusqu’à développer une version spécifique de son logiciel pour stabiliser les tests.

👉️ Pour rester le plus objectif possible, AMD a depuis nettement amélioré la fiabilité de ses puces, mais reste encore un cran en dessous.

3 - Les GPU Nvidia brillent par leur flexibilité.

Ces dernières années, les modèles d’intelligence artificielle ont évolué à une vitesse vertigineuse. Or, contrairement aux ASICs, qui peuvent perdre jusqu’à 40% de leur performance en à peine 18 mois à cause des évolutions logicielles, les GPU Nvidia s’adaptent vite et bien.

Leur architecture, pensée pour la polyvalence, suit le rythme de l’innovation sans rendre le matériel obsolète.

4 - La dernière raison, peut-être la plus déterminante, s’appelle CUDA.

Véritable colonne vertébrale de l’écosystème Nvidia, CUDA est une plateforme logicielle que l’entreprise développe depuis près de vingt ans. Nvidia a investi massivement dans son adoption, sponsorisant universités et laboratoires pour l’intégrer au cœur des programmes et des innovations technologiques.

Résultat : plus de 5 millions de développeurs dans le monde maîtrisent CUDA.

À titre de comparaison, il est bien plus rare de trouver des ingénieurs formés à ROCm, l’équivalent d’AMD, ou aux environnements spécifiques des ASICs.

Pour une entreprise, le choix est vite fait car CUDA est devenu l’équivalent du Pack Office pour les entreprises. Tous les frameworks majeurs d’intelligence artificielle sont déjà compatibles et optimisés pour CUDA, ce qui renforce encore son hégémonie.

Conclusion

Depuis deux ans, on entend régulièrement des comparaisons entre la bulle internet des années 2000 et la dynamique actuelle autour des géants de l’IA, en particulier Nvidia.

Cependant, contrairement à des entreprises comme Cisco en 2000, Nvidia affiche une croissance de ses bénéfices et de son Free Cash Flow aussi rapide que celle de son cours de bourse. Par conséquent, cette forte hausse de l’action nous paraît cohérent avec les fondamentaux du dossier.

Bien sûr, nous ne disons pas que Nvidia représente une opportunité évidente à ces niveaux de valorisation. En revanche, nous aimons investir lorsque les probabilités jouent en notre faveur. Autrement dit, si vous estimez que le Free Cash Flow de Nvidia continuera de croître dans les prochaines années, il est raisonnable de penser que le titre pourrait poursuivre sa progression (avec bien sûr, un rythme de croissance plus faible).

Free Cash Flow de Nvidia - Fiscal.ai

Pour anticiper cette évolution, il est essentiel de suivre les CAPEX des hyperscalers : si ces dépenses continuent d’augmenter, Nvidia devrait en bénéficier, compte tenu de son rôle central dans leurs infrastructures. À titre de rappel, environ 35 % des CAPEX des hyperscalers profitent directement à Nvidia.

Dépenses d’investissements (CAPEX) - Goldman Sachs

C’est tout pour cet article consacré à Nvidia. Nous espérons que vous y aurez trouvé des éléments utiles pour mieux comprendre le secteur, malgré sa complexité. Comme toujours, nous vous encourageons à mener vos propres recherches, car le domaine regorge d’opportunités et de nuances qui méritent d’être explorées.

C’est tout pour cette newsletter.

Qu'en as tu pensé ?

Ca te prend moins d'une seconde et ça nous aide beaucoup

Connexion ou S'abonner pour participer aux sondages.

Si tu as des questions sur le Club, cette newsletter ou tout autre sujet, n’hésite pas à nous les poser. Nous y répondrons avec plaisir. Tu peux répondre à ce mail ou nous contacter directement à [email protected]

Et si tu penses que cette newsletter pourrait plaire à une personne de ton entourage, transfère-lui directement cet email.

Passe une excellente journée et à bientôt dans la prochaine newsletter 😊

Loris & Abdallah

Reply

or to participate.