Veuillez vous assurer que Javascript est activé aux fins d'accessibilité au site web. En bref : les investisseurs de NVIDIA ne voient-ils que l'arbre qui cache la forêt ? – Janus Henderson Investors – Investisseur France
Pour les investisseurs particuliers en France

En bref : les investisseurs de NVIDIA ne se perdent-ils pas dans les détails ?

Notre gérant Richard Clode partage les principaux enseignements de la dernière conférence téléphonique sur les résultats trimestriels de NVIDIA, à la suite des annonces de tarifs douaniers américains et de l'interdiction des puces H20.

Richard Clode, CFA

Gestionnaire de portefeuille


29 mai 2025
6 minutes de lecture

Principaux points à retenir :​

  • La génération croissante de jetons d'IA permet de nouveaux cas d'utilisation des applications d'IA et favorise une plus grande intelligence, donnant du crédit au débat autour de la justification de dépenses d'investissement massives dans l'IA.
  • La conception du rack Blackwell de NVIDIA apporte une infrastructure d'IA de nouvelle génération dans le monde du raisonnement IA, visant à répondre aux besoins toujours croissants en matière de modèles d'apprentissage automatique, d'inférence et de raisonnement.
  • L'innovation des modèles de raisonnement entraîne un moment charnière dans la demande d'infrastructure d'IA, des clusters d'entraînement à l'inférence afin de provoquer une inflexion dans la génération de jetons, créant une trajectoire de croissance plus longue, plus large et plus durable pour les entreprises technologiques.

La plus importante dépréciation d'inventaire de l'histoire, annoncée de manière anticipée, après l'interdiction des puces H20 en Chine à la suite de l'annonce de tarifs douaniers par le président Trump en avril, ainsi que les problèmes de fabrication persistants des racks Blackwell, ont entraîné une nouvelle annonce de résultats précédée d'inquiétude.

 Les jetons sont (vraiment) le nouveau pétrole

Chaque nation considère désormais l’IA comme étant au cœur de la prochaine révolution industrielle, une nouvelle industrie qui produit de l’intelligence… Je ne connais aucune entreprise, aucun secteur, aucun pays qui pense que l’intelligence est facultative.

                                                                                                                    Jensen Huang, fondateur et PDG de NVIDIA

Les jetons d'IA (les unités de données traitées par les modèles d'IA pendant l'entraînement et l'inférence) sont le nouveau pétrole, compte tenu des récents accords sur les puces d'IA annoncés par le Président Trump et Jensen Huang en Arabie saoudite et aux Émirats arabes unis. Microsoft a également révélé avoir généré 100 000 milliards de jetons au premier trimestre 2025, soit une multiplication par 5 fois par rapport à l'année précédente, et 50 000 milliards de jetons traités en mars. Quant au groupe Google, il a révélé lors de sa conférence I/O la semaine dernière qu'il traitait désormais plus de 480 000 milliards de jetons par mois, soit une multiplication par 50 fois par rapport à l'année précédente.

NVIDIA a affirmé que la génération de jetons avait décuplé au cours de l'année écoulée. Il s’agit d’une inflexion très importante explicable par un certain nombre de raisons. Le marché a débattu des cas d’utilisation de l’IA, la génération de jetons étant une mesure clé de l’utilisation ainsi que de l’intelligence. Cette augmentation met également en évidence les idées fausses de « l'annonce de DeepSeek » survenue plus tôt cette année, lorsque le marché s'est excessivement concentré sur ses dépenses d'investissement en IA moins élevées pour entraîner son modèle, et a ignoré l'intensité de calcul nettement supérieure du modèle de raisonnement annoncé par DeepSeek. Selon NVIDIA, les modèles de raisonnement peuvent être 100 à 1 000 fois plus gourmands en calcul qu'une requête de chatbot unique, étant donné que le modèle « réfléchit », explore plusieurs voies pour résoudre une requête plus complexe et vérifie sa réponse. Cela génère également plus de jetons de manière exponentielle, tout en permettant de nouveaux cas d'utilisation à partir de cette intelligence accrue, qu'il s'agisse d'IA agentique pour les consommateurs ou les entreprises, ou de véhicules autonomes et humanoïdes alimentés par l'IA physique. L’innovation en matière d’IA multiplie les cas d’utilisation de l’IA, offrant un retour sur investissement crédible et des dépenses d’infrastructure d’IA plus durables en raison de cette rentabilité, ce qui soutient l’utilisation croissante de l’IA via l’inférence plutôt que de simplement consacrer davantage de ressources de calcul à l'entraînement de modèles d’IA de pointe toujours plus vastes.

Blackwell a été construit pour un monde de raisonnement

Le supercalculateur Blackwell NVL72 AI est une « machine à penser » conçue pour le raisonnement.

                                                                                                                                                   Jensen Huang

 

De la même manière que la puce Hopper a été spécifiquement conçue pour entraîner de grands modèles de transformateurs de langage, NVIDIA a spécifiquement conçu sa puce Blackwell pour répondre aux exigences de performances des modèles de raisonnement de nouvelle génération. Pour interagir avec un modèle de raisonnement et garantir une qualité de service raisonnable, ainsi que pour éviter des coûts ou une consommation d'énergie prohibitifs, NVIDIA a dû concevoir pour la première fois au niveau du rack : le NVL72 pèse deux tonnes et comporte 1,2 million de composants. Le résultat est une performance d'inférence 40 fois supérieure à celle de Hopper, apportant une infrastructure d'IA de nouvelle génération au monde du raisonnement de l'IA, répondant à de nombreuses questions de l'année dernière autour des mérites relatifs des semi-conducteurs ASIC (« Application-Specific Integrated Circuit ») et des processeurs graphiques (GPU).

La montée en puissance de Blackwell a été loin d'être sereine avec une nouvelle rotation de la puce sous-jacente chez TSMC à la fin de l'année dernière, ainsi que de récents problèmes de carte et de rendement rencontrés par les racks GB200. Toutefois, ces problèmes semblent enfin être derrière nous, conduisant le marché à attendre avec impatience une augmentation potentiellement significative de l’offre de racks jusqu’à la fin de l’année. NVIDIA a parlé des hyperscalers qui déploient désormais en moyenne près de 1 000 racks NVL 72 par semaine, soit 72 000 GPU Blackwell par semaine. Les racks Blackwell Ultra GB300 permettent également désormais l'échantillonnage et, avec la même empreinte physique et la même conception de rack que le GB200, cela pourrait se traduire par une montée en cadence beaucoup plus fluide à partir du deuxième semestre 2025 pour répondre à la demande croissante d'inférence avec des performances environ 50 % supérieures.

Répercussions sur la situation géopolitique et la démondialisation

La question n’est pas de savoir si la Chine aura l’IA, elle l’a déjà. La question est de savoir si l’un des plus grands marchés de l’IA au monde fonctionnera sur des plateformes américaines.

                                                                                                                                                                  Jensen Huang

L’IA est en première ligne de la géopolitique et de la suprématie des superpuissances. À la suite de l'interdiction de la puce H2O, nous semblons proches de la fin de l'activité des centres de données de NVIDIA en Chine, mais Jensen Huang a continué à affirmer avec véhémence que ces restrictions étaient malavisées. En effet, elles n’empêcheront pas la Chine d’avoir l'IA ou des puces d’IA, car elle a déjà les deux. Une meilleure stratégie serait de s’assurer que l’un des plus grands marchés d’IA de la planète, avec la moitié des développeurs d’IA du monde, soit construit sur des plateformes et des infrastructures américaines.

NVIDIA continue d'explorer les options pour fournir à la Chine une puce aux performances d'IA encore plus dégradées, mais reste à voir si cela sera autorisé ou si ces puces peuvent être compétitives. Sur une note plus positive, l'abrogation de la « règle de diffusion de l'IA » de l'administration Biden, qui devait entrer en vigueur le 15 mai, a permis d'aboutir aux récents accords en Arabie saoudite et aux Émirats arabes unis. NVIDIA a également précisé que même si Singapour contribue à une part importante de ses ventes, la grande majorité de ces calculs d'IA finissent par profiter à des clients basés aux États-Unis, réfutant ainsi les récents rapports faisant état d'un détournement de puces pour contourner les restrictions à l'exportation.

Enfin, le groupe NVIDIA a confirmé que dans l'espace d'un an, il produirait des puces d'IA dans les usines TSMC en Arizona et assemblerait des supercalculateurs d'IA dans des usines au Texas. Le soutien de NVIDIA à l'objectif du Président Trump de renforcer les capacités de production aux États-Unis accentue la démondialisation des chaînes d'approvisionnement dont nous avons été témoins après la pandémie face à la situation géopolitique, aux guerres commerciales et aux tendances démographiques.    

Notre objectif, de la puce au superordinateur, construit en Amérique en un an.                                                                                                                                                                                                                                           Jensen Huang

L'arbre qui cache la forêt

Alors que les marchés considèrent généralement les publications de résultats de NVIDIA comme un indicateur du secteur technologique et des signaux géopolitiques compte tenu de son rôle dominant dans la vague de l'IA, nous pensons que l'approche à court terme risque de ne voir que l'arbre qui cache la forêt. Alors que l’IA continue d’innover avec les modèles de raisonnement, les IA agentique et physique créent des cas d’utilisation et des modèles de monétisation convaincants. Cela entraîne un moment charnière dans la demande d’infrastructures d’IA, des clusters d'entraînement à l’inférence pour soutenir une inflexion dans la génération de jetons à mesure que les modèles de raisonnement et leur utilisation prolifèrent, créant ainsi une trajectoire de croissance plus longue, plus large et plus durable dans le secteur technologique et l’économie mondiale.

Sources : transcription de la conférence téléphonique sur les résultats financiers du 1er trimestre de l'exercice 2026 de NVIDIA, 28 mai 2025. Blog NVIDIA ; newsroom NVIDIA.

« Règle de diffusion de l'IA » : cette règle prévoyait de plafonner l'exportation de technologies d'IA américaines essentielles pour limiter sa propagation en dehors des États-Unis. L'argument avancé est que cette règle entraverait l'ambition américaine de suprématie mondiale dans le domaine de l'IA et inciterait les concurrents mondiaux à combler le vide.

L'IA agentique : utilise un raisonnement sophistiqué et une planification itérative pour résoudre de manière autonome des problèmes complexes en plusieurs étapes. De grandes quantités de données provenant de multiples sources et d'applications tierces sont utilisées pour analyser indépendamment les problèmes, développer des stratégies et exécuter des tâches.

ASIC et GPU : les ASIC sont des semi-conducteurs conçus sur mesure pour effectuer des tâches spécifiques, ce qui leur confère certains avantages par rapport aux GPU pour l'IA, par exemple en étant plus rentables que ces derniers.

Dépenses d'investissement ou Capex : les dépenses d'investissement désignent les dépenses engagées par une entreprise pour acquérir ou moderniser des actifs physiques tels que des bâtiments, des machines, des équipements, des technologies, etc. afin de maintenir ou d'améliorer ses activités et de favoriser sa croissance future.

DeepSeek : start-up chinoise spécialisée dans l’IA qui a développé de grands modèles de langage avancés (LLM) open source tels que DeepSeek-V3 – un rival majeur et une option moins coûteuse que ChatGPT d’OpenAI ou Gemini de Google.

Unité de traitement graphique (GPU) : unité qui effectue des calculs mathématiques et géométriques complexes nécessaires au rendu graphique, particulièrement utile dans les jeux haut de gamme, la création de contenu et l'apprentissage automatique.

Hyperscalers : entreprises qui fournissent les infrastructures pour les services de cloud, de mise en réseau et d'internet à grande échelle. Citons par exemple Google Cloud, Microsoft Azure, Facebook Infrastructure, Alibaba Cloud et Amazon Web Services.

Interdiction des puces H20 : le 9 avril 2025, le gouvernement américain a informé le groupe NVIDIA qu'il avait besoin d'une licence pour exporter ses puces H20 vers la Chine, ce qui conduira l'entreprise à déprécier 5,5 milliards de dollars de revenus lors de son premier trimestre fiscal 2026.

Inférence : se réfère au traitement de l'intelligence artificielle. Alors que l’apprentissage automatique (« machine learning ») et l’apprentissage approfondi (« deep learning ») font référence à l'entraînement de réseaux neuronaux, l’inférence de l'IA applique les connaissances d’un modèle de réseaux neuronaux entraîné et les utilise pour obtenir un résultat.

Puces NVIDIA Hopper et Blackwell : Hopper a été lancé en 2022 et a introduit de puissantes capacités d'IA excellant dans les grands modèles de langage et le calcul scientifique. Blackwell, sorti en 2024, est conçu pour les exigences plus complexes de l'IA générative et des simulations à grande échelle.

Rack : des serveurs montés en racks améliorent l'utilisation de l'espace du centre de données, conçus pour répondre à divers besoins d'infrastructure informatique et à une gestion complète des serveurs. Ils adhèrent à des normes uniformes, ce qui leur permet d'être facilement empilés dans un boîtier métallique unique.

Raisonnement: utiliser les informations disponibles pour générer des prédictions, faire des inférences et tirer des conclusions. Il s’agit de représenter des données sous une forme qu’une machine peut traiter et comprendre, puis d’appliquer une logique pour parvenir à une décision.

Jeton ou token : les tokens d'IA sont les composantes fondamentales des données d'entrée et de sortie qu'utilisent les grands modèles de langage (LLM). Ces unités de données sont traitées par des modèles d’IA lors des phases d’entraînement et d’inférence, ce qui permet la prédiction, la génération et le raisonnement.

Les opinions exprimées sont celles de l'auteur au moment de la publication et peuvent différer de celles d'autres personnes/équipes de Janus Henderson Investors. Les références faites à des titres individuels ne constituent pas une recommandation d'achat, de vente ou de détention d'un titre, d'une stratégie d'investissement ou d'un secteur de marché, et ne doivent pas être considérées comme rentables. Janus Henderson Investors, son conseiller affilié ou ses employés peuvent avoir une position dans les titres mentionnés.

 

Les performances passées ne préjugent pas des résultats futurs. Toutes les données de performance tiennent compte du revenu, des gains et des pertes en capital mais n'incluent pas les frais récurrents ou les autres dépenses du fonds.

 

Les informations contenues dans cet article ne constituent pas une recommandation d'investissement.

 

Il n'y a aucune garantie que les tendances passées se poursuivront ou que les prévisions se réaliseront.

 

Communication Publicitaire.

 

Glossaire

 

 

 

Informations importantes :

Veuillez consulter, ci-dessous, les informations importantes relatives aux fonds visés dans cet article.

Le Janus Henderson Horizon Fund (le « Fonds ») est une SICAV de droit luxembourgeois immatriculée le 30 mai 1985, gérée par Janus Henderson Investors Europe S.A. Janus Henderson Investors Europe S.A. peut décider de mettre fin aux modalités de commercialisation de cet Organisme de Placement Collectif conformément à la réglementation en vigueur. Ce document est une communication promotionnelle. Veuillez vous reporter au prospectus de l'OPCVM et au DICI avant de prendre toute décision finale d'investissement.
Le Janus Henderson Horizon Fund (le « Fonds ») est une SICAV de droit luxembourgeois immatriculée le 30 mai 1985, gérée par Janus Henderson Investors Europe S.A. Janus Henderson Investors Europe S.A. peut décider de mettre fin aux modalités de commercialisation de cet Organisme de Placement Collectif conformément à la réglementation en vigueur. Ce document est une communication promotionnelle. Veuillez vous reporter au prospectus de l'OPCVM et au DICI avant de prendre toute décision finale d'investissement.