Si prega di assicurarsi che Javascript sia abilitato ai fini dell'accessibilità al sito web. Quick View: gli investitori di NVIDIA stanno forse perdendo di vista il quadro generale? - Janus Henderson Investors - Investitore in Italia
Per investitori privati in Italia

Quick View: gli investitori di NVIDIA stanno forse perdendo di vista il quadro generale?

Il gestore di portafoglio Richard Clode condivide i principali punti di approfondimento della conference call relativa alla recente trimestrale di NVIDIA, susseguente ai roboanti annunci sui dazi dell’amministrazione Trump e al divieto sull’export del chip H2O.

Richard Clode, CFA

Gestore di portafoglio


29 maggio 2025
6 minuti di lettura

In sintesi

  • L’impennata nella generazione di token AI sta aprendo nuovi casi d'uso delle applicazioni AI, insieme a un maggior livello di intelligenza, avvalorando il dibattito sulla giustificazione degli ingenti livelli spesa in conto capitale per l’AI.
  • Il design del rack Blackwell di NVIDIA sta conducendo l'infrastruttura AI di nuova generazione nell’universo di ragionamento AI, con l'obiettivo di soddisfare i crescenti requisti della domanda di modelli di apprendimento automatico, inferenza e ragionamento.
  • L'innovazione nei modelli di ragionamento sta imprimendo un deciso cambio di passo nella domanda di infrastrutture AI, dai cluster di formazione all'inferenza, destinato a supportare una svolta nella generazione di token; tutto ciò apre un percorso più lungo, ampio e sostenibile di crescita delle società tecnologiche.

La preannunciata più grande svalutazione delle scorte nella storia da parte di NVIDIA dopo il divieto sull'export in Cina del chip H20, susseguente all'annuncio dei dazi del presidente Trump ad aprile, insieme ai perduranti problemi di produzione per i rack Blackwell, ha determinato una densa atmosfera di suspense alla vigilia della pubblicazione dei risultati trimestrali.

 I token sono (realmente) il nuovo petrolio

Ogni Paese ormai considera l’AI come il fulcro della prossima rivoluzione industriale, un nuovo comparto che produce intelligenza... Non conosco nessuna azienda, settore o Paese che pensi che tale intelligenza sia un “optional”.

                                                                                                                    Jensen Huang, fondatore e CEO di NVIDIA

I token AI (le unità di dati elaborate dai modelli AI durante l'addestramento e l'inferenza) sono il nuovo "petrolio"; è un'affermazione forte, che va letta alla luce dei recenti accordi sui chip AI annunciati dal presidente Trump e da Jensen Huang in Arabia Saudita e negli Emirati Arabi Uniti. Microsoft ha inoltre rivelato di aver generato 100.000 miliardi di token nel primo trimestre del 2025, in aumento di 5 volte su base annua, e di aver elaborato ben 50.000 miliardi di token a marzo. In parallelo, durante l'evento I/O della scorsa settimana, Google ha rivelato di elaborare oltre 480.000 miliardi di token al mese, con un aumento di 50 volte su base annua.

NVIDIA ha affermato che la generazione di token è aumentata di dieci volte nel corso dell'ultimo anno; è un punto di svolta molto importante, per una serie di ragioni. Il mercato ha discusso sui casi d'uso dell'AI, con la generazione di token considerata come una metrica chiave, sia per l'utilizzo che per il livello di intelligenza. Questa crescita repentina sottolinea anche i fraintendimenti sorti nel " momento DeepSeek " di inizio anno, quando il mercato si è concentrato oltremodo sui minori investimenti in capitale AI necessari per addestrare il modello, ignorando la significativa maggiore intensità di calcolo del modello di ragionamento presentato da DeepSeek. Secondo NVIDIA, i modelli di ragionamento possono essere da 100 a 1000 volte più "intensivi" sotto il profilo computazionale rispetto a una singola query di chatbot, dato che il modello "pondera" ed esplora più percorsi per risolvere una query più complessa e ne verifica la risposta. Ciò genera anche un numero esponenzialmente maggiore di token, consentendo al contempo nuovi casi d'uso derivanti da questa maggiore intelligenza, che si tratti di AI agentica per consumatori o aziende, o di umanoidi e veicoli autonomi fisici alimentati dall’AI. L'innovazione AI sta moltiplicando i casi d'uso AI, garantendo un ritorno sull’investimento attendibile e una spesa per le infrastrutture AI più sostenibile, grazie al suddetto ritorno. Tale trend supporta il crescente utilizzo di AI attraverso l'inferenza, anziché limitarsi a incrementare la potenza di calcolo per addestrare modelli AI di “frontiera” sempre più avanzati.

Blackwell progettato per una realtà di ragionamento

Il supercomputer di AI Blackwell NVL72 è una "macchina pensante" progettata per il ragionamento.

                                                                                                                                                   Jensen Huang

 

Allo stesso modo in cui il chip Hopper è stato progettato specificamente per addestrare modelli di trasformatori linguistici di grandi dimensioni, NVIDIA ha progettato appositamente il proprio chip Blackwell per soddisfare i requisiti prestazionali dei modelli di ragionamento di prossima generazione. Per interagire con un modello di ragionamento e garantire una discreta qualità del servizio, nonché per evitare costi proibitivi o consumi energetici eccessivi, NVIDIA ha dovuto progettare per la prima volta a livello di rack: l'NVL72 pesa due tonnellate e contiene 1,2 milioni di componenti. Il risultato è una prestazione di inferenza 40 volte superiore a quella di Hopper, che porta l'infrastruttura AI di prossima generazione nell’universo del ragionamento AI, rispondendo a molti interrogativi sorti lo scorso anno sui vantaggi relativi degli ASIC rispetto alle GPU.

La fase di entrata a pieno regime di Blackwell ha incontrato delle difficoltà, con la riprogettazione del chip sottostante presso TSMC alla fine dell'anno scorso, oltre ai recenti problemi di scheda e di resa dei rack GB200. Tuttavia, questi problemi sembrano ormai superati e ciò permette al mercato di guardare con fiducia a un potenziale aumento significativo della fornitura di rack per la restante parte dell'anno. In base a quanto affermato da NVIDIA, ora gli hyperscaler mettono in campo in media quasi 1.000 rack NVL 72 a settimana, ovvero 72.000 GPU Blackwell a settimana. Anche i rack Blackwell Ultra GB300 sono ora in fase di campionamento e, con lo stesso ingombro fisico e design del rack GB200, potrebbero raggiungere un aumento molto più armonioso dell’offerta a partire dal secondo semestre del 2025, in modo da soddisfare la crescente domanda di inferenza, con prestazioni superiori di circa il 50%.

Implicazioni geopolitiche e di deglobalizzazione

Il punto non è se la Cina avrà l’AI, visto che ad oggi questa è già la realtà. Il nodo principale è capire se uno dei più grandi mercati AI al mondo funzionerà su piattaforme statunitensi.

                                                                                                                                                                  Jensen Huang

L’AI gioca un ruolo chiave nella geopolitica e nella lotta per la supremazia tra superpotenze. Dopo il divieto sull’export del chip H20, appare sempre più vicina la fine dell'attività di NVIDIA nel settore dei data center in Cina; al contempo, Jensen Huang ha continuato a sostenere con veemenza la natura fuorviante di tali restrizioni. Di fatto, tali misure non impediranno alla Cina di dotarsi dell’AI o di chip per l’AI, visto che già dispone di entrambi. Una strategia migliore sarebbe invece volta a garantire che uno dei più grandi mercati mondiali dell’AI, con la metà degli sviluppatori di AI al mondo, sia sviluppato su piattaforme e infrastrutture statunitensi.

NVIDIA continua a sondare la possibilità di fornire alla Cina un chip con prestazioni AI ulteriormente ridotte, ma resta da vedere se ciò sarà consentito o se tali chip potranno essere competitivi. Per contro, l’abrogazione della norma sulla diffusione dell’AI (“AI Diffusion Rule”) emanata dall'amministrazione Biden, che avrebbe dovuto entrare in vigore lo scorso 15 maggio, ha reso possibili i recenti accordi in Arabia Saudita e negli Emirati Arabi Uniti. NVIDIA ha inoltre chiarito che, sebbene una fetta rilevante delle proprie vendite provenga da Singapore, la stragrande maggioranza di tale potenza di calcolo AI è destinata a clienti con sede negli Stati Uniti, smentendo così le recenti notizie di “dirottamento” dei chip per eludere le restrizioni all'export.

Infine, NVIDIA ha confermato che entro un anno produrrà chip AI negli stabilimenti di TSMC in Arizona e assemblerà supercomputer per l’AI in stabilimenti situati in Texas. Il sostegno di NVIDIA all'obiettivo del presidente Trump di sviluppare la capacità produttiva negli Stati Uniti è nel solco della deglobalizzazione delle catene di approvvigionamento, un trend questo già evidente nel periodo post-pandemico, legato alle guerre commerciali e a fattori demografici e geopolitici.    

Il nostro obiettivo è passare dal chip al supercomputer “Made in USA” entro un anno.                                                                                                                                                                                                                                           Jensen Huang

Il rischio di perdere di vista il quadro generale

Sebbene i mercati in genere considerino le trimestrali di NVIDIA come le principali chiavi di lettura del settore tecnologico e dei trend geopolitici, dato il suo ruolo dominante nell'universo AI, riteniamo che puntare i riflettori sul breve termine rischi di porre in secondo piano il quadro generale. Mentre l’AI continua a innovare con modelli di ragionamento, l’AI agentica e fisica sta creando casi d'uso e modelli di monetizzazione interessanti. Ciò sta imprimendo un deciso cambio di passo nella domanda di infrastrutture AI, dai cluster di formazione all'inferenza, destinato a supportare una svolta nella generazione di token, di pari passo con la diffusione capillare dei modelli di ragionamento e del loro utilizzo; tutto ciò quindi apre un percorso più lungo, ampio e sostenibile di crescita nel settore tecnologico e nell'economia globale.

Fonti: trascrizione della teleconferenza sui risultati finanziari del primo trimestre dell'anno fiscale 2026 di NVIDIA, 28 maggio 2025. Blog NVIDIA; Newsroom NVIDIA.

Norma sulla diffusione dell'AI : la norma mirava a limitare l'esportazione di tecnologie AI statunitensi fondamentali, per limitarne la diffusione al di fuori degli Stati Uniti. L’argomentazione è che ciò comprometterebbe l’ambizione americana di detenere la supremazia globale nel campo dell’AI, aiutando i competitor globali a colmare il vuoto.

AI agentica: Utilizza un ragionamento sofisticato e una pianificazione iterativa per risolvere in modo autonomo problemi complessi a più fasi. Grandi quantità di dati provenienti da varie fonti di dati e applicazioni di terze parti vengono utilizzate per analizzare in modo indipendente le sfide, sviluppare strategie ed eseguire task.

ASIC vs GPU: gli ASIC sono semiconduttori progettati su misura, sviluppati per svolgere compiti specifici, il che conferisce loro alcuni vantaggi rispetto alle GPU per l'AI; per esempio, essi sono più convenienti rispetto alle GPU.

Capex: le spese in conto capitale si riferiscono agli investimenti dell'azienda per acquistare o aggiornare beni materiali come edifici, macchinari, attrezzature, tecnologia ecc., per mantenere o migliorare le operazioni e favorire la crescita futura.

DeepSeek: Startup cinese del settore AI che sviluppa modelli linguistici di grandi dimensioni (LLM) avanzati open source come DeepSeek-V3, importante rivale e opzione meno costosa rispetto a ChatGPT di OpenAI e Gemini di Google.

Unità di elaborazione grafica (GPU): unità che esegue calcoli matematici e geometrici complessi necessari per il rendering grafico, particolarmente utile nei giochi di fascia alta, nella creazione di contenuti e nell'apprendimento automatico.

Hyperscaler: aziende che forniscono l'infrastruttura per servizi cloud, di rete e internet su scala. Alcuni esempi sono Google Cloud, Microsoft Azure, Facebook Infrastructure, Alibaba Cloud e Amazon Web Services.

Divieto sull'export del chip H20: il 9 aprile 2025 il governo degli Stati Uniti ha notificato a NVIDIA l'obbligatorietà di una licenza per esportare i suoi chip H20 in Cina, con conseguente svalutazione da parte dell'azienda di 5,5 miliardi di dollari di fatturato nel primo trimestre fiscale del 2026.

Inferenza: si riferisce all'elaborazione dell'intelligenza artificiale. Mentre l'apprendimento automatico (machine learning) e l'apprendimento profondo (deep learning) si applicano all'addestramento delle reti neurali, l'inferenza AI applica le conoscenze ottenute da un modello di rete neurale addestrato e le utilizza per dedurre un risultato.

Chip NVIDIA Hopper e Blackwell: Hopper è stato lanciato nel 2022 e ha introdotto potenti funzionalità di AI, che eccellono nei modelli linguistici di grandi dimensioni (LLM) e nel calcolo scientifico. Lanciato nel 2024, Blackwell è progettato per le esigenze più complesse dell'AI generativa e per le simulazioni su larga scala.

Rack: i server montati su rack migliorano l'utilizzo dello spazio nei data center, sono progettati per soddisfare diverse esigenze di infrastruttura di calcolo e per una gestione completa dei server. Rispettano standard uniformi e ciò consente di impilarli agevolmente in un unico contenitore o involucro metallico.

Ragionamento: utilizzo delle informazioni disponibili per formulare previsioni, elaborare inferenze e trarre conclusioni. Si tratta di rappresentare i dati in un formato elaborabile e comprensibile da una macchina, per poi applicare la logica necessaria per giungere a una decisione.

Token: I token di AI sono gli elementi costitutivi di input e output utilizzati dai modelli linguistici di grandi dimensioni (LLM). Queste unità di dati vengono elaborate dai modelli AI nelle fasi di addestramento e inferenza, consentendo di fare previsioni, generare contenuti e ragionare.

Queste sono le opinioni dell'autore al momento della pubblicazione e possono differire da quelle di altri individui/team di Janus Henderson Investors. I riferimenti a singoli titoli non costituiscono una raccomandazione all'acquisto, alla vendita o alla detenzione di un titolo, di una strategia d'investimento o di un settore di mercato e non devono essere considerati redditizi. Janus Henderson Investors, le sue affiliate o i suoi dipendenti possono avere un’esposizione nei titoli citati.

 

Le performance passate non sono indicative dei rendimenti futuri. Tutti i dati dei rendimenti includono sia il reddito che le plusvalenze o le eventuali perdite ma sono al lordo dei costi delle commissioni dovuti al momento dell'emissione.

 

Le informazioni contenute in questo articolo non devono essere intese come una guida all'investimento.

 

Non vi è alcuna garanzia che le tendenze passate continuino o che le previsioni si realizzino.

 

Comunicazione di Marketing.

 

Glossario

 

 

 

Informazioni importanti

Si prega di leggere attentamente le seguenti informazioni sui fondi citati in questo articolo.

Janus Henderson Horizon Fund (il “Fondo”) è una SICAV lussemburghese costituita il 30 maggio 1985 e gestita da Janus Henderson Investors Europe S.A. Janus Henderson Investors Europe S.A. può decidere di risolvere gli accordi di commercializzazione di questo Organismo d'investimento collettivo del risparmio in conformità alla normativa applicabile. Questa è una comunicazione di marketing. Consultare il prospetto dell’OICVM e il KIID prima di prendere qualsiasi decisione finale di investimento.
Janus Henderson Horizon Fund (il “Fondo”) è una SICAV lussemburghese costituita il 30 maggio 1985 e gestita da Janus Henderson Investors Europe S.A. Janus Henderson Investors Europe S.A. può decidere di risolvere gli accordi di commercializzazione di questo Organismo d'investimento collettivo del risparmio in conformità alla normativa applicabile. Questa è una comunicazione di marketing. Consultare il prospetto dell’OICVM e il KIID prima di prendere qualsiasi decisione finale di investimento.