Vista rápida: ¿Los árboles no dejan ver el bosque a los inversores de NVIDIA?
El gestor de fondos Richard Clode expone las principales conclusiones de la última conferencia telefónica de presentación de resultados trimestrales de NVIDIA, tras los anuncios de los aranceles estadounidenses y la prohibición del chip H20.

6 minutos de lectura
Aspectos destacados:
- La creciente generación de tokens de IA está posibilitando nuevos ejemplos de uso de las aplicaciones de IA e impulsando una mayor inteligencia, lo que da credibilidad al debate acerca de la justificación de enormes cantidades de inversión en activo fijo de IA.
- El diseño del bastidor Blackwell de NVIDIA está aportando una infraestructura de IA de nueva generación al mundo del razonamiento de IA, con el objetivo de satisfacer los requisitos de una demanda cada vez mayor de modelos de aprendizaje automático, inferencia y razonamiento.
- La innovación en los modelos de razonamiento está impulsando un giro en la demanda de infraestructuras de IA, desde los clústeres de entrenamiento a la inferencia, para apoyar una inflexión en la generación de tokens, creando una pista de aterrizaje más larga, más amplia y más sostenible para el crecimiento de las empresas tecnológicas.
La mayor depreciación de existencias de la historia anunciada de antemano por NVIDIA tras la prohibición del chip H20 en China tras el anuncio de los aranceles del presidente Trump en abril, así como los continuos problemas de fabricación de los bastidores Blackwell, llevaron a otro anuncio de resultados precedido de inquietud.
Los tokens son el nuevo petróleo (de verdad)
Todos los países ven ahora la IA como el núcleo de la próxima revolución industrial, una nueva industria que produce inteligencia... No conozco ninguna empresa, industria o país que piense que la inteligencia es una opción.
Jensen Huang, fundador y consejero delegado (CEO)
Los tokens de IA (las unidades de datos tratados por los modelos de IA durante el entrenamiento y la inferencia) son el nuevo petróleo, dados los recientes acuerdos sobre chips de IA anunciados por el presidente Trump y Jensen Huang en Arabia Saudí y los Emiratos Árabes Unidos. Microsoft también reveló que había generado 100 billones de tokens en el primer trimestre de 2025, cinco veces más, y que había procesado 50 billones de tokens en marzo. Por su parte, en su evento I/O de la semana pasada, Google dio a conocer que actualmente está procesando más de 480 billones de tokens al mes, lo que supone un aumento interanual de 50 veces.
NVIDIA afirma que la generación de tokens se ha multiplicado por diez en el último año. Se trata de un punto de inflexión muy importante por varios motivos. El mercado ha estado debatiendo sobre los casos de uso de la IA, siendo la generación de tokens un indicador clave del uso, además de la inteligencia. Este aumento también pone de manifiesto las ideas equivocadas del «momento DeepSeek» de principios de este año, cuando el mercado se centró excesivamente en la menor inversión en activo fijo de IA necesaria para entrenar el modelo, e ignoró la intensidad de cálculo mucho mayor del modelo de razonamiento lanzado por DeepSeek. Según NVIDIA, los modelos de razonamiento pueden ser entre 100 y 1.000 veces más intensivos en computación que una consulta de chatbot de una sola toma, dado que el modelo está «pensando», explorando múltiples vías para resolver una consulta más compleja y comprobando su respuesta. Eso también genera exponencialmente más tokens, al tiempo que permite nuevos casos de uso a partir de esa mayor inteligencia, ya sea IA agéntica para consumidores o empresas, o vehículos autónomos y humanoides impulsados por IA física. La innovación en IA está haciendo proliferar casos de uso de la IA que proporcionan un retorno creíble de la inversión y un gasto en infraestructuras de IA más sostenible debido a ese retorno. De este modo, se respalda el uso cada vez mayor de la IA mediante la inferencia, en lugar de limitarse a dedicar más recursos informáticos a entrenar modelos de IA de frontera cada vez mayores.
Blackwell, desarrollado para un mundo que razona
El superordenador de IA Blackwell NVL72 es «una máquina pensante» diseñada para razonar.
Jensen Huang
Del mismo modo que el chip Hopper se diseñó específicamente para entrenar grandes modelos de transformación del lenguaje, NVIDIA diseñó expresamente su chip Blackwell para satisfacer las demandas de rendimiento de los modelos de razonamiento de nueva generación. Interactuar con un modelo de razonamiento y garantizar una calidad de servicio razonable, así como evitar costes o consumos prohibitivos, exigió a NVIDIA diseñar por primera vez a nivel de bastidor: el NVL72 pesa dos toneladas con 1,2 millones de componentes. El resultado es un rendimiento de inferencia 40 veces superior al de Hopper, lo que introduce la infraestructura de IA de nueva generación en el mundo del razonamiento de IA, lo que responde a muchos interrogantes del año pasado sobre los méritos relativos de los ASIC frente a las GPU.
El avance de Blackwell no ha sido nada tranquilo, con un nuevo giro del chip subyacente en TSMC a finales del año pasado, además de recientes problemas de placa y rendimiento con los bastidores GB200. Sin embargo, estos problemas parecen haber quedado atrás, lo que permite al mercado esperar un aumento significativo de la oferta de bastidores durante el resto del año. NVIDIA habló de que los hiperescaladores están instalando ahora una media de casi 1.000 bastidores NVL 72 a la semana, es decir, 72.000 GPU Blackwell a la semana. Los bastidores Blackwell Ultra GB300 también se están probando ahora y, con la misma huella física y diseño de bastidor que el GB200, esto podría dar lugar a una rampa de suministro mucho más suave a partir del segundo semestre de 2025 para satisfacer la creciente demanda de inferencias con un rendimiento más o menos un 50% mayor.
Repercusiones de la geopolítica y la desglobalización
La pregunta no es si China tendrá IA, que ya la tiene. La pregunta es si uno de los mercados de IA más grandes del mundo funcionará con plataformas estadounidenses.
Jensen Huang
La IA está en primera línea de la geopolítica y la supremacía de las superpotencias. Tras la prohibición de H20, parece que nos acercamos al final del negocio de centros de datos de NVIDIA en China, pero Jensen Huang siguió defendiendo con vehemencia que estas restricciones son erróneas. Esto se debe a que no impedirán que China tenga IA o chips de IA, ya que ya disponen de ambos. Una estrategia superior sería garantizar que uno de los mercados de IA más grandes del mundo, con la mitad de los desarrolladores de IA del mundo, se construya sobre plataformas e infraestructura estadounidenses.
NVIDIA sigue explorando opciones para suministrar a China un chip con un rendimiento de IA aún más degradado, pero aún está por ver si se permitirá o si esos chips podrán ser competitivos. Como aspecto más positivo, la derogación de la norma sobre difusión de la IA del Gobierno de Biden, que debía entrar en vigor el 15 de mayo, ha permitido cerrar recientemente acuerdos en Arabia Saudí y los Emiratos Árabes Unidos. NVIDIA también aclaró que, aunque Singapur contribuye con una parte significativa de sus ventas, la gran mayoría de esa computación de IA termina en clientes con sede en EE. UU., refutando así los recientes informes sobre el desvío de chips para eludir las restricciones a las exportaciones.
Por último, NVIDIA confirmó que, en el plazo de un año, producirá chips de IA en las fábricas de TSMC en Arizona y montará superordenadores de IA en fábricas de Texas. El apoyo de NVIDIA al objetivo del presidente Trump de desarrollar la capacidad de fabricación en EE. UU. continúa la desglobalización de las cadenas de suministro que hemos presenciado tras la pandemia, en un contexto marcado por la geopolítica, las guerras comerciales y la demografía.
Nuestro objetivo, desde el chip hasta el superordenador, fabricado en Estados Unidos en un año. Jensen Huang
Los árboles no dejan ver el bosque
Aunque los mercados suelen considerar los resultados financieros de NVIDIA como un indicador del sector tecnológico y de las señales geopolíticas, dado su papel dominante en la ola de la IA, creemos que centrarse en el corto plazo puede hacer que los árboles no dejen ver el bosque. A medida que la IA sigue innovando con modelos de razonamiento, la IA agéntica y física están creando casos de uso y modelos de monetización muy interesantes. Esto está impulsando un cambio en la demanda de infraestructura de IA, que pasa de los clústeres de entrenamiento a la inferencia, con el fin de respaldar una inflexión en la generación de tokens a medida que proliferan los modelos de razonamiento y su uso, creando así una pista de despegue más larga, más amplia y más sostenible para el crecimiento del sector tecnológico y la economía mundial.
Fuentes: transcripción de la conferencia telefónica de presentación de los resultados financieros del primer trimestre del ejercicio fiscal 2026 de NVIDIA, 28 de mayo de 2025. Blog de NVIDIA; sala de prensa de NVIDIA.
Norma sobre difusión de la IA: la norma planeaba limitar la exportación de tecnología esencial de IA de EE. UU. para restringir su difusión fuera de EE. UU. El argumento es que la norma afectaría a la ambición de Estados Unidos de alcanzar la supremacía mundial en IA y supondría un impulso para que los competidores globales llenaran el vacío.
IA agéntica: utiliza un razonamiento sofisticado y una planificación iterativa para resolver problemas complejos de varios pasos de forma autónoma. Se utilizan inmensas cantidades de datos procedentes de múltiples fuentes y aplicaciones de terceros para analizar de forma independiente los problemas, desarrollar estrategias y ejecutar tareas.
ASIC frente a GPU: los ASIC son semiconductores diseñados a medida para realizar tareas específicas, lo que les confiere ciertas ventajas frente a las GPU para la IA, como por ejemplo, ser más rentables que las GPU.
Inversión en activo fijo (CapEx): gastos de la empresa para adquirir o mejorar activos físicos como edificios, maquinaria, equipos, tecnología, etc., para mantener o mejorar las operaciones y promover el crecimiento futuro.
DeepSeek: una start-up china de IA y desarrolladora de grandes modelos de lenguaje (LLM) avanzados de código abierto como DeepSeek-V3, un rival clave y una opción menos costosa que ChatGPT de OpenAI y Gemini de Google.
Unidad de procesamiento gráfico (GPU): unidad que realiza cálculos matemáticos y geométricos complejos necesarios para la representación de gráficos, de especial utilidad en juegos de alta gama, creación de contenidos y aprendizaje automático.
Hiperescaladores: empresas que proporcionan infraestructura para servicios de nube, conexión a redes e Internet a escala. Algunos ejemplos son Google Cloud, Microsoft Azure, Facebook Infrastructure, Alibaba Cloud y Amazon Web Services.
Prohibición del chip H20: el 9 de abril de 2025, el Gobierno de EE. UU. informó a NVIDIA de que necesitaba una licencia para exportar sus chips H20 a China, lo que provocó que la compañía registrara la pérdida de 5.500 millones de dólares en ingresos en su primer trimestre fiscal de 2026.
Inferencia: se refiere al procesamiento de la inteligencia artificial. Mientras que el aprendizaje automático y el aprendizaje profundo remiten al entrenamiento de redes neuronales, la inferencia de la IA aplica conocimientos derivados de un modelo de red neuronal entrenado y lo utiliza para inferir un resultado.
Chips NVIDIA Hopper y Blackwell: Hopper se lanzó en 2022 e introdujo potentes capacidades de IA que destacan en modelos de lenguaje grandes y computación científica. Blackwell, lanzado en 2024, está diseñado para las demandas más complejas de la IA generativa y las simulaciones a gran escala.
Bastidor: los servidores montados en bastidor mejoran la utilización del espacio en el centro de datos, están diseñados para satisfacer diversas necesidades de infraestructura informática y permiten una gestión integral de los servidores. Cumplen con normas uniformes, lo que permite apilarlos cómodamente en una carcasa o caja metálica.
Razonamiento: utilizar la información disponible para generar predicciones, hacer inferencias y extraer conclusiones. Implica representar datos en un formato que una máquina pueda procesar y entender, y luego aplicar lógica para llegar a una decisión.
Token: Los tokens de IA son los componentes fundamentales de entrada y salida que utilizan los modelos de lenguaje grandes (LLM). Estas unidades de datos son procesadas por modelos de IA durante el entrenamiento y la inferencia, lo que permite la predicción, la generación y el razonamiento.
Estas son las opiniones del autor en el momento de la publicación y pueden diferir de las opiniones de otras personas/equipos de Janus Henderson Investors. Las referencias realizadas a valores concretos no constituyen una recomendación para comprar, vender o mantener ningún valor, estrategia de inversión o sector del mercado, y no deben considerarse rentables. Janus Henderson Investors, su asesor afiliado o sus empleados pueden tener una posición en los valores mencionados.
La rentabilidad histórica no predice las rentabilidades futuras. Todas las cifras de rentabilidad incluyen tanto los aumentos de las rentas como las plusvalías y las pérdidas, pero no refleja las comisiones actuales ni otros gastos del fondo.
La información contenida en el presente artículo no constituye una recomendación de inversion.
No hay garantía de que las tendencias pasadas continúen o de que se cumplan las previsiones.
Comunicación Publicitaria.
Información importante
Le recomendamos que lea la siguiente información acerca de los fondos relacionados con el presente artículo.