Nvidia obtuvo más de 19 mil millones de dólares en ingresos netos durante el último trimestre, el empresa informó el miércoles, pero eso hizo poco para asegurar a los inversores que su rápido crecimiento continuaría. En su conferencia telefónica sobre resultados, los analistas presionaron al director ejecutivo Jensen Huang sobre cómo le iría a Nvidia si las empresas de tecnología comenzaran a utilizar nuevos métodos para mejorar sus modelos de inteligencia artificial.
El método que sustenta el modelo o1 de OpenAI, o “escalado en el tiempo de prueba”, surgió con bastante frecuencia. Es la idea de que los modelos de IA darán mejores respuestas si se les da más tiempo y potencia informática para «pensar» las preguntas. Específicamente, agrega más computación a la fase de inferencia de IA, que es todo lo que sucede después de que un usuario presiona Intro cuando se le solicita.
Se le preguntó al CEO de Nvidia si estaba viendo a los desarrolladores de modelos de IA cambiar a estos nuevos métodos y cómo funcionarían los chips más antiguos de Nvidia para la inferencia de IA.
Huang dijo a los inversores que o1, y la escala en tiempo de prueba en general, podría desempeñar un papel más importante en el futuro del negocio de Nvidia, calificándolo como «uno de los desarrollos más interesantes» y «una nueva ley de escala». Huang hizo todo lo posible para garantizar a los inversores que Nvidia está bien posicionada para el cambio.
Los comentarios del director ejecutivo de Nvidia se alinearon con lo que dijo el director ejecutivo de Microsoft, Satya Nadella en el escenario en un evento de Microsoft el martes: o1 representa una nueva forma para que la industria de la IA mejore sus modelos.
Esto es muy importante para la industria de los chips porque pone mayor énfasis en la inferencia de la IA. Si bien los chips de Nvidia son el estándar de oro para entrenar modelos de IA, existe un amplio conjunto de nuevas empresas bien financiadas que crean chips de inferencia de IA ultrarrápidos, como Groq y Cerebras. Podría ser un espacio más competitivo para que opere Nvidia.
A pesar de informes recientes Aunque las mejoras en los modelos generativos se están desacelerando, Huang dijo a los analistas que los desarrolladores de modelos de IA todavía están mejorando sus modelos agregando más computación y datos durante la fase de preentrenamiento.
El director ejecutivo de Anthropic, Dario Amodei, también dijo el miércoles durante una entrevista en el escenario de la cumbre del Valle Cerebral en San Francisco que no ve una desaceleración en el desarrollo de modelos.
«La ampliación del preentrenamiento del modelo básico está intacta y continúa», dijo Huang el miércoles. “Como saben, esta es una ley empírica, no una ley física fundamental, pero la evidencia es que continúa aumentando. Sin embargo, lo que estamos aprendiendo es que no es suficiente”, afirmó Huang.
Sin duda, eso es lo que los inversores de Nvidia querían escuchar, ya que las acciones del fabricante de chips se ha disparado más del 180% en 2024 vendiendo los chips de IA en los que OpenAI, Google y Meta entrenan sus modelos. Sin embargo, los socios de Andreessen Horowtiz y varios otros ejecutivos de IA han dicho anteriormente que estos métodos ya están empezando a mostrar rendimientos decrecientes.
Huang señaló que la mayoría de las cargas de trabajo informáticas de Nvidia hoy en día giran en torno al entrenamiento previo de modelos de IA (no a la inferencia), pero lo atribuyó más a la situación actual del mundo de la IA. Dijo que algún día simplemente habrá más personas ejecutando modelos de IA, lo que significa que se producirán más inferencias de IA. Huang señaló que Nvidia es la plataforma de inferencia más grande del mundo en la actualidad y la escala y confiabilidad de la compañía le otorgan una gran ventaja en comparación con las nuevas empresas.
«Nuestras esperanzas y sueños son que algún día el mundo haga un montón de inferencias, y ahí es cuando la IA realmente haya tenido éxito», dijo Huang. «Todo el mundo sabe que si innovan sobre la arquitectura de CUDA y Nvidia, pueden innovar más rápidamente y saben que todo debería funcionar».








