AI empujando a Nvidia hacia $ 1 billón no ayudará a Intel y AMD
nvidia La acción subió a casi $ 1 billón en operaciones posteriores al cierre el miércoles. reportado una perspectiva sorprendentemente fuerte, y el CEO Jensen Huang dijo que la compañía tendrá un “enorme año récord”.
Las ventas están aumentando debido a la creciente demanda de unidades de procesamiento de gráficos (GPU) de Nvidia, que impulsan aplicaciones de IA como las de Google, Microsoft y OpenAI.
La demanda de chips de IA en los centros de datos llevó a Nvidia a pronosticar ingresos de 11.000 millones de dólares para el trimestre actual, superando las estimaciones de los analistas de 7.150 millones de dólares.
“El enfoque ha sido la IA generativa”, dijo Huang en una entrevista con CNBC. “Sabemos que la escala de la CPU se ralentizó, sabemos que la computación acelerada es el camino a seguir, y luego apareció la aplicación asesina”.
Nvidia cree que está impulsando un cambio significativo en la forma en que se construyen las computadoras que podría conducir a un crecimiento aún mayor: las piezas del centro de datos podrían incluso convertirse en un mercado de $ 1 billón, dice Huang.
Históricamente, la parte más importante de una computadora o servidor era el procesador central o CPU, que dominaba este mercado. inteligenciacon AMD como su principal competidor.
Con la llegada de las aplicaciones de IA que lo requieren mucho Cuando se trata de potencia informática, la unidad de procesamiento de gráficos (GPU) ocupa un lugar central y los sistemas más avanzados utilizan hasta ocho GPU por CPU. Nvidia actualmente domina el mercado de las GPU de IA.
“El centro de datos del pasado, que consistía en gran parte en CPU para la recuperación de archivos, serán datos generativos en el futuro”, dijo Huang. “En lugar de recuperar datos, vas a recuperar algunos datos, pero necesitas generar la mayoría de los datos usando IA”.
“Entonces, en lugar de millones de CPU, tendrá muchas menos CPU, pero estarán conectadas a millones de GPU”, continuó Huang.
por ejemplo la de nvidia propios sistemas DGXque es esencialmente una computadora de IA para entrenamiento en una caja, utiliza ocho de las GPU H100 de gama alta de Nvidia y solo dos CPU.
de Google supercomputadora a3 combina ocho GPU H100 con un solo procesador Intel Xeon de gama alta.
Esa es una de las razones por las que el negocio de centros de datos de Nvidia creció un 14 % en el primer trimestre calendario, mientras que la división de centros de datos de AMD experimentó un crecimiento plano y la división de centros de datos e inteligencia artificial de Intel disminuyó un 39 %.
Además, las GPU de Nvidia tienden a ser más caras que muchas CPU. La última generación de CPU Xeon de Intel puede costar hasta $ 17,000 a precio de lista. Una sola Nvidia H100 puede venderse por $40,000 el mercado secundario.
Nvidia se enfrentará a una mayor competencia a medida que se calienta el mercado de chips de IA. AMD tiene un negocio de GPU competitivo, particularmente en juegos, e Intel también tiene su propia línea de GPU. Las empresas emergentes están construyendo nuevos tipos de chips específicamente para IA, y a las empresas enfocadas en dispositivos móviles les gusta Qualcomm y Apple continúa impulsando la tecnología para que algún día sea posible ejecutarla en su bolsillo en lugar de una granja de servidores masiva. Google y Amazon están desarrollando sus propios chips de IA.
Pero las GPU de gama alta de Nvidia siguen siendo las mismas chip de su elección para las empresas actuales que están desarrollando aplicaciones como ChatGPT, que son costosas de entrenar procesando terabytes de datos y luego ejecutar en un proceso llamado “inferencia” que usa el modelo para generar texto e imágenes o hacer predicciones.
Los analistas dicen que es por eso que Nvidia sigue siendo el líder en chips de IA su software propietario Esto facilita el uso de todas las funciones de hardware de GPU para aplicaciones de IA.
Huang dijo el miércoles que el software de la empresa no es fácil de replicar.
“Tienes que desarrollar todo el software, todas las bibliotecas, todos los algoritmos, integrarlos en los marcos y optimizarlos y optimizarlos para la arquitectura, no solo para un chip, sino para la arquitectura de un centro de datos completo”, Huang. dijo en una llamada con analistas.
[pub]