Los nuevos servidores de Amazon Web Services se unirán en una supercomputadora masiva con cientos de miles de chips de IA Anthropic.
La unidad de nube de Amazon mostró este martes nuevos servidores de centro de datos equipados con sus propios chips de IA que desafiarán a Nvidia con Apple como cliente para usarlos.
Los nuevos servidores, basados en 64 chips Trainium2 de Amazon Web Services (AWS), se unirán en una supercomputadora masiva con cientos de miles de chips, con la ayuda de la startup de IA Anthropic, que será la primera en usarlo. El ejecutivo de Apple, Benoit Dupin, también dijo que la tecnológica está usando chips Trainium2.
Con más del 70% de participación de mercado, Nvidia domina la venta de chips de IA, y los rivales tradicionales de la industria de chips como Advanced Micro Devices (AMD) se apresuran a alcanzarlos.
Pero algunos de los competidores más formidables de Nvidia también son sus clientes: Meta, Microsoft y Google de Alphabet tienen sus propios chips de IA personalizados. Mientras que el chip de Meta impulsa las operaciones internas, Amazon y Google utilizan sus chips internamente, pero también los comercializan a clientes que pagan.
El director ejecutivo de AWS, Matt Garman, también dijo que Trainium3, la próxima generación de chips de IA de la compañía, debutará el próximo año.
Las nuevas ofertas “están diseñadas específicamente para las exigentes cargas de trabajo de entrenamiento e inferencia de IA generativa de vanguardia”, dijo Garman en el evento en Las Vegas este martes.
AWS buscará competir con Nvidia en el sector de chips de IA
Los nuevos servidores, que AWS llama Trn2 UltraServers, competirán contra el servidor insignia de Nvidia que incluye 72 de sus últimos chips Blackwell. Ambas compañías también ofrecen tecnología patentada para conectar los chips, aunque Gadi Hutt, quien lidera el desarrollo comercial de los chips de IA en AWS, dijo que podrá conectar una mayor cantidad de chips entre sí que Nvidia.
“Creemos que con Trainium2, (los clientes) obtienen más capacidad de procesamiento que la que ofrece Nvidia hoy en día, y podrán ahorrar costos”, dijo Hutt a Reuters en una entrevista, añadiendo que algunos modelos de IA pueden entrenarse a un costo un 40% menor que en los chips de Nvidia.
Los ejecutivos de AWS dijeron que los nuevos servidores y la enorme supercomputadora entrarían en funcionamiento el próximo año, pero no dieron una fecha específica. Tanto AWS como Nvidia se están apresurando para llevar sus ofertas estrella al mercado en medio de una demanda en auge, aunque los envíos de Nvidia se han visto limitados por las restricciones de la cadena de suministro.
Tanto Nvidia como AWS utilizan Taiwan Semiconductor Manufacturing (TSMC) para fabricar sus chips.
“Desde el punto de vista del suministro, estamos en bastante buena forma en toda la cadena de suministro”, dijo Hutt a Reuters. “Cuando hacemos los sistemas, el único artículo que no podemos obtener de forma dual son los chips Trainium”.
POR: FORBES