Amazon está trabajando en dos chips de IA generativos personalizados para el entrenamiento de modelos de lenguaje grande de AWS
Durante los últimos meses, empresas como Microsoft, Google, OpenAI y NVIDIA han estado en los titulares por sus esfuerzos para avanzar en los servicios de hardware y software de IA generativa. Una importante empresa de tecnología, Amazon, también está tratando de participar en la conversación sobre IA.
CNBC informa que su división Amazon Web Services ha estado trabajando en dos chips personalizados, Inferentia y Trainium, que espera que compitan con los fabricados por NVIDIA con sus superchips Grace Hopper para entrenar modelos de lenguaje grandes. NVIDIA acaba de anunciar su plataforma Grace Hopper de próxima generación , que debería estar disponible en 2024.
AWS no es ajeno a la fabricación de chips personalizados. Comenzó hace 10 años con Nitro y Amazon dice que ahora hay al menos un chip Nitro en cada uno de sus servidores AWS.
Actualmente, en sus oficinas de Austin, Texas, Amazon está trabajando en nuevas versiones de sus chips Trainium e Inferential. Esta es la solución de la compañía para brindar a los clientes una forma de entrenar sus LLM generativos de IA en servidores AWS, con chips fabricados por Amazon, sin tener que usar hardware basado en NVIDIA.
Amazon dice que una de sus mayores ventajas es que AWS ya lo utilizan millones de clientes, que están acostumbrados a los servidores y sus herramientas. Mai-Lan Tomsen Bukovec, vicepresidente de tecnología de AWS, declaró:
Es una cuestión de velocidad. La rapidez con la que estas empresas se mueven para desarrollar estas aplicaciones de IA generativa depende de comenzar primero con los datos que tienen en AWS y usar las herramientas informáticas y de aprendizaje automático que proporcionamos.
Si bien Amazon está tratando de fabricar sus propios chips para capacitar a los LLM, también utiliza algunos chips de NVIDIA para el mismo propósito en sus servidores de AWS. En julio, anunció que las instancias P5 de Amazon EC2 estaban disponibles para los usuarios de AWS. Estos servidores funcionan con GPU NVIDIA H100 Tensor Core.
Amazon declaró a CNBC que «más de 100 000» de sus clientes usaban AWS para el aprendizaje automático. Si bien eso es solo una fracción de la base general de clientes de AWS de la compañía, cada vez más de ellos podrían comenzar a usar la solución de Amazon a medida que la IA generativa se expande a más industrias.
Deja una respuesta