Amazon travaille sur deux puces d’IA génératives personnalisées pour la formation de grands modèles de langage AWS

Amazon travaille sur deux puces d’IA génératives personnalisées pour la formation de grands modèles de langage AWS

Au cours des derniers mois, des entreprises comme Microsoft, Google, OpenAI et NVIDIA ont fait la une des journaux pour leurs efforts visant à faire progresser les services matériels et logiciels d’IA générative. Une grande entreprise technologique, Amazon, essaie également de participer à la conversation sur l’IA.

CNBC rapporte que sa division Amazon Web Services travaille sur deux puces personnalisées, Inferentia et Trainium, qui, espère-t-il, rivaliseront avec celles fabriquées par NVIDIA avec ses superpuces Grace Hopper pour la formation de grands modèles de langage. NVIDIA vient d’annoncer sa plateforme nouvelle génération Grace Hopper qui devrait être disponible en 2024.

AWS n’est pas étranger à la fabrication de puces personnalisées. Cela a commencé il y a 10 ans avec Nitro, et Amazon dit qu’il y a maintenant au moins une puce Nitro dans chacun de ses serveurs AWS.

Actuellement, dans ses bureaux d’Austin, au Texas, Amazon travaille sur de nouvelles versions de ses puces Trainium et Inferential. Il s’agit de la solution de l’entreprise pour donner aux clients un moyen de former leurs LLM d’IA générative sur des serveurs AWS, avec des puces fabriquées par Amazon, sans avoir à utiliser du matériel basé sur NVIDIA.

Amazon affirme que l’un de ses plus grands avantages est qu’AWS est déjà utilisé par des millions de clients, qui sont habitués aux serveurs et à leurs outils. Mai-Lan Tomsen Bukovec, vice-présidente de la technologie chez AWS, a déclaré :

C’est une question de vélocité. La rapidité avec laquelle ces entreprises peuvent se déplacer pour développer ces applications d’IA génératives dépend du fait qu’elles commencent d’abord par les données dont elles disposent dans AWS et qu’elles utilisent les outils de calcul et d’apprentissage automatique que nous fournissons.

Alors qu’Amazon essaie de créer ses propres puces pour la formation des LLM, il utilise également des puces NVIDIA dans le même but dans ses serveurs AWS. En juillet, il a annoncé que les instances Amazon EC2 P5 étaient disponibles pour les utilisateurs d’AWS. Ces serveurs sont alimentés par des GPU NVIDIA H100 Tensor Core.

Amazon a déclaré à CNBC que « plus de 100 000 » de ses clients utilisaient AWS pour l’apprentissage automatique. Bien qu’il ne s’agisse que d’une fraction de la clientèle AWS globale de l’entreprise, de plus en plus d’entre eux pourraient commencer à utiliser la solution d’Amazon à mesure que l’IA générative s’étend à d’autres secteurs.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *