Amazon sta lavorando a due chip AI generativi personalizzati per l’addestramento di modelli linguistici di grandi dimensioni AWS

Amazon sta lavorando a due chip AI generativi personalizzati per l’addestramento di modelli linguistici di grandi dimensioni AWS

Negli ultimi mesi, aziende come Microsoft, Google, OpenAI e NVIDIA hanno ottenuto i titoli dei giornali per i loro sforzi per far progredire i servizi hardware e software di intelligenza artificiale generativa. Anche una delle principali aziende tecnologiche, Amazon, sta cercando di entrare nella conversazione sull’IA.

CNBC riferisce che la sua divisione Amazon Web Services ha lavorato su due chip personalizzati, Inferentia e Trainium, che spera possano competere con quelli realizzati da NVIDIA con i suoi superchip Grace Hopper per l’addestramento di modelli linguistici di grandi dimensioni. NVIDIA ha appena annunciato la sua piattaforma Grace Hopper di nuova generazione che dovrebbe essere disponibile nel 2024.

AWS non è estraneo alla creazione di chip personalizzati. È iniziato 10 anni fa con Nitro e Amazon afferma che ora c’è almeno un chip Nitro in ognuno dei suoi server AWS.

Attualmente, nei suoi uffici di Austin, in Texas, Amazon sta lavorando a nuove versioni dei suoi chip Trainium e Inferential. Questa è la soluzione dell’azienda per offrire ai clienti un modo per addestrare i loro LLM di intelligenza artificiale generativa sui server AWS, con chip prodotti da Amazon, senza dover utilizzare hardware basato su NVIDIA.

Amazon afferma che uno dei suoi maggiori vantaggi è che AWS è già utilizzato da milioni di clienti, che sono abituati ai server e ai loro strumenti. Mai-Lan Tomsen Bukovec, vicepresidente della tecnologia di AWS, ha dichiarato:

È una questione di velocità. La rapidità con cui queste aziende possono muoversi per sviluppare queste applicazioni di intelligenza artificiale generativa è determinata partendo prima dai dati che hanno in AWS e utilizzando gli strumenti di calcolo e apprendimento automatico che forniamo.

Mentre Amazon sta cercando di creare i propri chip per addestrare LLM, utilizza anche alcuni chip NVIDIA per lo stesso scopo nei suoi server AWS. A luglio, ha annunciato che le istanze Amazon EC2 P5 erano disponibili per gli utenti AWS. Questi server sono alimentati da GPU NVIDIA H100 Tensor Core.

Amazon ha dichiarato alla CNBC che “oltre 100.000” dei suoi clienti utilizzavano AWS per l’apprendimento automatico. Sebbene questa sia solo una frazione della base clienti AWS complessiva dell’azienda, sempre più di loro potrebbero iniziare a utilizzare la soluzione di Amazon man mano che l’IA generativa si espande in più settori.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *