Amazon arbeitet an zwei benutzerdefinierten generativen KI-Chips für das Training großer AWS-Sprachmodelle

Amazon arbeitet an zwei benutzerdefinierten generativen KI-Chips für das Training großer AWS-Sprachmodelle

In den letzten Monaten machten Unternehmen wie Microsoft, Google, OpenAI und NVIDIA Schlagzeilen mit ihren Bemühungen, generative KI-Hardware- und -Softwaredienste voranzutreiben. Ein großes Technologieunternehmen, Amazon, versucht ebenfalls, sich an der KI-Diskussion zu beteiligen.

CNBC berichtet, dass seine Amazon Web Services-Abteilung an zwei maßgeschneiderten Chips, Inferentia und Trainium, gearbeitet hat, von denen man hofft, dass sie denen von NVIDIA mit seinen Grace Hopper-Superchips für das Training großer Sprachmodelle Konkurrenz machen. NVIDIA hat gerade seine Grace Hopper-Plattform der nächsten Generation angekündigt , die 2024 verfügbar sein soll.

AWS ist kein Unbekannter in der Herstellung kundenspezifischer Chips. Es begann vor 10 Jahren mit Nitro und Amazon gibt an, dass mittlerweile in jedem seiner AWS-Server mindestens ein Nitro-Chip steckt.

Derzeit arbeitet Amazon in seinen Büros in Austin, Texas, an neuen Versionen seiner Trainium- und Inferential-Chips. Dies ist die Lösung des Unternehmens, mit der Kunden ihre generativen KI-LLMs auf AWS-Servern mit von Amazon hergestellten Chips trainieren können, ohne NVIDIA-basierte Hardware verwenden zu müssen.

Laut Amazon besteht einer der größten Vorteile darin, dass AWS bereits von Millionen Kunden genutzt wird, die an die Server und ihre Tools gewöhnt sind. Mai-Lan Tomsen Bukovec, Vizepräsident für Technologie bei AWS, erklärte:

Es ist eine Frage der Geschwindigkeit. Wie schnell diese Unternehmen diese generativen KI-Anwendungen entwickeln können, hängt davon ab, ob sie zunächst mit den Daten beginnen, die sie in AWS haben, und die von uns bereitgestellten Computer- und maschinellen Lerntools nutzen.

Während Amazon versucht, eigene Chips für das Training von LLMs herzustellen, verwendet das Unternehmen in seinen AWS-Servern auch einige NVIDIA-Chips für denselben Zweck. Im Juli gab das Unternehmen bekannt, dass Amazon EC2 P5-Instanzen für AWS-Benutzer verfügbar seien. Diese Server werden von NVIDIA H100 Tensor Core GPUs angetrieben.

Amazon gab gegenüber CNBC an, dass „über 100.000“ seiner Kunden AWS für maschinelles Lernen nutzen. Das ist zwar nur ein Bruchteil des gesamten AWS-Kundenstamms des Unternehmens, doch mit der Ausweitung der generativen KI auf weitere Branchen könnten immer mehr von ihnen die Lösung von Amazon nutzen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert