Amazon pracuje nad dwoma niestandardowymi generatywnymi chipami AI do szkolenia dużych modeli językowych AWS

Amazon pracuje nad dwoma niestandardowymi generatywnymi chipami AI do szkolenia dużych modeli językowych AWS

W ciągu ostatnich kilku miesięcy firmy takie jak Microsoft, Google, OpenAI i NVIDIA trafiały na pierwsze strony gazet za swoje wysiłki na rzecz rozwoju generatywnego sprzętu i usług oprogramowania AI. Jedna duża firma technologiczna, Amazon, również próbuje włączyć się do rozmowy na temat sztucznej inteligencji.

CNBC donosi, że dział Amazon Web Services pracuje nad dwoma niestandardowymi układami scalonymi, Inferentia i Trainium, które, jak ma nadzieję, będą rywalizować z układami stworzonymi przez firmę NVIDIA dzięki superukładom Grace Hopper do uczenia dużych modeli językowych. NVIDIA właśnie ogłosiła swoją platformę nowej generacji Grace Hopper , która powinna być dostępna w 2024 roku.

AWS nie jest obcy w tworzeniu niestandardowych chipów. Zaczęło się 10 lat temu od Nitro, a Amazon twierdzi, że teraz na każdym z jego serwerów AWS znajduje się co najmniej jeden układ Nitro.

Obecnie w swoich biurach w Austin w Teksasie Amazon pracuje nad nowymi wersjami chipów Trainium i Inferential. Jest to rozwiązanie firmy, które daje klientom możliwość szkolenia ich generatywnych AI LLM na serwerach AWS, z chipami wyprodukowanymi przez Amazon, bez konieczności korzystania ze sprzętu opartego na NVIDIA.

Amazon twierdzi, że jedną z jego największych zalet jest to, że AWS jest już używany przez miliony klientów, którzy są przyzwyczajeni do serwerów i ich narzędzi. Mai-Lan Tomsen Bukovec, wiceprezes ds. technologii w AWS, powiedział:

To kwestia prędkości. To, jak szybko te firmy mogą przystąpić do opracowywania tych generatywnych aplikacji sztucznej inteligencji, zależy od rozpoczęcia korzystania z danych, które mają w AWS, oraz korzystania z udostępnianych przez nas narzędzi obliczeniowych i uczenia maszynowego.

Podczas gdy Amazon próbuje tworzyć własne chipy do szkolenia LLM, używa również niektórych chipów NVIDIA do tego samego celu w swoich serwerach AWS. W lipcu ogłosił, że instancje Amazon EC2 P5 są dostępne dla użytkowników AWS. Te serwery są napędzane procesorami graficznymi NVIDIA H100 Tensor Core.

Amazon powiedział CNBC, że „ponad 100 000” jego klientów używa AWS do uczenia maszynowego. Chociaż to tylko ułamek ogólnej bazy klientów AWS firmy, coraz więcej z nich może zacząć korzystać z rozwiązania Amazon, ponieważ generatywna sztuczna inteligencja rozszerza się na kolejne branże.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *