Intel demonstruje superintensywną technologię ChatGPT w chmurze działającą na pojedynczym procesorze Xeon 5. generacji
Firma Intel rozpoczęła dziś dwudniowe wydarzenie Innovation Event 2023 i wygląda na to, że największy nacisk zostanie położony na sztuczną inteligencję (AI), czego można się spodziewać, biorąc pod uwagę, że technologia ta ma duży potencjał .
Firma między innymi zademonstrowała ChatGPT w chmurze w porównaniu z modelem o 7 miliardach parametrów działającym na jednym systemie Xeon. System, o którym mowa, napędzany jest pojedynczym procesorem Xeon 5. generacji (o nazwie kodowej „Emerald Rapids”). Chociaż nie jesteśmy pewni, model o 7 miliardach parametrów, o którym wspomina Intel, może być Falcon LLM.
Chociaż GPT i inne modele LLM (modele wielkojęzykowe) są bardzo przydatne i przyjemne w zabawie, mogą być bardzo wymagające zarówno pod względem sprzętowym, jak i ogólnych wymagań. Na przykład ostatnie badania sugerują, że ChatGPT „wypija” około pół litra wody na każde 20 podpowiedzi. Pod względem finansowym raport z początku roku sugerował, że ChatGPT może kosztować prawie trzy czwarte miliona, czyli 700 000 dolarów dziennie . Oczywiście dostawcy sprzętu, tacy jak Intel, AMD i Nvidia, widzą w tym szansę, dlatego projektują rozwiązania nowej generacji z myślą o akceleracji AI.
Oprócz wersji demonstracyjnej Xeon 5. generacji Intel zapowiedział także wydajność, jakiej możemy się spodziewać po „Granite Rapids” szóstej generacji. Firma twierdzi, że nastąpiła 2-3-krotna poprawa, częściowo dzięki wzmocnieniu, jakie uzyska dzięki aktualizacji podsystemu pamięci. Intel wprowadzi technologię 12-kanałową z obsługą aż do modułów DDR5-8800 MCR DIMM w procesorach Xeon 6. generacji w porównaniu do 8-kanałowych pamięci DDR5-8000 w piątej generacji. Premiera pierwszej generacji planowana jest na rok 2024, podczas gdy piąta generacja już pobiera próbki dla klientów .
Dodaj komentarz