Amazon은 AWS 대규모 언어 모델 교육을 위한 두 개의 맞춤형 생성 AI 칩을 개발하고 있습니다.
지난 몇 달 동안 Microsoft, Google, OpenAI 및 NVIDIA와 같은 회사는 생성 AI 하드웨어 및 소프트웨어 서비스를 발전시키기 위한 노력으로 헤드라인을 장식했습니다. 한 주요 기술 회사인 Amazon도 AI 대화에 참여하려고 노력하고 있습니다.
CNBC는 Amazon Web Services 사업부가 Inferentia와 Trainium이라는 두 개의 맞춤형 칩을 개발하고 있으며, 대규모 언어 모델 훈련을 위해 NVIDIA의 Grace Hopper 슈퍼칩과 경쟁할 수 있기를 희망하고 있다고 보고했습니다. NVIDIA는 2024년에 출시될 차세대 Grace Hopper 플랫폼을 발표했습니다 .
AWS는 맞춤형 칩을 만드는 데 익숙합니다. 그것은 10년 전에 Nitro로 시작했으며 Amazon은 이제 모든 AWS 서버에 적어도 하나의 Nitro 칩이 있다고 말합니다.
현재 텍사스 오스틴 사무실에서 Amazon은 Trainium 및 Inferential 칩의 새 버전을 작업하고 있습니다. 이것은 고객이 NVIDIA 기반 하드웨어를 사용하지 않고도 Amazon에서 만든 칩을 사용하여 AWS 서버에서 생성 AI LLM을 교육할 수 있는 방법을 제공하는 회사의 솔루션입니다.
Amazon은 자사의 가장 큰 장점 중 하나가 이미 서버와 도구에 익숙한 수백만 고객이 AWS를 사용하고 있다는 점이라고 말합니다. AWS의 기술 부사장인 Mai-Lan Tomsen Bukovec은 다음과 같이 말했습니다.
속도의 문제입니다. 이러한 회사가 이러한 제너레이티브 AI 애플리케이션을 개발하기 위해 얼마나 빨리 움직일 수 있는지는 먼저 AWS에 있는 데이터에서 시작하고 우리가 제공하는 컴퓨팅 및 기계 학습 도구를 사용하여 결정됩니다.
Amazon은 LLM 교육을 위해 자체 칩을 만들려고 노력하고 있지만 AWS 서버에서도 같은 목적으로 일부 NVIDIA 칩을 사용하고 있습니다. 7월에는 AWS 사용자가 Amazon EC2 P5 인스턴스를 사용할 수 있다고 발표했습니다 . 이러한 서버는 NVIDIA H100 Tensor Core GPU로 구동됩니다.
Amazon은 CNBC에 “100,000명 이상의” 고객이 기계 학습을 위해 AWS를 사용하고 있다고 밝혔습니다. 이는 회사 전체 AWS 고객 기반의 일부에 불과하지만 생성 AI가 더 많은 산업으로 확장됨에 따라 점점 더 많은 고객이 Amazon 솔루션을 사용하기 시작할 수 있습니다.
답글 남기기