Amazon は、AWS の大規模言語モデルのトレーニング用に 2 つのカスタム生成 AI チップの開発に取り組んでいます
ここ数カ月間、Microsoft、Google、OpenAI、NVIDIA などの企業が、生成 AI ハードウェアおよびソフトウェア サービスを進歩させる取り組みで注目を集めてきました。大手テクノロジー企業の 1 つである Amazon も AI の話題に参加しようとしています。
CNBC の報道によると、同社のアマゾン ウェブ サービス部門は、Inferentia と Trainium という 2 つのカスタム チップに取り組んでおり、大規模な言語モデルをトレーニングするための Grace Hopper スーパーチップを搭載した NVIDIA 製のチップに匹敵することを期待しているとのことです。NVIDIA は、2024 年に利用可能になる次世代 Grace Hopper プラットフォームを発表したばかりです。
AWS はカスタムチップの製造に慣れています。それは 10 年前に Nitro から始まり、Amazon によれば、現在ではすべての AWS サーバーに少なくとも 1 つの Nitro チップが搭載されています。
現在、Amazon はテキサス州オースティンのオフィスで、Trainium チップと Inferential チップの新バージョンの開発に取り組んでいます。これは、NVIDIA ベースのハードウェアを使用せずに、Amazon 製チップを搭載した AWS サーバー上で生成 AI LLM をトレーニングする方法を顧客に提供する同社のソリューションです。
Amazon によると、最大の利点の 1 つは、AWS がすでに何百万もの顧客によって使用されており、サーバーとそのツールに慣れていることです。AWS のテクノロジー担当副社長である Mai-Lan Tomsen Bukovec 氏は次のように述べています。
それは速度の問題です。これらの企業がこれらの生成 AI アプリケーションの開発にどれだけ早く移行できるかは、まず AWS にあるデータに基づいて開始し、当社が提供するコンピューティングおよび機械学習ツールを使用することによって決まります。
Amazon は、LLM のトレーニング用に独自のチップを製造しようとしていますが、AWS サーバーでは同じ目的で NVIDIA チップの一部も使用しています。7 月には、 AWS ユーザーがAmazon EC2 P5 インスタンスを利用できるようになったと発表しました。これらのサーバーは、NVIDIA H100 Tensor コア GPU を搭載しています。
Amazon は CNBC に対し、顧客のうち「10 万人以上」が機械学習に AWS を使用していると述べました。これは同社の AWS 顧客ベース全体のほんの一部にすぎないが、生成 AI がより多くの業界に拡大するにつれて、ますます多くの顧客が Amazon のソリューションを使い始める可能性がある。
コメントを残す