Microsoft と Intel が Direct ML 搭載プロセッサをデビューさせ、Windows 用初の NPU が登場

Microsoft と Intel が Direct ML 搭載プロセッサをデビューさせ、Windows 用初の NPU が登場
Windows NPU

ついに NPU の時代が到来しました。Microsoft と Intel は Windows 用初の NPU をデビューさせました。この NPU は、Windows エコシステム全体での AI の展開と開発を大幅に簡素化する API である Direct ML を利用しています。

私たちは、Windows 上で DirectML を利用した初のニューラル プロセッシング ユニット (NPU) を実現するために、重要なパートナーの 1 つである Intel® とのコラボレーションを発表できることを嬉しく思います。 AI は世界を変革し、イノベーションを推進し、業界全体で価値を創造しています。 NPU は、開発者と消費者の両方に素晴らしい AI エクスペリエンスを実現する上で重要なコンポーネントです。

マイクロソフト

Microsoft によると、Direct ML を活用した Windows NPU (Neural Processing Unit) は最新の Intel® Core™ Ultra プロセッサ上で実行され、Windows 上で AI の新たな可能性を実現します。最近、Windows の次期バージョンでは AI エクスペリエンスをユーザーに提供するために NPU に大きく依存すると報告されたので、ちょうど間に合うと言えます。あ>

Microsoft が発行したプレス リリースによると、Direct ML を利用した Windows NPU は 2024 年初頭に開発者プレビューに入り、同年にかけて徐々に一般プレビューに拡大される予定です。

では、これは通常の Windows ユーザーにとって何を意味するのでしょうか? NPU は通常の商用ユーザーを対象としていないため、現時点ではそれほど重要ではありませんが、それは短期間で変わるでしょう。説明しましょう。

Windows NPU: NPU とは何ですか?

AI が普及して以来、NPU は議論の対象となってきましたが、これには正当な理由があります。これらの特別なプロセッサは AI を使用して、高精度かつ少ない電力使用量でデータ処理を高速化します。

言い換えれば、NPU は、Microsoft が述べているように、計算集約型でグラフィックス操作を必要とせず、効率的な電力消費を実現する機械学習 (ML) ワークロードを可能にするために構築されたマイクロプロセッサです。

NPU は標準の CPU や GPU よりもはるかに高速で、数百万の操作を数秒で実行できるため、深層学習や精度などの複雑な計算など、広範なワークロードに最適なプロセッサーとなります。

Windows NPU

このため、NPU は、輸送、ハードウェア製造、自動化、ヘルスケア、金融など、大量の情報を処理する必要がある産業環境や産業に最適です。

NPU ベースの操作の実際のアプリケーションは次のとおりです。

  • 運送業界の場合と同様に、自動運転車。
  • 医療で使用される場合、医療画像を正確にスキャンし、それに基づいて正確な診断と治療を決定します。
  • 金融環境で使用される場合、リスク管理を計算し、何百万もの脅威を検出します。

これらは最も明白な例の一部であるため、リストはさらに続く可能性があります。 NPU は、推論と呼ばれるプロセスを使用してこのようなことを行うことができます。これは、NPU がさまざまなオブジェクトや主題を認識するためにデータに基づいてトレーニングされていることを意味します。簡単に言うと、NPU は環境を認識できるようになります。

推論プロセスは、新しい入力が NPU に与えられると発生し、その訓練された認識を使用して、プロセッサーが新しい入力を分析し、新しい視点を提供します。推論プロセスの優れた点は、まず、推論プロセスが可能な限り事実に基づいて構築されることを意図していることです。

これは、NPU が提供する視点も事実として正しく、正しい方法論の中に存在することを意味します。

実際、マイクロソフトは、現実の方法論を使用して、科学的な観点から新しい視点を開発、認識、提供する AI モデルのトレーニングに幅広く取り組んでいる企業の 1 つです。

今年だけでも、レドモンドに本拠を置くテクノロジー大手は、さまざまな AI 研究プロジェクトに多大なリソースを投資しており、その多くは際立っています: LongMem< a i=2>、ゴリラ AIコスモス-2、その他多数既存の研究を利用して限界を押し広げ、まだ発見されていない独自の方法論を考案するモデルがさらに増えています。

やがて、AI のパフォーマンスが向上し、最終的には AGI の状態に到達すると、NPU はそのテクノロジーを利用して、複雑な問題を解決できるスーパーコンピューターを構築し、人類の最大の懸念に対処する方法を考案できるようになります。

SF映画のワンシーンのように聞こえますが、これが起こるのは時間の問題です。 AGI 機能を備えた NPU ベースのデバイスは、短期間で数十億件の研究研究を実行できるため、理論的には数か月以内に重篤な病気の治療法を見つけることができる可能性があります。

標準的な商用ユーザーにとって、特定のタスクを完了することを目的としている限り、NPU ベースのデバイスは便利です。現在、多くの企業がまさにそれを目的とした独自の NPU 機能を開発しています。

たとえば、インテルのニューラル ネットワーク プロセッサ (NNP) の例を考えてみましょう。これは、顧客に強力なパフォーマンスを提供できる NPU プロセッサです。デバイス。現在、市場には次のような他にも無数の NPU があります。

  • GoogleのTPU
  • IntelのNNP、Myriad、EyeQ
  • Nvidia の NVDLA
  • Amazon による AWS Inferentia
  • アリババのAli-NPU
  • 百度の崑崙
  • ビットメインのソフォン
  • MLU by カンブリコン
  • グラフコア製IPU
  • ファーウェイのアセンド
  • Apple のニューラル エンジン
  • Samsung 製ニューラル プロセッシング ユニット (NPU)

これらの NPU がどのような機能を備えているかを明らかにするのはまだ時期尚早ですが、理論的には、あらゆるデバイスをミニ スーパーコンピューターに変えることができます。これは、Microsoft が Windows 用の DirectML ベースの NPU をリリースすることで実現しようとしていることなのでしょうか?

そうかもしれませんが、待たなければなりません。幸いなことに、2024 年は私たちの目の前にあります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です