Windows 上で Microsoft Phi-3 AI をローカルに実行するためのガイド

主な注意事項

  • Microsoft の Phi-3 は、Windows マシン上でローカルに実行できるコンパクトでありながら堅牢な AI モデルです。
  • ターミナルのコマンドでOllama を利用して ollama run phi3 AI と対話します。
  • 視覚的なインタラクションを実現するには、LM Studioを使用して、別のダウンロードから Phi-3 モデルを統合できます。

AIの力を解き放つ:Windows PCでMicrosoft Phi-3を実行する

MicrosoftのAIモデルPhi-3はテクノロジーコミュニティで大きな話題となり、愛好家や開発者にとってローカルでの実行方法を知ることは不可欠となっています。このガイドでは、OllamaとLM Studioの両方を使用してPhi-3をインストールして使用する方法を段階的に説明します。これにより、オンライン接続を必要とせずにPhi-3の機能にアクセスできます。

始める前に知っておくべき重要なポイント

  • Microsoft の Phi-3 は、Windows 上でローカルに実行できる、小型ながらも強力な AI モデルです。
  • Ollamaをインストールし、ターミナル アプリ (CMD など) でコマンドを実行します ollama run phi3 。Phi-3 がダウンロードされると、ターミナル内で AI とチャットできるようになります。
  • LM Studioのようなグラフィカルインターフェースソフトウェアを使って、Phi-3とローカルでチャットすることも可能です。Phi -3のguffファイルを別途ダウンロードし、LM Studioのディレクトリに保存してください。その後、LM Studio内でモデルを読み込み、Windows上でPhi-3とローカルでチャットを開始してください。

Ollama を使って Windows 上で Microsoft Phi-3 を実行する

Ollamaは、大規模な言語モデルをローカルで実行するための優れたフレームワークを提供します。ここでは、Ollamaを使ってMicrosoftのPhi-3をWindowsマシンで起動する方法を説明します。

ステップ1: Ollamaの取得とセットアップ

まず、Ollama をダウンロードしてインストールします。

  1. 上記のリンクを使用して、「Windows 用ダウンロード (プレビュー)」をクリックします。
  2. ダウンロード後、セットアップファイルを実行します。
  3. 「インストール」をクリックしてインストールプロセスを実行します。

ステップ2: Phi-3コマンドを実行してモデルを取得する

Phi-3 モデルをダウンロードするには、次の手順に従ってください。

  1. Ollama.comにアクセスし、モデルセクションに移動します。
  2. phi3を検索して見つけます。
  3. phi3 をダウンロードするために使用できるコマンドをコピーします。
  4. スタート メニューからコマンド プロンプト (または任意のターミナル) を開きます。
  5. コピーしたコマンドをターミナル アプリケーション内に貼り付けます。
  6. Enter キーを押して、Phi-3 モデルがダウンロードされるのを待ちます。
  7. 「メッセージを送信」というプロンプトが表示されたら、モデルは対話の準備が整ったことになります。

ステップ3: MicrosoftのPhi-3 LLMとの会話を始める

ターミナルでモデルを直接操作してみましょう。プロンプトを入力してEnterキーを押します。以下のような機能を試すことができます。

検閲耐性のテスト:

複雑なトピックの理解度を評価する:

幻覚の検出:

創造性の評価:

LM Studio を使用して Windows 上で Microsoft Phi-3 を実行する

Phi-3の操作に、よりシンプルなグラフィカルインターフェースをご希望の場合は、LM Studioのご利用をご検討ください。設定方法は以下の通りです。

ステップ1: LM Studioをダウンロードしてインストールする

  1. 提供されているリンクを使用して、LM Studio for Windows をダウンロードしてください。
  2. インストーラーを開き、LM Studio のインストールを完了させます。

ステップ2: Phi-3 GGUFファイルを取得する

Phi-3 を LM Studio と統合するには、GGUF ファイルを別途ダウンロードします。

  1. リンクにアクセスし、[ファイル]を選択します。
  2. Phi-3 モデルのバージョンを選択してください。使いやすさを考慮して、小さいバージョンをお勧めします。
  3. 選択したバージョンのダウンロードを開始します。
  4. ファイルをアクセスしやすい場所に保存します。

ステップ3: LM StudioにPhi-3モデルを追加する

次に、ダウンロードした Phi-3 モデルをロードします。

  1. LM Studio を起動し、[My Models]をクリックします。
  2. 「ローカル モデル フォルダー」を確認し、[ファイル エクスプローラーで表示]から開きます。
  3. ディレクトリにMicrosoftという名前のフォルダーを作成します。
  4. Microsoft フォルダー内に、Phi-3というタイトルの別のフォルダーを作成します。
  5. ダウンロードしたGGUFファイルをPhi-3フォルダに転送します。
  6. ファイルを移動すると、LM Studio に表示されます (アプリケーションを再起動する必要がある場合があります)。
  7. 対話するには、メニューからAI チャットを選択します。
  8. ロードするモデルの選択を選択し、Phi-3 モデルを選択します。
  9. LM Studio がモデルを読み込むまで待ちます。
  10. 最適なパフォーマンスを得るには、モデルを GPU 経由で動作するように構成することを検討し、[詳細構成] > [ハードウェア設定]で設定を調整します。
  11. 「GPUアクセラレーション」を最大に変更します。
  12. 構成を適用するには、モデルの再ロードをクリックします。
  13. モデルが完全に読み込まれたら、LM Studio でインタラクションを開始します。

ステップ4: MicrosoftのPhi-3 LLMとの会話を始める

これでモデルを操作する準備が整いました!プロンプトを入力するだけで、インターネットに接続していなくても、Windows マシン上で Microsoft Phi-3 とローカルチャットをお楽しみいただけます。

まとめ

このチュートリアルでは、Ollamaのコマンドラインインターフェース、またはLM Studioのグ​​ラフィカルインターフェースのどちらを選択しても、Windows PCでMicrosoft Phi-3を実行するために必要な手順を説明しました。どちらの方法でも、AIとのインタラクションに新たな可能性が開かれます。

結論

これらの洞察と手順により、Microsoft Phi-3 の機能をローカルで探索できるようになります。ターミナルコマンドを好むか、より視覚的な体験を好むかは、あなた次第です。魅力的な AI の世界に飛び込み、インタラクションをお楽しみください!

FAQ(よくある質問)

Phi-3 のダウンロード中に Ollama が停止した場合はどうすればいいですか?

Ollama が Phi-3 をダウンロードできない問題が発生した場合は、再度入力してください ollama run phi3。ダウンロードは中断したところから再開されます。