Windows 上で Microsoft Phi-3 AI をローカルに実行する: ステップバイステップ ガイド
主な注意事項
Windows 上で Microsoft Phi-3 をローカルに実行するための包括的なガイド
このガイドでは、Ollama と LM Studio の両方を使用して Windows に Microsoft の Phi-3 AI モデルをインストールして実行する方法について詳しく説明し、両方のアプローチで実行可能な手順を示します。
知っておくべきこと
- Microsoft の Phi-3 は、Windows 上でローカルに効率的に実行できるコンパクトでありながら強力な AI モデルです。
- Ollamaをインストールし、ターミナルでコマンドを実行します
ollama run phi3
(CMD など)。ダウンロードが完了すると、ターミナルで AI と直接対話できるようになります。 - あるいは、LM Studioのグラフィカルインターフェースを使って Phi-3 とローカルでチャットすることもできます。Phi -3 の guff ファイルを別途ダウンロードし、LM Studio のディレクトリに配置してモデルをロードすると、チャットを開始できます。
MicrosoftのPhi-3モデルはAIにおける飛躍的な進歩を示しており、Llama 3やMixtralといった多くの新しいモデルをいくつかの機能で凌駕しています。コンパクトなサイズのため、Phi-3はWindowsマシン上でシームレスに実行できます。以下では、OllamaとLM Studioの両方をこの目的で活用するための詳細な手順をご紹介します。
Ollama を使って Windows 上で Microsoft Phi-3 を実行する
Ollama は、大規模言語モデル (LLM) の実行と実験のために設計された包括的なフレームワークとして機能します。Windows マシン上で Microsoft の Phi-3 をローカルに実行するように設定する方法を見てみましょう。
ステップ1: Ollamaをインストールする
まず、Ollama をダウンロードしてインストールします。
- Windows用Ollama |ダウンロードリンク
- 上記のリンクをクリックし、「Windows 用にダウンロード (プレビュー)」を選択します。
- ダウンロードが完了したら、セットアップ ファイルを実行します。
- 指示に従って「インストール」をクリックし、 Ollama のインストールを完了します。
ステップ2: Phi-3ダウンロードコマンドを実行する
それでは、Ollama から Phi-3 モデルをダウンロードしてみましょう。
- Ollama.comにアクセスし、モデルセクションに移動します。
- phi3を検索して選択するか、下にスクロールして見つけます。
- phi3 をダウンロードするために表示されるコマンドをコピーします。
- スタート メニューからコマンド プロンプトまたは任意のターミナル アプリを開きます。
- コピーしたコマンドをターミナルに貼り付けます。
- を押して Enter 、Phi-3 のダウンロードが完了するまで待ちます。
- 「メッセージを送信」プロンプトが表示されたら、ローカルで AI と会話する準備が整います。
ステップ3: MicrosoftのPhi-3 LLMに参加する
ターミナル内で直接チャットを開始できます。プロンプトを入力して を押すだけです Enter。
Phi-3 が優れている分野は次のとおりです。
検閲耐性のテスト複雑なトピックの理解の評価幻覚の特定創造性の評価
LM Studio を使って Windows 上で Microsoft Phi-3 を実行する
ターミナルインターフェースがお好みでない場合は、LM Studio が Microsoft Phi-3 と対話するための堅牢なグラフィカル環境を提供します。設定は以下の手順に従ってください。
ステップ1: LM Studioをインストールする
- LM Studio |ダウンロードリンク
- リンクに従って、Windows 用の LM Studio をダウンロードしてください。
- ダウンロードしたら、インストーラーを実行して LM Studio をセットアップします。
ステップ2: Phi-3 Guffファイルを入手する
Phi-3 Guff ファイルを別途ダウンロードする必要があります。
- Phi-3 Mini Guff ファイル |ダウンロードリンク
- 上記のリンクをクリックして、「ファイル」に移動します。
- Phi-3 モデル バージョンの 1 つ (できれば小さい方のオプション) を選択します。
- Guff ファイルを取得するには、「ダウンロード」をクリックします。
- コンピュータ上の便利な場所に保存します。
ステップ3: Phi-3モデルのインポート
それでは、ダウンロードした Phi-3 モデルを LM Studio に読み込みましょう。
- LM Studio を開き、左側のメニューから[My Models]を選択します。
- 「ローカルモデルフォルダ」のパスを確認してください。「エクスプローラーで表示」をクリックしてアクセスしてください。
- このディレクトリ内にMicrosoftという名前の新しいフォルダーを作成します。
- Microsoft フォルダー内に、Phi-3というサブフォルダーを作成します。
- ダウンロードしたPhi-3 GuffファイルをPhi-3フォルダに配置します。
- モデルはLM Studioに表示されるはずです。変更を有効にするには、再起動が必要になる場合があります。
- Phi-3 モデルを開始するには、サイドバーのAI チャットオプションに移動します。
- ロードするモデルの選択を選択し、Phi-3 モデルを見つけます。
- 完全に読み込まれるまで待ちます。CPU負荷を軽減するために、 「詳細設定」>「ハードウェア設定」に移動してGPUへのオフロードを検討してください。
- 「GPU アクセラレーション」でMaxを有効にし、モデルの再ロードをクリックして構成を適用します。
- モデルの読み込みが完了すると、Phi-3 とのチャットを開始できます。
ステップ4: MicrosoftのPhi-3 LLMに参加する
これで完了です。プロンプトを入力すると、インターネット接続の状態に関係なく、Windows PC 上の Microsoft Phi-3 モデルとローカルで通信できるようになります。
追加のヒント
- 最適なパフォーマンスを得るために、Windows バージョンがすべての必要なシステム要件を満たしていることを確認してください。
- インストール後にモデルが期待どおりに表示されない場合は、ターミナルまたは LM Studio を再起動してください。
- 機能改善のため、Ollama と LM Studio のアップデートを定期的に確認することを検討してください。
まとめ
このガイドでは、OllamaとLM Studioの両方を使用して、Microsoft Phi-3モデルをWindowsにローカルインストールして実行するための手順を段階的に説明します。ターミナルコマンドを好む方でも、グラフィカルユーザーインターフェースを好む方でも、どちらの方法でもこのAIモデルを効果的に活用できます。
結論
MicrosoftのPhi-3をローカルで実行すれば、デバイス上で高度なAI機能を直接体験できます。OllamaまたはLM Studioを指示通りにセットアップし、Phi-3とのインタラクティブな会話を体験してください。この優れたモデルの機能をフル活用するために、ぜひ様々なプロンプトを試して遊んでみてください。
よくある質問
Phi-3 のダウンロードで Ollama が停止する問題を修正するにはどうすればいいですか?
コマンドプロンプトでOllama経由でPhi-3をダウンロードする際に問題が発生した場合は、コマンドを再入力してください ollama run phi3
。ダウンロードは最後に中断したところから再開されます。