Windows 上で Microsoft Phi-3 AI をローカルに実行するためのガイド
主な注意事項
- Microsoft の Phi-3 は、Windows マシン上でローカルに実行できる、コンパクトでありながら堅牢な AI モデルです。
- ターミナルのコマンドで Ollama を 利用して
ollama run phi3
AI と対話します。 - 視覚的なインタラクションを行うには、 LM Studio を 使用して、別のダウンロードから Phi-3 モデルを統合できます。
AI のパワーを解き放つ: Windows PC で Microsoft Phi-3 を実行する
Microsoft の Phi-3 AI モデルは技術コミュニティで大きな話題となり、愛好家や開発者にとって、ローカルで実行する方法を知ることが不可欠になっています。このガイドでは、Ollama と LM Studio の両方を使用して Phi-3 をインストールして使用する手順を段階的に説明し、オンライン接続を必要とせずにその機能にアクセスできるようにします。
始める前に知っておくべき重要な情報
- Microsoft の Phi-3 は、Windows 上でローカルに実行できる、小型ながら強力な AI モデルです。
- Ollama をインストールし、ターミナル アプリ (CMD など) でコマンドを実行します
ollama run phi3
。Phi-3 がダウンロードされると、ターミナル内で AI とチャットできるようになります。 - LM Studio などのソフトウェアをグラフィカル インターフェイスとして使用して、ローカルで Phi-3 とチャットすることもできます。Phi -3 guff ファイルを 別途ダウンロードし、LM Studio のディレクトリ内に保存します。次に、LM Studio 内でモデルをロードし、Windows 上でローカルで Phi-3 とチャットを開始します。
Ollama を使って Windows 上で Microsoft の Phi-3 を実行する
Ollama は、大規模な言語モデルをローカルで実行するための優れたフレームワークを提供します。ここでは、これを使用して Microsoft の Phi-3 を Windows マシンで実行する方法を説明します。
ステップ1: Ollamaを取得してセットアップする
まず、Ollama をダウンロードしてインストールします。
- Windows 用 Ollama | ダウンロード リンク
- 上記のリンクを使用して、 「Windows 用ダウンロード (プレビュー)」 をクリックします。
- ダウンロード後、セットアップファイルを実行します。
- [インストール] をクリックしてインストール プロセスを実行します。
ステップ2: Phi-3コマンドを実行してモデルを取得する
Phi-3 モデルをダウンロードするには、次の手順に従ってください。
- Ollama.com にアクセスし、 モデル セクションに移動します。
- phi3 を 検索して見つけます。
- phi3 をダウンロードするために使用できるコマンドをコピーします。
- スタート メニューからコマンド プロンプト (または任意のターミナル) を開きます。
- コピーしたコマンドをターミナル アプリケーション内に貼り付けます。
- Enter キーを押して、Phi-3 モデルがダウンロードされるのを待ちます。
- 「メッセージを送信」プロンプトが表示されたら、モデルは対話の準備が整っています。
ステップ3: MicrosoftのPhi-3 LLMとの会話を始める
ターミナルでモデルを直接操作します。プロンプトを入力して Enter キーを押します。探索できる機能は次のとおりです。
検閲耐性のテスト:
複雑なトピックの理解度を評価する:
幻覚の検出:
創造性の評価:
LM Studio を使用して Windows 上で Microsoft Phi-3 を実行する
Phi-3 を操作するために、よりシンプルなグラフィカル インターフェイスが望ましい場合は、LM Studio の使用を検討してください。設定方法は次のとおりです。
ステップ1: LM Studioをダウンロードしてインストールする
- LM Studio | ダウンロードリンク
- 提供されているリンクを使用して、LM Studio for Windows をダウンロードしてください。
- インストーラーを開き、LM Studio のインストールを完了させます。
ステップ2: Phi-3 GGUFファイルを取得する
Phi-3 を LM Studio と統合するには、GGUF ファイルを別途ダウンロードします。
- Phi-3-Mini GGUF ファイル | ダウンロード リンク
- リンクにアクセスし、 「ファイル」 を選択します。
- Phi-3 モデルのバージョンを選択してください。使いやすさを考えると、小型バージョンをお勧めします。
- 選択したバージョンのダウンロードを開始します。
- ファイルをアクセスしやすい場所に保存します。
ステップ3: Phi-3モデルをLM Studioに追加する
次に、ダウンロードした Phi-3 モデルをロードします。
- LM Studio を起動し、 「My Models」 をクリックします。
- 「ローカル モデル フォルダー」を確認し、 [ファイル エクスプローラーで表示] から開きます。
- ディレクトリに Microsoft という名前のフォルダーを作成します。
- Microsoft フォルダー内に、 Phi-3 というタイトルの別のフォルダーを作成します。
- ダウンロードしたGGUFファイルをPhi-3フォルダに転送します。
- ファイルを移動すると、LM Studio に表示されます (アプリケーションを再起動する必要がある場合があります)。
- 対話するには、メニューから AI チャット を選択します。
- ロードするモデルを選択 を選択し、Phi-3 モデルを選択します。
- LM Studio がモデルを読み込むまで待ちます。
- 最適なパフォーマンスを得るには、モデルを GPU 経由で動作するように構成することを検討し、 [詳細構成] > [ハードウェア設定] で設定を調整します。
- 「GPUアクセラレーション」を 最大 に変更します。
- 構成を適用するには、モデルの再ロード をクリックします。
- モデルが完全に読み込まれたら、LM Studio で操作を開始します。
ステップ4: MicrosoftのPhi-3 LLMとの会話を始める
これで、モデルを操作する準備ができました。任意のプロンプトを入力すると、インターネットに接続していなくても、Windows マシン上で Microsoft の Phi-3 とローカルにチャットを楽しむことができます。
まとめ
このチュートリアルでは、Ollama のコマンド ライン インターフェイスを選択するか、LM Studio のグラフィカル インターフェイスを選択するかに関係なく、Windows PC で Microsoft の Phi-3 を実行するために必要な手順を説明しました。どちらの方法でも、AI とのやり取りに新たな可能性が開かれます。
結論
これらの洞察と指示により、Microsoft の Phi-3 の機能をローカルで探索できるようになります。ターミナル コマンドを好むか、より視覚的なエクスペリエンスを好むかは、あなた次第です。魅力的な AI の世界に飛び込んで、インタラクションをお楽しみください。
FAQ(よくある質問)
Phi-3 のダウンロード中に Ollama が停止した場合はどうすればよいですか?
Ollama が Phi-3 をダウンロードしないという問題が発生した場合は、 を再度入力してください ollama run phi3
。ダウンロードは停止したところから再開されるはずです。