Windows 上で Microsoft Phi-3 AI をローカルに実行するためのガイド
主な注意事項
AIの力を解き放つ:Windows PCでMicrosoft Phi-3を実行する
MicrosoftのAIモデルPhi-3はテクノロジーコミュニティで大きな話題となり、愛好家や開発者にとってローカルでの実行方法を知ることは不可欠となっています。このガイドでは、OllamaとLM Studioの両方を使用してPhi-3をインストールして使用する方法を段階的に説明します。これにより、オンライン接続を必要とせずにPhi-3の機能にアクセスできます。
始める前に知っておくべき重要なポイント
- Microsoft の Phi-3 は、Windows 上でローカルに実行できる、小型ながらも強力な AI モデルです。
- Ollamaをインストールし、ターミナル アプリ (CMD など) でコマンドを実行します
ollama run phi3。Phi-3 がダウンロードされると、ターミナル内で AI とチャットできるようになります。 - LM Studioのようなグラフィカルインターフェースソフトウェアを使って、Phi-3とローカルでチャットすることも可能です。Phi -3のguffファイルを別途ダウンロードし、LM Studioのディレクトリに保存してください。その後、LM Studio内でモデルを読み込み、Windows上でPhi-3とローカルでチャットを開始してください。
Ollama を使って Windows 上で Microsoft Phi-3 を実行する
Ollamaは、大規模な言語モデルをローカルで実行するための優れたフレームワークを提供します。ここでは、Ollamaを使ってMicrosoftのPhi-3をWindowsマシンで起動する方法を説明します。
ステップ1: Ollamaの取得とセットアップ
まず、Ollama をダウンロードしてインストールします。
- Windows用Ollama |ダウンロードリンク
- 上記のリンクを使用して、「Windows 用ダウンロード (プレビュー)」をクリックします。
- ダウンロード後、セットアップファイルを実行します。
- 「インストール」をクリックしてインストールプロセスを実行します。
ステップ2: Phi-3コマンドを実行してモデルを取得する
Phi-3 モデルをダウンロードするには、次の手順に従ってください。
- Ollama.comにアクセスし、モデルセクションに移動します。
- phi3を検索して見つけます。
- phi3 をダウンロードするために使用できるコマンドをコピーします。
- スタート メニューからコマンド プロンプト (または任意のターミナル) を開きます。
- コピーしたコマンドをターミナル アプリケーション内に貼り付けます。
- Enter キーを押して、Phi-3 モデルがダウンロードされるのを待ちます。
- 「メッセージを送信」というプロンプトが表示されたら、モデルは対話の準備が整ったことになります。
ステップ3: MicrosoftのPhi-3 LLMとの会話を始める
ターミナルでモデルを直接操作してみましょう。プロンプトを入力してEnterキーを押します。以下のような機能を試すことができます。
検閲耐性のテスト:
複雑なトピックの理解度を評価する:
幻覚の検出:
創造性の評価:
LM Studio を使用して Windows 上で Microsoft Phi-3 を実行する
Phi-3の操作に、よりシンプルなグラフィカルインターフェースをご希望の場合は、LM Studioのご利用をご検討ください。設定方法は以下の通りです。
ステップ1: LM Studioをダウンロードしてインストールする
- LM Studio |ダウンロードリンク
- 提供されているリンクを使用して、LM Studio for Windows をダウンロードしてください。
- インストーラーを開き、LM Studio のインストールを完了させます。
ステップ2: Phi-3 GGUFファイルを取得する
Phi-3 を LM Studio と統合するには、GGUF ファイルを別途ダウンロードします。
- Phi-3-Mini GGUF ファイル |ダウンロードリンク
- リンクにアクセスし、[ファイル]を選択します。
- Phi-3 モデルのバージョンを選択してください。使いやすさを考慮して、小さいバージョンをお勧めします。
- 選択したバージョンのダウンロードを開始します。
- ファイルをアクセスしやすい場所に保存します。
ステップ3: LM StudioにPhi-3モデルを追加する
次に、ダウンロードした Phi-3 モデルをロードします。
- LM Studio を起動し、[My Models]をクリックします。
- 「ローカル モデル フォルダー」を確認し、[ファイル エクスプローラーで表示]から開きます。
- ディレクトリにMicrosoftという名前のフォルダーを作成します。
- Microsoft フォルダー内に、Phi-3というタイトルの別のフォルダーを作成します。
- ダウンロードしたGGUFファイルをPhi-3フォルダに転送します。
- ファイルを移動すると、LM Studio に表示されます (アプリケーションを再起動する必要がある場合があります)。
- 対話するには、メニューからAI チャットを選択します。
- ロードするモデルの選択を選択し、Phi-3 モデルを選択します。
- LM Studio がモデルを読み込むまで待ちます。
- 最適なパフォーマンスを得るには、モデルを GPU 経由で動作するように構成することを検討し、[詳細構成] > [ハードウェア設定]で設定を調整します。
- 「GPUアクセラレーション」を最大に変更します。
- 構成を適用するには、モデルの再ロードをクリックします。
- モデルが完全に読み込まれたら、LM Studio でインタラクションを開始します。
ステップ4: MicrosoftのPhi-3 LLMとの会話を始める
これでモデルを操作する準備が整いました!プロンプトを入力するだけで、インターネットに接続していなくても、Windows マシン上で Microsoft Phi-3 とローカルチャットをお楽しみいただけます。
まとめ
このチュートリアルでは、Ollamaのコマンドラインインターフェース、またはLM Studioのグラフィカルインターフェースのどちらを選択しても、Windows PCでMicrosoft Phi-3を実行するために必要な手順を説明しました。どちらの方法でも、AIとのインタラクションに新たな可能性が開かれます。
結論
これらの洞察と手順により、Microsoft Phi-3 の機能をローカルで探索できるようになります。ターミナルコマンドを好むか、より視覚的な体験を好むかは、あなた次第です。魅力的な AI の世界に飛び込み、インタラクションをお楽しみください!
FAQ(よくある質問)
Phi-3 のダウンロード中に Ollama が停止した場合はどうすればいいですか?
Ollama が Phi-3 をダウンロードできない問題が発生した場合は、再度入力してください ollama run phi3。ダウンロードは中断したところから再開されます。