Microsoft Phi-3 AI lokal unter Windows ausführen: Eine Schritt-für-Schritt-Anleitung
Wichtige Hinweise
Eine umfassende Anleitung zum lokalen Ausführen von Microsoft Phi-3 unter Windows
In diesem Handbuch erfahren Sie, wie Sie das KI-Modell Phi-3 von Microsoft unter Windows mithilfe von Ollama und LM Studio installieren und ausführen können. Außerdem werden praktische Schritte für beide Ansätze bereitgestellt.
Was Sie wissen sollten
- Phi-3 von Microsoft ist ein kompaktes und dennoch leistungsfähiges KI-Modell, das effizient lokal unter Windows ausgeführt werden kann.
- Installieren Sie Ollama und führen Sie dann den Befehl
ollama run phi3in Ihrem Terminal aus (z. B.CMD).Nach Abschluss des Downloads können Sie direkt im Terminal mit der KI interagieren. - Alternativ können Sie LM Studio als grafische Oberfläche verwenden, um lokal mit Phi-3 zu chatten. Laden Sie die Phi-3-Guff-Datei separat herunter, legen Sie sie im Verzeichnis von LM Studio ab und laden Sie das Modell dort, um Chats zu starten.
Microsofts Phi-3-Modelle stellen einen großen Fortschritt in der KI dar und übertreffen viele neuere Modelle wie Llama 3 und Mixtral in vielerlei Hinsicht. Dank seiner kompakten Größe lässt sich Phi-3 nahtlos auf Ihrem Windows-Rechner ausführen. Nachfolgend finden Sie detaillierte Anweisungen zur Verwendung von Ollama und LM Studio für diesen Zweck.
Ausführen von Microsoft Phi-3 unter Windows mit Ollama
Ollama dient als umfassendes Framework zum Ausführen und Experimentieren mit großen Sprachmodellen (LLMs).Sehen wir uns an, wie Sie es einrichten, um Microsoft Phi-3 lokal auf Ihrem Windows-Computer auszuführen.
Schritt 1: Ollama installieren
Beginnen Sie mit dem Herunterladen und Installieren von Ollama:
- Ollama für Windows | Download-Link
- Klicken Sie auf den obigen Link und wählen Sie „Download für Windows (Vorschau)“ aus.
- Sobald der Download abgeschlossen ist, führen Sie die Setup-Datei aus.
- Folgen Sie den Anweisungen und klicken Sie auf „Installieren“, um die Installation von Ollama abzuschließen.
Schritt 2: Führen Sie den Phi-3-Download-Befehl aus
Laden wir nun das Phi-3-Modell über Ollama herunter:
- Besuchen Sie Ollama.com und navigieren Sie zum Abschnitt „Modelle“.
- Suchen Sie nach phi3 und wählen Sie es aus, oder scrollen Sie nach unten, um es zu finden.
- Kopieren Sie den angezeigten Befehl zum Herunterladen von phi3.
- Öffnen Sie die Eingabeaufforderung oder eine beliebige Terminal-App über das Startmenü.
- Fügen Sie den kopierten Befehl in das Terminal ein.
- Klicken Sie auf Enter und warten Sie, bis der Download von Phi-3 abgeschlossen ist.
- Sobald die Eingabeaufforderung „Nachricht senden“ angezeigt wird, können Sie lokal mit der KI kommunizieren.
Schritt 3: Nutzen Sie den Phi-3 LLM von Microsoft
Sie können einen Chat direkt im Terminal starten. Geben Sie einfach Ihren Befehl ein und drücken Sie Enter.
Hier sind einige Bereiche, in denen Phi-3 herausragend ist:
Testen der Zensurresistenz.Bewerten des Verständnisses komplexer Themen.Erkennen von Halluzinationen.Bewerten der Kreativität.
Ausführen von Microsoft Phi-3 unter Windows mit LM Studio
Wenn Sie keine Terminaloberfläche bevorzugen, bietet LM Studio eine robuste grafische Umgebung für die Interaktion mit Microsoft Phi-3. Gehen Sie wie folgt vor, um es einzurichten:
Schritt 1: Installieren Sie LM Studio
- LM Studio | Download-Link
- Folgen Sie dem Link, um LM Studio für Windows herunterzuladen.
- Führen Sie nach dem Download das Installationsprogramm aus, um LM Studio einzurichten.
Schritt 2: Erwerben Sie die Phi-3 Guff-Datei
Sie müssen die Phi-3 Guff-Datei separat herunterladen:
- Phi-3 Mini Guff-Datei | Download-Link
- Klicken Sie auf den Link oben und navigieren Sie zu „Dateien“.
- Wählen Sie eine der Phi-3-Modellversionen aus – vorzugsweise die kleinere Option.
- Klicken Sie auf „Herunterladen“, um die Guff-Datei abzurufen.
- Speichern Sie es an einem geeigneten Ort auf Ihrem Computer.
Schritt 3: Importieren des Phi-3-Modells
Laden wir nun das heruntergeladene Phi-3-Modell in LM Studio:
- Öffnen Sie LM Studio und wählen Sie „Meine Modelle“ aus dem Menü auf der linken Seite.
- Überprüfen Sie den Pfad zum Ordner „Lokale Modelle“.Klicken Sie auf „ Im Datei-Explorer anzeigen“, um darauf zuzugreifen.
- Erstellen Sie in diesem Verzeichnis einen neuen Ordner mit dem Namen Microsoft.
- Erstellen Sie im Microsoft-Ordner einen Unterordner mit dem Namen Phi-3.
- Platzieren Sie die heruntergeladene Phi-3 Guff-Datei im Phi-3-Ordner.
- Das Modell sollte in LM Studio angezeigt werden. Möglicherweise müssen Sie es neu starten, damit die Änderungen wirksam werden.
- Um das Phi-3-Modell zu starten, gehen Sie zur Option „AI-Chat“ in der Seitenleiste.
- Wählen Sie „ Zum Laden ein Modell auswählen“ und suchen Sie das Phi-3-Modell.
- Warten Sie, bis es vollständig geladen ist. Um die CPU-Auslastung zu reduzieren, können Sie es auf die GPU auslagern. Navigieren Sie dazu zu Erweiterte Konfiguration > Hardwareeinstellungen.
- Aktivieren Sie Max unter „GPU-Beschleunigung“ und klicken Sie auf „Modell neu laden“, um die Konfiguration anzuwenden.
- Sobald das Modell vollständig geladen ist, können Sie mit Phi-3 chatten.
Schritt 4: Nutzen Sie den Phi-3 LLM von Microsoft
Das war’s! Geben Sie Ihre Eingabeaufforderung ein, und unabhängig von Ihrem Internetverbindungsstatus können Sie jetzt lokal mit dem Phi-3-Modell von Microsoft auf Ihrem Windows-PC kommunizieren.
Zusätzliche Tipps
- Stellen Sie sicher, dass Ihre Windows-Version alle erforderlichen Systemanforderungen für eine optimale Leistung erfüllt.
- Starten Sie Ihr Terminal oder LM Studio neu, wenn die Modelle nach der Installation nicht wie erwartet angezeigt werden.
- Suchen Sie regelmäßig nach Updates für Ollama und LM Studio, um die Funktionalität zu verbessern.
Zusammenfassung
Diese Anleitung bietet eine Schritt-für-Schritt-Anleitung zur erfolgreichen Installation und Ausführung des Microsoft Phi-3-Modells lokal unter Windows mithilfe von Ollama und LM Studio. Egal, ob Sie mit Terminalbefehlen vertraut sind oder eine grafische Benutzeroberfläche bevorzugen, beide Methoden ermöglichen Ihnen die effektive Nutzung dieses KI-Modells.
Abschluss
Mit Microsoft Phi-3 lokal können Sie erweiterte KI-Funktionen direkt auf Ihrem Gerät erkunden. Richten Sie Ollama oder LM Studio wie beschrieben ein und tauchen Sie mit Phi-3 in interaktive Gespräche ein. Experimentieren Sie mit verschiedenen Eingabeaufforderungen, um die Möglichkeiten dieses außergewöhnlichen Modells voll auszuschöpfen!
Häufig gestellte Fragen
Wie behebt man, dass Ollama beim Herunterladen von Phi-3 hängen bleibt?
Sollten Sie beim Herunterladen von Phi-3 über Ollama in der Eingabeaufforderung Probleme haben, geben Sie den Befehl einfach erneut ein ollama run phi3. Der Download wird dort fortgesetzt, wo er zuletzt unterbrochen wurde.