Uruchamianie Microsoft Phi-3 AI lokalnie w systemie Windows: przewodnik krok po kroku
Notatki kluczowe
Kompleksowy przewodnik po uruchamianiu Phi-3 firmy Microsoft lokalnie w systemie Windows
W tym przewodniku szczegółowo opisano, jak zainstalować i uruchomić model sztucznej inteligencji Phi-3 firmy Microsoft w systemie Windows przy użyciu zarówno Ollama, jak i LM Studio, podając praktyczne kroki dla obu podejść.
Co powinieneś wiedzieć
- Phi-3 firmy Microsoft to kompaktowy, ale wydajny model sztucznej inteligencji, który może wydajnie działać lokalnie w systemie Windows.
- Zainstaluj Ollamę, a następnie wykonaj polecenie
ollama run phi3w terminalu (np. CMD).Po zakończeniu pobierania możesz bezpośrednio wchodzić w interakcję z AI w terminalu. - Alternatywnie, użyj LM Studio jako graficznego interfejsu do czatowania z Phi-3 lokalnie. Pobierz plik guff Phi-3 osobno, umieść go w katalogu LM Studio i załaduj tam model, aby zainicjować czaty.
Modele Phi-3 firmy Microsoft stanowią krok naprzód w dziedzinie AI, przewyższając wiele nowszych modeli, takich jak Llama 3 i Mixtral, pod względem kilku możliwości. Ze względu na kompaktowy rozmiar Phi-3 można bezproblemowo uruchomić na komputerze z systemem Windows. Poniżej znajdziesz szczegółowe instrukcje dotyczące wykorzystania w tym celu zarówno Ollama, jak i LM Studio.
Uruchamianie Phi-3 firmy Microsoft w systemie Windows za pomocą Ollama
Ollama to wszechstronne środowisko przeznaczone do uruchamiania i eksperymentowania z dużymi modelami językowymi (LLM).Przyjrzyjmy się, jak je skonfigurować, aby można było uruchamiać lokalnie Phi-3 firmy Microsoft na komputerze z systemem Windows.
Krok 1: Zainstaluj Ollamę
Zacznij od pobrania i zainstalowania Ollama:
- Ollama dla Windows | Link do pobrania
- Kliknij powyższy link i wybierz opcję Pobierz dla systemu Windows (wersja zapoznawcza).
- Po zakończeniu pobierania uruchom plik instalacyjny.
- Postępuj zgodnie z instrukcjami i kliknij Instaluj, aby zakończyć instalację Ollama.
Krok 2: Wykonaj polecenie pobierania Phi-3
Teraz pobierzmy model Phi-3 przez Ollama:
- Odwiedź Ollama.com i przejdź do sekcji Modele.
- Wyszukaj i wybierz phi3 lub przewiń w dół, aby ją znaleźć.
- Skopiuj polecenie, które się pojawi, aby pobrać phi3.
- Otwórz wiersz poleceń lub dowolną aplikację terminalową z menu Start.
- Wklej skopiowane polecenie do terminala.
- Naciśnij Enter i poczekaj, aż Phi-3 zakończy pobieranie.
- Gdy pojawi się monit „Wyślij wiadomość”, będziesz gotowy na lokalną rozmowę z SI.
Krok 3: Zaangażuj się w program Phi-3 LLM firmy Microsoft
Możesz rozpocząć czat bezpośrednio w terminalu. Po prostu wprowadź swój monit i naciśnij Enter.
Oto kilka obszarów, w których Phi-3 się wyróżnia:
Testowanie odporności na cenzurę Ocena złożonego zrozumienia tematu Identyfikacja halucynacji Ocena kreatywności
Uruchamianie Phi-3 firmy Microsoft w systemie Windows za pomocą LM Studio
Jeśli interfejs terminala nie jest tym, co wolisz, LM Studio zapewnia solidne środowisko graficzne do interakcji z Phi-3 firmy Microsoft. Wykonaj następujące kroki, aby je skonfigurować:
Krok 1: Zainstaluj LM Studio
- LM Studio | Link do pobrania
- Kliknij poniższy link, aby pobrać LM Studio dla systemu Windows.
- Po pobraniu uruchom instalator, aby skonfigurować LM Studio.
Krok 2: Zdobądź plik Phi-3 Guff
Plik Phi-3 Guff należy pobrać osobno:
- Plik Phi-3 Mini Guff | Link do pobrania
- Kliknij powyższy link i przejdź do Plików.
- Wybierz jedną z wersji modelu Phi-3 — najlepiej mniejszą opcję.
- Kliknij Pobierz, aby pobrać plik Guff.
- Zapisz go w dogodnym dla siebie miejscu na komputerze.
Krok 3: Importuj model Phi-3
Teraz załadujmy pobrany model Phi-3 do LM Studio:
- Otwórz LM Studio i wybierz Moje modele z menu po lewej stronie.
- Sprawdź ścieżkę „Local models folder”.Kliknij na Show in File Explorer, aby uzyskać do niej dostęp.
- Utwórz nowy folder o nazwie Microsoft w tym katalogu.
- W folderze Microsoft utwórz podfolder o nazwie Phi-3.
- Umieść pobrany plik Phi-3 Guff w folderze Phi-3.
- Model powinien zostać wyświetlony w LM Studio. Może być konieczne ponowne uruchomienie, aby zmiany zostały zastosowane.
- Aby zainicjować model Phi-3, przejdź do opcji Czat AI na pasku bocznym.
- Wybierz Wybierz model do załadowania i znajdź model Phi-3.
- Pozwól na całkowite załadowanie. Rozważ odciążenie procesora graficznego, aby zmniejszyć obciążenie procesora, przechodząc do Zaawansowanej konfiguracji > Ustawienia sprzętu.
- Włącz Max w „Przyspieszeniu GPU” i kliknij Przeładuj model, aby zastosować konfigurację.
- Po załadowaniu modelu możesz rozpocząć czat z Phi-3.
Krok 4: Zaangażuj się w program Phi-3 LLM firmy Microsoft
To wszystko! Wprowadź swój monit i niezależnie od stanu połączenia internetowego możesz teraz komunikować się z modelem Phi-3 firmy Microsoft na swoim komputerze z systemem Windows lokalnie.
Dodatkowe wskazówki
- Upewnij się, że Twoja wersja systemu Windows spełnia wszystkie niezbędne wymagania systemowe, aby zapewnić optymalną wydajność.
- Jeśli po instalacji modele nie pojawiają się zgodnie z oczekiwaniami, uruchom ponownie terminal lub LM Studio.
- Aby udoskonalić funkcjonalność programów Ollama i LM Studio, należy regularnie sprawdzać ich dostępność.
Streszczenie
Ten przewodnik przedstawia krok po kroku podejście do pomyślnej instalacji i uruchomienia modelu Phi-3 firmy Microsoft lokalnie w systemie Windows, przy użyciu zarówno Ollama, jak i LM Studio. Niezależnie od tego, czy wygodnie jest Ci używać poleceń terminala, czy wolisz graficzny interfejs użytkownika, obie metody pozwalają Ci skutecznie wykorzystać ten model AI.
Wniosek
Dzięki lokalnemu uruchomieniu Phi-3 firmy Microsoft możesz eksplorować zaawansowane funkcje AI bezpośrednio na swoim urządzeniu. Skonfiguruj Ollamę lub LM Studio zgodnie z instrukcją i zanurz się w interaktywnych konwersacjach z Phi-3. Nie wahaj się eksperymentować i bawić się różnymi monitami, aby w pełni wykorzystać możliwości tego wyjątkowego modelu!
Często zadawane pytania
Jak naprawić problem z Ollamą, który utknął na pobieraniu Phi-3?
Jeśli masz problemy z pobieraniem Phi-3 przez Ollama w wierszu poleceń, po prostu wprowadź ponownie polecenie ollama run phi3. Pobieranie zostanie wznowione od miejsca, w którym zostało ostatnio przerwane.