Uruchamianie Microsoft Phi-3 AI lokalnie w systemie Windows: przewodnik krok po kroku

Notatki kluczowe

  • Uruchom Phi-3 firmy Microsoft lokalnie w systemie Windows, aby wykorzystać jego potężne możliwości sztucznej inteligencji.
  • Wykorzystaj Ollamę, aby cieszyć się bezproblemowym korzystaniem z terminala.
  • Wybierz LM Studio ze względu na intuicyjny interfejs graficzny.

Kompleksowy przewodnik po uruchamianiu Phi-3 firmy Microsoft lokalnie w systemie Windows

W tym przewodniku szczegółowo opisano, jak zainstalować i uruchomić model sztucznej inteligencji Phi-3 firmy Microsoft w systemie Windows przy użyciu zarówno Ollama, jak i LM Studio, podając praktyczne kroki dla obu podejść.

Co powinieneś wiedzieć

  • Phi-3 firmy Microsoft to kompaktowy, ale wydajny model sztucznej inteligencji, który może wydajnie działać lokalnie w systemie Windows.
  • Zainstaluj Ollamę, a następnie wykonaj polecenie ollama run phi3 w terminalu (np. CMD).Po zakończeniu pobierania możesz bezpośrednio wchodzić w interakcję z AI w terminalu.
  • Alternatywnie, użyj LM Studio jako graficznego interfejsu do czatowania z Phi-3 lokalnie. Pobierz plik guff Phi-3 osobno, umieść go w katalogu LM Studio i załaduj tam model, aby zainicjować czaty.

Modele Phi-3 firmy Microsoft stanowią krok naprzód w dziedzinie AI, przewyższając wiele nowszych modeli, takich jak Llama 3 i Mixtral, pod względem kilku możliwości. Ze względu na kompaktowy rozmiar Phi-3 można bezproblemowo uruchomić na komputerze z systemem Windows. Poniżej znajdziesz szczegółowe instrukcje dotyczące wykorzystania w tym celu zarówno Ollama, jak i LM Studio.

Uruchamianie Phi-3 firmy Microsoft w systemie Windows za pomocą Ollama

Ollama to wszechstronne środowisko przeznaczone do uruchamiania i eksperymentowania z dużymi modelami językowymi (LLM).Przyjrzyjmy się, jak je skonfigurować, aby można było uruchamiać lokalnie Phi-3 firmy Microsoft na komputerze z systemem Windows.

Krok 1: Zainstaluj Ollamę

Zacznij od pobrania i zainstalowania Ollama:

  1. Kliknij powyższy link i wybierz opcję Pobierz dla systemu Windows (wersja zapoznawcza).
  2. Po zakończeniu pobierania uruchom plik instalacyjny.
  3. Postępuj zgodnie z instrukcjami i kliknij Instaluj, aby zakończyć instalację Ollama.

Krok 2: Wykonaj polecenie pobierania Phi-3

Teraz pobierzmy model Phi-3 przez Ollama:

  1. Odwiedź Ollama.com i przejdź do sekcji Modele.
  2. Wyszukaj i wybierz phi3 lub przewiń w dół, aby ją znaleźć.
  3. Skopiuj polecenie, które się pojawi, aby pobrać phi3.
  4. Otwórz wiersz poleceń lub dowolną aplikację terminalową z menu Start.
  5. Wklej skopiowane polecenie do terminala.
  6. Naciśnij Enter i poczekaj, aż Phi-3 zakończy pobieranie.
  7. Gdy pojawi się monit „Wyślij wiadomość”, będziesz gotowy na lokalną rozmowę z SI.

Krok 3: Zaangażuj się w program Phi-3 LLM firmy Microsoft

Możesz rozpocząć czat bezpośrednio w terminalu. Po prostu wprowadź swój monit i naciśnij Enter.

Oto kilka obszarów, w których Phi-3 się wyróżnia:

Testowanie odporności na cenzurę Ocena złożonego zrozumienia tematu Identyfikacja halucynacji Ocena kreatywności

Uruchamianie Phi-3 firmy Microsoft w systemie Windows za pomocą LM Studio

Jeśli interfejs terminala nie jest tym, co wolisz, LM Studio zapewnia solidne środowisko graficzne do interakcji z Phi-3 firmy Microsoft. Wykonaj następujące kroki, aby je skonfigurować:

Krok 1: Zainstaluj LM Studio

  1. Kliknij poniższy link, aby pobrać LM Studio dla systemu Windows.
  2. Po pobraniu uruchom instalator, aby skonfigurować LM Studio.

Krok 2: Zdobądź plik Phi-3 Guff

Plik Phi-3 Guff należy pobrać osobno:

  1. Kliknij powyższy link i przejdź do Plików.
  2. Wybierz jedną z wersji modelu Phi-3 — najlepiej mniejszą opcję.
  3. Kliknij Pobierz, aby pobrać plik Guff.
  4. Zapisz go w dogodnym dla siebie miejscu na komputerze.

Krok 3: Importuj model Phi-3

Teraz załadujmy pobrany model Phi-3 do LM Studio:

  1. Otwórz LM Studio i wybierz Moje modele z menu po lewej stronie.
  2. Sprawdź ścieżkę „Local models folder”.Kliknij na Show in File Explorer, aby uzyskać do niej dostęp.
  3. Utwórz nowy folder o nazwie Microsoft w tym katalogu.
  4. W folderze Microsoft utwórz podfolder o nazwie Phi-3.
  5. Umieść pobrany plik Phi-3 Guff w folderze Phi-3.
  6. Model powinien zostać wyświetlony w LM Studio. Może być konieczne ponowne uruchomienie, aby zmiany zostały zastosowane.
  7. Aby zainicjować model Phi-3, przejdź do opcji Czat AI na pasku bocznym.
  8. Wybierz Wybierz model do załadowania i znajdź model Phi-3.
  9. Pozwól na całkowite załadowanie. Rozważ odciążenie procesora graficznego, aby zmniejszyć obciążenie procesora, przechodząc do Zaawansowanej konfiguracji > Ustawienia sprzętu.
  10. Włącz Max w „Przyspieszeniu GPU” i kliknij Przeładuj model, aby zastosować konfigurację.
  11. Po załadowaniu modelu możesz rozpocząć czat z Phi-3.

Krok 4: Zaangażuj się w program Phi-3 LLM firmy Microsoft

To wszystko! Wprowadź swój monit i niezależnie od stanu połączenia internetowego możesz teraz komunikować się z modelem Phi-3 firmy Microsoft na swoim komputerze z systemem Windows lokalnie.

Dodatkowe wskazówki

  • Upewnij się, że Twoja wersja systemu Windows spełnia wszystkie niezbędne wymagania systemowe, aby zapewnić optymalną wydajność.
  • Jeśli po instalacji modele nie pojawiają się zgodnie z oczekiwaniami, uruchom ponownie terminal lub LM Studio.
  • Aby udoskonalić funkcjonalność programów Ollama i LM Studio, należy regularnie sprawdzać ich dostępność.

Streszczenie

Ten przewodnik przedstawia krok po kroku podejście do pomyślnej instalacji i uruchomienia modelu Phi-3 firmy Microsoft lokalnie w systemie Windows, przy użyciu zarówno Ollama, jak i LM Studio. Niezależnie od tego, czy wygodnie jest Ci używać poleceń terminala, czy wolisz graficzny interfejs użytkownika, obie metody pozwalają Ci skutecznie wykorzystać ten model AI.

Wniosek

Dzięki lokalnemu uruchomieniu Phi-3 firmy Microsoft możesz eksplorować zaawansowane funkcje AI bezpośrednio na swoim urządzeniu. Skonfiguruj Ollamę lub LM Studio zgodnie z instrukcją i zanurz się w interaktywnych konwersacjach z Phi-3. Nie wahaj się eksperymentować i bawić się różnymi monitami, aby w pełni wykorzystać możliwości tego wyjątkowego modelu!

Często zadawane pytania

Jak naprawić problem z Ollamą, który utknął na pobieraniu Phi-3?

Jeśli masz problemy z pobieraniem Phi-3 przez Ollama w wierszu poleceń, po prostu wprowadź ponownie polecenie ollama run phi3. Pobieranie zostanie wznowione od miejsca, w którym zostało ostatnio przerwane.