Jak uruchomić Llamę 3 przez Meta AI lokalnie

Jak uruchomić Llamę 3 przez Meta AI lokalnie

Co wiedzieć

  • Wielkojęzyczny model Meta Llama 3 jest dostępny do pobrania i uruchomienia lokalnie w systemie.
  • Pobierz Meta Llama 3 ze strony Llama.meta.com i użyj frameworku LLM, takiego jak LM studio, aby załadować model.
  • Możesz także wyszukiwać i pobierać Meta Llama 3 z poziomu samego studia LM. Aby uzyskać szczegółowe instrukcje na ten temat, zapoznaj się z poniższym przewodnikiem.

Najnowszy model językowy Meta Llama 3 jest już dostępny za darmo. Chociaż możesz używać Meta AI, która działa na tym samym LLM, istnieje również możliwość pobrania modelu i uruchomienia go lokalnie w systemie.

Jak uruchomić Llamę 3 przez Meta AI lokalnie

Chociaż Meta AI jest dostępna tylko w wybranych krajach, możesz pobrać i uruchomić Llamę 3 lokalnie na swoim komputerze, niezależnie od regionu. Wykonaj poniższe kroki, aby uruchomić Llama 3 by Meta AI lokalnie.

Krok 1: Zainstaluj LM Studio

Najpierw zainstalujmy framework, na którym będzie można uruchomić Llamę 3. Jeśli masz już w swoim systemie inną tego typu aplikację, możesz przejść do kolejnego kroku. Dla wszystkich innych, oto jak zdobyć studio LM:

  1. Skorzystaj z powyższego łącza i kliknij LM Studio dla Windows, aby je pobrać.
  2. Po pobraniu uruchom instalator i pozwól LM Studio zainstalować.

Krok 2: Pobierz lokalnie Meta’s Llama 3

Kiedy już będziesz mieć platformę LLM, czas pobrać Meta’s Llama 3 na swój komputer. Można to zrobić na kilka sposobów.

  1. Otwórz Llama.Meta.com i kliknij Pobierz modele .
  2. Wprowadź swoje dane i poproś o pobranie LLM.

Jeśli powyższe nie zadziała, nie martw się. Możesz także użyć struktury LLM, aby pobrać LLM.

  1. Po prostu wyszukaj Meta Llama w polu wyszukiwania LM Studio.
  2. Tutaj znajdziesz różne skwantowane LLM. Wybierz jeden.
  3. Po prawej stronie wybierz preferowaną wersję. Kliknij przycisk Pobierz obok niego.
  4. Poczekaj na zakończenie pobierania.
  5. Po zakończeniu kliknij Moje modele po lewej stronie.
  6. I sprawdź, czy pobieranie zostało zakończone.

Krok 3: Załaduj pobrany model

  1. Po zakończeniu pobierania kliknij czat AI po lewej stronie.
  2. Kliknij Wybierz model do załadowania .
  3. I wybierz pobraną Meta Llama 3.
  4. Poczekaj, aż model się załaduje.
  5. Po załadowaniu możesz przenieść cały model do procesora graficznego. Aby to zrobić, kliknij opcję Konfiguracja zaawansowana w obszarze „Ustawienia”.
  6. Kliknij Max , aby przenieść cały model do GPU.
  7. Kliknij opcję Załaduj ponownie model, aby zastosować konfigurację .

Krok 4: Uruchom Llamę 3 (i przetestuj ją za pomocą podpowiedzi)

Po załadowaniu modelu możesz rozpocząć lokalną rozmowę z Lamą 3. I nie, ponieważ LLM jest przechowywany lokalnie na Twoim komputerze, nie potrzebujesz do tego połączenia z Internetem. Przetestujmy więc Lamę 3 i zobaczmy, do czego jest zdolna.

Testowanie odporności na cenzurę

Testowanie zrozumienia złożonych tematów

Test na halucynacje

Test kreatywności i zrozumienia

Według większości relacji Lama 3 jest całkiem solidnym, dużym modelem językowym. Oprócz wspomnianych powyżej podpowiedzi testowych, sprawdziło się to znakomicie nawet w przypadku bardziej złożonych tematów i podpowiedzi.

Mamy nadzieję, że tak samo jak my masz uruchomioną lokalnie wersję Meta’s Llama 3 na komputerze z systemem Windows 11. Do następnego razu!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *