Jak włączyć i używać lokalnych modeli AI w programie Opera One Developer
Co wiedzieć
- Opera umożliwia pobieranie i używanie modeli AI lokalnie w przeglądarce Opera One Developer.
- Włącz i pobierz modele AI z panelu bocznego Arii (po lewej), a następnie wybierz opcję Wybierz lokalny model AI > Ustawienia .
Opera ogłosiła niedawno integrację lokalnych modeli sztucznej inteligencji ze swoją przeglądarką Opera One. Dzięki temu rozwiązaniu, dzięki któremu Opera stała się pierwszą dużą przeglądarką z wbudowanymi modelami sztucznej inteligencji, możesz teraz wybierać spośród 150 modeli dużych języków (LLM), przechowywać je lokalnie i używać w trybie offline. Jest to także bardziej prywatny i bezpieczny sposób korzystania ze sztucznej inteligencji na komputerze.
Jak włączyć lokalne modele AI w Opera One Developer
Obecnie opcja pobrania i korzystania z AI lokalnie w Operze One jest dostępna tylko dla wersji przeglądarki Developer. Oto jak skonfigurować przeglądarkę i włączyć lokalne LLM.
- Programista Opery One | Link do pobrania
- Otwórz link podany powyżej i kliknij Pobierz teraz w sekcji „Programista Opera One”.
- Po pobraniu uruchom instalację i postępuj zgodnie z instrukcjami wyświetlanymi na ekranie.
- Aby korzystać z modeli AI, musisz zalogować się na konto Opery. Możesz zarejestrować się za pomocą adresu e-mail lub skorzystać z konta Gmail, Facebook lub Apple.
- Następnie kliknij domyślną sztuczną inteligencję Opery „Aria” w panelu bocznym po lewej stronie.
- W sekcji „Nowy czat” kliknij opcję Wybierz lokalny model AI .
- Kliknij Przejdź do ustawień .
- Tutaj upewnij się, że opcja Włącz lokalne modele AI na czacie jest włączona.
Jak pobrać i używać lokalnych modeli AI w Opera One Developer
Programista Opera One oferuje kilka modeli sztucznej inteligencji, które można pobrać i zacząć używać lokalnie z poziomu samej przeglądarki. Oto jak to zrobić:
- Otwórz Arię z panelu bocznego po lewej stronie.
- W sekcji „Lokalne modele AI znajdziesz szereg LLM do wyboru, na przykład Meta’s Llama, Google Gemma, Vicuna i Mistral AI’s Mixtral, Starcoder itp. Kliknij model AI, aby go wyświetlić .
- W większości przypadków zobaczysz dwa lub więcej wariantów, które możesz pobrać.
- Do celów demonstracyjnych wybieramy lekki model AI – Phi-2 firmy Microsoft. Kliknij przycisk pobierania obok preferowanego modelu.
- Poczekaj, aż LLM pobierze się na Twój komputer.
- Następnie, aby przełączyć się z domyślnego modelu AI Arii w Operze One na pobrany LLM, kliknij przycisk Menu w lewym górnym rogu.
- Wybierz Nowy czat .
- W sekcji „Nowy czat” kliknij opcję Wybierz lokalny model AI .
- Następnie wybierz pobrany model AI.
- I tak będziesz mieć teraz dostęp do modelu AI lokalnie w przeglądarce Opera One. Wpisz monit, aby rozpocząć korzystanie z niego jak każdego innego chatbota AI.
Często zadawane pytania
Rozważmy kilka najczęściej zadawanych pytań dotyczących korzystania z lokalnych modeli AI w przeglądarce Opera One.
Jakie są korzyści z lokalnego wykorzystania modeli AI?
Wiele korzyści płynących z lokalnego wykorzystania modeli AI obejmuje lepszą prywatność i bezpieczeństwo w porównaniu do korzystania online z chatbotów AI, które polegają na wysyłaniu danych na serwery. A ponieważ LLM jest przechowywany lokalnie, nie potrzebujesz nawet połączenia z Internetem, aby rozmawiać z AI.
Który model AI powinienem pobrać dla przeglądarki Opera One?
Istnieje kilka modeli sztucznej inteligencji, które można przechowywać lokalnie, a większość z nich ma wiele wariantów w zależności od liczby parametrów (w miliardach) uwzględnionych w ich szkoleniu. Opera wyróżnia jednak kilka interesujących LLM, które możesz poznać, takich jak Code Llama, który jest idealny do kodowania, Phi-2, który jest dobry do czatów typu pytania i odpowiedzi, oraz Mixtral ze względu na jego wydajność, dostępność i wszechstronność.
Jak wrócić do Arii?
Aby wrócić do chatbota AI Arii, po prostu rozpocznij nowy czat.
Mamy nadzieję, że ten przewodnik pomógł Ci skonfigurować i rozpocząć lokalne korzystanie z modeli AI w przeglądarce Opera One Developer. Do następnego razu!
Dodaj komentarz