Guia passo a passo para instalar o LLaMA 3 no PC com Windows 11

Guia passo a passo para instalar o LLaMA 3 no PC com Windows 11

O Llama 3 representa o mais recente avanço da Meta em grandes modelos de linguagem, ideal para uma ampla gama de aplicações, incluindo responder perguntas, auxiliar em tarefas acadêmicas e muito mais. Ao configurar o Llama 3 no seu dispositivo Windows 11, você pode acessá-lo a qualquer momento, mesmo sem conectividade com a Internet. Este guia demonstrará como configurar o Llama 3 no seu computador Windows 11 .

Instalar o Llama no Windows

Instalando o Llama 3 em um computador Windows 11

O processo de instalação do Llama 3 no seu dispositivo Windows 11 usando Python exige um certo nível de proficiência técnica. No entanto, existem métodos alternativos que simplificam a implantação local do Llama 3. Vou descrever essas técnicas.

Para instalar o Llama 3, você precisará executar comandos específicos no Prompt de Comando. Observe que isso só concederá acesso à versão da linha de comando; etapas adicionais são necessárias para utilizar sua interface web. Ambos os processos serão abordados aqui.

Configurando o Llama 3 no Windows 11 via CMD

Primeiro, você deve instalar o Ollama no seu computador Windows para implantar o Llama 3. Siga estas etapas:

Baixe Ollama no Windows
  1. Navegue até o site oficial do Ollama .
  2. Selecione a opção Download e escolha Windows .
  3. Clique em Download para Windows para salvar o arquivo executável no seu computador.
  4. Execute o arquivo exe baixado para instalar o Ollama no seu dispositivo.

Após o Ollama ser instalado com sucesso, reinicie seu computador. Ele deve estar rodando em segundo plano, visível na Bandeja do Sistema. Então, visite a seção Modelos no site do Ollama para visualizar os modelos disponíveis.

O modelo Llama 3.1 é oferecido em três configurações:

  • 8B
  • 70B
  • 405B

A configuração 405B é a mais exigente e pode não funcionar em uma máquina de baixo custo. O Llama 3.2 fornece duas opções:

  • 1B
  • 3B

Escolha uma versão do Llama para instalação — se optar pelo Llama 3.2, clique nele. No menu suspenso que se segue, selecione a configuração desejada. Em seguida, copie o comando exibido ao lado dele e cole-o no Prompt de Comando.

Comando do modelo Llama 3.2 1B

Aqui estão os comandos para o modelo Llama 3.2:

ollama run llama3.2:3b

Para instalar a configuração do Llama 3.2 1B, digite:

ollama run llama3.2:1b

Instalação bem-sucedida

Abra o Prompt de Comando, digite um dos comandos acima de acordo com suas necessidades e pressione Enter . O processo de download levará um tempo, dependendo da sua conexão de internet. Após a conclusão, uma mensagem de sucesso aparecerá no Prompt de Comando.

Você pode então digitar sua entrada para interagir com o modelo Llama 3.2. Para instalar o modelo Llama 3.1, use os comandos disponíveis no site Ollama.

Na próxima vez que você abrir o Prompt de Comando, poderá utilizar o mesmo comando para executar o Llama 3.1 ou 3.2.

Uma limitação da instalação do Llama 3 via CMD é a falta de histórico de bate-papo salvo. No entanto, implantá-lo por meio de um host local permite que seu histórico de bate-papo seja salvo, além de fornecer uma Interface de Usuário aprimorada. A seção a seguir aborda como fazer isso.

Implantando o Llama 3 com uma interface de usuário da Web no Windows 11

Utilizar o Llama 3 por meio de um navegador da web não só melhora a experiência do usuário, mas também preserva o histórico de bate-papo, um recurso ausente ao usar o CMD. Veja como fazer o Llama 3 rodar no seu navegador da web.

Para acessar o Llama 3 por meio de um navegador da web, certifique-se de que tanto o Llama 3 por meio do Ollama quanto o Docker estejam configurados no seu sistema. Se você não instalou o Llama 3, prossiga com a instalação do Ollama conforme detalhado anteriormente. Em seguida, baixe e instale o Docker do seu site oficial .

Após instalar o Docker, abra-o e conclua o processo de inscrição para criar uma conta, pois o Docker não será iniciado sem ele. Ao fazer login, minimize o Docker para a bandeja do sistema; certifique-se de que o Docker e o Ollama estejam ativos em segundo plano para usar o Llama 3 por meio do seu navegador da web.

Execute o comando Llama para Docker

Abra o Prompt de Comando, copie o seguinte comando e cole-o:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Contêiner Docker para Llama 3

Este comando levará algum tempo para baixar os arquivos necessários, então seja paciente. Após a conclusão, abra o Docker e navegue até a seção Containers no lado esquerdo. Você deverá ver um container criado automaticamente para a porta 3000:8080.

Clique na porta 3000:8080, que iniciará uma nova aba no seu navegador padrão. Você pode precisar se inscrever e fazer login para usar o Llama 3 pelo navegador. Se você verificar a barra de endereço, ela mostrará localhost:3000, indicando que o Llama 3 está hospedado localmente, permitindo o uso sem acesso à internet.

Use o Llama 3 no navegador da web

Selecione seu modelo de chat Llama preferido no menu suspenso. Para incorporar modelos de chat Llama 3 adicionais, instale-os via Ollama usando os comandos correspondentes; eles estarão disponíveis no seu navegador.

Seu histórico de bate-papo será salvo e recuperável no lado esquerdo. Quando terminar, saia da sua sessão no navegador da web, abra o Docker e clique no botão Parar para desligá-lo antes de fechar o Docker.

Na próxima vez que você desejar acessar o Llama 3 no seu navegador da web, inicie o Ollama e o Docker, aguarde alguns minutos e clique na porta no contêiner do Docker para iniciar o servidor localhost. Após fazer login, você pode começar a usar o Llama 3.

Espero que esta informação seja útil.

O Llama 3 pode funcionar no Windows?

Sua capacidade de executar o Llama 3 na sua máquina depende das especificações de hardware. A versão mais leve, o modelo 1B, pode ser instalada e operada por meio do prompt de comando.

Qual quantidade de RAM é necessária para o Llama 3?

Para executar o modelo Llama 3.2 1B, seu sistema deve estar equipado com pelo menos 16 GB de RAM, junto com uma GPU robusta. Variantes mais altas do Llama 3 demandarão ainda mais recursos do seu sistema.

Fonte

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *