Esecuzione di Microsoft Phi-3 AI in locale su Windows: guida passo passo

Note chiave

  • Esegui Phi-3 di Microsoft in locale su Windows per sfruttare le sue potenti capacità di intelligenza artificiale.
  • Utilizza Ollama per un’esperienza terminale senza interruzioni.
  • Scegli LM Studio per un’interfaccia grafica intuitiva.

Una guida completa per eseguire Phi-3 di Microsoft in locale su Windows

Questa guida spiega come installare ed eseguire il modello di intelligenza artificiale Phi-3 di Microsoft su Windows utilizzando sia Ollama sia LM Studio, fornendo passaggi pratici per entrambi gli approcci.

Cosa dovresti sapere

  • Phi-3 di Microsoft è un modello di intelligenza artificiale compatto ma potente, che può essere eseguito in modo efficiente in locale su Windows.
  • Installa Ollama, quindi esegui il comando ollama run phi3 nel tuo terminale (come CMD).Una volta completato il download, puoi interagire con l’IA direttamente nel terminale.
  • In alternativa, puoi usare LM Studio come interfaccia grafica per chattare con Phi-3 in locale. Scarica separatamente il file guff di Phi-3, posizionalo nella directory di LM Studio e carica il modello lì per avviare le chat.

I modelli Phi-3 di Microsoft rappresentano un balzo in avanti nell’intelligenza artificiale, superando molti modelli più recenti come Llama 3 e Mixtral in diverse funzionalità. Grazie alle sue dimensioni compatte, Phi-3 può essere eseguito senza problemi sul tuo computer Windows. Di seguito, troverai istruzioni dettagliate sull’utilizzo di Ollama e LM Studio a questo scopo.

Esecuzione di Phi-3 di Microsoft su Windows con Ollama

Ollama è un framework completo progettato per l’esecuzione e la sperimentazione di modelli linguistici di grandi dimensioni (LLM).Scopriamo come configurarlo per eseguire Phi-3 di Microsoft in locale sul tuo computer Windows.

Passaggio 1: installare Ollama

Inizia scaricando e installando Ollama:

  1. Fare clic sul collegamento soprastante e selezionare Scarica per Windows (anteprima).
  2. Una volta completato il download, eseguire il file di installazione.
  3. Segui le istruzioni e clicca su Installa per finalizzare l’installazione di Ollama.

Passaggio 2: eseguire il comando di download Phi-3

Ora scarichiamo il modello Phi-3 tramite Ollama:

  1. Visita Ollama.com e vai alla sezione Modelli.
  2. Cerca e seleziona phi3 oppure scorri verso il basso per trovarlo.
  3. Copia il comando che appare per scaricare phi3.
  4. Aprire il Prompt dei comandi o qualsiasi applicazione terminale dal menu Start.
  5. Incolla il comando copiato nel terminale.
  6. Fai clic Enter e attendi che Phi-3 termini il download.
  7. Una volta visualizzato il messaggio “Invia un messaggio”, sarai pronto a conversare localmente con l’IA.

Fase 3: Partecipa al programma LLM Phi-3 di Microsoft

Puoi avviare una chat direttamente dal terminale. Basta inserire il messaggio e premere Enter.

Ecco alcuni ambiti in cui Phi-3 eccelle:

Testare la resistenza alla censura Valutare la comprensione di argomenti complessi Identificare le allucinazioni Valutare la creatività

Esecuzione di Phi-3 di Microsoft su Windows con LM Studio

Se un’interfaccia terminale non è ciò che preferisci, LM Studio offre un ambiente grafico robusto per interagire con Phi-3 di Microsoft. Segui questi passaggi per configurarlo:

Passaggio 1: installare LM Studio

  1. Segui il link per scaricare LM Studio per Windows.
  2. Una volta scaricato, esegui il programma di installazione per configurare LM Studio.

Passaggio 2: acquisire il file Phi-3 Guff

Sarà necessario scaricare separatamente il file Phi-3 Guff:

  1. Fare clic sul collegamento sopra e andare su File.
  2. Selezionare una delle versioni del modello Phi-3, preferibilmente quella più piccola.
  3. Fare clic su Scarica per recuperare il file Guff.
  4. Salvalo in un posto comodo sul tuo computer.

Passaggio 3: importare il modello Phi-3

Ora carichiamo il modello Phi-3 scaricato in LM Studio:

  1. Apri LM Studio e seleziona I miei modelli dal menu a sinistra.
  2. Controlla il percorso della cartella “Modelli locali”.Fai clic su “Mostra in Esplora file” per accedervi.
  3. Crea una nuova cartella denominata Microsoft all’interno di questa directory.
  4. All’interno della cartella Microsoft, creare una sottocartella denominata Phi-3.
  5. Posizionare il file Phi-3 Guff scaricato nella cartella Phi-3.
  6. Il modello dovrebbe essere visualizzato in LM Studio. Potrebbe essere necessario riavviarlo affinché le modifiche abbiano effetto.
  7. Per avviare il modello Phi-3, vai all’opzione AI Chat nella barra laterale.
  8. Seleziona Seleziona un modello da caricare e trova il modello Phi-3.
  9. Lascia che si carichi completamente. Valuta la possibilità di trasferire il carico sulla GPU per ridurre il carico sulla CPU andando su Configurazione avanzata > Impostazioni hardware.
  10. Abilita Max in ‘Accelerazione GPU’ e clicca su Ricarica modello per applicare la configurazione.
  11. Una volta completato il caricamento del modello, puoi iniziare a chattare con Phi-3.

Fase 4: Coinvolgimento con il Phi-3 LLM di Microsoft

Ecco fatto! Inserisci il prompt e, indipendentemente dallo stato della tua connessione Internet, ora puoi comunicare con il modello Phi-3 di Microsoft sul tuo PC Windows in locale.

Suggerimenti aggiuntivi

  • Assicurati che la tua versione di Windows soddisfi tutti i requisiti di sistema necessari per prestazioni ottimali.
  • Riavviare il terminale o LM Studio se i modelli non vengono visualizzati come previsto dopo l’installazione.
  • Si consiglia di controllare regolarmente la disponibilità di aggiornamenti per Ollama e LM Studio per migliorare le funzionalità.

Riepilogo

Questa guida fornisce un approccio passo passo per installare ed eseguire correttamente il modello Phi-3 di Microsoft in locale su Windows, utilizzando sia Ollama che LM Studio. Che siate più pratici con i comandi da terminale o preferiate un’interfaccia utente grafica, entrambi i metodi vi consentono di sfruttare efficacemente questo modello di intelligenza artificiale.

Conclusione

Con Phi-3 di Microsoft in esecuzione in locale, puoi esplorare funzionalità di intelligenza artificiale avanzate direttamente sul tuo dispositivo. Configura Ollama o LM Studio come indicato e immergiti in conversazioni interattive con Phi-3. Non esitare a sperimentare e giocare con diversi prompt per sfruttare appieno le capacità di questo modello eccezionale!

Domande frequenti

Come risolvere il problema di Ollama bloccato durante il download di Phi-3?

Se riscontri difficoltà a scaricare Phi-3 tramite Ollama dal prompt dei comandi, reinserisci semplicemente il comando ollama run phi3. Il download riprenderà dal punto in cui si era interrotto.