Comment exécuter localement Microsoft Phi-3 AI sur Windows

Comment exécuter localement Microsoft Phi-3 AI sur Windows

Ce qu’il faut savoir

  • Le Phi-3 de Microsoft est un modèle d’IA petit mais puissant que vous pouvez exécuter localement sous Windows.
  • Installez Ollama , puis exécutez la commande ollama run phi3sur une application de terminal (comme CMD). Une fois phi-3 téléchargé, vous pourrez discuter avec l’IA au sein du terminal lui-même.
  • Vous pouvez également utiliser un logiciel comme LM Studio pour une interface graphique permettant de discuter localement avec Phi-3. Téléchargez le fichier guff Phi-3 séparément et enregistrez-le dans le répertoire de LM Studio. Chargez ensuite le modèle dans LM Studio et commencez à discuter localement avec Phi-3 sous Windows.

La famille de modèles de langage Phi-3 de Microsoft est enfin là. Pour leur taille, ils sont définitivement dans une classe à part et se révèlent déjà bien meilleurs que d’autres modèles récemment sortis comme Llama 3 et Mixtral sur de nombreux fronts. Grâce à sa petite taille, Phi-3 peut facilement fonctionner localement sur votre PC Windows. Voici comment procéder en utilisant Ollama et LM Studio.

Comment exécuter le Phi-3 de Microsoft sous Windows à l’aide d’Ollama

Ollama est un framework logiciel qui vous permet d’exécuter et d’expérimenter des LLM. Voici comment l’utiliser pour exécuter localement le Phi-3 de Microsoft sur Windows.

Étape 1 : Téléchargez et installez Ollama

Tout d’abord, téléchargeons et installons Ollama. Voici comment:

  1. Utilisez le lien mentionné ci-dessus et cliquez sur Télécharger pour Windows (Aperçu) .
  2. Une fois téléchargé, exécutez le fichier d’installation.
  3. Cliquez sur Installer et installez Ollama.

Étape 2 : Exécutez la commande Phi-3 et téléchargez le LLM

Ensuite, téléchargeons le modèle Phi-3 à l’aide d’Ollama.

  1. Ouvrez Ollama.com et cliquez sur Modèles .
  2. Faites défiler vers le bas et cliquez sur phi3 . Si vous ne le voyez pas au début, vous pouvez également le rechercher.
  3. Ici, copiez la commande pour télécharger phi3.
  4. Ensuite, ouvrez l’invite de commande (ou toute autre application de terminal de votre choix) à partir du menu Démarrer.
  5. Ici, collez la commande copiée.
  6. Appuyez sur Entrée et attendez que Phi-3 soit téléchargé sur votre ordinateur.
  7. Une fois que vous voyez le message « Envoyer un message », vous êtes prêt à commencer à discuter avec le modèle localement.

Étape 3 : Commencez à discuter avec le Phi-3 LLM de Microsoft

Vous pouvez commencer à discuter dans l’application du terminal elle-même. Tapez simplement une invite et appuyez sur Entrée. Voici quelques domaines dans lesquels nous avons testé le modèle.

Tester la résistance à la censure

Tester la compréhension de sujets complexes

Test d’hallucinations

Test de créativité

Comment exécuter le Phi-3 de Microsoft sur Windows à l’aide de LM Studio

Si vous n’aimez pas discuter avec le Phi-3 de Microsoft sous Windows à l’aide de votre application de terminal et que vous préférez disposer d’une interface dédiée, il n’y a rien de mieux que LM Studio. Voici comment configurer Phi-3 sur LM Studio et commencer à discuter avec le modèle localement.

Étape 1 : Installer LM Studio

  1. Utilisez le lien ci-dessus et cliquez sur LM Studio pour Windows pour le télécharger.
  2. Une fois téléchargé, exécutez le programme d’installation et laissez LM Studio s’installer.

Étape 2 : Téléchargez le fichier gguf Phi-3

Vous ne pourrez pas rechercher et télécharger Phi-3 depuis LM Studio lui-même. Vous devrez obtenir le fichier guff Phi-3 séparément. Voici comment:

  1. Utilisez le lien ci-dessus et cliquez sur Fichiers .
  2. Ici, vous trouverez deux versions du modèle Phi-3. Sélectionnez-en un. Pour nos besoins, nous sélectionnons la version plus petite.
  3. Cliquez sur Télécharger .
  4. Enregistrez-le ensuite dans un emplacement pratique.

Étape 3 : Charger le modèle Phi-3

Ensuite, nous allons charger le modèle Phi-3 téléchargé. Suivez les étapes pour ce faire :

  1. Ouvrez LM Studio et cliquez sur Mes modèles à gauche.
  2. Prenez note du « dossier Modèles locaux ». C’est ici que nous devons déplacer le fichier guff Phi-3 téléchargé. Cliquez sur Afficher dans l’Explorateur de fichiers pour ouvrir le répertoire.
  3. Ici, créez un nouveau dossier intitulé Microsoft .
  4. Dans le dossier Microsoft, créez un autre dossier intitulé Phi-3 .
  5. Collez le fichier guff Phi-3 téléchargé dans le dossier Phi-3.
  6. Une fois que vous avez déplacé le fichier guff Phi-3, il apparaîtra également dans LM Studio.

    Vous devrez peut-être redémarrer LM Studio pour qu’il reconnaisse Phi-3 dans son répertoire.
  7. Pour charger le modèle Phi-3, cliquez sur l’ option AI Chat à gauche.
  8. Cliquez sur Sélectionner un modèle à charger .
  9. Et sélectionnez le modèle Phi-3.
  10. Attendez qu’il se charge. Une fois cela fait, vous pouvez commencer à discuter avec Phi-3. Cependant, nous vous recommandons de décharger le modèle sur le GPU afin que votre CPU ne subisse pas de pression excessive. Pour ce faire, sous « Invite système » à droite, cliquez sur Configuration avancée > Paramètres matériels .
  11. Sous « Accélération GPU », cliquez sur Max .
  12. Cliquez sur Recharger le modèle pour appliquer la configuration .
  13. Une fois le modèle chargé, vous pouvez commencer à discuter avec Phi-3.

Étape 4 : Commencez à discuter avec le Phi-3 LLM de Microsoft

Et c’est à peu près tout. Allez-y et entrez une invite. Que vous disposiez ou non d’une connexion Internet, vous pourrez désormais discuter localement avec le modèle Phi-3 de Microsoft sur votre PC Windows.

FAQ

Examinons quelques questions fréquemment posées sur l’exécution locale du Phi-3 de Microsoft sur votre PC Windows.

Comment réparer Ollama bloqué lors du téléchargement de Phi-3 ?

Si vous rencontrez des problèmes lors du téléchargement de Phi-3 via Ollama sur l’invite de commande, saisissez simplement ollama run phi3à nouveau la commande. Le téléchargement reprendra là où il avait été effectué auparavant.

Nous espérons que ce guide vous a aidé à exécuter le modèle Phi-3 de Microsoft localement sur votre PC Windows via Ollama et LM Studio. Jusqu’à la prochaine fois!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *