Exécution locale de Microsoft Phi-3 AI sous Windows : guide étape par étape

Notes clés

  • Exécutez Phi-3 de Microsoft localement sur Windows pour exploiter ses puissantes capacités d’IA.
  • Utilisez Ollama pour une expérience de terminal fluide.
  • Choisissez LM Studio pour une interface graphique intuitive.

Guide complet pour exécuter Phi-3 de Microsoft localement sous Windows

Ce guide détaille comment vous pouvez installer et exécuter le modèle d’IA Phi-3 de Microsoft sur Windows à l’aide d’Ollama et de LM Studio, en fournissant des étapes concrètes pour les deux approches.

Ce que vous devez savoir

  • Phi-3 de Microsoft est un modèle d’IA compact mais puissant qui peut fonctionner efficacement localement sur Windows.
  • Installez Ollama, puis exécutez la commande ollama run phi3 dans votre terminal (comme CMD).Une fois le téléchargement terminé, vous pouvez interagir avec l’IA directement dans le terminal.
  • Vous pouvez également utiliser LM Studio comme interface graphique pour discuter localement avec Phi-3. Téléchargez le fichier Phi-3 guff séparément, placez-le dans le répertoire de LM Studio et chargez-y le modèle pour lancer les discussions.

Les modèles Phi-3 de Microsoft représentent une avancée majeure en matière d’IA, surpassant de nombreux modèles plus récents comme Llama 3 et Mixtral sur plusieurs points. Grâce à sa taille compacte, Phi-3 s’exécute facilement sur votre machine Windows. Vous trouverez ci-dessous des instructions détaillées sur l’utilisation d’Ollama et de LM Studio à cette fin.

Exécution de Phi-3 de Microsoft sur Windows avec Ollama

Ollama sert de cadre complet conçu pour exécuter et expérimenter de grands modèles de langage (LLM).Explorons comment le configurer pour exécuter Phi-3 de Microsoft localement sur votre machine Windows.

Étape 1 : Installer Ollama

Commencez par télécharger et installer Ollama :

  1. Cliquez sur le lien ci-dessus et sélectionnez Télécharger pour Windows (Aperçu).
  2. Une fois le téléchargement terminé, exécutez le fichier d’installation.
  3. Suivez les instructions et cliquez sur Installer pour finaliser l’installation d’Ollama.

Étape 2 : Exécutez la commande de téléchargement Phi-3

Maintenant, téléchargeons le modèle Phi-3 via Ollama :

  1. Visitez Ollama.com et accédez à la section Modèles.
  2. Recherchez et sélectionnez phi3 ou faites défiler vers le bas pour le trouver.
  3. Copiez la commande qui apparaît pour télécharger phi3.
  4. Ouvrez l’invite de commande ou n’importe quelle application de terminal à partir du menu Démarrer.
  5. Collez la commande copiée dans le terminal.
  6. Appuyez Enter et attendez que Phi-3 termine le téléchargement.
  7. Une fois que l’invite « Envoyer un message » apparaît, vous êtes prêt à converser avec l’IA localement.

Étape 3 : Participez au programme Phi-3 LLM de Microsoft

Vous pouvez lancer une discussion directement depuis le terminal. Saisissez simplement votre message et appuyez sur Enter.

Voici quelques domaines dans lesquels Phi-3 excelle :

Tester la résistance à la censure Évaluer la compréhension de sujets complexes Identifier les hallucinations Évaluer la créativité

Exécution de Phi-3 de Microsoft sur Windows avec LM Studio

Si une interface de terminal ne vous convient pas, LM Studio offre un environnement graphique performant pour interagir avec Microsoft Phi-3. Suivez ces étapes pour le configurer :

Étape 1 : Installer LM Studio

  1. Suivez le lien pour télécharger LM Studio pour Windows.
  2. Une fois téléchargé, exécutez le programme d’installation pour configurer LM Studio.

Étape 2 : Acquérir le fichier Phi-3 Guff

Vous devrez télécharger le fichier Phi-3 Guff séparément :

  1. Cliquez sur le lien ci-dessus et accédez à Fichiers.
  2. Sélectionnez l’une des versions du modèle Phi-3, de préférence la plus petite option.
  3. Cliquez sur Télécharger pour récupérer le fichier Guff.
  4. Enregistrez-le dans un emplacement pratique sur votre ordinateur.

Étape 3 : Importer le modèle Phi-3

Maintenant, chargeons le modèle Phi-3 téléchargé dans LM Studio :

  1. Ouvrez LM Studio et sélectionnez Mes modèles dans le menu de gauche.
  2. Vérifiez le chemin d’accès au dossier « Modèles locaux ».Cliquez sur « Afficher dans l’Explorateur de fichiers » pour y accéder.
  3. Créez un nouveau dossier nommé Microsoft dans ce répertoire.
  4. Dans le dossier Microsoft, créez un sous-dossier appelé Phi-3.
  5. Placez le fichier Phi-3 Guff téléchargé dans le dossier Phi-3.
  6. Le modèle devrait s’afficher dans LM Studio. Vous devrez peut-être le redémarrer pour que les modifications soient prises en compte.
  7. Pour lancer le modèle Phi-3, accédez à l’ option AI Chat dans la barre latérale.
  8. Sélectionnez Sélectionnez un modèle à charger et recherchez le modèle Phi-3.
  9. Laissez le chargement se terminer. Envisagez de décharger le processeur graphique pour réduire la charge du processeur en accédant à Configuration avancée > Paramètres matériels.
  10. Activez Max sous « Accélération GPU » et cliquez sur Recharger le modèle pour appliquer la configuration.
  11. Une fois le modèle chargé, vous pouvez commencer à discuter avec Phi-3.

Étape 4 : Participez au programme Phi-3 LLM de Microsoft

Et voilà ! Saisissez votre invite et, quel que soit l’état de votre connexion Internet, vous pourrez désormais communiquer localement avec le modèle Phi-3 de Microsoft sur votre PC Windows.

Conseils supplémentaires

  • Assurez-vous que votre version de Windows répond à toutes les exigences système nécessaires pour des performances optimales.
  • Redémarrez votre terminal ou LM Studio si les modèles n’apparaissent pas comme prévu après l’installation.
  • Pensez à vérifier régulièrement les mises à jour d’Ollama et de LM Studio pour des fonctionnalités améliorées.

Résumé

Ce guide propose une approche étape par étape pour installer et exécuter avec succès le modèle Phi-3 de Microsoft en local sous Windows, à l’aide d’Ollama et de LM Studio. Que vous soyez à l’aise avec les commandes du terminal ou que vous préfériez une interface utilisateur graphique, ces deux méthodes vous permettent d’exploiter efficacement ce modèle d’IA.

Conclusion

Grâce à Phi-3 de Microsoft fonctionnant en local, vous pouvez explorer des fonctionnalités d’IA avancées directement sur votre appareil. Configurez Ollama ou LM Studio comme indiqué et plongez dans des conversations interactives avec Phi-3. N’hésitez pas à expérimenter et à tester différentes invites pour exploiter pleinement les capacités de ce modèle exceptionnel !

FAQ

Comment réparer Ollama bloqué lors du téléchargement de Phi-3 ?

Si vous rencontrez des difficultés pour télécharger Phi-3 via Ollama depuis l’invite de commande, saisissez simplement à nouveau la commande ollama run phi3. Le téléchargement reprendra là où il s’était arrêté.