Exécution locale de Microsoft Phi-3 AI sous Windows : guide étape par étape
Notes clés
Guide complet pour exécuter Phi-3 de Microsoft localement sous Windows
Ce guide détaille comment vous pouvez installer et exécuter le modèle d’IA Phi-3 de Microsoft sur Windows à l’aide d’Ollama et de LM Studio, en fournissant des étapes concrètes pour les deux approches.
Ce que vous devez savoir
- Phi-3 de Microsoft est un modèle d’IA compact mais puissant qui peut fonctionner efficacement localement sur Windows.
- Installez Ollama, puis exécutez la commande
ollama run phi3dans votre terminal (comme CMD).Une fois le téléchargement terminé, vous pouvez interagir avec l’IA directement dans le terminal. - Vous pouvez également utiliser LM Studio comme interface graphique pour discuter localement avec Phi-3. Téléchargez le fichier Phi-3 guff séparément, placez-le dans le répertoire de LM Studio et chargez-y le modèle pour lancer les discussions.
Les modèles Phi-3 de Microsoft représentent une avancée majeure en matière d’IA, surpassant de nombreux modèles plus récents comme Llama 3 et Mixtral sur plusieurs points. Grâce à sa taille compacte, Phi-3 s’exécute facilement sur votre machine Windows. Vous trouverez ci-dessous des instructions détaillées sur l’utilisation d’Ollama et de LM Studio à cette fin.
Exécution de Phi-3 de Microsoft sur Windows avec Ollama
Ollama sert de cadre complet conçu pour exécuter et expérimenter de grands modèles de langage (LLM).Explorons comment le configurer pour exécuter Phi-3 de Microsoft localement sur votre machine Windows.
Étape 1 : Installer Ollama
Commencez par télécharger et installer Ollama :
- Ollama pour Windows | Lien de téléchargement
- Cliquez sur le lien ci-dessus et sélectionnez Télécharger pour Windows (Aperçu).
- Une fois le téléchargement terminé, exécutez le fichier d’installation.
- Suivez les instructions et cliquez sur Installer pour finaliser l’installation d’Ollama.
Étape 2 : Exécutez la commande de téléchargement Phi-3
Maintenant, téléchargeons le modèle Phi-3 via Ollama :
- Visitez Ollama.com et accédez à la section Modèles.
- Recherchez et sélectionnez phi3 ou faites défiler vers le bas pour le trouver.
- Copiez la commande qui apparaît pour télécharger phi3.
- Ouvrez l’invite de commande ou n’importe quelle application de terminal à partir du menu Démarrer.
- Collez la commande copiée dans le terminal.
- Appuyez Enter et attendez que Phi-3 termine le téléchargement.
- Une fois que l’invite « Envoyer un message » apparaît, vous êtes prêt à converser avec l’IA localement.
Étape 3 : Participez au programme Phi-3 LLM de Microsoft
Vous pouvez lancer une discussion directement depuis le terminal. Saisissez simplement votre message et appuyez sur Enter.
Voici quelques domaines dans lesquels Phi-3 excelle :
Tester la résistance à la censure Évaluer la compréhension de sujets complexes Identifier les hallucinations Évaluer la créativité
Exécution de Phi-3 de Microsoft sur Windows avec LM Studio
Si une interface de terminal ne vous convient pas, LM Studio offre un environnement graphique performant pour interagir avec Microsoft Phi-3. Suivez ces étapes pour le configurer :
Étape 1 : Installer LM Studio
- LM Studio | Lien de téléchargement
- Suivez le lien pour télécharger LM Studio pour Windows.
- Une fois téléchargé, exécutez le programme d’installation pour configurer LM Studio.
Étape 2 : Acquérir le fichier Phi-3 Guff
Vous devrez télécharger le fichier Phi-3 Guff séparément :
- Fichier Phi-3 Mini Guff | Lien de téléchargement
- Cliquez sur le lien ci-dessus et accédez à Fichiers.
- Sélectionnez l’une des versions du modèle Phi-3, de préférence la plus petite option.
- Cliquez sur Télécharger pour récupérer le fichier Guff.
- Enregistrez-le dans un emplacement pratique sur votre ordinateur.
Étape 3 : Importer le modèle Phi-3
Maintenant, chargeons le modèle Phi-3 téléchargé dans LM Studio :
- Ouvrez LM Studio et sélectionnez Mes modèles dans le menu de gauche.
- Vérifiez le chemin d’accès au dossier « Modèles locaux ».Cliquez sur « Afficher dans l’Explorateur de fichiers » pour y accéder.
- Créez un nouveau dossier nommé Microsoft dans ce répertoire.
- Dans le dossier Microsoft, créez un sous-dossier appelé Phi-3.
- Placez le fichier Phi-3 Guff téléchargé dans le dossier Phi-3.
- Le modèle devrait s’afficher dans LM Studio. Vous devrez peut-être le redémarrer pour que les modifications soient prises en compte.
- Pour lancer le modèle Phi-3, accédez à l’ option AI Chat dans la barre latérale.
- Sélectionnez Sélectionnez un modèle à charger et recherchez le modèle Phi-3.
- Laissez le chargement se terminer. Envisagez de décharger le processeur graphique pour réduire la charge du processeur en accédant à Configuration avancée > Paramètres matériels.
- Activez Max sous « Accélération GPU » et cliquez sur Recharger le modèle pour appliquer la configuration.
- Une fois le modèle chargé, vous pouvez commencer à discuter avec Phi-3.
Étape 4 : Participez au programme Phi-3 LLM de Microsoft
Et voilà ! Saisissez votre invite et, quel que soit l’état de votre connexion Internet, vous pourrez désormais communiquer localement avec le modèle Phi-3 de Microsoft sur votre PC Windows.
Conseils supplémentaires
- Assurez-vous que votre version de Windows répond à toutes les exigences système nécessaires pour des performances optimales.
- Redémarrez votre terminal ou LM Studio si les modèles n’apparaissent pas comme prévu après l’installation.
- Pensez à vérifier régulièrement les mises à jour d’Ollama et de LM Studio pour des fonctionnalités améliorées.
Résumé
Ce guide propose une approche étape par étape pour installer et exécuter avec succès le modèle Phi-3 de Microsoft en local sous Windows, à l’aide d’Ollama et de LM Studio. Que vous soyez à l’aise avec les commandes du terminal ou que vous préfériez une interface utilisateur graphique, ces deux méthodes vous permettent d’exploiter efficacement ce modèle d’IA.
Conclusion
Grâce à Phi-3 de Microsoft fonctionnant en local, vous pouvez explorer des fonctionnalités d’IA avancées directement sur votre appareil. Configurez Ollama ou LM Studio comme indiqué et plongez dans des conversations interactives avec Phi-3. N’hésitez pas à expérimenter et à tester différentes invites pour exploiter pleinement les capacités de ce modèle exceptionnel !
FAQ
Comment réparer Ollama bloqué lors du téléchargement de Phi-3 ?
Si vous rencontrez des difficultés pour télécharger Phi-3 via Ollama depuis l’invite de commande, saisissez simplement à nouveau la commande ollama run phi3. Le téléchargement reprendra là où il s’était arrêté.