Exécution locale de Microsoft Phi-3 AI sous Windows : guide étape par étape
Notes clés
Un guide complet pour exécuter Phi-3 de Microsoft localement sur Windows
Ce guide détaille comment vous pouvez installer et exécuter le modèle d’IA Phi-3 de Microsoft sur Windows à l’aide d’Ollama et de LM Studio, en fournissant des étapes concrètes pour les deux approches.
Ce que vous devez savoir
- Phi-3 de Microsoft est un modèle d’IA compact mais puissant qui peut fonctionner efficacement localement sur Windows.
- Installez Ollama, puis exécutez la commande
ollama run phi3
dans votre terminal (comme CMD).Une fois le téléchargement terminé, vous pouvez interagir avec l’IA directement dans le terminal. - Vous pouvez également utiliser LM Studio pour une interface graphique permettant de discuter avec Phi-3 en local. Téléchargez le fichier guff de Phi-3 séparément, placez-le dans le répertoire de LM Studio et chargez le modèle à cet endroit pour lancer les discussions.
Les modèles Phi-3 de Microsoft représentent un bond en avant dans l’IA, surpassant de nombreux modèles plus récents comme Llama 3 et Mixtral dans plusieurs capacités. En raison de sa taille compacte, Phi-3 peut être exécuté de manière transparente sur votre machine Windows. Vous trouverez ci-dessous des instructions détaillées sur l’utilisation d’Ollama et de LM Studio à cette fin.
Exécution de Phi-3 de Microsoft sur Windows avec Ollama
Ollama est un framework complet conçu pour exécuter et expérimenter de grands modèles de langage (LLM).Voyons comment le configurer pour exécuter Phi-3 de Microsoft localement sur votre machine Windows.
Étape 1 : Installez Ollama
Commencez par télécharger et installer Ollama :
- Ollama pour Windows | Lien de téléchargement
- Cliquez sur le lien ci-dessus et sélectionnez Télécharger pour Windows (Aperçu).
- Une fois le téléchargement terminé, exécutez le fichier d’installation.
- Suivez les instructions et cliquez sur Installer pour finaliser l’installation d’Ollama.
Étape 2 : Exécutez la commande de téléchargement Phi-3
Maintenant, téléchargeons le modèle Phi-3 via Ollama :
- Visitez Ollama.com et accédez à la section Modèles.
- Recherchez et sélectionnez phi3, ou faites défiler vers le bas pour le trouver.
- Copiez la commande qui apparaît pour télécharger phi3.
- Ouvrez l’invite de commande ou n’importe quelle application de terminal à partir du menu Démarrer.
- Collez la commande copiée dans le terminal.
- Appuyez Enter et attendez que Phi-3 termine le téléchargement.
- Une fois que l’invite « Envoyer un message » apparaît, vous êtes prêt à converser avec l’IA localement.
Étape 3 : Participez au programme Phi-3 LLM de Microsoft
Vous pouvez lancer une discussion directement depuis le terminal. Entrez simplement votre message et appuyez sur Enter.
Voici quelques domaines dans lesquels Phi-3 excelle :
Tester la résistance à la censure Évaluer la compréhension d’un sujet complexe Identifier les hallucinations Évaluer la créativité
Exécution de Phi-3 de Microsoft sur Windows avec LM Studio
Si vous ne préférez pas une interface de terminal, LM Studio fournit un environnement graphique robuste pour interagir avec Phi-3 de Microsoft. Suivez ces étapes pour le configurer :
Étape 1 : Installer LM Studio
- LM Studio | Lien de téléchargement
- Suivez le lien pour télécharger LM Studio pour Windows.
- Une fois téléchargé, exécutez le programme d’installation pour configurer LM Studio.
Étape 2 : Acquérir le fichier Phi-3 Guff
Vous devrez télécharger le fichier Phi-3 Guff séparément :
- Fichier Phi-3 Mini Guff | Lien de téléchargement
- Cliquez sur le lien ci-dessus et accédez à Fichiers.
- Sélectionnez l’une des versions du modèle Phi-3, de préférence la plus petite option.
- Cliquez sur Télécharger pour récupérer le fichier Guff.
- Enregistrez-le dans un emplacement pratique sur votre ordinateur.
Étape 3 : Importer le modèle Phi-3
Maintenant, chargeons le modèle Phi-3 téléchargé dans LM Studio :
- Ouvrez LM Studio et sélectionnez Mes modèles dans le menu de gauche.
- Vérifiez le chemin d’accès au « dossier des modèles locaux ».Cliquez sur Afficher dans l’explorateur de fichiers pour y accéder.
- Créez un nouveau dossier nommé Microsoft dans ce répertoire.
- Dans le dossier Microsoft, créez un sous-dossier appelé Phi-3.
- Placez le fichier Phi-3 Guff téléchargé dans le dossier Phi-3.
- Le modèle doit s’afficher dans LM Studio. Vous devrez peut-être le redémarrer pour que les modifications prennent effet.
- Pour lancer le modèle Phi-3, accédez à l’ option AI Chat dans la barre latérale.
- Sélectionnez Sélectionnez un modèle à charger et recherchez le modèle Phi-3.
- Laissez-le se charger complètement. Envisagez de décharger le processeur graphique pour réduire la charge du processeur en accédant à Configuration avancée > Paramètres matériels.
- Activez Max sous « Accélération GPU » et cliquez sur Recharger le modèle pour appliquer la configuration.
- Une fois le chargement du modèle terminé, vous pouvez commencer à discuter avec Phi-3.
Étape 4 : Participez au programme Phi-3 LLM de Microsoft
Et voilà ! Entrez votre invite et, quel que soit l’état de votre connexion Internet, vous pouvez désormais communiquer localement avec le modèle Phi-3 de Microsoft sur votre PC Windows.
Conseils supplémentaires
- Assurez-vous que votre version de Windows répond à toutes les exigences système nécessaires pour des performances optimales.
- Redémarrez votre terminal ou LM Studio si les modèles n’apparaissent pas comme prévu après l’installation.
- Pensez à vérifier régulièrement les mises à jour d’Ollama et de LM Studio pour des fonctionnalités améliorées.
Résumé
Ce guide fournit une approche étape par étape pour installer et exécuter avec succès le modèle Phi-3 de Microsoft localement sur Windows, à l’aide d’Ollama et de LM Studio. Que vous soyez à l’aise avec les commandes du terminal ou que vous préfériez une interface utilisateur graphique, les deux méthodes vous permettent d’exploiter efficacement ce modèle d’IA.
Conclusion
Avec le Phi-3 de Microsoft fonctionnant en local, vous pouvez explorer les fonctionnalités avancées de l’IA directement sur votre appareil. Configurez Ollama ou LM Studio comme indiqué et plongez dans des conversations interactives avec Phi-3. N’hésitez pas à expérimenter et à jouer avec différentes invites pour utiliser pleinement les capacités de ce modèle exceptionnel !
FAQ
Comment réparer Ollama bloqué lors du téléchargement de Phi-3 ?
Si vous rencontrez des difficultés pour télécharger Phi-3 via Ollama sur l’invite de commande, saisissez simplement à nouveau la commande ollama run phi3
. Le téléchargement reprendra là où il s’était arrêté la dernière fois.
Articles Similaires:
- Guide d'exécution de Microsoft Phi-3 AI localement sous Windows
- Configurer un LLM local sur votre Raspberry Pi : un guide complet
- Guide complet pour l'installation de LLaMA 3 sur votre PC Windows 11
- Comment installer l'application Google AI Studio sur Windows 11 : un guide étape par étape
- Windows Update s'étend pour inclure des produits Microsoft supplémentaires tels que Visual Studio