Guide d’exécution locale de Microsoft Phi-3 AI sous Windows
Notes clés
- Phi-3 de Microsoft est un modèle d’IA compact mais robuste qui peut être exécuté localement sur des machines Windows.
- Utilisez Ollama avec la commande
ollama run phi3dans un terminal pour interagir avec l’IA. - Pour une interaction visuelle, vous pouvez utiliser LM Studio et intégrer le modèle Phi-3 à partir d’un téléchargement séparé.
Libérer la puissance de l’IA : exécuter Phi-3 de Microsoft sur votre PC Windows
Le modèle d’IA Phi-3 de Microsoft a fait sensation dans la communauté technologique, rendant essentiel pour les passionnés et les développeurs de savoir comment l’exécuter localement. Ce guide explique étape par étape comment installer et utiliser Phi-3 via Ollama et LM Studio, vous permettant ainsi d’accéder à ses fonctionnalités sans connexion Internet.
Informations essentielles avant de commencer
- Phi-3 de Microsoft est un modèle d’IA petit mais puissant que vous pouvez exécuter localement sur Windows.
- Installez Ollama, puis exécutez la commande
ollama run phi3sur une application de terminal (comme CMD).Une fois Phi-3 téléchargé, vous pourrez discuter avec l’IA dans le terminal lui-même. - Vous pouvez également utiliser un logiciel comme LM Studio comme interface graphique pour discuter avec Phi-3 en local. Téléchargez le fichier Phi-3 guff séparément et enregistrez-le dans le répertoire de LM Studio. Chargez ensuite le modèle dans LM Studio et commencez à discuter avec Phi-3 sous Windows en local.
Exécution de Phi-3 de Microsoft sur Windows avec Ollama
Ollama offre un excellent framework pour exécuter localement de grands modèles de langage. Voici comment l’utiliser pour faire fonctionner Phi-3 de Microsoft sur votre machine Windows.
Étape 1 : Acquérir et configurer Ollama
Commencez par télécharger et installer Ollama :
- Ollama pour Windows | Lien de téléchargement
- Cliquez sur Télécharger pour Windows (Aperçu) en utilisant le lien ci-dessus.
- Après le téléchargement, exécutez le fichier d’installation.
- Suivez le processus d’installation en cliquant sur Installer.
Étape 2 : Exécutez la commande Phi-3 pour récupérer le modèle
Pour télécharger le modèle Phi-3, suivez ces étapes :
- Visitez Ollama.com et accédez à la section Modèles.
- Recherchez et localisez phi3.
- Copiez la commande disponible pour télécharger phi3.
- Ouvrez l’invite de commande (ou un terminal de votre choix) à partir du menu Démarrer.
- Collez la commande copiée dans l’application terminal.
- Appuyez sur Entrée et attendez que le modèle Phi-3 soit téléchargé.
- Une fois que vous voyez l’invite « Envoyer un message », le modèle est prêt pour l’interaction.
Étape 3 : Commencez les conversations avec le LLM Phi-3 de Microsoft
Interagissez directement avec le modèle dans votre terminal. Saisissez votre invite et appuyez sur Entrée. Voici quelques fonctionnalités à explorer :
Tester la résistance à la censure :
Évaluation de la compréhension de sujets complexes :
Détection des hallucinations :
Évaluer la créativité :
Exécution de Phi-3 de Microsoft sous Windows à l’aide de LM Studio
Si vous préférez une interface graphique plus simple pour interagir avec Phi-3, envisagez d’utiliser LM Studio. Voici comment le configurer :
Étape 1 : Téléchargez et installez LM Studio
- LM Studio | Lien de téléchargement
- Utilisez le lien fourni pour télécharger LM Studio pour Windows.
- Ouvrez le programme d’installation et laissez-le terminer l’installation de LM Studio.
Étape 2 : Acquérir le fichier Phi-3 GGUF
Pour intégrer Phi-3 avec LM Studio, téléchargez le fichier GGUF séparément :
- Fichier GGUF Phi-3-Mini | Lien de téléchargement
- Accédez au lien et sélectionnez Fichiers.
- Choisissez une version du modèle Phi-3 ; nous recommandons la version plus petite pour plus de facilité d’utilisation.
- Lancer le téléchargement de la version sélectionnée.
- Enregistrez le fichier dans un emplacement facile d’accès.
Étape 3 : ajouter le modèle Phi-3 dans LM Studio
Maintenant, chargez le modèle Phi-3 téléchargé :
- Lancez LM Studio et cliquez sur Mes modèles.
- Recherchez le « dossier Modèles locaux » et ouvrez-le via Afficher dans l’Explorateur de fichiers.
- Créez un dossier nommé Microsoft dans le répertoire.
- Dans le dossier Microsoft, créez un autre dossier intitulé Phi-3.
- Transférez le fichier GGUF téléchargé dans le dossier Phi-3.
- Après avoir déplacé le fichier, il devrait s’afficher dans LM Studio (vous devrez peut-être redémarrer l’application).
- Sélectionnez AI Chat dans le menu pour interagir.
- Sélectionnez Sélectionnez un modèle à charger et choisissez le modèle Phi-3.
- Attendez que LM Studio charge le modèle.
- Pour des performances optimales, pensez à configurer le modèle pour qu’il fonctionne via le GPU ; ajustez les paramètres sous Configuration avancée > Paramètres matériels.
- Changez « Accélération GPU » sur Max.
- Cliquez sur Recharger le modèle pour appliquer la configuration.
- Une fois le modèle entièrement chargé, commencez les interactions dans LM Studio.
Étape 4 : Engagez votre conversation avec le LLM Phi-3 de Microsoft
Vous êtes maintenant prêt à interagir avec le modèle ! Saisissez n’importe quelle invite et, même sans connexion Internet, discutez en local avec Microsoft Phi-3 sur votre ordinateur Windows.
Résumé
Ce tutoriel vous explique comment exécuter Phi-3 de Microsoft sur votre PC Windows, que vous choisissiez l’interface en ligne de commande d’Ollama ou l’interface graphique de LM Studio. Ces deux méthodes ouvrent de nouvelles possibilités d’interaction avec l’IA.
Conclusion
Grâce à ces informations et instructions, vous pouvez explorer les fonctionnalités de Phi-3 de Microsoft en local. Que vous préfériez les commandes du terminal ou une expérience plus visuelle, à vous de choisir. Plongez dans le monde fascinant de l’IA et profitez de vos interactions !
FAQ (Foire aux questions)
Que faire si Ollama se bloque lors du téléchargement de Phi-3 ?
Si Ollama rencontre des problèmes lors du téléchargement de Phi-3, saisissez à nouveau ollama run phi3. Le téléchargement devrait reprendre là où il s’était arrêté.