Comment exécuter Llama 3 par Meta AI localement
Ce qu’il faut savoir
- Le grand modèle linguistique de Meta, Llama 3, est disponible pour que vous puissiez le télécharger et l’exécuter localement sur votre système.
- Téléchargez Meta Llama 3 depuis Llama.meta.com et utilisez un framework LLM tel que LM studio pour charger le modèle.
- Vous pouvez également rechercher et télécharger Meta Llama 3 depuis le studio LM lui-même. Reportez-vous au guide ci-dessous pour obtenir des instructions détaillées à ce sujet.
Le dernier modèle linguistique de Meta, Llama 3, est ici et disponible gratuitement. Bien que vous puissiez utiliser Meta AI, qui exécute le même LLM, il existe également la possibilité de télécharger le modèle et de l’exécuter localement sur votre système.
Comment exécuter Llama 3 par Meta AI localement
Bien que Meta AI ne soit disponible que dans certains pays, vous pouvez télécharger et exécuter Llama 3 localement sur votre PC, quelle que soit votre région. Suivez les étapes ci-dessous pour exécuter Llama 3 par Meta AI localement.
Étape 1 : Installer LM Studio
Tout d’abord, installons un framework sur lequel exécuter Llama 3. Si vous disposez déjà d’une autre application de ce type sur votre système, vous pouvez passer à l’étape suivante. Pour tous les autres, voici comment obtenir le studio LM :
- Studio LM | Lien de téléchargement
- Utilisez le lien ci-dessus et cliquez sur LM Studio pour Windows pour le télécharger.
- Une fois téléchargé, exécutez le programme d’installation et laissez LM Studio s’installer.
Étape 2 : Téléchargez Meta’s Llama 3 localement
Une fois que vous avez votre framework LLM, il est temps de télécharger Meta’s Llama 3 sur votre PC. Il existe plusieurs façons de procéder.
- Ouvrez Llama.Meta.com et cliquez sur Télécharger des modèles .
- Entrez vos coordonnées et demandez à télécharger le LLM.
Si cela ne fonctionne pas, ne vous inquiétez pas. Vous pouvez également utiliser votre framework LLM pour télécharger le LLM.
- Recherchez simplement Meta Llama dans le champ de recherche de LM Studio.
- Ici, vous trouverez différents LLM quantifiés. Sélectionnez-en un.
- Sur la droite, sélectionnez votre version préférée. Cliquez sur Télécharger à côté.
- Attendez la fin du téléchargement.
- Une fois terminé, cliquez sur Mes modèles à gauche.
- Et vérifiez si le téléchargement est terminé.
Étape 3 : Charger le modèle téléchargé
- Une fois le téléchargement terminé, cliquez sur le chat AI à gauche.
- Cliquez sur Sélectionner un modèle à charger .
- Et choisissez le Meta Llama 3 téléchargé.
- Attendez que le modèle se charge.
- Une fois chargé, vous pouvez décharger l’intégralité du modèle sur le GPU. Pour ce faire, cliquez sur Configuration avancée sous « Paramètres ».
- Cliquez sur Max pour décharger l’intégralité du modèle sur le GPU.
- Cliquez sur Recharger le modèle pour appliquer la configuration .
Étape 4 : Exécutez Llama 3 (et testez-le avec des invites)
Une fois le modèle chargé, vous pouvez commencer à discuter avec Llama 3 localement. Et non, puisque le LLM est stocké localement sur votre ordinateur, vous n’avez pas besoin d’une connexion Internet pour le faire. Alors mettons Llama 3 à l’épreuve et voyons de quoi il est capable.
Tester la résistance à la censure
Tester la compréhension de sujets complexes
Test d’hallucinations
Tests de créativité et de compréhension
Selon la plupart des témoignages, Llama 3 est un grand modèle de langage assez solide. Outre les invites de test mentionnées ci-dessus, il a réussi avec brio, même sur des sujets et des invites plus complexes.
Nous espérons que vous avez autant d’exécutants locaux que Meta’s Llama 3 sur votre PC Windows 11. Jusqu’à la prochaine fois!
Laisser un commentaire