Guía para ejecutar Microsoft Phi-3 AI localmente en Windows
Notas clave
- Phi-3 de Microsoft es un modelo de IA compacto pero robusto que se puede ejecutar localmente en máquinas Windows.
- Utilice Ollama con el comando
ollama run phi3en una terminal para interactuar con la IA. - Para una interacción visual, puede utilizar LM Studio e integrar el modelo Phi-3 desde una descarga independiente.
Cómo liberar el poder de la IA: ejecutar Phi-3 de Microsoft en su PC con Windows
El modelo de IA Phi-3 de Microsoft ha generado gran interés en la comunidad tecnológica, por lo que es fundamental que entusiastas y desarrolladores sepan cómo ejecutarlo localmente. Esta guía incluye instrucciones paso a paso para instalar y usar Phi-3 a través de Ollama y LM Studio, lo que garantiza que pueda acceder a sus funciones sin necesidad de conexión a internet.
Información esencial antes de empezar
- Phi-3 de Microsoft es un modelo de IA pequeño pero potente que puedes ejecutar localmente en Windows.
- Instala Ollama y luego ejecuta el comando
ollama run phi3en una aplicación de terminal (como CMD).Una vez descargado Phi-3, podrás chatear con la IA dentro de la terminal. - También puedes usar un software como LM Studio para crear una interfaz gráfica y chatear con Phi-3 localmente. Descarga el archivo guff de Phi-3 por separado y guárdalo en el directorio de LM Studio. Luego, carga el modelo en LM Studio y empieza a chatear con Phi-3 localmente en Windows.
Ejecución de Phi-3 de Microsoft en Windows con Ollama
Ollama ofrece un excelente marco de trabajo para ejecutar grandes modelos de lenguaje localmente. Aquí te explicamos cómo usarlo para que Microsoft Phi-3 funcione en tu equipo Windows.
Paso 1: Adquirir y configurar Ollama
Comience descargando e instalando Ollama:
- Ollama para Windows | Enlace de descarga
- Haga clic en Descargar para Windows (vista previa) usando el enlace de arriba.
- Después de la descarga, ejecute el archivo de instalación.
- Siga el proceso de instalación haciendo clic en Instalar.
Paso 2: Ejecute el comando Phi-3 para recuperar el modelo
Para descargar el modelo Phi-3, siga estos pasos:
- Visita Ollama.com y navega a la sección Modelos.
- Busque y localice phi3.
- Copia el comando disponible para descargar phi3.
- Abra el Símbolo del sistema (o una terminal de su elección) desde el menú Inicio.
- Pegue el comando copiado dentro de la aplicación de terminal.
- Presione Enter y espere a que se descargue el modelo Phi-3.
- Una vez que vea el mensaje “Enviar un mensaje”, el modelo estará listo para la interacción.
Paso 3: Iniciar conversaciones con el LLM Phi-3 de Microsoft
Interactúa directamente con el modelo en tu terminal. Escribe tu mensaje y pulsa Intro. Aquí tienes algunas funcionalidades que puedes explorar:
Poniendo a prueba la resistencia a la censura:
Evaluación de la comprensión de temas complejos:
Detectar alucinaciones:
Evaluación de la creatividad:
Ejecución de Phi-3 de Microsoft en Windows con LM Studio
Si prefiere una interfaz gráfica más sencilla para interactuar con Phi-3, considere usar LM Studio. A continuación, le explicamos cómo configurarlo:
Paso 1: Descargue e instale LM Studio
- LM Studio | Enlace de descarga
- Utilice el enlace proporcionado para descargar LM Studio para Windows.
- Abra el instalador y permita que complete la instalación de LM Studio.
Paso 2: Adquirir el archivo Phi-3 GGUF
Para integrar Phi-3 con LM Studio, descargue el archivo GGUF por separado:
- Archivo Phi-3-Mini GGUF | Enlace de descarga
- Accede al enlace y selecciona Archivos.
- Elija una versión del modelo Phi-3; recomendamos la versión más pequeña para facilitar su uso.
- Iniciar la descarga de la versión seleccionada.
- Guarde el archivo en una ubicación de fácil acceso.
Paso 3: Agregue el modelo Phi-3 a LM Studio
Ahora, cargue el modelo Phi-3 descargado:
- Inicie LM Studio y haga clic en Mis modelos.
- Busque la ‘Carpeta de modelos locales’ y ábrala a través de Mostrar en el Explorador de archivos.
- Cree una carpeta llamada Microsoft en el directorio.
- Dentro de la carpeta Microsoft, crea otra carpeta titulada Phi-3.
- Transfiera el archivo GGUF descargado a la carpeta Phi-3.
- Después de mover el archivo, debería aparecer en LM Studio (es posible que deba reiniciar la aplicación).
- Seleccione AI Chat en el menú para interactuar.
- Seleccionar Seleccione un modelo para cargar y elija el modelo Phi-3.
- Espere a que LM Studio cargue el modelo.
- Para un rendimiento óptimo, considere configurar el modelo para que funcione a través de la GPU; ajuste la configuración en Configuración avanzada > Configuración de hardware.
- Cambie ‘Aceleración de GPU’ a Máx.
- Haga clic en Recargar modelo para aplicar la configuración.
- Una vez que el modelo esté completamente cargado, comience las interacciones en LM Studio.
Paso 4: Inicie su conversación con Phi-3 LLM de Microsoft
¡Ya estás listo para interactuar con el modelo! Introduce cualquier mensaje y, incluso sin conexión a internet, disfruta del chat local con Phi-3 de Microsoft en tu equipo Windows.
Resumen
Este tutorial le ha proporcionado los pasos necesarios para ejecutar Phi-3 de Microsoft en su PC con Windows, ya sea que elija la interfaz de línea de comandos con Ollama o la interfaz gráfica de LM Studio. Ambos métodos abren nuevas posibilidades para su interacción con la IA.
Conclusión
Con esta información e instrucciones, podrá explorar las capacidades de Phi-3 de Microsoft localmente. Ya sea que prefiera comandos de terminal o una experiencia más visual, la decisión es suya.¡Sumérjase en el fascinante mundo de la IA y disfrute de sus interacciones!
Preguntas frecuentes
¿Qué hacer si Ollama se bloquea al descargar Phi-3?
Si Ollama no descarga Phi-3, vuelva a ingresar ollama run phi3. La descarga debería reanudarse desde donde se detuvo.