Ejecución de Microsoft Phi-3 AI localmente en Windows: guía paso a paso
Notas clave
Una guía completa para ejecutar Phi-3 de Microsoft localmente en Windows
Esta guía detalla cómo instalar y ejecutar el modelo de inteligencia artificial Phi-3 de Microsoft en Windows usando Ollama y LM Studio, proporcionando pasos prácticos para ambos enfoques.
Lo que debes saber
- Phi-3 de Microsoft es un modelo de IA compacto pero potente que puede ejecutarse de forma local de manera eficiente en Windows.
- Instale Ollama, luego ejecute el comando
ollama run phi3en su terminal (como CMD).Una vez completada la descarga, podrá interactuar con la IA directamente en la terminal. - Como alternativa, use LM Studio para crear una interfaz gráfica y chatear con Phi-3 localmente. Descargue el archivo guff de Phi-3 por separado, colóquelo en el directorio de LM Studio y cargue el modelo allí para iniciar el chat.
Los modelos Phi-3 de Microsoft representan un gran avance en IA, superando a muchos modelos más recientes como Llama 3 y Mixtral en varias funciones. Gracias a su tamaño compacto, Phi-3 se ejecuta sin problemas en su equipo Windows. A continuación, encontrará instrucciones detalladas sobre cómo utilizar Ollama y LM Studio para este fin.
Ejecución de Phi-3 de Microsoft en Windows con Ollama
Ollama sirve como un marco integral diseñado para ejecutar y experimentar con modelos de lenguaje grandes (LLM).Exploremos cómo configurarlo para ejecutar Phi-3 de Microsoft localmente en su máquina Windows.
Paso 1: Instale Ollama
Comience descargando e instalando Ollama:
- Ollama para Windows | Enlace de descarga
- Haga clic en el enlace de arriba y seleccione Descargar para Windows (Vista previa).
- Una vez completada la descarga, ejecute el archivo de instalación.
- Siga las instrucciones y haga clic en Instalar para finalizar la instalación de Ollama.
Paso 2: Ejecute el comando de descarga Phi-3
Ahora, descarguemos el modelo Phi-3 a través de Ollama:
- Visita Ollama.com y navega a la sección Modelos.
- Busque y seleccione phi3, o desplácese hacia abajo para encontrarlo.
- Copia el comando que aparece para descargar phi3.
- Abra el Símbolo del sistema o cualquier aplicación de terminal desde el menú Inicio.
- Pegue el comando copiado en la terminal.
- Presiona Enter y espera a que Phi-3 termine de descargarse.
- Una vez que aparezca el mensaje «Enviar un mensaje», estará listo para conversar con la IA localmente.
Paso 3: Interactúe con el LLM Phi-3 de Microsoft
Puedes iniciar un chat directamente en la terminal. Simplemente introduce tu mensaje y pulsa Enter.
Estas son algunas áreas en las que Phi-3 destaca:
Prueba de la resistencia a la censura Evaluación de la comprensión de temas complejos Identificación de alucinaciones Evaluación de la creatividad
Ejecución de Phi-3 de Microsoft en Windows con LM Studio
Si una interfaz de terminal no es lo que prefiere, LM Studio ofrece un entorno gráfico robusto para interactuar con Phi-3 de Microsoft. Siga estos pasos para configurarlo:
Paso 1: Instalar LM Studio
- LM Studio | Enlace de descarga
- Siga el enlace para descargar LM Studio para Windows.
- Una vez descargado, ejecute el instalador para configurar LM Studio.
Paso 2: Adquirir el archivo Phi-3 Guff
Necesitarás descargar el archivo Phi-3 Guff por separado:
- Archivo Phi-3 Mini Guff | Enlace de descarga
- Haga clic en el enlace de arriba y navegue hasta Archivos.
- Seleccione una de las versiones del modelo Phi-3, preferiblemente la opción más pequeña.
- Presione Descargar para recuperar el archivo Guff.
- Guárdalo en un lugar conveniente en tu computadora.
Paso 3: Importar el modelo Phi-3
Ahora, carguemos el modelo Phi-3 descargado en LM Studio:
- Abra LM Studio y seleccione Mis modelos en el menú de la izquierda.
- Revisa la ruta de la carpeta «Modelos locales».Haz clic en » Mostrar en el Explorador de archivos» para acceder a ella.
- Cree una nueva carpeta llamada Microsoft dentro de este directorio.
- Dentro de la carpeta Microsoft, crea una subcarpeta llamada Phi-3.
- Coloque el archivo Phi-3 Guff descargado en la carpeta Phi-3.
- El modelo debería mostrarse en LM Studio. Es posible que tengas que reiniciarlo para que los cambios surtan efecto.
- Para iniciar el modelo Phi-3, vaya a la opción AI Chat en la barra lateral.
- Seleccionar Seleccione un modelo para cargar y busque el modelo Phi-3.
- Deja que se cargue por completo. Considera descargar a la GPU para reducir la carga de la CPU. Para ello, ve a Configuración avanzada > Configuración de hardware.
- Habilite Max en ‘Aceleración de GPU’ y haga clic en Recargar modelo para aplicar la configuración.
- Una vez que el modelo termine de cargarse, puedes comenzar a chatear con Phi-3.
Paso 4: Interactúe con el LLM Phi-3 de Microsoft
¡Listo! Introduce tu mensaje y, independientemente del estado de tu conexión a internet, podrás comunicarte localmente con el modelo Phi-3 de Microsoft en tu PC con Windows.
Consejos adicionales
- Asegúrese de que su versión de Windows cumpla con todos los requisitos del sistema necesarios para un rendimiento óptimo.
- Reinicie su terminal o LM Studio si los modelos no aparecen como se esperaba después de la instalación.
- Considere buscar actualizaciones de Ollama y LM Studio periódicamente para obtener funcionalidades mejoradas.
Resumen
Esta guía ofrece un método paso a paso para instalar y ejecutar correctamente el modelo Phi-3 de Microsoft localmente en Windows, utilizando tanto Ollama como LM Studio. Tanto si prefiere los comandos de terminal como una interfaz gráfica de usuario, ambos métodos le permiten aprovechar al máximo este modelo de IA.
Conclusión
Con Phi-3 de Microsoft ejecutándose localmente, puedes explorar funcionalidades avanzadas de IA directamente en tu dispositivo. Configura Ollama o LM Studio según las instrucciones y sumérgete en conversaciones interactivas con Phi-3.¡No dudes en experimentar y experimentar con diversas indicaciones para aprovechar al máximo las capacidades de este excepcional modelo!
Preguntas frecuentes
¿Cómo solucionar el problema de Ollama bloqueado al descargar Phi-3?
Si tiene dificultades para descargar Phi-3 mediante Ollama en el símbolo del sistema, simplemente vuelva a introducir el comando ollama run phi3. La descarga se reanudará desde donde se detuvo por última vez.