Guía para ejecutar Microsoft Phi-3 AI localmente en Windows

Notas clave

  • Phi-3 de Microsoft es un modelo de IA compacto pero robusto que se puede ejecutar localmente en máquinas Windows.
  • Utilice Ollama con el comando ollama run phi3 en una terminal para interactuar con la IA.
  • Para una interacción visual, puede utilizar LM Studio e integrar el modelo Phi-3 desde una descarga independiente.

Cómo liberar el poder de la IA: ejecutar Phi-3 de Microsoft en su PC con Windows

El modelo de IA Phi-3 de Microsoft ha generado gran interés en la comunidad tecnológica, por lo que es fundamental que entusiastas y desarrolladores sepan cómo ejecutarlo localmente. Esta guía incluye instrucciones paso a paso para instalar y usar Phi-3 a través de Ollama y LM Studio, lo que garantiza que pueda acceder a sus funciones sin necesidad de conexión a internet.

Información esencial antes de empezar

  • Phi-3 de Microsoft es un modelo de IA pequeño pero potente que puedes ejecutar localmente en Windows.
  • Instala Ollama y luego ejecuta el comando ollama run phi3 en una aplicación de terminal (como CMD).Una vez descargado Phi-3, podrás chatear con la IA dentro de la terminal.
  • También puedes usar un software como LM Studio para crear una interfaz gráfica y chatear con Phi-3 localmente. Descarga el archivo guff de Phi-3 por separado y guárdalo en el directorio de LM Studio. Luego, carga el modelo en LM Studio y empieza a chatear con Phi-3 localmente en Windows.

Ejecución de Phi-3 de Microsoft en Windows con Ollama

Ollama ofrece un excelente marco de trabajo para ejecutar grandes modelos de lenguaje localmente. Aquí te explicamos cómo usarlo para que Microsoft Phi-3 funcione en tu equipo Windows.

Paso 1: Adquirir y configurar Ollama

Comience descargando e instalando Ollama:

  1. Haga clic en Descargar para Windows (vista previa) usando el enlace de arriba.
  2. Después de la descarga, ejecute el archivo de instalación.
  3. Siga el proceso de instalación haciendo clic en Instalar.

Paso 2: Ejecute el comando Phi-3 para recuperar el modelo

Para descargar el modelo Phi-3, siga estos pasos:

  1. Visita Ollama.com y navega a la sección Modelos.
  2. Busque y localice phi3.
  3. Copia el comando disponible para descargar phi3.
  4. Abra el Símbolo del sistema (o una terminal de su elección) desde el menú Inicio.
  5. Pegue el comando copiado dentro de la aplicación de terminal.
  6. Presione Enter y espere a que se descargue el modelo Phi-3.
  7. Una vez que vea el mensaje “Enviar un mensaje”, el modelo estará listo para la interacción.

Paso 3: Iniciar conversaciones con el LLM Phi-3 de Microsoft

Interactúa directamente con el modelo en tu terminal. Escribe tu mensaje y pulsa Intro. Aquí tienes algunas funcionalidades que puedes explorar:

Poniendo a prueba la resistencia a la censura:

Evaluación de la comprensión de temas complejos:

Detectar alucinaciones:

Evaluación de la creatividad:

Ejecución de Phi-3 de Microsoft en Windows con LM Studio

Si prefiere una interfaz gráfica más sencilla para interactuar con Phi-3, considere usar LM Studio. A continuación, le explicamos cómo configurarlo:

Paso 1: Descargue e instale LM Studio

  1. Utilice el enlace proporcionado para descargar LM Studio para Windows.
  2. Abra el instalador y permita que complete la instalación de LM Studio.

Paso 2: Adquirir el archivo Phi-3 GGUF

Para integrar Phi-3 con LM Studio, descargue el archivo GGUF por separado:

  1. Accede al enlace y selecciona Archivos.
  2. Elija una versión del modelo Phi-3; recomendamos la versión más pequeña para facilitar su uso.
  3. Iniciar la descarga de la versión seleccionada.
  4. Guarde el archivo en una ubicación de fácil acceso.

Paso 3: Agregue el modelo Phi-3 a LM Studio

Ahora, cargue el modelo Phi-3 descargado:

  1. Inicie LM Studio y haga clic en Mis modelos.
  2. Busque la ‘Carpeta de modelos locales’ y ábrala a través de Mostrar en el Explorador de archivos.
  3. Cree una carpeta llamada Microsoft en el directorio.
  4. Dentro de la carpeta Microsoft, crea otra carpeta titulada Phi-3.
  5. Transfiera el archivo GGUF descargado a la carpeta Phi-3.
  6. Después de mover el archivo, debería aparecer en LM Studio (es posible que deba reiniciar la aplicación).
  7. Seleccione AI Chat en el menú para interactuar.
  8. Seleccionar Seleccione un modelo para cargar y elija el modelo Phi-3.
  9. Espere a que LM Studio cargue el modelo.
  10. Para un rendimiento óptimo, considere configurar el modelo para que funcione a través de la GPU; ajuste la configuración en Configuración avanzada > Configuración de hardware.
  11. Cambie ‘Aceleración de GPU’ a Máx.
  12. Haga clic en Recargar modelo para aplicar la configuración.
  13. Una vez que el modelo esté completamente cargado, comience las interacciones en LM Studio.

Paso 4: Inicie su conversación con Phi-3 LLM de Microsoft

¡Ya estás listo para interactuar con el modelo! Introduce cualquier mensaje y, incluso sin conexión a internet, disfruta del chat local con Phi-3 de Microsoft en tu equipo Windows.

Resumen

Este tutorial le ha proporcionado los pasos necesarios para ejecutar Phi-3 de Microsoft en su PC con Windows, ya sea que elija la interfaz de línea de comandos con Ollama o la interfaz gráfica de LM Studio. Ambos métodos abren nuevas posibilidades para su interacción con la IA.

Conclusión

Con esta información e instrucciones, podrá explorar las capacidades de Phi-3 de Microsoft localmente. Ya sea que prefiera comandos de terminal o una experiencia más visual, la decisión es suya.¡Sumérjase en el fascinante mundo de la IA y disfrute de sus interacciones!

Preguntas frecuentes

¿Qué hacer si Ollama se bloquea al descargar Phi-3?

Si Ollama no descarga Phi-3, vuelva a ingresar ollama run phi3. La descarga debería reanudarse desde donde se detuvo.