Cómo ejecutar Microsoft Phi-3 AI en Windows localmente

Cómo ejecutar Microsoft Phi-3 AI en Windows localmente

Qué saber

  • Phi-3 de Microsoft es un modelo de IA pequeño pero potente que puedes ejecutar localmente en Windows.
  • Instale Ollama , luego ejecute el comando ollama run phi3en una aplicación de terminal (como CMD). Una vez descargado phi-3, podrás chatear con la IA dentro del propio terminal.
  • También puede utilizar un software como LM Studio para obtener una interfaz gráfica para chatear con Phi-3 localmente. Descargue el archivo Phi-3 guff por separado y guárdelo en el directorio de LM Studio. Luego cargue el modelo dentro de LM Studio y comience a chatear con Phi-3 en Windows localmente.

La familia de modelos de lenguaje Phi-3 de Microsoft finalmente está aquí. Por su tamaño, definitivamente son una clase aparte y ya están demostrando ser mucho mejores que otros modelos lanzados recientemente como Llama 3 y Mixtral en muchos frentes. Gracias a su pequeño tamaño, Phi-3 puede ejecutarse fácilmente en su PC con Windows localmente. Así es como puedes hacerlo usando Ollama y LM Studio.

Cómo ejecutar Phi-3 de Microsoft en Windows usando Ollama

Ollama es un marco de software que le permite ejecutar y experimentar con LLM. Aquí se explica cómo usarlo para ejecutar Phi-3 de Microsoft en Windows localmente.

Paso 1: Descargue e instale Ollama

En primer lugar, descarguemos e instalemos Ollama. Así es cómo:

  1. Utilice el enlace mencionado anteriormente y haga clic en Descargar para Windows (Vista previa) .
  2. Una vez descargado, ejecute el archivo de instalación.
  3. Haga clic en Instalar e instale Ollama.

Paso 2: ejecute el comando Phi-3 y descargue el LLM

A continuación, descarguemos el modelo Phi-3 usando Ollama.

  1. Abre Ollama.com y haz clic en Modelos .
  2. Desplácese hacia abajo y haga clic en phi3 . Si no lo ve al principio, también puede buscarlo.
  3. Aquí, copie el comando para descargar phi3.
  4. A continuación, abra el símbolo del sistema (o cualquier aplicación de terminal de su elección) desde el menú Inicio.
  5. Aquí, pegue el comando copiado.
  6. Presione Enter y espere a que Phi-3 se descargue en su máquina.
  7. Una vez que vea el mensaje «Enviar un mensaje», estará listo para comenzar a chatear con el modelo localmente.

Paso 3: comience a chatear con Phi-3 LLM de Microsoft

Puede comenzar a chatear dentro de la propia aplicación del terminal. Simplemente escriba un mensaje y presione Enter. Aquí hay algunas áreas en las que probamos el modelo.

Probando la resistencia a la censura

Probar la comprensión de temas complejos.

Pruebas de alucinaciones

Pruebas de creatividad

Cómo ejecutar Phi-3 de Microsoft en Windows usando LM Studio

Si no te gusta chatear con Phi-3 de Microsoft en Windows usando tu aplicación de terminal y prefieres tener una interfaz dedicada para ello, no hay nada mejor que LM Studio. A continuación se explica cómo configurar Phi-3 en LM Studio y comenzar a chatear con el modelo localmente.

Paso 1: Instale LM Studio

  1. Utilice el enlace de arriba y haga clic en LM Studio para Windows para descargarlo.
  2. Una vez descargado, ejecute el instalador y deje que LM Studio se instale.

Paso 2: descargue el archivo Phi-3 guff

No podrá buscar ni descargar Phi-3 desde LM Studio. Necesitará obtener el archivo Guff Phi-3 por separado. Así es cómo:

  1. Utilice el enlace que aparece arriba y haga clic en Archivos .
  2. Aquí encontrará dos versiones del modelo Phi-3. Seleccione uno. Para nuestros propósitos, seleccionamos la versión más pequeña.
  3. Haga clic en Descargar .
  4. Luego guárdelo en una ubicación conveniente.

Paso 3: carga el modelo Phi-3

A continuación, cargaremos el modelo Phi-3 descargado. Siga los pasos para hacerlo:

  1. Abra LM Studio y haga clic en Mis modelos a la izquierda.
  2. Tome nota de la ‘Carpeta de modelos locales’. Aquí es donde debemos mover el archivo guff Phi-3 descargado. Haga clic en Mostrar en el Explorador de archivos para abrir el directorio.
  3. Aquí, cree una nueva carpeta titulada Microsoft .
  4. Dentro de la carpeta Microsoft, cree otra carpeta titulada Phi-3 .
  5. Pegue el archivo guff Phi-3 descargado dentro de la carpeta Phi-3.
  6. Una vez que haya movido el archivo guff Phi-3, también aparecerá en LM Studio.

    Es posible que deba reiniciar LM Studio para que reconozca Phi-3 en su directorio.
  7. Para cargar el modelo Phi-3, haga clic en la opción AI Chat a la izquierda.
  8. Haga clic en Seleccionar un modelo para cargar .
  9. Y seleccione el modelo Phi-3.
  10. Espere a que se cargue. Una vez hecho esto, podrás comenzar a chatear con Phi-3. Sin embargo, recomendamos descargar el modelo a la GPU para que su CPU no se vea sometida a una presión indebida. Para hacerlo, en ‘Mensaje del sistema’ a la derecha, haga clic en Configuración avanzada > Configuración de hardware .
  11. En ‘Aceleración de GPU’, haga clic en Max .
  12. Haga clic en Recargar modelo para aplicar la configuración .
  13. Una vez que se carga el modelo, puedes comenzar a chatear con Phi-3.

Paso 4: comience a chatear con Phi-3 LLM de Microsoft

Y eso es todo. Continúe e ingrese un mensaje. Independientemente de si tiene o no conexión a Internet, ahora podrá chatear con el modelo Phi-3 de Microsoft en su PC con Windows de forma local.

Preguntas más frecuentes

Consideremos algunas preguntas frecuentes sobre la ejecución local de Phi-3 de Microsoft en su PC con Windows.

¿Cómo solucionar que Ollama se atasque al descargar Phi-3?

Si tiene problemas para descargar Phi-3 a través de Ollama en el símbolo del sistema, simplemente ingrese el comando ollama run phi3nuevamente. La descarga se reanudará desde el punto donde se realizó anteriormente.

Esperamos que esta guía le haya ayudado a ejecutar el modelo Phi-3 de Microsoft localmente en su PC con Windows a través de Ollama y LM Studio. ¡Hasta la proxima vez!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *