Windows에서 Microsoft Phi-3 AI 로컬 실행: 단계별 가이드

주요 내용

  • Windows에서 Microsoft의 Phi-3를 로컬로 실행하여 강력한 AI 기능을 활용하세요.
  • 원활한 터미널 환경을 위해 Ollama를 활용하세요.
  • 직관적인 그래픽 인터페이스를 원하시면 LM Studio를 선택하세요.

Windows에서 Microsoft Phi-3를 로컬로 실행하는 방법에 대한 포괄적인 가이드

이 가이드에서는 Ollama와 LM Studio를 모두 사용하여 Windows에 Microsoft의 Phi-3 AI 모델을 설치하고 실행하는 방법을 자세히 설명하고, 두 가지 접근 방식에 대한 실행 가능한 단계를 제공합니다.

당신이 알아야 할 것

  • Microsoft의 Phi-3는 Windows에서 로컬로 효율적으로 실행할 수 있는 작지만 강력한 AI 모델입니다.
  • Ollama를 설치한 후 터미널에서 명령을 실행합니다 ollama run phi3 (CMD와 유사).다운로드가 완료되면 터미널에서 AI와 직접 상호 작용할 수 있습니다.
  • 또는 LM Studio를 사용하여 그래픽 인터페이스를 통해 Phi-3와 로컬로 채팅할 수 있습니다.Phi-3 guff 파일을 별도로 다운로드하여 LM Studio 디렉터리에 넣고 모델을 로드하여 채팅을 시작하세요.

Microsoft의 Phi-3 모델은 AI 분야에서 비약적인 발전을 이루었으며, Llama 3 및 Mixtral과 같은 여러 최신 모델을 여러 측면에서 능가합니다. Phi-3는 크기가 작아 Windows 컴퓨터에서 원활하게 실행할 수 있습니다.아래에서 Ollama와 LM Studio를 사용하여 이러한 작업을 수행하는 방법에 대한 자세한 지침을 확인할 수 있습니다.

Ollama를 사용하여 Windows에서 Microsoft의 Phi-3 실행

Ollama는 대규모 언어 모델(LLM)을 실행하고 실험하기 위해 설계된 포괄적인 프레임워크입니다. Windows 컴퓨터에서 Microsoft의 Phi-3를 로컬로 실행하도록 Ollama를 설정하는 방법을 살펴보겠습니다.

1단계: Ollama 설치하기

Ollama를 다운로드하고 설치하여 시작하세요.

  1. 위의 링크를 클릭하고 Windows용 다운로드(미리보기)를 선택하세요.
  2. 다운로드가 완료되면 설치 파일을 실행하세요.
  3. 메시지를 따르고 설치를 클릭하여 Ollama 설치를 완료하세요.

2단계: Phi-3 다운로드 명령 실행

이제 Ollama를 통해 Phi-3 모델을 다운로드해 보겠습니다.

  1. Ollama.com을 방문하여 모델 섹션 으로 이동하세요.
  2. phi3를 검색하여 선택 하거나 아래로 스크롤하여 찾으세요.
  3. phi3를 다운로드하는 명령어를 복사하세요.
  4. 시작 메뉴에서 명령 프롬프트나 터미널 앱을 엽니다.
  5. 복사한 명령어를 터미널에 붙여넣습니다.
  6. Enter 다운로드를 완료할 때까지 Phi-3를 누르고 기다리세요.
  7. “메시지 보내기” 메시지가 나타나면, AI와 로컬로 대화할 준비가 된 것입니다.

3단계: Microsoft의 Phi-3 LLM 참여

터미널에서 바로 채팅을 시작할 수 있습니다.프롬프트를 입력하고 버튼을 누르세요 Enter.

Phi-3가 탁월한 성과를 보이는 분야는 다음과 같습니다.

검열 저항성 테스트 복잡한 주제 이해 평가 환각 식별 창의성 평가

LM Studio를 사용하여 Windows에서 Microsoft Phi-3 실행

터미널 인터페이스가 마음에 들지 않으신다면, LM Studio는 Microsoft Phi-3와 상호 작용할 수 있는 강력한 그래픽 환경을 제공합니다.다음 단계에 따라 설정하세요.

1단계: LM Studio 설치

  1. 링크를 따라 Windows용 LM Studio를 다운로드하세요.
  2. 다운로드가 완료되면 설치 프로그램을 실행하여 LM Studio를 설치하세요.

2단계: Phi-3 Guff 파일 획득

Phi-3 Guff 파일을 별도로 다운로드해야 합니다.

  1. 위의 링크를 클릭하고 파일 로 이동하세요.
  2. Phi-3 모델 버전 중 하나를 선택하세요.작은 옵션이면 더 좋습니다.
  3. 다운로드를 눌러 Guff 파일을 다운로드하세요.
  4. 컴퓨터의 편리한 위치에 저장하세요.

3단계: Phi-3 모델 가져오기

이제 다운로드한 Phi-3 모델을 LM Studio에 로드해 보겠습니다.

  1. LM Studio를 열고 왼쪽 메뉴에서 내 모델을 선택합니다.
  2. ‘로컬 모델 폴더’ 경로를 확인하세요.‘파일 탐색기에 표시’ 를 클릭하여 액세스하세요.
  3. 이 디렉토리 내에 Microsoft 라는 이름의 새 폴더를 만듭니다.
  4. Microsoft 폴더 내에 Phi-3 이라는 하위 폴더를 만듭니다.
  5. 다운로드한 Phi-3 Guff 파일을 Phi-3 폴더에 넣으세요.
  6. 모델이 LM Studio에 표시됩니다.변경 사항을 적용하려면 LM Studio를 다시 시작해야 할 수도 있습니다.
  7. Phi-3 모델을 시작하려면 사이드바의 AI 채팅 옵션으로 이동하세요.
  8. 모델을 선택하여 로드하고 Phi -3 모델을 찾으세요.
  9. 완전히 로드되도록 하세요.고급 구성 > 하드웨어 설정 으로 이동하여 GPU로 오프로드하여 CPU 부하를 줄이는 것을 고려해 보세요.
  10. ‘GPU 가속’에서 Max를 활성화 하고 모델 다시 로드를 클릭하여 구성을 적용합니다.
  11. 모델 로딩이 완료되면 Phi-3와 채팅을 시작할 수 있습니다.

4단계: Microsoft의 Phi-3 LLM 참여

이제 끝입니다! 프롬프트를 입력하면 인터넷 연결 상태와 관계없이 Windows PC에서 Microsoft Phi-3 모델과 로컬로 통신할 수 있습니다.

추가 팁

  • 최적의 성능을 위해 Windows 버전이 모든 필수 시스템 요구 사항을 충족하는지 확인하세요.
  • 설치 후 모델이 예상대로 나타나지 않으면 터미널이나 LM Studio를 다시 시작하세요.
  • 향상된 기능을 위해 Ollama와 LM Studio의 업데이트를 정기적으로 확인하세요.

요약

이 가이드는 Ollama와 LM Studio를 사용하여 Windows에 Microsoft Phi-3 모델을 로컬로 성공적으로 설치하고 실행하는 단계별 방법을 제공합니다.터미널 명령에 익숙하든 그래픽 사용자 인터페이스를 선호하든, 두 가지 방법 모두 이 AI 모델을 효과적으로 활용할 수 있도록 지원합니다.

결론

Microsoft Phi-3를 로컬에서 실행하면 기기에서 바로 고급 AI 기능을 탐색할 수 있습니다. Ollama 또는 LM Studio를 안내에 따라 설정하고 Phi-3와 대화형 대화를 시작해 보세요.이 뛰어난 모델의 기능을 최대한 활용하려면 다양한 프롬프트를 자유롭게 실험하고 사용해 보세요!

자주 묻는 질문

Ollama가 Phi-3 다운로드 중에 멈췄을 때 어떻게 해결하나요?

Ollama 명령 프롬프트에서 Phi-3를 다운로드하는 데 문제가 있는 경우, 명령을 다시 입력하세요 ollama run phi3.마지막으로 중단된 지점부터 다운로드가 다시 시작됩니다.