Windows에서 Microsoft Phi-3 AI를 로컬로 실행하는 방법 가이드

주요 내용

  • Microsoft의 Phi-3는 Windows 컴퓨터에서 로컬로 실행할 수 있는 작지만 강력한 AI 모델입니다.
  • 터미널에서 Ollama 명령을 사용 하여 AI와 상호 작용합니다. ollama run phi3
  • 시각적 상호작용을 위해 LM Studio를 사용 하고 별도로 다운로드하여 Phi-3 모델을 통합할 수 있습니다.

AI의 잠재력을 최대한 활용하기: Windows PC에서 Microsoft Phi-3 실행

Microsoft의 Phi-3 AI 모델은 기술 커뮤니티에 큰 반향을 일으키며, 개발자와 애호가 모두에게 로컬 환경에서 Phi-3를 실행하는 방법을 아는 것이 필수적이 되었습니다.이 가이드는 Ollama와 LM Studio를 통해 Phi-3를 설치하고 사용하는 방법을 단계별로 설명하여 온라인 연결 없이도 기능에 액세스할 수 있도록 지원합니다.

시작하기 전 필수 통찰력

  • Microsoft의 Phi-3는 Windows에서 로컬로 실행할 수 있는 작지만 강력한 AI 모델입니다.
  • Ollama를 설치한 다음 ollama run phi3 터미널 앱(예: CMD)에서 명령을 실행합니다. Phi-3를 다운로드하면 터미널 내에서 AI와 채팅할 수 있습니다.
  • LM Studio 와 같은 그래픽 인터페이스를 사용하는 소프트웨어를 사용하여 Phi-3와 로컬에서 채팅할 수도 있습니다.Phi-3 guff 파일을 별도로 다운로드하여 LM Studio 디렉터리에 저장하세요.그런 다음 LM Studio에서 모델을 로드하고 Windows에서 Phi-3와 로컬로 채팅을 시작하세요.

Ollama를 사용하여 Windows에서 Microsoft의 Phi-3 실행

Ollama는 대규모 언어 모델을 로컬에서 실행할 수 있는 훌륭한 프레임워크를 제공합니다. Ollama를 사용하여 Windows 컴퓨터에서 Microsoft Phi-3를 실행하는 방법은 다음과 같습니다.

1단계: Ollama 획득 및 설정

Ollama를 다운로드하고 설치하여 시작하세요:

  1. 위의 링크를 사용하여 Windows용 다운로드(미리보기)를 클릭하세요.
  2. 다운로드 후 설치 파일을 실행하세요.
  3. 설치를 클릭하여 설치 과정을 따르세요.

2단계: Phi-3 명령을 실행하여 모델 검색

Phi-3 모델을 다운로드하려면 다음 단계를 따르세요.

  1. Ollama.com을 방문하여 모델 섹션 으로 이동하세요.
  2. phi3를 검색하여 찾으세요.
  3. phi3를 다운로드하는 데 사용할 수 있는 명령어를 복사하세요.
  4. 시작 메뉴에서 명령 프롬프트(또는 원하는 터미널)를 엽니다.
  5. 복사한 명령을 터미널 애플리케이션에 붙여넣습니다.
  6. Enter를 누르고 Phi-3 모델이 다운로드될 때까지 기다리세요.
  7. “메시지 보내기” 메시지가 나타나면 모델은 상호 작용할 준비가 된 것입니다.

3단계: Microsoft의 Phi-3 LLM과 대화 시작

터미널에서 모델에 직접 접근하세요.프롬프트를 입력하고 Enter 키를 누르세요.다음과 같은 기능을 활용해 보세요.

검열 저항성 테스트:

복잡한 주제에 대한 이해도 평가:

환각 감지:

창의성 평가:

LM Studio를 사용하여 Windows에서 Microsoft Phi-3 실행

Phi-3와 상호 작용할 때 더 간단하고 그래픽적인 인터페이스를 선호한다면 LM Studio를 사용해 보세요.설정 방법은 다음과 같습니다.

1단계: LM Studio 다운로드 및 설치

  1. 제공된 링크를 이용해 Windows용 LM Studio를 다운로드하세요.
  2. 설치 프로그램을 열고 LM Studio 설치가 완료될 때까지 기다립니다.

2단계: Phi-3 GGUF 파일 획득

Phi-3를 LM Studio와 통합하려면 GGUF 파일을 별도로 다운로드하세요.

  1. 링크에 접속하여 파일을 선택하세요.
  2. Phi-3 모델 버전을 선택하세요.사용 편의성을 위해 더 작은 버전을 권장합니다.
  3. 선택한 버전의 다운로드를 시작합니다.
  4. 쉽게 접근할 수 있는 위치에 파일을 저장하세요.

3단계: LM Studio에 Phi-3 모델 추가

이제 다운로드한 Phi-3 모델을 로드하세요.

  1. LM Studio를 실행하고 내 모델을 클릭합니다.
  2. ‘로컬 모델 폴더’를 확인하고 파일 탐색기에서 표시를 통해 엽니다.
  3. 디렉토리에 Microsoft 라는 이름의 폴더를 만듭니다.
  4. Microsoft 폴더 내에 Phi-3 이라는 이름의 또 다른 폴더를 만듭니다.
  5. 다운로드한 GGUF 파일을 Phi-3 폴더로 옮깁니다.
  6. 파일을 이동한 후에는 LM Studio에 표시되어야 합니다(애플리케이션을 다시 시작해야 할 수도 있습니다).
  7. 상호작용을 위해 메뉴에서 AI 채팅을 선택하세요.
  8. 모델을 선택하여 로드 하고 Phi-3 모델을 선택하세요.
  9. LM Studio가 모델을 로드할 때까지 기다리세요.
  10. 최적의 성능을 위해 GPU를 통해 작동하도록 모델을 구성하는 것을 고려하세요.고급 구성 > 하드웨어 설정 에서 설정을 조정하세요.
  11. ‘GPU 가속’을 최대 로 변경합니다.
  12. 구성을 적용하려면 모델 다시 로드를 클릭하세요.
  13. 모델이 완전히 로드되면 LM Studio에서 상호 작용을 시작합니다.

4단계: Microsoft Phi-3 LLM과 대화 시작

이제 모델과 소통할 준비가 되었습니다! 어떤 프롬프트든 입력하고 인터넷에 연결되지 않은 상태에서도 Windows 컴퓨터에서 Microsoft Phi-3와 로컬 채팅을 즐겨보세요.

요약

이 튜토리얼은 Ollama의 명령줄 인터페이스나 LM Studio의 그래픽 인터페이스를 선택하든, Windows PC에서 Microsoft Phi-3를 실행하는 데 필요한 단계를 제공합니다.두 방법 모두 AI와의 상호작용에 새로운 가능성을 열어줍니다.

결론

이러한 통찰력과 지침을 통해 Microsoft Phi-3의 기능을 로컬에서 직접 탐색해 볼 수 있습니다.터미널 명령을 선호하든 시각적인 경험을 선호하든, 이제 선택은 당신의 몫입니다.매혹적인 AI의 세계로 뛰어들어 상호작용을 즐겨보세요!

FAQ(자주 묻는 질문)

Phi-3를 다운로드하는 중에 Ollama가 멈추면 어떻게 해야 하나요?

Ollama에서 Phi-3를 다운로드하지 못하는 문제가 발생하면 다시 입력하세요 ollama run phi3.다운로드가 중단된 지점부터 다시 시작됩니다.