Windows에서 Microsoft Phi-3 AI 로컬 실행: 단계별 가이드
주요 내용
- Windows에서 Microsoft의 Phi-3를 로컬로 실행하여 강력한 AI 기능을 활용하세요.
- 원활한 터미널 환경을 위해 Ollama를 활용하세요.
- 직관적인 그래픽 인터페이스를 원하시면 LM Studio를 선택하세요.
Windows에서 Microsoft Phi-3를 로컬로 실행하는 방법에 대한 포괄적인 가이드
이 가이드에서는 Ollama와 LM Studio를 모두 사용하여 Windows에 Microsoft의 Phi-3 AI 모델을 설치하고 실행하는 방법을 자세히 설명하고, 두 가지 접근 방식에 대한 실행 가능한 단계를 제공합니다.
당신이 알아야 할 것
- Microsoft의 Phi-3는 Windows에서 로컬로 효율적으로 실행할 수 있는 작지만 강력한 AI 모델입니다.
- Ollama를 설치한 후 터미널에서 명령을 실행합니다
ollama run phi3(CMD와 유사).다운로드가 완료되면 터미널에서 AI와 직접 상호 작용할 수 있습니다. - 또는 LM Studio를 사용하여 그래픽 인터페이스를 통해 Phi-3와 로컬로 채팅할 수 있습니다.Phi-3 guff 파일을 별도로 다운로드하여 LM Studio 디렉터리에 넣고 모델을 로드하여 채팅을 시작하세요.
Microsoft의 Phi-3 모델은 AI 분야에서 비약적인 발전을 이루었으며, Llama 3 및 Mixtral과 같은 여러 최신 모델을 여러 측면에서 능가합니다. Phi-3는 크기가 작아 Windows 컴퓨터에서 원활하게 실행할 수 있습니다.아래에서 Ollama와 LM Studio를 사용하여 이러한 작업을 수행하는 방법에 대한 자세한 지침을 확인할 수 있습니다.
Ollama를 사용하여 Windows에서 Microsoft의 Phi-3 실행
Ollama는 대규모 언어 모델(LLM)을 실행하고 실험하기 위해 설계된 포괄적인 프레임워크입니다. Windows 컴퓨터에서 Microsoft의 Phi-3를 로컬로 실행하도록 Ollama를 설정하는 방법을 살펴보겠습니다.
1단계: Ollama 설치하기
Ollama를 다운로드하고 설치하여 시작하세요.
- Windows용 Ollama | 다운로드 링크
- 위의 링크를 클릭하고 Windows용 다운로드(미리보기)를 선택하세요.
- 다운로드가 완료되면 설치 파일을 실행하세요.
- 메시지를 따르고 설치를 클릭하여 Ollama 설치를 완료하세요.
2단계: Phi-3 다운로드 명령 실행
이제 Ollama를 통해 Phi-3 모델을 다운로드해 보겠습니다.
- Ollama.com을 방문하여 모델 섹션 으로 이동하세요.
- phi3를 검색하여 선택 하거나 아래로 스크롤하여 찾으세요.
- phi3를 다운로드하는 명령어를 복사하세요.
- 시작 메뉴에서 명령 프롬프트나 터미널 앱을 엽니다.
- 복사한 명령어를 터미널에 붙여넣습니다.
- Enter 다운로드를 완료할 때까지 Phi-3를 누르고 기다리세요.
- “메시지 보내기” 메시지가 나타나면, AI와 로컬로 대화할 준비가 된 것입니다.
3단계: Microsoft의 Phi-3 LLM 참여
터미널에서 바로 채팅을 시작할 수 있습니다.프롬프트를 입력하고 버튼을 누르세요 Enter.
Phi-3가 탁월한 성과를 보이는 분야는 다음과 같습니다.
검열 저항성 테스트 복잡한 주제 이해 평가 환각 식별 창의성 평가
LM Studio를 사용하여 Windows에서 Microsoft Phi-3 실행
터미널 인터페이스가 마음에 들지 않으신다면, LM Studio는 Microsoft Phi-3와 상호 작용할 수 있는 강력한 그래픽 환경을 제공합니다.다음 단계에 따라 설정하세요.
1단계: LM Studio 설치
- LM 스튜디오 | 다운로드 링크
- 링크를 따라 Windows용 LM Studio를 다운로드하세요.
- 다운로드가 완료되면 설치 프로그램을 실행하여 LM Studio를 설치하세요.
2단계: Phi-3 Guff 파일 획득
Phi-3 Guff 파일을 별도로 다운로드해야 합니다.
- Phi-3 Mini Guff 파일 | 다운로드 링크
- 위의 링크를 클릭하고 파일 로 이동하세요.
- Phi-3 모델 버전 중 하나를 선택하세요.작은 옵션이면 더 좋습니다.
- 다운로드를 눌러 Guff 파일을 다운로드하세요.
- 컴퓨터의 편리한 위치에 저장하세요.
3단계: Phi-3 모델 가져오기
이제 다운로드한 Phi-3 모델을 LM Studio에 로드해 보겠습니다.
- LM Studio를 열고 왼쪽 메뉴에서 내 모델을 선택합니다.
- ‘로컬 모델 폴더’ 경로를 확인하세요.‘파일 탐색기에 표시’ 를 클릭하여 액세스하세요.
- 이 디렉토리 내에 Microsoft 라는 이름의 새 폴더를 만듭니다.
- Microsoft 폴더 내에 Phi-3 이라는 하위 폴더를 만듭니다.
- 다운로드한 Phi-3 Guff 파일을 Phi-3 폴더에 넣으세요.
- 모델이 LM Studio에 표시됩니다.변경 사항을 적용하려면 LM Studio를 다시 시작해야 할 수도 있습니다.
- Phi-3 모델을 시작하려면 사이드바의 AI 채팅 옵션으로 이동하세요.
- 모델을 선택하여 로드하고 Phi -3 모델을 찾으세요.
- 완전히 로드되도록 하세요.고급 구성 > 하드웨어 설정 으로 이동하여 GPU로 오프로드하여 CPU 부하를 줄이는 것을 고려해 보세요.
- ‘GPU 가속’에서 Max를 활성화 하고 모델 다시 로드를 클릭하여 구성을 적용합니다.
- 모델 로딩이 완료되면 Phi-3와 채팅을 시작할 수 있습니다.
4단계: Microsoft의 Phi-3 LLM 참여
이제 끝입니다! 프롬프트를 입력하면 인터넷 연결 상태와 관계없이 Windows PC에서 Microsoft Phi-3 모델과 로컬로 통신할 수 있습니다.
추가 팁
- 최적의 성능을 위해 Windows 버전이 모든 필수 시스템 요구 사항을 충족하는지 확인하세요.
- 설치 후 모델이 예상대로 나타나지 않으면 터미널이나 LM Studio를 다시 시작하세요.
- 향상된 기능을 위해 Ollama와 LM Studio의 업데이트를 정기적으로 확인하세요.
요약
이 가이드는 Ollama와 LM Studio를 사용하여 Windows에 Microsoft Phi-3 모델을 로컬로 성공적으로 설치하고 실행하는 단계별 방법을 제공합니다.터미널 명령에 익숙하든 그래픽 사용자 인터페이스를 선호하든, 두 가지 방법 모두 이 AI 모델을 효과적으로 활용할 수 있도록 지원합니다.
결론
Microsoft Phi-3를 로컬에서 실행하면 기기에서 바로 고급 AI 기능을 탐색할 수 있습니다. Ollama 또는 LM Studio를 안내에 따라 설정하고 Phi-3와 대화형 대화를 시작해 보세요.이 뛰어난 모델의 기능을 최대한 활용하려면 다양한 프롬프트를 자유롭게 실험하고 사용해 보세요!
자주 묻는 질문
Ollama가 Phi-3 다운로드 중에 멈췄을 때 어떻게 해결하나요?
Ollama 명령 프롬프트에서 Phi-3를 다운로드하는 데 문제가 있는 경우, 명령을 다시 입력하세요 ollama run phi3.마지막으로 중단된 지점부터 다운로드가 다시 시작됩니다.