Ollama 설정 가이드

Ollama의 개인 로컬 모델로 오프라인 AI 모드를 사용하는 방법.

오프라인 AI의 의미

오프라인 AI가 활성화되면 지원 파일 분석이 클라우드 제공자가 아닌 로컬 Ollama 서버에서 실행됩니다.

설정 단계

1

Ollama 설치

공식 웹사이트에서 macOS용 Ollama를 다운로드해 설치하고, 로컬 서버가 시작되도록 앱을 한 번 여세요.

Ollama 다운로드 페이지 열기
2

비전 모델 다운로드

Zush는 이미지, 스크린샷, PDF, 미리보기를 이해하는 비전 모델과 가장 잘 작동합니다. 먼저 다음을 사용하세요:

ollama pull qwen2.5vl:3b
3

Ollama 실행 확인

Ollama는 보통 백그라운드에서 실행됩니다. Zush가 연결하지 못하면 터미널에서 시작하세요:

ollama serve
4

Zush에서 오프라인 AI 활성화

Zush를 열고 AI Setup에서 Offline AI mode를 켠 뒤 모델 목록을 새로고침하고 모델을 선택한 후 Test를 실행하세요.

문제 해결

Zush가 모델을 찾지 못함

터미널에서 ollama list를 실행하세요. 목록이 비어 있으면 먼저 모델을 다운로드하고 Zush를 새로고침하세요.

연결 테스트 실패

Ollama가 실행 중이고 Zush의 host가 http://127.0.0.1:11434 로 설정되어 있는지 확인하세요.

처리가 너무 느림

qwen2.5vl:3b 같은 작은 모델을 사용하거나, 무거운 앱을 닫거나, 큰 배치는 Cloud로 전환하세요.

오프라인 AI는 Cloud 및 BYOK와 별개입니다. Cloud는 Zush 크레딧, BYOK는 제공자 키, 오프라인 AI는 기기의 Ollama를 사용합니다.