Guia Ollama

Use o modo IA offline com modelos locais privados via Ollama.

O que significa IA offline

Com IA offline ativa, a análise de arquivos compatíveis roda pelo servidor Ollama local em vez de provedores cloud.

Passos de configuração

1

Instale o Ollama

Baixe o Ollama para macOS no site oficial, instale e abra o app uma vez para iniciar o servidor local.

Abrir página de download do Ollama
2

Baixe um modelo de visão

O Zush funciona melhor com um modelo capaz de entender imagens, screenshots, PDFs e prévias. Comece com:

ollama pull qwen2.5vl:3b
3

Verifique se o Ollama está rodando

Normalmente o Ollama roda em segundo plano. Se o Zush não conectar, inicie pelo Terminal:

ollama serve
4

Ative IA offline no Zush

Abra Zush, vá para AI Setup, ative Offline AI mode, atualize a lista de modelos, selecione o modelo e rode Test.

Solução de problemas

O Zush não vê modelos

Execute ollama list no Terminal. Se a lista estiver vazia, baixe um modelo primeiro e atualize o Zush.

O teste de conexão falha

Confirme que o Ollama está rodando e que o host no Zush é http://127.0.0.1:11434.

O processamento está lento

Use um modelo menor como qwen2.5vl:3b, feche apps pesados ou volte para a nuvem em lotes grandes.

IA offline é separada de Cloud e BYOK. Cloud usa créditos do Zush, BYOK usa sua chave do provedor e IA offline usa Ollama no seu dispositivo.