qwen2.5vl:3b
VelocidadeA primeira opção mais rápida para screenshots e imagens do dia a dia.
ollama pull qwen2.5vl:3bUse o modo IA offline com modelos locais privados via Ollama.
Com IA offline ativa, a análise de arquivos compatíveis roda pelo servidor Ollama local em vez de provedores cloud.
Baixe o Ollama para macOS no site oficial, instale e abra o app uma vez para iniciar o servidor local.
Abrir página de download do OllamaO Zush funciona melhor com um modelo capaz de entender imagens, screenshots, PDFs e prévias. Comece com:
ollama pull qwen2.5vl:3bNormalmente o Ollama roda em segundo plano. Se o Zush não conectar, inicie pelo Terminal:
ollama serveAbra Zush, vá para AI Setup, ative Offline AI mode, atualize a lista de modelos, selecione o modelo e rode Test.
Escolha pelo trabalho: qwen2.5vl:3b para velocidade, gemma3:4b para equilíbrio ou granite3.2-vision:2b para documentos.
A primeira opção mais rápida para screenshots e imagens do dia a dia.
ollama pull qwen2.5vl:3bUm bom padrão quando velocidade e qualidade importam.
ollama pull gemma3:4bModelo de visão compacto para prévias de documentos, digitalizações e conteúdo estruturado.
ollama pull granite3.2-vision:2bOu escolha outro modelo de visão no catálogo de modelos Ollama .
Execute ollama list no Terminal. Se a lista estiver vazia, baixe um modelo primeiro e atualize o Zush.
Confirme que o Ollama está rodando e que o host no Zush é http://127.0.0.1:11434.
Use um modelo menor como qwen2.5vl:3b, feche apps pesados ou volte para a nuvem em lotes grandes.
IA offline é separada de Cloud e BYOK. Cloud usa créditos do Zush, BYOK usa sua chave do provedor e IA offline usa Ollama no seu dispositivo.