qwen2.5vl:3b
VelocidadLa opción inicial más rápida para capturas e imágenes cotidianas.
ollama pull qwen2.5vl:3bUsa el modo IA offline con modelos locales privados mediante Ollama.
Con IA offline activa, el análisis de archivos compatibles se ejecuta en tu servidor local de Ollama en lugar de proveedores cloud.
Descarga Ollama para macOS desde el sitio oficial, instálalo y abre la app una vez para iniciar el servidor local.
Abrir página de descarga de OllamaZush funciona mejor con un modelo que entienda imágenes, capturas, PDFs y vistas previas. Empieza con:
ollama pull qwen2.5vl:3bOllama suele ejecutarse en segundo plano. Si Zush no conecta, inícialo desde Terminal:
ollama serveAbre Zush, ve a AI Setup, activa Offline AI mode, actualiza la lista de modelos, selecciona uno y ejecuta Test.
Elige según la tarea: qwen2.5vl:3b para velocidad, gemma3:4b para equilibrio o granite3.2-vision:2b para documentos.
La opción inicial más rápida para capturas e imágenes cotidianas.
ollama pull qwen2.5vl:3bBuen valor por defecto cuando importan velocidad y calidad.
ollama pull gemma3:4bModelo de visión compacto para documentos, escaneos y contenido estructurado.
ollama pull granite3.2-vision:2bO elige otro modelo de visión en el catálogo de modelos de Ollama .
Ejecuta ollama list en Terminal. Si la lista está vacía, descarga un modelo y luego actualiza Zush.
Asegúrate de que Ollama esté activo y que el host en Zush sea http://127.0.0.1:11434.
Usa un modelo más pequeño como qwen2.5vl:3b, cierra apps pesadas o vuelve a Cloud para lotes grandes.
IA offline es independiente de Cloud y BYOK. Cloud usa créditos de Zush, BYOK usa tu clave del proveedor e IA offline usa Ollama en tu dispositivo.