Guía de Ollama

Usa el modo IA offline con modelos locales privados mediante Ollama.

Qué significa IA offline

Con IA offline activa, el análisis de archivos compatibles se ejecuta en tu servidor local de Ollama en lugar de proveedores cloud.

Pasos de configuración

1

Instala Ollama

Descarga Ollama para macOS desde el sitio oficial, instálalo y abre la app una vez para iniciar el servidor local.

Abrir página de descarga de Ollama
2

Descarga un modelo de visión

Zush funciona mejor con un modelo que entienda imágenes, capturas, PDFs y vistas previas. Empieza con:

ollama pull qwen2.5vl:3b
3

Comprueba que Ollama está activo

Ollama suele ejecutarse en segundo plano. Si Zush no conecta, inícialo desde Terminal:

ollama serve
4

Activa IA offline en Zush

Abre Zush, ve a AI Setup, activa Offline AI mode, actualiza la lista de modelos, selecciona uno y ejecuta Test.

Solución de problemas

Zush no ve ningún modelo

Ejecuta ollama list en Terminal. Si la lista está vacía, descarga un modelo y luego actualiza Zush.

Falla el test de conexión

Asegúrate de que Ollama esté activo y que el host en Zush sea http://127.0.0.1:11434.

El procesamiento es lento

Usa un modelo más pequeño como qwen2.5vl:3b, cierra apps pesadas o vuelve a Cloud para lotes grandes.

IA offline es independiente de Cloud y BYOK. Cloud usa créditos de Zush, BYOK usa tu clave del proveedor e IA offline usa Ollama en tu dispositivo.