Guida Ollama

Usa la modalità IA offline con modelli locali privati tramite Ollama.

Cosa significa IA offline

Con IA offline attiva, l’analisi dei file supportati passa dal server Ollama locale invece che da provider cloud.

Passaggi di configurazione

1

Installa Ollama

Scarica Ollama per macOS dal sito ufficiale, installalo e apri l’app una volta per avviare il server locale.

Apri la pagina download di Ollama
2

Scarica un modello vision

Zush funziona meglio con un modello capace di capire immagini, screenshot, PDF e anteprime. Inizia con:

ollama pull qwen2.5vl:3b
3

Controlla che Ollama sia attivo

Ollama di solito resta in background. Se Zush non si connette, avvialo dal Terminale:

ollama serve
4

Abilita IA offline in Zush

Apri Zush, vai in AI Setup, attiva Offline AI mode, aggiorna la lista modelli, scegli il modello e avvia Test.

Risoluzione problemi

Zush non vede modelli

Esegui ollama list nel Terminale. Se la lista è vuota, scarica prima un modello e poi aggiorna Zush.

Il test di connessione fallisce

Verifica che Ollama sia attivo e che l’host in Zush sia http://127.0.0.1:11434.

L’elaborazione è lenta

Usa un modello più piccolo come qwen2.5vl:3b, chiudi app pesanti o torna al Cloud per batch grandi.

IA offline è separata da Cloud e BYOK. Cloud usa crediti Zush, BYOK usa la chiave del provider e IA offline usa Ollama sul dispositivo.