qwen2.5vl:3b
VelocitàLa prima scelta più rapida per screenshot e immagini quotidiane.
ollama pull qwen2.5vl:3bUsa la modalità IA offline con modelli locali privati tramite Ollama.
Con IA offline attiva, l’analisi dei file supportati passa dal server Ollama locale invece che da provider cloud.
Scarica Ollama per macOS dal sito ufficiale, installalo e apri l’app una volta per avviare il server locale.
Apri la pagina download di OllamaZush funziona meglio con un modello capace di capire immagini, screenshot, PDF e anteprime. Inizia con:
ollama pull qwen2.5vl:3bOllama di solito resta in background. Se Zush non si connette, avvialo dal Terminale:
ollama serveApri Zush, vai in AI Setup, attiva Offline AI mode, aggiorna la lista modelli, scegli il modello e avvia Test.
Scegli in base al lavoro: qwen2.5vl:3b per velocità, gemma3:4b per equilibrio o granite3.2-vision:2b per documenti.
La prima scelta più rapida per screenshot e immagini quotidiane.
ollama pull qwen2.5vl:3bUn buon default quando contano sia velocità sia qualità.
ollama pull gemma3:4bModello vision compatto per anteprime di documenti, scansioni e contenuti strutturati.
ollama pull granite3.2-vision:2bOppure scegli un altro modello vision dal catalogo modelli Ollama .
Esegui ollama list nel Terminale. Se la lista è vuota, scarica prima un modello e poi aggiorna Zush.
Verifica che Ollama sia attivo e che l’host in Zush sia http://127.0.0.1:11434.
Usa un modello più piccolo come qwen2.5vl:3b, chiudi app pesanti o torna al Cloud per batch grandi.
IA offline è separata da Cloud e BYOK. Cloud usa crediti Zush, BYOK usa la chiave del provider e IA offline usa Ollama sul dispositivo.