qwen2.5vl:3b
SnelheidDe snelste eerste keuze voor dagelijkse screenshots en afbeeldingen.
ollama pull qwen2.5vl:3bGebruik offline AI met private lokale modellen via Ollama.
Wanneer offline AI actief is, loopt analyse van ondersteunde bestanden via je lokale Ollama-server in plaats van cloudproviders.
Download Ollama voor macOS van de officiële website, installeer het en open de app één keer zodat de lokale server start.
Ollama-downloadpagina openenZush werkt het best met een model dat beelden, screenshots, PDFs en previews begrijpt. Begin met:
ollama pull qwen2.5vl:3bOllama draait normaal op de achtergrond. Als Zush niet kan verbinden, start het vanuit Terminal:
ollama serveOpen Zush, ga naar AI Setup, zet Offline AI mode aan, vernieuw de modellenlijst, kies je model en voer Test uit.
Kies op taak: qwen2.5vl:3b voor snelheid, gemma3:4b voor balans of granite3.2-vision:2b voor documenten.
De snelste eerste keuze voor dagelijkse screenshots en afbeeldingen.
ollama pull qwen2.5vl:3bEen goede standaard wanneer snelheid en kwaliteit allebei tellen.
ollama pull gemma3:4bEen compact vision-model voor documentpreviews, scans en gestructureerde inhoud.
ollama pull granite3.2-vision:2bOf kies een ander vision-model uit de Ollama-modelcatalogus .
Voer ollama list uit in Terminal. Is de lijst leeg, download dan eerst een model en vernieuw Zush.
Controleer of Ollama draait en of de host in Zush http://127.0.0.1:11434 is.
Gebruik een kleiner model zoals qwen2.5vl:3b, sluit zware apps of gebruik Cloud voor grote batches.
Offline AI staat los van Cloud en BYOK. Cloud gebruikt Zush-credits, BYOK gebruikt je provider-sleutel en offline AI gebruikt Ollama op je apparaat.