qwen2.5vl:3b
Für TempoDie schnellste erste Wahl für alltägliche Screenshots und Bilder.
ollama pull qwen2.5vl:3bNutze den Offline-KI-Modus mit privaten lokalen Modellen über Ollama.
Wenn Offline-KI aktiv ist, laufen unterstützte Datei-Analysen über deinen lokalen Ollama-Server statt über Cloud-Anbieter.
Lade Ollama für macOS von der offiziellen Website, installiere es und öffne die App einmal, damit der lokale Server startet.
Ollama-Downloadseite öffnenZush funktioniert am besten mit einem vision-fähigen Modell für Bilder, Screenshots, PDFs und Vorschauen. Starte mit:
ollama pull qwen2.5vl:3bOllama läuft normalerweise im Hintergrund. Wenn Zush keine Verbindung herstellen kann, starte es im Terminal:
ollama serveÖffne Zush, gehe zu AI Setup, aktiviere Offline AI mode, aktualisiere die Modellliste, wähle dein Modell und führe Test aus.
Wähle je nach Aufgabe: qwen2.5vl:3b für Geschwindigkeit, gemma3:4b für Balance oder granite3.2-vision:2b für Dokumente.
Die schnellste erste Wahl für alltägliche Screenshots und Bilder.
ollama pull qwen2.5vl:3bEin guter Standard, wenn Qualität und Geschwindigkeit beide wichtig sind.
ollama pull gemma3:4bEin kompaktes Vision-Modell für Dokumentvorschauen, Scans und strukturierte Inhalte.
ollama pull granite3.2-vision:2bOder wähle ein anderes vision-fähiges Modell aus dem Ollama-Modellkatalog .
Führe ollama list im Terminal aus. Wenn die Liste leer ist, lade zuerst ein Modell und aktualisiere dann Zush.
Stelle sicher, dass Ollama läuft und der Host in Zush auf http://127.0.0.1:11434 gesetzt ist.
Nutze ein kleineres Modell wie qwen2.5vl:3b, schließe speicherintensive Apps oder wechsle für große Stapel zurück zur Cloud.
Offline-KI ist getrennt von Cloud und BYOK. Cloud nutzt Zush-Credits, BYOK nutzt deinen Anbieter-Schlüssel und Offline-KI nutzt Ollama auf deinem Gerät.