Ollama-Einrichtung

Nutze den Offline-KI-Modus mit privaten lokalen Modellen über Ollama.

Was Offline-KI bedeutet

Wenn Offline-KI aktiv ist, laufen unterstützte Datei-Analysen über deinen lokalen Ollama-Server statt über Cloud-Anbieter.

Einrichtungsschritte

1

Ollama installieren

Lade Ollama für macOS von der offiziellen Website, installiere es und öffne die App einmal, damit der lokale Server startet.

Ollama-Downloadseite öffnen
2

Vision-Modell herunterladen

Zush funktioniert am besten mit einem vision-fähigen Modell für Bilder, Screenshots, PDFs und Vorschauen. Starte mit:

ollama pull qwen2.5vl:3b
3

Prüfen, ob Ollama läuft

Ollama läuft normalerweise im Hintergrund. Wenn Zush keine Verbindung herstellen kann, starte es im Terminal:

ollama serve
4

Offline-KI in Zush aktivieren

Öffne Zush, gehe zu AI Setup, aktiviere Offline AI mode, aktualisiere die Modellliste, wähle dein Modell und führe Test aus.

Fehlerbehebung

Zush sieht keine Modelle

Führe ollama list im Terminal aus. Wenn die Liste leer ist, lade zuerst ein Modell und aktualisiere dann Zush.

Verbindungstest schlägt fehl

Stelle sicher, dass Ollama läuft und der Host in Zush auf http://127.0.0.1:11434 gesetzt ist.

Die Verarbeitung ist zu langsam

Nutze ein kleineres Modell wie qwen2.5vl:3b, schließe speicherintensive Apps oder wechsle für große Stapel zurück zur Cloud.

Offline-KI ist getrennt von Cloud und BYOK. Cloud nutzt Zush-Credits, BYOK nutzt deinen Anbieter-Schlüssel und Offline-KI nutzt Ollama auf deinem Gerät.