Ollama-handleiding

Gebruik offline AI met private lokale modellen via Ollama.

Wat offline AI betekent

Wanneer offline AI actief is, loopt analyse van ondersteunde bestanden via je lokale Ollama-server in plaats van cloudproviders.

Installatiestappen

1

Installeer Ollama

Download Ollama voor macOS van de officiële website, installeer het en open de app één keer zodat de lokale server start.

Ollama-downloadpagina openen
2

Download een vision-model

Zush werkt het best met een model dat beelden, screenshots, PDFs en previews begrijpt. Begin met:

ollama pull qwen2.5vl:3b
3

Controleer of Ollama draait

Ollama draait normaal op de achtergrond. Als Zush niet kan verbinden, start het vanuit Terminal:

ollama serve
4

Schakel offline AI in Zush in

Open Zush, ga naar AI Setup, zet Offline AI mode aan, vernieuw de modellenlijst, kies je model en voer Test uit.

Problemen oplossen

Zush ziet geen modellen

Voer ollama list uit in Terminal. Is de lijst leeg, download dan eerst een model en vernieuw Zush.

Verbindingstest mislukt

Controleer of Ollama draait en of de host in Zush http://127.0.0.1:11434 is.

Verwerking is te traag

Gebruik een kleiner model zoals qwen2.5vl:3b, sluit zware apps of gebruik Cloud voor grote batches.

Offline AI staat los van Cloud en BYOK. Cloud gebruikt Zush-credits, BYOK gebruikt je provider-sleutel en offline AI gebruikt Ollama op je apparaat.