Guide Ollama

Utilisez le mode IA hors ligne avec des modèles locaux privés via Ollama.

Ce que signifie l’IA hors ligne

Lorsque le mode IA hors ligne est activé, l’analyse des fichiers pris en charge passe par votre serveur Ollama local au lieu de fournisseurs cloud.

Étapes de configuration

1

Installer Ollama

Téléchargez Ollama pour macOS depuis le site officiel, installez-le et ouvrez l’app une fois pour démarrer le serveur local.

Ouvrir la page de téléchargement Ollama
2

Télécharger un modèle vision

Zush fonctionne mieux avec un modèle capable de comprendre images, captures, PDF et aperçus. Commencez par :

ollama pull qwen2.5vl:3b
3

Vérifier qu’Ollama tourne

Ollama fonctionne normalement en arrière-plan. Si Zush ne se connecte pas, démarrez-le dans le Terminal :

ollama serve
4

Activer l’IA hors ligne dans Zush

Ouvrez Zush, allez dans AI Setup, activez Offline AI mode, actualisez la liste des modèles, choisissez le modèle et lancez Test.

Dépannage

Zush ne voit aucun modèle

Exécutez ollama list dans le Terminal. Si la liste est vide, téléchargez d’abord un modèle, puis actualisez Zush.

Le test de connexion échoue

Vérifiez qu’Ollama fonctionne et que l’hôte dans Zush est http://127.0.0.1:11434.

Le traitement est trop lent

Utilisez un modèle plus petit comme qwen2.5vl:3b, fermez les apps gourmandes ou revenez au cloud pour les gros lots.

Le mode IA hors ligne est distinct du Cloud et de BYOK. Cloud utilise les crédits Zush, BYOK utilise votre clé fournisseur et l’IA hors ligne utilise Ollama sur votre appareil.