qwen2.5vl:3b
VitesseLe premier choix le plus rapide pour captures et images courantes.
ollama pull qwen2.5vl:3bUtilisez le mode IA hors ligne avec des modèles locaux privés via Ollama.
Lorsque le mode IA hors ligne est activé, l’analyse des fichiers pris en charge passe par votre serveur Ollama local au lieu de fournisseurs cloud.
Téléchargez Ollama pour macOS depuis le site officiel, installez-le et ouvrez l’app une fois pour démarrer le serveur local.
Ouvrir la page de téléchargement OllamaZush fonctionne mieux avec un modèle capable de comprendre images, captures, PDF et aperçus. Commencez par :
ollama pull qwen2.5vl:3bOllama fonctionne normalement en arrière-plan. Si Zush ne se connecte pas, démarrez-le dans le Terminal :
ollama serveOuvrez Zush, allez dans AI Setup, activez Offline AI mode, actualisez la liste des modèles, choisissez le modèle et lancez Test.
Choisissez selon le besoin : qwen2.5vl:3b pour la vitesse, gemma3:4b pour l’équilibre ou granite3.2-vision:2b pour les documents.
Le premier choix le plus rapide pour captures et images courantes.
ollama pull qwen2.5vl:3bUn bon choix par défaut quand vitesse et qualité comptent.
ollama pull gemma3:4bUn modèle vision compact pour aperçus de documents, scans et contenus structurés.
ollama pull granite3.2-vision:2bOu choisissez un autre modèle vision dans le catalogue de modèles Ollama .
Exécutez ollama list dans le Terminal. Si la liste est vide, téléchargez d’abord un modèle, puis actualisez Zush.
Vérifiez qu’Ollama fonctionne et que l’hôte dans Zush est http://127.0.0.1:11434.
Utilisez un modèle plus petit comme qwen2.5vl:3b, fermez les apps gourmandes ou revenez au cloud pour les gros lots.
Le mode IA hors ligne est distinct du Cloud et de BYOK. Cloud utilise les crédits Zush, BYOK utilise votre clé fournisseur et l’IA hors ligne utilise Ollama sur votre appareil.