qwen2.5vl:3b
速度重視日常的なスクリーンショットや画像に最も速い最初の選択肢です。
ollama pull qwen2.5vl:3bOffline AI が有効な場合、対応ファイルの分析はクラウドではなくローカルの Ollama サーバーで実行されます。
画像、スクリーンショット、PDF、プレビューを扱うため、Vision 対応モデルが最適です。まずは次を使います:
ollama pull qwen2.5vl:3bOllama は通常バックグラウンドで動作します。Zush が接続できない場合は Terminal で起動します:
ollama serveZush を開き、AI Setup で Offline AI mode を有効にし、モデル一覧を更新してモデルを選び、Test を実行します。
用途に応じて選びます: 速度重視なら qwen2.5vl:3b、バランスなら gemma3:4b、文書なら granite3.2-vision:2b。
日常的なスクリーンショットや画像に最も速い最初の選択肢です。
ollama pull qwen2.5vl:3b速度と品質の両方を重視する場合の標準候補です。
ollama pull gemma3:4b文書プレビュー、スキャン、構造化された視覚情報に向く小型 Vision モデルです。
ollama pull granite3.2-vision:2bまたは Ollama モデルカタログ から別の Vision 対応モデルを選べます。
Terminal で ollama list を実行します。空の場合は先にモデルをダウンロードし、Zush を更新します。
Ollama が動作しており、Zush のホストが http://127.0.0.1:11434 に設定されているか確認します。
qwen2.5vl:3b のような小さいモデルを使う、重いアプリを閉じる、大きなバッチでは Cloud に戻すなどを試します。
オフライン AI は Cloud と BYOK とは別です。Cloud は Zush クレジット、BYOK はプロバイダーキー、オフライン AI は端末上の Ollama を使います。