Ollama 設定ガイド

Ollama のローカルモデルで Offline AI モードを使う方法。

Offline AI の意味

Offline AI が有効な場合、対応ファイルの分析はクラウドではなくローカルの Ollama サーバーで実行されます。

設定手順

1

Ollama をインストール

公式サイトから macOS 版 Ollama をダウンロードしてインストールし、一度開いてローカルサーバーを起動します。

Ollama のダウンロードページを開く
2

Vision モデルをダウンロード

画像、スクリーンショット、PDF、プレビューを扱うため、Vision 対応モデルが最適です。まずは次を使います:

ollama pull qwen2.5vl:3b
3

Ollama が動作しているか確認

Ollama は通常バックグラウンドで動作します。Zush が接続できない場合は Terminal で起動します:

ollama serve
4

Zush でオフライン AI を有効化

Zush を開き、AI Setup で Offline AI mode を有効にし、モデル一覧を更新してモデルを選び、Test を実行します。

トラブルシューティング

Zush にモデルが表示されない

Terminal で ollama list を実行します。空の場合は先にモデルをダウンロードし、Zush を更新します。

接続テストに失敗する

Ollama が動作しており、Zush のホストが http://127.0.0.1:11434 に設定されているか確認します。

処理が遅い

qwen2.5vl:3b のような小さいモデルを使う、重いアプリを閉じる、大きなバッチでは Cloud に戻すなどを試します。

オフライン AI は Cloud と BYOK とは別です。Cloud は Zush クレジット、BYOK はプロバイダーキー、オフライン AI は端末上の Ollama を使います。