Qwen3.5をローカルで試す(Ollama)
はじめに
Alibabaが開発するオープンソースLLMシリーズ「Qwen(通義千問)」の最新版 Qwen3.5 をローカルで試してみました。 日本語・中国語・英語に強く、小型モデルでも実用的な性能が出るのが特徴です。
本記事では Ollama を使ったセットアップ手順をまとめます。
Qwen3.5 の特徴
- 多言語対応: 日本語・中国語・英語など幅広い言語に対応
- サイズ展開: 0.6B〜72B と幅広く、PCスペックに合わせて選べる
- コーディング性能: コード生成・補完が得意
- Apache 2.0ライセンス: 商用利用も可能
1. Ollamaのインストール
macOS / Linux:
curl -fsSL https://ollama.com/install.sh | sh
Windows:
https://ollama.com/download からインストーラーをダウンロードして実行。
確認:
ollama --version
2. Qwen3.5 の実行
スペック別の推奨モデル
| モデル | 必要RAM目安 | 用途 |
|---|---|---|
qwen3.5:0.6b | 4GB〜 | 動作確認・超軽量用途 |
qwen3.5:3b | 8GB〜 | 日常的な質問・要約 |
qwen3.5:7b | 16GB〜 | 汎用、バランスが良い |
qwen3.5:14b | 24GB〜 | 高精度、コーディング |
qwen3.5:32b | 48GB〜 | 高品質な長文生成 |
qwen3.5:72b | 64GB〜 | 最高精度 |
チャット開始
# まず試すなら 7b がバランス良し
ollama run qwen3.5:7b
# 軽量で試したい場合
ollama run qwen3.5:3b
初回はモデルファイルのダウンロードが走ります(7b で約4GB)。
一問一答
ollama run qwen3.5:7b "Pythonでソートアルゴリズムを書いて"
モデル管理
# ダウンロード済み一覧
ollama list
# 削除
ollama rm qwen3.5:7b
3. APIとして使う
OllamaはOpenAI互換のREST APIを提供します(ポート: 11434)。
curl http://localhost:11434/api/generate -d '{
"model": "qwen3.5:7b",
"prompt": "日本の首都は?",
"stream": false
}'
PythonのOpenAIライブラリからも使えます:
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:11434/v1",
api_key="ollama", # 任意の文字列でOK
)
response = client.chat.completions.create(
model="qwen3.5:7b",
messages=[{"role": "user", "content": "こんにちは!自己紹介してください。"}],
)
print(response.choices[0].message.content)
まとめ
Qwen3.5 は日本語対応が良く、ローカルで実用的に使えるモデルです。
ollama run qwen3.5:7bで即起動- RAM 16GB あれば 7b が快適に動く
- OpenAI互換APIで既存のコードにも組み込みやすい
まずは qwen3.5:3b で動作確認して、スペックに余裕があれば 7b に上げてみてください。