Qwen3.5をローカルで試す(Ollama)

· NOP
AILLMOllamaQwenローカルAI

はじめに

Alibabaが開発するオープンソースLLMシリーズ「Qwen(通義千問)」の最新版 Qwen3.5 をローカルで試してみました。 日本語・中国語・英語に強く、小型モデルでも実用的な性能が出るのが特徴です。

本記事では Ollama を使ったセットアップ手順をまとめます。

Qwen3.5 の特徴

  • 多言語対応: 日本語・中国語・英語など幅広い言語に対応
  • サイズ展開: 0.6B〜72B と幅広く、PCスペックに合わせて選べる
  • コーディング性能: コード生成・補完が得意
  • Apache 2.0ライセンス: 商用利用も可能

1. Ollamaのインストール

macOS / Linux:

curl -fsSL https://ollama.com/install.sh | sh

Windows:

https://ollama.com/download からインストーラーをダウンロードして実行。

確認:

ollama --version

2. Qwen3.5 の実行

スペック別の推奨モデル

モデル必要RAM目安用途
qwen3.5:0.6b4GB〜動作確認・超軽量用途
qwen3.5:3b8GB〜日常的な質問・要約
qwen3.5:7b16GB〜汎用、バランスが良い
qwen3.5:14b24GB〜高精度、コーディング
qwen3.5:32b48GB〜高品質な長文生成
qwen3.5:72b64GB〜最高精度

チャット開始

# まず試すなら 7b がバランス良し
ollama run qwen3.5:7b

# 軽量で試したい場合
ollama run qwen3.5:3b

初回はモデルファイルのダウンロードが走ります(7b で約4GB)。

一問一答

ollama run qwen3.5:7b "Pythonでソートアルゴリズムを書いて"

モデル管理

# ダウンロード済み一覧
ollama list

# 削除
ollama rm qwen3.5:7b

3. APIとして使う

OllamaはOpenAI互換のREST APIを提供します(ポート: 11434)。

curl http://localhost:11434/api/generate -d '{
  "model": "qwen3.5:7b",
  "prompt": "日本の首都は?",
  "stream": false
}'

PythonのOpenAIライブラリからも使えます:

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:11434/v1",
    api_key="ollama",  # 任意の文字列でOK
)

response = client.chat.completions.create(
    model="qwen3.5:7b",
    messages=[{"role": "user", "content": "こんにちは!自己紹介してください。"}],
)
print(response.choices[0].message.content)

まとめ

Qwen3.5 は日本語対応が良く、ローカルで実用的に使えるモデルです。

  1. ollama run qwen3.5:7b で即起動
  2. RAM 16GB あれば 7b が快適に動く
  3. OpenAI互換APIで既存のコードにも組み込みやすい

まずは qwen3.5:3b で動作確認して、スペックに余裕があれば 7b に上げてみてください。

参考