はじめに
以前 Ollama を使った方法を書きました。
今回は llama.cpp を使ってみます。
方法
llama-server
./build/bin/llama-server -m /home/hoge/models/Qwen3.5-27B-Q4_K_M.gguf --host 127.0.0.1 --port 8888
Claude Code
powershell
$env:ANTHROPIC_BASE_URL="http://localhost:8888" claude --model qwen3.5
bash
export ANTHROPIC_BASE_URL="http://localhost:8888" claude --model qwen3.5
画面
