はじめに
llama.cppで実行しているローカルLLMがClaude Codeで使えることは確認しました。
いろいろなモデルを使って相性を確認してみます。
簡単なタスクができないのはモデル自体の問題ではなくClaude Codeとの相性問題だと思います。
タスク
こちらの通りにVisual Stuidoで作成したC#の新規プロジェクトにコードを書いてもらいました。
Form1にtextboxとbuttonをひとつずつ配置して下さい。buttonが押されたらtextbox内のテキストをクリップボードにセットするようにして下さい。 コードを書き終えたらRelease Buildをお願いします。
うまくいったモデル
gpt-oss-20b
llama-server -m /home/hoge/models/gpt-oss-20b-Q4_K_M.gguf --temp 0.2
こちらからダウンロードしました。
Ministral-3-8B-Reasoning-2512
llama-server Ministral-3-8B-Reasoning-2512-Q4_K_M.gguf
こちらからダウンロードしました。
Qwen3.5-9B
llama-server -m /home/hoge/models/Qwen3.5-9B-Q4_K_M.gguf --temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.0 --repeat-penalty 1.0
こちらからダウンロードしました。
Qwen3.5-27B
llama-server -m /home/hoge/models/Qwen3.5-27B-Q4_K_M.gguf
こちらからダウンロードしました。
Qwen3.5-35B-A3B
llama-server -m /home/hoge/models/Qwen3.5-35B-A3B-Q4_K_M.gguf
こちらからダウンロードしました。
GLM-4.7-Flash
llama-server -m /home/hoge/models/GLM-4.7-Flash-Q4_K_M.gguf --repeat-penalty 1.0 --temp 1.0 --top-p 0.95 --min-p 0.01
こちらからダウンロードしました。
LocoOperator-4B
llama-server -m /home/hoge/models/LocoOperator-4B.Q8_0.gguf -c 51200
こちらからダウンロードしました。
LLMというよりSLM (Small Language Model) です。うまくいったのには驚かされます。
Jan-code-4b
llama-server -m ~/models/Jan-code-4b.gguf --temp 0.7 --top-p 0.8 --top-k 20
こちらからダウンロードしました。
これもLocoOperator-4Bと同様SLMです。うまくいったのには驚かされます。
うまくいかなかったモデル
Nanbeige4.1-3B
llama-server -m /home/hoge/models/Nanbeige4.1-3B.Q8_0.gguf --temp 0.6 --top-p 0.95 --repeat-penalty 1.0
こちらからダウンロードしました。
LLMというよりSLM (Small Language Model) です。さすがにうまくいきませんでした。
LFM2-24B-A2B
llama-server -m /home/hoge/models/LFM2-24B-A2B-Q4_K_M.gguf
こちらからダウンロードしました。
もともとこのモデルは「コーディングにはお勧めしません」と書かれています。
Qwen3-14B-Claude-4.5-Opus-Distill
llama-server -m /home/hoge/models/Qwen3-14B-Claude-4.5-Opus-Distill.q4_k_m.gguf
こちらからダウンロードしました。
rnj-1-instruct
llama-server -m /home/hoge/models/rnj-1-instruct-Q4_K_M.gguf --jinja
こちらからダウンロードしました。
続き
こちらに続きを書いています。