以前「deepseek-coder:6.7b-base」を使った記事を書きました。
touch-sp.hatenablog.com
どのモデルが使用可能かよくわかりませんが「codegemma:7b-code-q4_K_M」(5.3GB) を試したら問題なく使えました。
Ollama公式サイトのモデル紹介にこのように書かれています。
CodeGemma is a collection of powerful, lightweight models that can perform a variety of coding tasks like fill-in-the-middle code completion, code generation, natural language understanding, mathematical reasoning, and instruction following.
「fill-in-the-middle code completion」という単語がまさにその機能だと思います。
2025年2月19日追記
Qwen2.5-coderも使えました。チャットのためのモデルと補完のためのモデルは別です。
WSL2でollamaを実行していてもWindows側から「localhost」でアクセスできます。
"models": [ { "title": "qwen2.5-coder:7b-instruct-q4_K_M", "model": "qwen2.5-coder:7b-instruct-q4_K_M", "apiBase": "http://localhost:11434", "provider": "ollama" }, ], "tabAutocompleteModel": { "title": "qwen2.5-coder:7b-base-q4_K_M", "model": "qwen2.5-coder:7b-base-q4_K_M", "apiBase": "http://localhost:11434", "provider": "ollama" },
補足
二つのモデルを同時に実行したいときに一つのOllamaでもできようですがDockerコンテナを別々に作成したほうが簡単です。docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama-instruct ollama/ollama docker run -d --gpus=all -v ollama:/root/.ollama -p 11435:11434 --name ollama-base ollama/ollama