Qwen3.5-397B-A17BのUnsloth版Q4_K_MをMac Studio 512GBで試しています。
今回はコーディングについて。
一般性能はこちら。
Qwen3.5-397B-A17Bを試す。日本知識が細かくOCR性能も高く実用的~一般性能編~ - きしだのHatena
コードはひととおり書けて安定感はあるけど型や精度の扱いに弱いという感じです。
日常的なコーディング作業なら問題なくこなせそう。
とくに、画像認識との組み合わせができるのも強い。
ブロック崩し
ではブロック崩し。
HTML+JS
まずHTML+JS版。一発完動で、修正としてパーティクルを出してもらっても問題なく動作しました。
コードも最低限必要な修正のみで、Qwen3-Coder-Nextにあったような揺れもなくなっています。

Java版
Java版も基本動作は一発完動。

ただ、このパーティクルを追加してもらうときに、型変換エラーが。

型変換のエラー、LLM試してるとよく出ます。
やはり型付言語で型のチェックができることは大切そう。
Spring BootでのTODO管理アプリ
Roo CodeでのTODO管理アプリ。特に問題なくツール類を呼び出してます。

ただ1分まってファイルが出てくるという感じ。これはMac Studioでのプロンプト読み込みがNVIDIA GPUに比べて遅いので仕方ない。

できたのがこれ。一発でできました。デザインはQwenだなという感じ。

画像をあたえて再現
Qwen3.5はマルチモーダルなので、画像を与えて再現してもらいます。
そうすると、行の色付けの偶奇が違う以外は完璧。

Javaには自由度が高いレイアウトができる一方で使うのが面倒なGridBagLayoutというのがあるのだけど、それをちゃんと使いこなしてレイアウトを再現しています。
あと、バリデーションも言ってないのに必須項目や数値項目のチェックをしてくれています。
動画をあたえて再現
Qwen3.5は動画にも対応しています。ただ、llama.cppが動画に対応していないようなので、 https://chat.qwen.ai/ で試してみます。
「このゲームをHTML+JSでつくって」と次の動画を渡します。

次のプロンプトでGemini 2.5あたりに作ってもらったものです。
格子状のステージで戦車が戦うゲームをJavaのSwingで作って。
砲弾を撃ち合う。
通路の幅は戦車3台分。敵戦車は4台。全部倒すと勝ち。
このとき。
Claude Sonnet 4に17個ほどゲームを作ってもらったけど著作権を主張できるのかな - きしだのHatena
そうするとこれ。最初、初期位置が壁にめりこんで動かなかったのを修正してもらっただけ。

フィールドの形が違うのと、戦車が1マス単位の移動じゃないこと以外はそのまま動きが再現されています。
ローカルで動くモデルで動画だけからここまでできるのは、なんかすごすぎる。
パストレーシング
パストレーシングを作ってもらいます。
JS版
まずはJavaScript指定。
パストレーシングでのcgをhtml+javascriptでつくって
ここでGLM-5やKimi 2.5だとWebGL版をいきなりつくったけど、WebGLでのパストレースは難しいので、性能高くない場合にJSを選びがち。

で、なにか表示できるようになったら物体が黒い。まあよくあること

ここで問題特定のために、反射を行わずレイが物体に衝突した時点での色を出して確認をしてきました。

こういう、単にコードを修正するだけではないのは、開発のやりかたを学習してる気配ありますね。
でもなかなか修正できないので、こっそりOpusさんに聞いたら教えてくれました。

無課金ChatGPTも一発回答。GLM-5も長考したけどちゃんと答えました。Sonnetさんは答えれなかった。
このあたり実力差がでますね。つまり、Qwen3.5はOpusやChatGPT、GLM-5に及んでないけどSonnetとは勝負できる可能性があるということです。
で、ヒントを与えることで、問題を特定、解決できました。

無事表示

WebGL版
結局は型エラーだったので、型のあるWebGLだとちゃんと動くんではないかと、やってもらいました。
パストレーシングでのcgをhtml+WebGLでつくって
そうすると、実際に何回かの修正で動いたのだけど、しばらく時間がたつと表示が変になるバグが。

なんか味があるので 前回のサムネイルにしてます。
なかなか修正できないので、大先生方に聞いてみました。
無課金ChatGPTが一発回答。


Opus 4.6は問題特定できてませんでした。GLM-5は特定できた。
やっぱりChatGPTは賢い、ということが示されてしまった。あと、GLM-5が場合によってOpusを越えることがあるという事例にもなりましたね。
そして、いろいろ試行錯誤あって完成にたどりつきました。

でかい数を足したら精度低いところが消えるということは書いた時点で気づいてほしいようなバグなので、これも型の認識が甘いという感じでした。
動かすハードウェア
今回はMac Studio 512GBで試してますが、MXFP4やUD-Q4_K_XLであれば、256GBで動くようです。
Qwen3.5 - ローカルでの実行ガイド | Unsloth Documentation
あと、MoEをGPUにのせてアテンションはGPUに残すようにすると、VRAM 24GB+256GBメインRAMで25tok/secが出るらしい。
しかし、GPUが高いのはわかるけど、256GB DDR5が60万・・・