RakutenAI-3.0はDeepSeek-V3の追加学習モデルでは、という噂があるので、Q4_K_MをLM Studioで動かして比べてみました。
RakutenAI-3.0はmmngaさん、DeepSeek-V3はUnslothさんのところのGGUFを使っています。
※ https://ai.rakuten.co.jp/chat でのモデルは画像対応でもありRakutenAIではないようです。
ai.rakuten.co.jpで動いてるのはSonnet?->GPT系っぽい - きしだのHatena
知識の更新、日本語理解や表現の向上、コーディング能力の向上などが実際に確認できました。
DeepSeek-V3は2024年末のモデルですが、2026年初頭のモデルとして他と比較可能な更新がされて、さらに日本向けの調整がされていると思います。
これを最低限のパラメータ更新で行って実現したというのは技術的に価値があると思うので、オープンソースに敬意をもった形で公開してほしいところ。
知識カットオフ
いつの知識を持ってるか確認するために、総理大臣を聞いてみます。
RaktenAI-3.0は2024年7月のようです。

DeepSeek-V3は2023年10月。

新しい知識を持っている?
細かい知識を新しく得ているか確認するため、Javaの最新バージョンと特徴を聞いてみます。
RakutenAI-3.0はJava 22を知ってますね。Generational ZGCはJava 21だったり、Foreign Function...はPreviewではなく正式版だったりといろいろ細かい誤りはありますが、大筋はあっていて、JEP番号もあっています。

これらのJEP自体はDeepSeek-V3のカットオフ2023年10月ごろまでには作られていますが、その時点ではドラフトでJEP番号が振られていなかったはずです。そもそもこれらがJava 22に入るということはそのあとで決まっているので、新しい知識を得てると判断できます。
DeepSeek-V3はJava 21を答えました。

山口県知識
山口県知識を聞いてみます。だいたい似ていますが、RakutenAI-3.0のほうが細かい。


ロールプレイ
ギャルっぽく答えてもらいます。「あーね!」で始まっていたので許した。

「インスタ映え」だけではなく、「いいね伸びる」「フォロワーから聞かれまくる」というディティールも細かい。
「松下村塾で勉強のフリしたら賢そうに見える」というのも、「ギャル」が勉強できないことをネタにしがちというのを踏まえていて、これは日本語文章をちゃんと学習してないとできないと思います。
DeepSeek-V3は「インスタ映え」って言っておけばいいか、くらいの感じ。

要約
「注文の多い料理店」の要約。
RakutenAI-3.0は要所を簡潔にまとめています。

DeepSeek-V3では要約を見ても時系列も入れ替わっていて、どういう物語かよくわからない。重要な、自分たちが食材であることにも触れられていません。

何度か試したけど、DeepSeek-V3は自分たちが食材であることに触れませんでした。
「注文の多い料理店」では「つまり、ぼ、ぼ、ぼくらが……。」というセリフはあっても、自分たちが食材であるということは明示的に書かれていないので、文脈を読む必要があります。
RakutenAI-3.0で文脈を読む能力があがっていることがわかります。
ブロック崩し
Web版ブロック崩しを見てみます。これはコーディング能力より、HTMLの見た目を学習してるかを見ます。
DeepSeek-V3ではこれ。素朴です。

RakutenAI-3.0はカラフルで角丸になっていて、見た目の調整を学習してることが伺えます。

Spring Boot TODO
ついでに、エージェントを確認。
DeepSeek V3はRoo Codeを動かせませんでした。

ということで、雑コーディングエージェントで実装してもらいます。
Tool Useが効かないDevstralでコーディングエージェントを作る - きしだのHatena
DeepSeek-V3でTODOアプリ
これならちゃんといけた。

- POM.xmlにparentの指定がなくてビルドできない
- Listのimportが足りなくてコンパイルエラー
- テーブル定義がなくて実行できない
- バグがあって追加できない(コントローラではtodoという名前でTodoオブジェクトを受け取ってるけどHTMLではtaskという名前でタスク名を渡している)
という、不具合の各レベルを全て実現していました・・・
エージェント動かないので手で修正して動くようにしたところ、非常にシンプルで最低限のTODO管理アプリができました。

HTMLも簡潔。Thymeleafのタグもth:eachしか使ってませんね。
<!DOCTYPE html> <html xmlns:th="http://www.thymeleaf.org"> <head> <title>Todo List</title> </head> <body> <h1>My Todo List</h1> <form action="/addTodo" method="post"> <input type="text" name="task" placeholder="Enter a new task" /> <button type="submit">Add</button> </form> <ul> <li th:each="todo : ${todos}"> <span th:text="${todo.task}"></span> </li> </ul> </body> </html>
RakutenAI-3.0でTODOアプリ
RakutenAI-3.0はRoo Codeが一応使えるけど、雑エージェントで試します。

POM.xmlにgroupIdやartifactIdなどがなくてビルドできなかったので手作業で追加してビルド。
コンパイルエラーなく動きました!最初は削除機能が動かなかったけどあとでRoo Codeで修正してもらってます。

スタイルもあたっています。
HTMLを見ると、<div>を使って構造を作ってスタイルをあてて、<ul>や<li>を使っています。ちゃんと学習していますね。
<!DOCTYPE html> <html xmlns:th="http://www.thymeleaf.org"> <head> <meta charset="UTF-8"> <title>Todo App</title> <link rel="stylesheet" href="https://cdn.jsdelivr.net/npm/bootstrap@5.3.2/dist/css/bootstrap.min.css"> </head> <body class="container mt-4"> <h1>Todo List</h1> <form th:action="@{/add}" method="post" class="mb-3 row g-2 align-items-center"> <div class="col-auto"> <input type="text" name="title" class="form-control" placeholder="New task..." required> </div> <div class="col-auto"> <button type="submit" class="btn btn-primary">Add</button> </div> </form> <ul class="list-group mb-3"> <li th:each="task : ${tasks}" class="list-group-item d-flex justify-content-between align-items-center"> <a th:href="@{/toggle(id=${task.id})}" style="text-decoration:none;"> <span th:classappend="${task.completed} ? 'text-muted text-decoration-line-through' : ''" th:text="${task.title}"></span> </a> <a th:href="@{/delete(id=${task.id})}" class="btn btn-sm btn-danger"> Delete </a> </li> </ul> </body> </html>
ところで、削除がサーバー側で実装されていなくてエラーになっていたのだけど、Roo Codeに渡したら修正してくれました。

コーディングに関しても学習できていることがわかります。
DeepSeek-V3は出たときに使った感じでもコードが書けてないと感じてたんだけど、ちゃんとコードが書けるようになってるように思います。
OpenCode
DeepSeek-V3もRakutenAI-3.0もファイル生成ができませんでした。


まとめ
RakutenAI-3.0はDeepSeek-V3に対してアテンション層の低ランク部分だけ更新されているという話があります。
RakutenAI-3.0とDeepSeek-V3の関係性について - ほぼLoRA適用モデル|はまち
基本的にLLMはアテンション部分で文章の解釈、ニューラルネット(MLP)部分で知識という構造になっているので、アテンション部分だけの、しかも低ランク部分だけで見てわかるくらい新しい知識や能力を与えれることを示したのは技術的に価値があると思います。
GENIACでの募集要項では、国外モデルのファインチューンに関しては事前追加学習だけが認められています。
「ポスト5G情報通信システム基盤強化研究開発事業/競争力ある生成AI基盤モデルの開発(GENIAC)」に係る公募について | 公募 | NEDO
今回の出力を見ると、出力形式の調整にとどまらず、新しい知識や能力を与えれているので、事前追加学習が成功しているのではないかと思います。
DeepSeekと個別契約して名称公開などをせず使っていいライセンスを結んでるのかもしれないけど、オープンソースに敬意ある形で公開してほしいところ。