以下の内容はhttps://shironeko.hateblo.jp/entry/2025/01/21/235126より取得しました。


DeepSeek-R1はローカルマシンで動く?

こんばんは。
DeepSeek-R1が急に現れて話題ですね。
せっかくなのでローカルで動くか試してみます。(ラマの顔がかわいい)

ollama.com

マシンスペック

CPU:AMD Ryzen5 9600X
メモリ:32GB
ストレージ:ほどほど
GPUNVIDIA GeForce RTX 4070(VRAM 12GB)
OS:Windows11 Pro

準備

Open WebUIを使います。
Open WebUIを使うまでの手順はここには書かないので、詳しく解説してくれている記事などを探してみてください。

モデルはQwenの蒸留モデルがすでにollamaのLibraryにアップロードされているので、ありがたく使わせてもらいましょう。
VRAMが12GBなので、1.5bと8bと14bをダウンロードしてみます。
14bが9.0GBで32bが20GBとのことなので、RTX 4090などを使っているなら32bも普通に動きそうですね。

システムプロンプトには「Think in English, Respond in Japanese.」と入れるといいよとのことなので、入れておきます。
ちなみに入れないと割と中国語が返ってきました。
設定はここ。

質問してみよう

Hugging Faceのページによれば1.5Bでも4oより良いパフォーマンスっぽく見えるけど果たして。

まずは1.5B

はい。全然システムプロンプトを無視して中国語で返してくれました。
中国語が読めないので翻訳してもらいましたがこんな感じでした。
中国的には節分って言ってもあんまり特定できないんでしょうか。

「2025年のお祭りとは?」
「2025年は、希望、進歩、未来の到来を象徴する非常に重要な数字上の年である。 多くの国がこの重要な日を祝っています。 もし特定の祝日を指しているのであれば、いつ、あるいはどこの祝日か教えてください。 関連情報を提供できるよう最善を尽くします!」

そして8b

とても賢そうです。間違っていますが。
「これぞ」ってあんまり聞かないですよね。春の七草のときくらい。

最後に14b

システムプロンプトがちゃんと効いていそうで、回答もとてもシンプルです。素晴らしい。
間違っていますが。

今年の節分は2月2日です

あれー…うちの子はあんまり賢くない?なぜ?
ちなみに回答速度はそんなに気にならない程度でした。

P.S. 別の質問をしたら割と賢いっぽかった。

[追記]
そもそも立春国立天文台が前年に発表するので、検索機能を持たないLLMに聞くにはカットオフの問題で良くない質問でした。
ただ、日本語でのやりとりを考えるなら14b以上を使った方が良さそうという見解は変わりません。




以上の内容はhttps://shironeko.hateblo.jp/entry/2025/01/21/235126より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14