以下の内容はhttps://k5963k.hateblo.jp/entry/2025/12/09/193000より取得しました。


リコー新型オンプレAI with Google Gemma3が切り拓く「安くて高性能」な新時代:価格・性能・競合製品を徹底解剖

www.watch.impress.co.jp

 

体力勝負のLLM開発競争に日本勢が参入するのは負け戦濃厚。

中国製オープンソースは非常に危険 絶対に使うべきでないけど、米国製オープンソースモデルを使ってサービスを展開するのは日本の勝ち筋かも。

k5963k.hateblo.jp

www.youtube.com

www.youtube.com

www.youtube.com

 

 

導入:2025年、日本のAI活用は「所有」するフェーズへ

2025年12月、日本の企業向けAI市場に大きな地殻変動をもたらすニュースが飛び込みました。株式会社リコーが、Googleの最新オープンモデル「Gemma 3 27B」をベースにした、新しいオンプレミス(自社運用)型の大規模言語モデル(LLM)を発表したのです 1。これまで、高性能な生成AIを社内で運用するには、数千万円から数億円という莫大な投資が必要とされ、一部の大企業や研究機関だけの特権と考えられてきました。しかし、リコーが打ち出したソリューションは、「従来の導入コストの3分の1」という衝撃的な価格破壊を伴うものでした 2

なぜ、今「オンプレミス」なのでしょうか。2023年から始まった生成AIブームは、OpenAIのChatGPTやGoogleのGeminiといった「パブリッククラウド型」のサービスによって牽引されてきました。手軽で安価、そして圧倒的な性能を持つこれらのサービスは、瞬く間に世界中のビジネスシーンに浸透しました。しかし、時が経つにつれ、企業の現場では新たな課題が浮き彫りになってきました。「機密情報を社外のサーバーに送りたくない」「インターネット接続が不安定な工場や建設現場でも使いたい」「毎月の従量課金コストが予測不能で予算化しにくい」といった声です。

特に、製造業の設計データ、金融機関の顧客情報、自治体の住民データなど、高度なセキュリティが求められる領域では、クラウドAIの利用が制限されるケースが少なくありません。こうした背景から、データを自社の管理下に置く「データ主権(Data Sovereignty)」の考え方が急速に広まり、AIを「借りる」時代から「所有する」時代への転換が始まっているのです 3

リコーの今回の発表は、まさにこの転換点を捉えた戦略的な一手と言えます。複合機という「オフィスの中心」を担ってきたリコーが、なぜAI開発に乗り出したのか。そして、競合ひしめく市場の中で、どのようにして「低コスト」と「高性能」の両立を実現したのか。本レポートでは、リコーの新型AIモデルの技術的背景、具体的な価格構造、そしてNEC、NTT、日立製作所といった国内大手ベンダーとの徹底的な比較を通じて、その全貌を解き明かします。


第1章 リコーの新型オンプレミスAI:その技術と革新性

この章では、リコーが開発したAIモデルがどのような技術に基づいているのか、そして従来のモデルと何が決定的に違うのかを、専門的な視点を交えつつ平易に解説します。

1. Google「Gemma 3 27B」をベースにした戦略的選択

リコーの新型LLMの最大の特徴は、モデルをゼロから構築(フルスクラッチ開発)したのではなく、Googleが2025年に公開した高性能オープンモデル**「Gemma 3 27B」**をベースに採用している点にあります 1。ここに、リコーの「低コスト化」の第一の秘密が隠されています。

パラメータ数が示す「性能のスイートスポット」

AIモデルの性能や規模は、一般的に「パラメータ数(脳の神経細胞の結合数のようなもの)」で語られます。

  • 数千億〜1兆パラメータ(GPT-4など): 圧倒的な知識量と推論能力を持ちますが、動かすためにはスーパーコンピューター並みの設備が必要です。

  • 70億(7B)パラメータ以下: 一般的なゲーミングPCでも動作しますが、複雑な日本語の文脈理解や高度なビジネス文書の作成には能力不足な場合があります。

これに対し、Gemma 3の「27B(270億パラメータ)」というサイズは、現在のAIハードウェア環境において**「性能とコストのバランスが最も優れたスイートスポット」**と言われています 1。27Bモデルは、ビジネス文書の要約、Q&A、翻訳といった実務において十分な性能を発揮しながら、最高級のGPU(NVIDIA H100など)を複数枚用意せずとも、比較的入手しやすいエンタープライズ向けGPU(NVIDIA L40Sなど)1枚で実用的な速度で動作させることが可能です。

リコーはこの「27B」というサイズを選択することで、過剰なハードウェア投資を避けつつ、実用性を確保するという現実的な解を導き出しました。

2. コスト削減の鍵:「モデルマージ技術」とは?

ベースモデルを選んだだけでは、日本語のビジネス対応力は十分ではありません。通常、AIモデルを自社業務に適応させるには「追加学習(ファインチューニング)」という工程が必要です。しかし、これには膨大な計算資源(GPU)と時間、そして電気代がかかり、開発コストを高騰させる要因となっていました。

リコーはここで、**「モデルマージ(Model Merge)」**という最新技術を採用しました 1

モデルマージの仕組みとメリット

モデルマージとは、異なる強みを持つ複数のAIモデルの「中身(重みパラメータ)」を、高度な数学的計算(加重平均やSLERP:球面線形補間など)によって直接混ぜ合わせる技術です 5

  • 従来の方法(追加学習): 優秀な新入社員(ベースモデル)に対し、数週間かけて自社の業務マニュアルを学習させる。→ 教育コスト(計算コスト)が非常に高い。

  • モデルマージ: 優秀な社員(ベースモデル)と、特定の業務が得意な別の社員(特化モデル)の脳の構造を解析し、直接融合させる。→ 計算コストがほぼゼロで、両方の強みを持つモデルが瞬時に完成する。

リコーは、独自に学習させた「インストラクションチューニング(指示応答学習)モデル」から、日本語の対話能力に関わる特徴(Chat Vector)を抽出し、それをGemma 3 27Bにマージしました 1。これにより、ゼロから学習させる場合に比べて開発コストを劇的に圧縮し、その分を製品価格の引き下げに還元しているのです。これが、「他社より安い」を実現できた最大の技術的要因です。

3. マルチモーダル対応と「Dify」の標準搭載

今回のモデルのもう一つの大きな特徴は、テキストだけでなく画像も理解できる**「マルチモーダル性能」**です 1。

Gemma 3自体が強力な視覚理解能力を持っており、これを活かすことで、例えば「工場の製造ラインで不良品の写真を撮り、AIに原因と対策を尋ねる」「手書きの帳票を読み込ませてデジタル化する」といった活用が可能になります。

さらに、AIを業務システムとして使うためのアプリケーション開発基盤として、オープンソースで世界的に人気の高い**「Dify(ディフィ)」**がプリインストールされています 1。

通常、オンプレミスAIを導入しても、それを社員が使うための「チャット画面」や「社内文書検索システム(RAG)」は別途開発する必要があり、ここに数百万円のSI(システムインテグレーション)費用がかかっていました。リコーのソリューションは、Difyを標準搭載することで、プログラミング知識がない社員でも、ドラッグ&ドロップの操作だけで「議事録作成AI」や「社内規定Q&Aボット」を作成できるようにしました。

「導入したその日から使える」という即効性は、隠れたコストである「開発期間」と「外注費」を大幅に削減します。


第2章 「低コスト」の正体:具体的な価格とハードウェア構成の分析

「低コストと言うけれど、実際いくらなのか?」

企業の決裁者にとって最も重要なこの問いに対し、公開されているデータと市場価格を基に、具体的な金額を試算・分析します。

1. 提供形態とハードウェアスペック

リコーのオンプレミスLLMは、エフサステクノロジーズ(旧富士通)のサーバー製品「Private AI Platform on PRIMERGY」に搭載されて提供されます 1。この「ハードウェアとソフトの一体提供」が、導入の複雑さを解消しています。

具体的に、27B(270億)パラメータのモデルを動かすために推奨されるハードウェア構成と、その選定理由は以下の通りです。

項目 スペック詳細 (推定および推奨構成) 選定理由とコストへの影響
サーバー筐体 Fujitsu PRIMERGY RX2540 M7 など エンタープライズ向けの標準的なラックサーバー。特殊なAI専用機ではないため、調達コストが抑えられる。
GPU NVIDIA L40S (48GB VRAM) × 1基 ここが重要。 70BクラスのモデルにはH100(数百万円)が複数枚必要だが、27BモデルならL40S(H100の半値以下)1枚で高速に動作する。
CPU Intel Xeon Scalable Processors (第4/5世代) データの高速な読み出しと前処理に必要。
メモリ 128GB ~ 256GB

128kトークンという長い文脈(コンテキスト)を一度に処理するために、大容量メモリが必須 7

ストレージ SSD (NVMe) 数TB RAG(社内データ検索)用に、大量の社内文書をベクトル化して保存するために必要。

なぜこの構成が「価格破壊」なのか?

これまでの常識では、実用的なオンプレミスAIを構築しようとすると、NVIDIA H100やA100といった最高峰のGPUを搭載したサーバーが必要とされ、ハードウェアだけで1,500万円〜2,000万円を超えることが珍しくありませんでした。

しかし、リコーが採用した「27Bモデル × L40S」という組み合わせは、このハードウェアの壁を大きく引き下げました。

2. 価格シミュレーション:他社との圧倒的な差

リコーおよびエフサステクノロジーズの公開情報 9、および一般的な市場価格から、導入にかかるトータルコストを試算します。

【リコー / エフサステクノロジーズ構成(推定)】

  • ハードウェア(GPUサーバー) + 基本ソフト:

    • エフサステクノロジーズ「Private AI Platform on PRIMERGY (Very Small構成)」の価格は、約380万円〜 と公表されています 9

    • この「Very Small構成」はNVIDIA L4などを想定していますが、27Bモデル向けの構成(Small構成、L40S搭載)であっても、約868万円〜 という価格設定が見られます 9

  • リコーLLMライセンス & Dify導入支援:

    • ハードウェア費用に加え、リコーのAIモデルライセンスやサポート費用が必要です。Difyの伴走支援サービスは82.2万円とされています 8

  • 合計導入コスト(推計):

    • ハードウェア構成によりますが、約500万円 〜 1,000万円程度 のレンジで導入が可能であると推測されます。

【従来の一般的なオンプレミスAI構成(比較対象)】

  • ハイエンドGPUサーバー (H100×2基など): 2,000万円 〜 3,000万円

  • AIモデルライセンス・SI構築費: 1,000万円 〜 5,000万円(※カスタマイズ要件による)

  • 合計導入コスト: 3,000万円 〜 1億円コース

結論:

リコーのソリューションは、従来であれば数千万円の予算が必要だったオンプレミスAI導入を、1,000万円以下(構成によっては500万円以下) という、中堅・中小企業でも決裁可能な価格帯に引き下げました。これこそが、プレスリリースにある「従来の3分の1程度のコスト」という表現の根拠です 2。

3. クラウド(API)利用とのコスト分岐点

「初期費用がかかるオンプレミスより、使った分だけ払うChatGPT(API)の方が安いのではないか?」という疑問は常にあります。しかし、長期的な視点で見ると、ある地点でオンプレミスの方が安くなる「損益分岐点」が存在します 11

コスト構造の違い

  • クラウドAPI (例: GPT-4o):

    • 課金体系: 従量課金(トークン単位)。使えば使うほど青天井にコストが増える。

    • 隠れコスト: 機密情報を保護するためのセキュリティゲートウェイや監視ツールの導入費。

  • リコー オンプレミス:

    • 課金体系: 初期投資(CapEx)+ 固定の保守費・電気代(OpEx)。推論コストは0円(使い放題)。

    • 隠れコスト: サーバーの電気代(月額数万円程度)、設置スペース。

損益分岐のシナリオ

もし、社員500人が毎日業務で生成AIを使用し、社内マニュアル(RAG)を頻繁に参照する場合、クラウドAPIのコストは月額数百万円に達することもあります。

一方、オンプレミス型は初期費用こそかかりますが、月々の支払いは電気代と保守費のみです。試算では、ヘビーユースな環境であれば、約1年〜1.5年でオンプレミスの方がトータルコスト(TCO)が安くなる 可能性があります 12。

特に、「RAG(社内データ検索)」を行う場合、AIへの質問のたびに膨大な参考資料のテキストデータを読み込ませる必要があるため、トークン消費量が激増します。RAGを本格活用する企業にとって、定額で使い放題のオンプレミス環境は、コスト面で圧倒的に有利に働きます。


第3章 徹底比較:リコー vs 他社のオンプレミスAI

ここでは、リコーと競合する国内大手ITベンダー(NEC、NTT、日立)のオンプレミスAIソリューションを比較し、それぞれの違いとリコーの立ち位置を明確にします。

比較表:国内主要オンプレミスAIソリューション

比較項目 リコー (RICOH) NEC (cotomi) NTT (tsuzumi) 日立 (Hitachi)
提供モデル名 RICOH Private LLM (Gemma 3ベース) cotomi (コトミ) tsuzumi (ツヅミ) 生成AI共通基盤 (独自/OSS)
ターゲット層 中堅・中小〜大企業の部門 大企業・官公庁・金融・医療 大企業・通信・コールセンター 社会インフラ・製造・金融
導入コスト感

低 (数百万円〜)


※HW込パッケージ

高 (数千万円〜)


※ライセンス+構築費

中〜高


※規模によるがSI前提

中〜高


※ストレージ製品との連携

主なモデルサイズ 270億 (27B) 130億 / 700億など 70億 (7B) / 6億 (0.6B) 多様 (用途に応じ選択)
ハードウェア要件 汎用PCサーバー (L40S)

専用アプライアンス推奨


高スペックGPUが必要

専用基盤 / クラウド


軽量版はエッジ対応も

VSP Oneなど


ストレージ製品と連携

特徴的な強み

Dify標準搭載で即戦力


複合機連携・事務処理に強み

日本語性能No.1級


長文処理、電子カルテ特化

超軽量・省電力


日本語・図表読解に強い

RAG・データ管理


信頼性・運用保守重視

提供形態

ハードウェアプリインストール


(エフサスとの協業)

ライセンス販売 + SI構築


パッケージ版もあり

クラウド / オンプレ SIサービス + プラットフォーム

各社の詳細分析とリコーの差別化ポイント

1. NEC「cotomi(コトミ)」との違い

NECの「cotomi」は、非常に高い日本語性能と長文処理能力(コンテキストウィンドウ)を誇り、特に金融や医療(電子カルテ)などの専門分野での導入実績が豊富です。しかし、導入には高額なライセンス費用とシステム構築費(SI費)が必要で、例えば電子カルテ連携パッケージでは7,200万円〜 という価格が提示されています 13

  • リコーの違い: 「パッケージ化」による安さと手軽さ。 NECがオーダーメイドの高級スーツなら、リコーは高品質な既製スーツです。専門エンジニアがいなくても、プリインストールされたDifyですぐに使い始められる点が、リコーの最大の差別化ポイントです。予算規模が1桁違うため、ターゲット顧客が異なります。

2. NTT「tsuzumi(ツヅミ)」との違い

NTTの「tsuzumi」は、70億(7B)や6億(0.6B)という極めて小さいパラメータ数で高い性能を出す「軽量化」が特徴です 15。これにより、GPUを搭載しない一般的なPCサーバーでも動作する可能性がありますが、ビジネスユースでのオンプレミス提供は、まだ個別のSI(システム構築)案件が中心で、トータルコストが見えにくい側面があります。

  • リコーの違い: 「27B」というサイズによる汎用性。 tsuzumiの7Bモデルも優秀ですが、リコーが採用した27Bモデルは、より複雑な推論や文脈理解において余裕があります。また、リコーは「複合機」という世界中のオフィスにあるデバイスとの連携を見据えており、紙文書のデジタル化とAI活用をセットで提案できる点が強みです。

3. 日立製作所との違い

日立は、生成AIそのものというより、AIを支える「データ基盤(ストレージ)」や「運用信頼性」に重きを置いています 16。ミッションクリティカルな社会インフラシステム向けで、価格も2,400万円〜(ハードウェア)など、エンタープライズ向けの価格設定です。

  • リコーの違い: オフィス業務への特化。 日立が工場や発電所を支えるAIなら、リコーは「総務・経理・企画」などのホワイトカラー業務を支えるAIです。Difyを使って「議事録作成」「日報要約」「社内規定Q&A」といった身近な業務アプリをすぐに作れる点は、一般企業にとって非常に魅力的です。

4. 競合優位性のまとめ

リコーの勝ち筋は、**「最先端の性能(Gemma 3 27B)」「枯れた運用技術(プリインストールサーバー)」で包み込み、「圧倒的な低価格」で提供することにあります。技術的な尖り(NECの日本語力やNTTの軽量性)ではなく、「ビジネスでの使いやすさと導入のしやすさ」**に全振りした戦略と言えるでしょう。


第4章 導入後の未来:DifyとRAGで変わる業務風景

リコーのソリューションの真価は、単に「AIモデルを買う」ことではなく、「AIを使った業務改善(DX)基盤を手に入れる」ことにあります。その核となるのが、標準搭載されている**「Dify」と、それが実現する「RAG」**です。

1. Difyによる「AIの民主化」

これまで、AIを使った業務アプリを作るには、Pythonなどのプログラミング言語を操るエンジニアが必要でした。しかし、Difyは「ノーコード/ローコード」ツールです。

  • ドラッグ&ドロップ: 画面上で「入力」「AIによる処理」「出力」といったブロックを並べるだけで、独自のAIアプリが作れます。

  • 現場主導の改善: 情報システム部にお願いしなくても、総務部の担当者が「社内FAQボット」を作り、営業部の担当者が「日報自動採点ツール」を作るといったことが可能になります。

2. RAG(検索拡張生成)の実用性

オンプレミスAIの最大の用途は、社内の独自データをAIに答えさせる**RAG(Retrieval-Augmented Generation)**です。

  • 仕組み:

    1. 社内のマニュアル(PDF)、規定集(Word)、過去のトラブル報告書(Excel)などをサーバーにアップロードします。

    2. Difyがこれらを自動的に「ベクトルデータ(AIが理解できる形式)」に変換し、保存します。

    3. ユーザーが「〇〇のエラーが出た時の対処法は?」と聞くと、AIは保存されたデータから関連情報を瞬時に検索し、それを元に正確な回答を生成します。

  • リコーの強み: Gemma 3 27Bは、128kトークン(文庫本1冊分以上)という長い文脈を一度に理解できるため 7、複数のマニュアルを横断した複雑な質問に対しても、高い精度で回答することが期待できます。

3. セキュリティと運用

社内完結型であるため、これらのデータが外部に漏れることはありません。また、エフサステクノロジーズとの協業により、サーバーのハードウェア保守からAIソフトのサポートまで、ワンストップで受けられる体制が整っています。これは、IT人材が不足している地方企業や中小企業にとって、非常に大きな安心材料となります。


まとめ:リコーのオンプレミスAIは誰におすすめか?

リコーの新型オンプレミスAIは、これまで「高すぎて手が出ない」「難しそうで扱えない」とオンプレミス導入を諦めていた企業にとって、**「第3の選択肢」**となる画期的なソリューションです。

【リコー製オンプレAIの3つの決定的なメリット】

  1. 圧倒的なコストパフォーマンス: Googleの高性能モデル「Gemma 3 27B」をベースに、モデルマージ技術で開発費を抑制。サーバー込みで500万円〜1,000万円以下という、従来比1/3の価格破壊を実現。

  2. 即座に使える実用性: 生成AIアプリ作成ツール「Dify」が標準搭載されており、導入したその日から社内Q&Aや要約ツールをノーコードで作成可能。

  3. 安心のセキュリティとサポート: 完全な社内環境(オフラインでも動作可)でデータ漏洩リスクを遮断。さらに、リコーとエフサステクノロジーズ(富士通系)によるハード・ソフト両面の保守サポートがある。

【おすすめする企業】

  • 機密情報を扱う中堅・中小企業: 製造業の設計部門、地方銀行、法律事務所、病院など。

  • 大企業の部門導入: 全社導入前のPoC(実証実験)や、特定のプロジェクト専用のセキュアなAI環境が欲しい部門。

  • ランニングコストを抑えたい企業: 従量課金のAPIコスト増大に悩んでおり、定額で使い放題の環境に移行したい企業。

2025年、リコーのこの動きにより、日本の「AIの民主化」はクラウドだけでなく、オンプレミスの世界でも加速することになるでしょう。


Q&Aセクション:よくある質問と回答(10選)

記事の締めくくりとして、導入を検討する担当者が抱きそうな疑問に、専門的な視点から回答します。

Q1. 本当にインターネットに接続しなくても使えますか?

A. はい、可能です。完全なオンプレミス(閉域網)環境で動作するように設計されています。外部のクラウドサーバーにデータが送信されることはないため、最高レベルのセキュリティを確保できます。ただし、Difyのアップデートや一部の外部連携機能を使う場合は、一時的な接続や社内ネットワーク設定が必要になる場合があります。

Q2. 「Gemma 3 27B」ベースとのことですが、日本語は自然ですか?

A. 非常に自然です。リコーは独自の「モデルマージ技術」と、国内企業ならではの高品質な日本語データを使ったインストラクションチューニング(指示学習)を行っています。Googleのベースモデルも日本語対応していますが、リコーの調整により、ビジネスメールの作成や報告書の要約など、日本の商習慣に合ったより自然で丁寧な日本語を出力します。

Q3. 社内のマニュアルや規定を読み込ませることはできますか?(RAG対応)

A. はい、可能です。プリインストールされている「Dify」には、標準でRAG(検索拡張生成)の機能が備わっています。社内のPDF、Word、Excel、テキストファイルなどをアップロードするだけで、その内容に基づいた回答をするチャットボットを簡単に作成できます。27Bモデルの高い読解力により、精度の高い検索結果が期待できます。

Q4. 導入費用以外にかかるコスト(ランニングコスト)は?

A. 主に以下の3つです。

  1. 電気代: サーバー(GPU搭載)の稼働にかかる電力(月額数万円程度)。

  2. 保守サポート費: ハードウェアおよびソフトウェアのトラブル対応費用(年間契約など)。

  3. 設置スペース: サーバーを置く場所と、排熱のための空調環境が必要です。

    クラウドAPIのような「使った分だけの従量課金」は発生しません。

Q5. AI専門のエンジニアがいなくても運用できますか?

A. 運用可能です。それがこの製品の大きな特徴です。「Dify」という直感的な画面(GUI)で操作できるため、黒い画面でのコマンド入力などの専門知識は不要です。また、リコーが「Dify支援サービス」も提供しているため、使い方のサポートを受けることもできます。

Q6. 性能はGPT-4と比べてどうですか?

A. 一般的な日本語の対話や要約においては、GPT-4クラスと同等の性能を確認しています(リコー発表)。ただし、超難問の論理パズルや、世界中の最新ニュースを知っているか(知識量)という点では、数千億パラメータを持つGPT-4が勝る場合もあります。しかし、社内文書に基づく回答(RAG)など、業務特化の用途では遜色ない性能を発揮します。

Q7. サーバーはリコー製ですか?

A. いいえ、サーバーハードウェアはエフサステクノロジーズ(旧富士通)の「PRIMERGY」シリーズを採用しています。リコーはAIモデルとソフトウェアを提供し、エフサステクノロジーズがハードウェアとインフラ構築を担当する協業体制です。信頼性の高い国産メーカー製サーバーである点も安心材料です。

Q8. 後から性能を上げたり、GPUを追加したりできますか?

A. 採用するサーバー「PRIMERGY」の仕様に依存しますが、一般的にメモリやストレージの増設は可能です。ただし、AIモデル自体をより大きなサイズ(例:70B)に入れ替える場合は、GPUの買い替えや追加が必要になる可能性が高く、電源容量や冷却の制限も受けるため、導入時に将来の拡張性を含めて相談することをお勧めします。

Q9. 導入までの期間はどれくらいですか?

A. ハードウェアの在庫状況によりますが、モデルとソフトがプリインストールされた状態で出荷されるため、サーバーが納品されれば数日〜数週間での稼働が可能です。従来のSI開発型(要件定義から始まり数ヶ月〜半年かかる)に比べて圧倒的に早いです。

Q10. 他社の「安い」オンプレAIとの違いは何ですか?

A. 他社の安価なプランは、性能が低い「7B(70億)以下の軽量モデル」や、GPUを使わないCPU推論(非常に遅い)を使っているケースが多いです。リコーは「27B(270億)」という、より高性能な中規模モデルを、モデルマージ技術と最適化されたハードウェア構成(L40S)によって低価格で提供している点が異なります。「安かろう悪かろう」ではなく、「高性能なのに安い」を実現している点が最大の違いです。




以上の内容はhttps://k5963k.hateblo.jp/entry/2025/12/09/193000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14