MENU

ニュース

待ち時間の少ない日本語LLMで、一次回答とドラフト作成の工数をどれだけ削れる?

  • URLをコピーしました!

株式会社リコーは、Googleのオープンモデル「Gemma 3 27B」をベースに、オンプレミス導入に最適化した日本語LLMを開発しました。独自のモデルマージ技術を用いて指示追従能力を抽出した複数のChat Vectorを統合し、ベースモデルから大幅な性能向上を実現しています。非推論モデルでありながら高い初期応答性を備え、長文生成や業務文の執筆にも強みを持つ点が特徴です。モデル規模は270億パラメータで、PCサーバでの構築が可能なため、低コストなプライベートLLMの導入を後押しします。電力消費の抑制にも寄与し、環境負荷低減の観点でも有用です。

評価では、日本語の複雑なタスク評価「Elyza-tasks-100」と対話力を測る「Japanese MT-Bench」で高スコアを記録し、オープンウェイトの先進モデルと同等レベルを確認しました。公表値では、gemma-3-Ricoh-27b-20251030がJapanese MT-Benchで9.26、Elyza-tasks-100で9.03、平均9.15と示されています。量子化モデルでも平均9.03と高く、推論モデルの「gpt-oss-20b」の平均9.20に肉薄しました。非推論モデルのためTime to First Tokenが短く、問い合わせ対応や文書起案など、即応性が求められる業務に適しています。現場の利用者が待ち時間のストレスを感じにくい点は、定着に直結する価値です。

提供面では、個別提供に加えて、エフサステクノロジーズの「Private AI Platform on PRIMERGY」に量子化モデルと生成AI開発プラットフォーム「Dify」をプリインストールして展開します。2025年12月下旬から、リコージャパンがLLM動作環境込みで提供し、ノーコードで業務特化アプリの作成を可能にします。Dify支援サービスによる伴走で、専門人材が乏しい組織でも早期にユースケースを立ち上げやすく、PoCから本番運用までの移行を加速できます。オンプレミスのためデータが社外に出にくく、機密性が高い部門でも導入検討がしやすくなります。

実務への示唆としては、まず部門横断で優先度の高い3ユースケースを選定し、Dify上でプロトタイプを作成することが有効です。具体的には、ナレッジQA、問い合わせ一次回答、定型文書のドラフト生成が初期効果を出しやすい分野です。次に、Chat Vectorの強みである指示追従を活かすため、プロンプトに社内語彙や業務手順を明示し、テンプレート化して再利用すると品質が安定します。運用段階では、初期応答性の指標であるTTFTと生成完了までの時間をダッシュボードで可視化し、ピーク時の同時接続数とレスポンス劣化の閾値を把握することが重要です。最後に、オンプレ環境の電力と冷却の要件を点検し、PCサーバでの段階的スケールを計画すると、低コストでの拡張が可能になります。

リコーは1980年代からAI研究に取り組み、画像認識や自然言語処理、音声認識へと領域を広げてきました。2021年には文書やVOC解析で業務効率化を支援する「仕事のAI」を開始し、2023年には独自LLMを発表しています。今回の新モデルは、特許出願中のモデルマージ技術を軸に、企業の用途や環境に最適化したプライベートLLMを低コストかつ短納期で提供する取り組みの最新成果です。今後は推論性能の強化や業種特化モデル、マルチモーダル対応の拡充でラインアップを強化するとしています。生成AIの内製化と現場実装を進めたい企業にとって、オンプレ前提の日本語LLMは有力な選択肢となるでしょう。

詳しくは「株式会社リコー」の公式ページまで。

シェアはこちらから
  • URLをコピーしました!
  • 週刊SUZUKI
  • 企業風土の礎
  • 日本オムニチャネル協会

お問い合わせ

取材のご依頼やサイトに関するお問い合わせはこちらから。

問い合わせる