金融専門チームが実務への応用を支援するLLM活用支援サービスを提供
株式会社Preferred Networks(本社:東京都千代田区、代表取締役 最高経営責任者:西川徹、以下、PFN)は、大規模言語モデル(LLM)PLaMo™(プラモ)の日本の金融知識を強化した派生モデルPLaMo-fin-baseを金融機関向けに提供開始します。PFNの金融チームが、金融機関における自然言語処理技術を要するさまざまな処理の精度向上、業務効率化に向け、課題の把握、技術やユースケースの検証、アプリケーションの開発・運用まで、トータルで支援します。
PFNグループでは既存のLLMを用いることなく、PLaMoを事前学習からフルスクラッチで開発しています。そこで得られたLLM開発ノウハウとモデルを用いて、特定領域に特化したLLMに必要な追加学習や機能開発、業務プロセスに応じた適切なシステム設計を柔軟にできることが強みです。
PLaMo-fin-baseは、世界最高クラスの日本語性能を有するPLaMoをベースに、PFNの金融チームが日本の金融分野における大量の日本語データを追加学習させているため、国内の金融知識が求められるタスクに対する回答性能がさらに向上しています。例えば、AIエージェント*1の核となるLLMとしてPLaMo-fin-baseを用いることで、営業日報に基づく提案内容の下書き、投融資にかかる稟議書類の作成、窓口や法人営業のロールプレイ、IR情報に基づく企業分析、規制当局から発信される情報の要約など、銀行や証券会社における広範な業務の効率化、高度化に活用可能です。
金融機関向け大規模言語モデルPLaMo-fin-baseの特長
- 金融分野における日本語ベンチマークJapanese Language Model Financial Evaluation Harness*2で高い評価
- 社内データやノウハウの利用・連携が可能
- 業務日報、研修資料、マニュアル、顧客データベースなどの社内の独自ファイルをRAG*3
(Retrieval-Augmented Generation、検索拡張生成)によって活用することが可能 - 投資における価値判断の基準といった独自の業務ノウハウを追加学習によってモデル自体に反映させることも可能
- 業務日報、研修資料、マニュアル、顧客データベースなどの社内の独自ファイルをRAG*3
- 高いセキュリティを担保
- 極めて高いセキュリティ水準が求められる金融機関での利用を想定し、データを一切社外に出さないオンプレミス環境で利用可能
- 金融およびLLMの豊富な実績を持つエンジニア・リサーチャーがLLM活用を支援
- 顧客や国内外の学会・カンファレンスで高い評価を受けているPFNの金融チームが実務への応用を支援 https://tech.preferred.jp/ja/tag/qfin/
- LLMの追加学習によるパラメータチューニング、機械学習・深層学習の最先端技術に基づいたソリューション開発・提供実績多数
PFNでは金融領域に特化したLLMの開発を継続的に進めており、PCなどのエッジデバイスでも動作する軽量モデルの開発や、安全性や性能の向上を目指しています。またこれらを活用したAIエージェントの開発も行っており、金融機関向けLLM活用支援サービスをさらに高度化していきます。
PLaMo-fin-baseについての金融機関からの問い合わせ: https://www.preferred.jp/ja/contact/
*1:AIエージェント
特定の目的を達成するために、自律的に行動してタスクを遂行するAIを用いたシステムのこと。例えば金融商品の提案を行うには、国や業界のマクロトレンドの把握、顧客企業の財務分析、分析結果から想定される顧客ニーズと自社の金融商品とのマッチング、といった複雑な判断が求められるタスクを複数こなす必要があります。これをAIに包括的に支援させる場合には、高度で自律的な判断が可能なAIエージェントの技術が求められます。
*2:Japanese Language Model Financial Evaluation Harness
PFNで整備した、日本語かつ金融分野に特化したベンチマーク。金融分野における感情分析タスク(chabsa)、証券分析における基礎知識タスク(cma_basics)、公認会計士試験における監査に関するタスク(cpa_audit)、ファイナンシャルプランナー試験の選択肢問題のタスク(fp2)、証券外務員試験の模擬試験タスク(security_sales_1)の5つのベンチマークタスクで構成されています。
言語モデル性能評価のための日本語金融ベンチマーク構築と 各モデルのパフォーマンス動向
*3:RAG(Retrieval-Augmented Generation、検索拡張生成)
社内資料や信頼できる外部の最新情報などを検索して情報を抽出し、LLMがそれらを参照して回答精度を向上させる方法。
引用