約1720億パラメータ(GPT-3級)の大規模言語モデルのフルスクラッチ学習を行い、プレビュー版「LLM-jp-3 172B beta1」を公開

~学習データを含めすべてオープンにしたモデルとしては世界最大〜

 大学共同利用機関法人 情報・システム研究機構 国立情報学研究所 (NIIエヌアイアイ、所長:黒橋くろはし 禎夫さだお、東京都千代田区) の大規模言語モデル研究開発センター(LLMC)は、主宰するLLM勉強会(LLM-jp)の成果として、これまでのデータ活用社会創成プラットフォームmdx(*1)での130億パラメータ・モデルの学習、国立研究開発法人産業技術総合研究所の第2回大規模言語モデル構築支援プログラムによるAI橋渡しクラウド(ABCI)での1750億パラメータ・モデルの学習トライアルの成果を踏まえ、パラメータ数(*2)約1720億(GPT-3級)の大規模言語モデル(LLM)のフルスクラッチ学習を行い、プレビュー版「LLM-jp-3 172B beta1」を公開しました。学習データを含めすべてオープンにしたモデルとしては世界最大のものです。

 このプレビュー版は、用意した学習データ(約2.1兆トークン)の約1/3までの学習を行った段階のものです。今後も学習を継続し、約2.1兆トークンの学習を行ったモデルを2024年12月頃に公開する計画です。

 LLMCでは、先に公開したものも含めこれらのモデルを活用してLLMの透明性・信頼性の確保に向けた研究開発を進めていきます。

1. 今回公開したLLMの概要

(1)利用計算資源
  • 経済産業省・NEDOのGENIACプロジェクトの支援によるクラウド計算資源(グーグル・クラウド・ジャパン)を利用して、約0.4兆トークンまでの事前学習を実施
  • その後、文部科学省の補助金により調達したクラウド計算資源(さくらインターネット)を利用して、約0.7兆トークンまでの事前学習及びチューニングを実施
(2)モデル学習用コーパス(*3)
  • 以下に示すコーパス(約2.1兆トークン)を用意し、その約1/3まで事前学習を完了
    • 日本語:約5,920億トークン
      • WebアーカイブCommon Crawl(CC)全量から抽出・フィルタリングした日本語テキスト
      • 国立国会図書館インターネット資料収集保存事業(WARP)で収集されたWebサイトのURL(当該URLリストは同館から提供)を基にクロールしたデータ
      • 日本語Wikipedia
      • KAKEN (科学研究費助成事業データベース) における各研究課題の概要テキスト
    • 英語:約9,500億トークン(Dolma等)
    • 他言語:約10億トークン(中国語・韓国語)
    • プログラムコード:約1,140億トークン
    • 以上の約1.7兆トークンに加え、日本語コーパスのうち約0.4兆トークンは2回学習することとし、合計約2.1兆トークン
(3)モデル
  • パラメータ数:約1,720億個(172B)
  • モデルアーキテクチャ:LlaMA-2ベース
(4)チューニング
  • 日本語インストラクションデータおよび英語インストラクションデータの和訳データ13種類を用いてチューニングを実施
(5)評価
  • LLM-jpが開発している、既存の日本語言語資源に基づく22種類の評価データを用いて横断的な評価を行うフレームワーク「llm-jp-eval v1.3.1」を使用。今回公開する0.7兆トークン学習時点の事前学習モデルは0.548を達成。
release_20240917_fig1.png
  • GENIAC事業にて性能評価に用いられるフレームワーク「llm-leaderboard (g-leaderboardブランチ)」による評価を実施。今回公開する0.7兆トークン学習時点のチューニングモデルは0.529を達成。
(6)開発モデル・ツール・コーパスの公開URL
  • https://llm-jp.nii.ac.jp/release
  • 注:今回公開するモデルは、安全性の観点に基づくチューニングを行ったものではありますが、まだプレビュー段階のものであり、そのまま実用的なサービスに供することを想定しているものではありません。プレビュー版は利用申請者に限定的なライセンスのもと提供します。

2.今後の予定

  • LLMを社会で利活用していく上ではLLMの透明性・信頼性の確保が必要であり、モデルの高度化に伴い、安全性の配慮もより重要となります。そのため、NIIは、文部科学省の補助事業「生成AIモデルの透明性・信頼性の確保に向けた研究開発拠点形成」(https://www.mext.go.jp/content/20240118-ope_dev03-000033586-11.pdfのp.7)の支援を受け2024年4月に大規模言語モデル研究開発センターを設置しました。
    今回公開したモデルや、今後構築するモデルを活用してそれらの研究を進め、LLM研究開発の促進に貢献します。
  • なお、今回のモデルでは最終チェックポイント(100kステップ)以外に、そこに至るまでの1kステップごとの全てのチェックポイントのデータも保存しています。今後、それらのデータも提供する予定です。

(参考1) LLM勉強会(LLM-jp)の概要

  1. 1. NIIが主宰するLLM-jpでは、自然言語処理及び計算機システムの研究者を中心として、大学・企業等から1,700名以上(2024年9月17日現在)が集まり、ハイブリッド会議、オンライン会議、Slack等を活用してLLMの研究開発について情報共有を行うとともに、共同でLLM構築等の研究開発を行っています。具体的には、以下の目的で活動しています。
    • オープンかつ日本語に強いLLMの構築とそれに関連する研究開発の推進
    • 上記に関心のある自然言語処理および関連分野の研究者によるモデル構築の知見や最近の研究の発展についての定期的な情報交換
    • データ・計算資源等の共有を前提とした組織横断的な研究者間の連携の促進
    • モデル・ツール・技術資料等の成果物の公開
  2. 「コーパス構築WG」「モデル構築WG」「チューニング・評価WG」「安全性WG」「マルチモーダルWG」「実環境インタラクションWG」等を設置し、それぞれ、早稲田大学 河原大輔教授、東北大学 鈴木潤教授、東京大学 宮尾祐介教授、国立情報学研究所 関根聡特任教授、東京工業大学 岡崎直観教授、早稲田大学 尾形哲也教授を中心に研究開発活動に取り組んでいます。このほか、東京大学 田浦健次朗教授、空閑洋平准教授(計算資源の利用技術)、東京工業大学 横田理央教授(並列計算手法等)等、多数の方々の貢献により、活動を進めています。
  3. 詳細については、ホームページ https://llm-jp.nii.ac.jp/ をご参照ください。

(参考2)

この成果は、国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の助成事業及び文部科学省の補助事業の結果得られたものです。

関連リンク

News Release: PDF

約1720億パラメータ(GPT-3級)の大規模言語モデルのフルスクラッチ 学習を行い、プレビュー版「LLM-jp-3 172B beta1」を公開
~学習データを含めすべてオープンにしたモデルとしては世界最大〜


(※1) データ活用社会創成プラットフォームmdx:<9大学2研究所が連合して共同運営する、データ活用にフォーカスした高性能仮想化環境。研究環境を用途に合わせてオンデマンドで短時間に構築・拡張・融合できる、データ収集・集積・解析のためのプラットフォーム
(※2) パラメータ数:大規模言語モデルは言語を学習した大規模なニューラルネットワークで、パラメータはニューラルネットワークの規模を示す指標のひとつ。他の条件が同一であればパラメータ数が多いほど高い性能となる傾向があるといわれている
(※3) コーパス:自然言語の文章を構造化し大規模に集積したデータベース

引用

国立情報学研究所 / National Inst...
約1720億パラメータ(GPT-3級)の大規模言語モデルのフルスクラッチ学習を行い、プレビュー版「LLM-jp-3 17... 国立情報学研究所は、情報学という新しい研究分野での「未来価値創成」を目指すわが国唯一の学術総合研究所として、ネットワーク、ソフトウェア、コンテンツなどの情報関連...
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AI・DX・LowCodeなど企業に役立つ情報を発信しています。

目次