SB Intuitionsは3月5日、新たに0.5B、1B、3Bのパラメータ数を持つ事前学習モデル「Sarashina2.2」を公開した。
今回公開されたモデルは、日本語における数値計算やコーディング分野の性能向上に特に焦点を当てており、Instructモデルとして同サイズ帯のモデルの中で、日本語に関するベンチマークで最高水準のスコアを達成したという。
各モデルの詳細な情報は、AIモデルの共有プラットフォームであるHugging Faceで公開されている。SB Intuitionsは今後、大規模言語モデルの開発にも引き続き取り組んでいくとしており、今回の公開はその一環となっている。
モデル詳細:
- Sarashina2.2-0.5B
- Sarashina2.2-1B
- Sarashina2.2-3B
詳細は以下のリンクから確認可能: https://huggingface.co/sbintuitions/sarashina2.2-3b
引用