SB Intuitions、日本語性能に特化した小規模事前学習モデル「Sarashina2.2」を公開

SB Intuitionsは3月5日、新たに0.5B、1B、3Bのパラメータ数を持つ事前学習モデル「Sarashina2.2」を公開した。

今回公開されたモデルは、日本語における数値計算やコーディング分野の性能向上に特に焦点を当てており、Instructモデルとして同サイズ帯のモデルの中で、日本語に関するベンチマークで最高水準のスコアを達成したという。

各モデルの詳細な情報は、AIモデルの共有プラットフォームであるHugging Faceで公開されている。SB Intuitionsは今後、大規模言語モデルの開発にも引き続き取り組んでいくとしており、今回の公開はその一環となっている。

モデル詳細:

  • Sarashina2.2-0.5B
  • Sarashina2.2-1B
  • Sarashina2.2-3B

詳細は以下のリンクから確認可能: https://huggingface.co/sbintuitions/sarashina2.2-3b

引用

https://twitter.com/sbintuitions/status/1897118014811857278
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AI・DX・LowCodeなど企業に役立つ情報を発信しています。

目次