Stable LM 3B は、ハンドヘルドやラップトップなどの携帯デジタル機器上で動作するように設計されたコンパクトな言語モデルです。Stable LM 3Bは、30億パラメータ(業界で通常使用されるのは70億~700億パラメータ)で構成されています。
前回の Stable LM リリースと同様、Stable LM 3B の主な利点のひとつは、その小型化と効率性です。このモデルは、大型のものとは異なり、必要なリソースが少なく、運用コストも低いため、多くのユーザーにとって利用しやすいものとなっています。これは、より手頃な価格であるだけでなく、消費電力がはるかに少ないため、環境にも優しくなっています。Stable LM 3B は、そのサイズからは想像できないほど、高い競争力を発揮します。従来の最先端の 3B パラメーター言語モデルや、7B パラメーター規模のオープンソース言語モデルでさえも凌駕しています。
Stable LM 3B により、各種端末または家庭用 PC で実行可能なアプリケーションの幅が広がりました。このことは、個人や企業が、コストを抑えつつ高いパフォーマンスを維持しながら、創作支援など強力な会話機能を備えた最先端技術を開発できるようになったことを意味します。
以前の Stable LM リリースと比較して、このバージョンは高速な推論速度を維持しながら、テキストを生成する能力が大幅に向上しています。また、一般的な自然言語処理ベンチマーク (常識推論や一般知識テストなど) において、ダウンストリーム性能が向上しています。この驚くべき性能を達成するために、Stable LM 3B は大規模な学習を行いました。高品質なデータで複数エポック学習させた結果、同規模の先行モデルの性能を凌駕する言語モデルを実現しました。
また、Stable LM 3B は汎用性があります。一般的な言語モデルでありながら、プログラミング支援など、別の用途のために微調整が可能です。例えば、カスタマーサポートアシスタント、特殊なプログラミング言語のコーディングアシスタントなどです。
開発者は、Stable LM 3B がベースモデルであることに留意する必要があります。つまり、チャットインターフェイスのような特定のアプリケーションで安全に動作するように調整する必要があります。開発者は、使用ケースに応じて、デプロイ前にモデルを評価し、微調整する必要があります。 インストラクションモデルは現在セーフティテスト中で、近々リリースする予定です。
私たちは、Stable LM 3Bのような小規模でカスタマイズ可能なモデルが、生成AIの実用的なユースケースにおいてますます大きな役割を果たすようになり、オープンモデルが監査可能で信頼できるAIの標準になると確信しています。これは今後の完全なリリースに先立つ中間的なリリースであり、Hugging Faceプラットフォーム上でウェイトをダウンロードすることで、コミュニティがこのモデルを試すことをおすすめします。この現在のモデルは無料で使用でき、オープンソースの CC-By-SA 4.0 ライセンスの下でリリースされています。
引用