Meta、新LLM『Llama 3.3 (70B)』を公開

Meta社は2024年12月7日、最新のオープンソースモデル「Llama 3.3 (70B)」を発表しました。
本モデルは、わずか700億パラメータでありながら、従来のLlama 3.1が4050億パラメータで達成していた水準に迫る高品質なテキスト生成性能を実現しています。
その一方で、開発者が一般的なワークステーションで手軽に実行可能な推論コストを維持している点が注目されています。

Llama 3.3の性能向上は、新たなアライメントプロセスやオンライン強化学習(RL)技術の進展に支えられており、合成データ生成をはじめとする多様なテキスト生成ユースケースにおいて大きな効果を発揮します。
こうした改良により、従来モデルと比較して大規模なパラメータ数を必要とせず、優れた性能と品質を両立。企業や研究機関はもちろん、個人開発者であっても、より軽量な環境で高度な自然言語処理を利用しやすくなっています。

現在、Llama 3.3はMeta社およびHugging Faceから入手可能であり、近くパートナープラットフォームを通じての展開も予定されています。モデルカードやダウンロードリンクなどの詳細情報は、以下のリンクから確認できます。

引用

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AI・DX・LowCodeなど企業に役立つ情報を発信しています。

目次