Microsoft、小型言語モデル「Phi-4-reasoning」シリーズを正式発表

2025年4月30日にMicrosoftは、小型言語モデル(Small Language Model:SLM)の新シリーズとして「Phi-4-reasoning」「Phi-4-reasoning-plus」および「Phi-4-mini-reasoning」を発表した。

同日付で公開された技術報告書によれば、主要モデルの Phi-4-reasoning は 140億パラメータながら、多段階推論が要求される数学・科学系ベンチマークにおいて、70 B パラメータ級の DeepSeek-R1-Distill-Llama-70B を上回る精度を記録。さらに Phi-4-reasoning-plus は、人間フィードバックを利用した強化学習(RLHF)により、推論時に1.5倍のトークンを投入して精度を一段と引き上げた。両モデルは AIME 2025(USA 数学オリンピック予選)の成績で 671 B パラメータの DeepSeek-R1 を凌駕するケースも報告されている。

最小構成の Phi-4-mini-reasoning は 3.8 B パラメータながら、中学レベルから博士課程相当まで100万問超の数学問題で訓練されており、OpenAI o1-mini を上回るスコアを獲得した。軽量化を優先した本モデルは、教育アプリやモバイル/エッジ用途を主目的とし、低遅延環境での逐次的な問題解決を可能とする。

これらのモデルは、同社クラウドサービス Azure AI Foundry に即日実装され、利用企業はGUIベースでの微調整やデプロイが可能。加えて、オープンウェイト形式でも Hugging Face から取得できるため、ローカル環境での追加学習や評価にも対応する。

ハードウェア面では、Windows 11 を搭載した Copilot+ PC に実装済みの NPU 最適化版「Phi Silica」との親和性が強調された。OS管理下でメモリ常駐し、オフライン状態でも Outlook の要約機能や「Click to Do」などの画面内テキスト分析を高速に提供する。新モデル群も同様の量子化手法を経て、順次 NPU で動作可能となる予定だ。

Microsoft は開発プロセス全体を「責任ある AI」原則に沿って運用し、教師あり微調整、Direct Preference Optimization、RLHF などを組み合わせた多段階の安全性チューニングを実施した。モデルカードでは、透明性、公平性、プライバシー保護に関する情報が公開されている。

引用

One year of Phi: Small language models making big leaps in AI | Microsoft Azure Blog

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AI・DX・LowCodeなど企業に役立つ情報を発信しています。

目次