Microsoft傘下のGitHubは、OpenAIが開発した最新の推論型AIモデル「o3」および「o4-mini」を、GitHub CopilotおよびGitHub Modelsにて一般向けプレビューとして提供開始したと発表した。これにより、開発者は従来よりも高速かつ精度の高いコード生成やバグ修正、構造化された推論支援を受けられるようになる。
次世代の開発支援AI「o3」「o4-mini」
今回Copilotに統合された「o3」と「o4-mini」は、それぞれ異なる強みを持つ。
- o3:OpenAIの“oシリーズ”で最も高性能な推論モデル。複雑なコーディングやマルチレイヤのデバッグ、契約書分析などに適しており、高度な問題解決を可能にする。
- o4-mini:低レイテンシと高精度を両立した軽量モデル。ツールサポートやマルチモーダル入力にも対応し、大量タスクの処理に向いている。
両モデルは最大20万トークンのロングコンテキスト対応、関数呼び出しや構造化出力など、開発現場における高度な要件に最適化されている。
GitHub Copilotでの利用方法と対応プラン
- o4-miniはすべてのGitHub Copilotプランで順次展開中。
- o3はCopilot EnterpriseおよびPro+プランで利用可能。
Visual Studio Codeのモデル選択機能や、GitHub上のCopilot Chatから簡単にアクセスできる。Copilot Enterpriseの管理者は、設定ポリシーを通じて各ユーザーへのアクセスを有効化する必要がある。
GitHub Modelsでも提供開始
「o3」と「o4-mini」は、GitHub Modelsでも利用可能となり、開発者はプロンプトの試行錯誤やAI機能のデプロイを迅速に行えるようになる。GitHub Modelsでは、Cohere、DeepSeek、Meta、Microsoftなど他社モデルとの比較検証も可能です。
引用