中国のAIスタートアップMiniMaxが、最新モデル「M2.5」をリリースしました。注目すべきはSWE-bench Verifiedでの80.2%という成績で、これはオープンソースモデルとしてはトップクラスの実力です。コーディング能力の高さが際立つこのモデルについて、詳しく見ていきます。

MiniMax M2.5の概要

MiniMaxは2021年に設立された中国のAI企業で、大規模言語モデルの開発に注力しています。M2.5はその最新フラグシップモデルで、テキスト生成、コード生成、推論タスクに対応しています。

SWE-bench VerifiedはソフトウェアエンジニアリングのAIベンチマークとして広く使われていて、実際のGitHubイシューを解決できるかどうかを測定するものです。80.2%という数値は、GPT-5.3-Codex-Sparkのような最新のクローズドソースモデルに迫るレベルです。

技術的な特徴

M2.5の技術的な特徴をいくつか整理してみます。

マルチモーダル対応: テキストだけでなく、画像やコードを統合的に処理できます。コードレビューの際にスクリーンショットを入力して「このUIの問題点を指摘して」といった使い方が可能です。

長文コンテキスト: 100万トークン以上のコンテキストウィンドウを持っていて、大規模なコードベース全体を一度に読み込んで分析するような用途にも対応できます。

ツール呼び出し: Function Calling機能が充実していて、AIエージェントとはのようなAIエージェント構築の基盤として使いやすい設計になっています。

SWE-benchで80%超えの意味

SWE-bench Verifiedで80%を超えるというのは、かなりインパクトのある数字です。このベンチマークは実際のオープンソースプロジェクトのバグ修正や機能追加をタスクとしているため、単純なコード補完とは次元が異なります。

問題を理解し、関連するファイルを特定し、正しい修正をコードとして出力する必要があるため、総合的なソフトウェアエンジニアリング能力が問われます。以前は50%台でも「すごい」と言われていたスコアが、ここ数ヶ月で80%台に突入しているのは、業界全体の進歩の速さを物語っていますね。

中国発AIモデルの台頭

MiniMaxに限らず、中国発のAIモデルの存在感は急速に増しています。DeepSeekやQwen(Alibaba)、GLM(Zhipu AI)など、オープンソースで公開されるモデルの品質が明らかに向上しています。

興味深いのは、これらのモデルの多くがオープンウェイトで公開されている点です。Anthropic 300億ドル調達のように莫大な資金を調達してクローズドモデルを開発する路線と、オープンソースで広く使ってもらう路線の二極化が進んでいるように見えます。

MiniMax公式サイトではAPIアクセスも提供されていて、開発者が比較的手軽に試せる環境が整っています。

実用面での評価

ベンチマークの数値は優秀ですが、実務での使い勝手はまた別の話です。日本語対応の品質、APIの安定性、ドキュメントの充実度など、実際にプロダクトに組み込む際には確認すべき点が多くあります。

また、中国発のモデルを業務利用する場合、データの取り扱いに関するポリシーを事前に確認しておく必要があります。Hugging Face上のモデルカードでライセンスやデータポリシーが公開されているので、導入前に確認することをおすすめします。

まとめ

MiniMax M2.5は、オープンソースAIモデルがクローズドソースに急速に追いついていることを示す好例だと感じました。SWE-bench 80%超えという実力は無視できないレベルで、特にコーディング支援やAIエージェント構築の分野では選択肢として検討に値します。Claude Opus 4.6 vs GPT-5.3-Codexのような比較検討の際にも、今後はMiniMaxを含めて評価する必要がありそうです。

AI開発ツールの選択肢がどんどん広がっているのは、開発者にとっては良いことですね。