Inception Labsは次世代の本番対応Diffusion LLMであるMercury 2を発表しました。マーキュリー2は知能が大幅に向上し、1,000トークン/秒あたり>を達成します @_inception_aiの拡散型LLM(「dLLM」)は自己回帰型LLMとは異なるアーキテクチャを採用しています。拡散LLM生成プロセスはノイズから始まり、複数のトークンを並列に修正できるトランスモデルを用いて反復的に出力を洗練します。これにより出力トークン生成の並列化が可能となり、多くの出力トークンが同時に生成されるため、より高速な出力速度が可能になります。 主なポイント: † 同等のサイズ・価格帯モデルの中で、マーキュリー2は知能対出力速度で競争力があります。先進的な知能は持っていませんが、出力速度はこのクラスの次に速いモデルの3倍以上です(ファーストパーティエンドポイントに基づくベンチマークや、ファーストパーティエンドポイントが存在しないモデルのプロバイダーの中央値に基づくものです) 主な強みは、エージェント型コーディングと端末の使用、命令の追従です。Mercury 2はTerminal-Bench HardでClaude 4.5俳句と同等の性能を示し、IFBench(Instruction Following)で70%のスコアを得て、gpt-oss-120B、GPT-5.1 Codex mini、GPT-5 nanoを上回ります インセプション・ラボの背景: これはInception Labsからの2作目のリリースです。創業者たちは以前、スタンフォード大学、UCLA、コーネル大学の教授であり、Flash Attention、Decision Transformers、Direct Preference Optimization(DPO)などのAI研究や技術に貢献してきました。 さらなる分析については下記を参照してください。
他のモデルとの出力速度比較(ファーストパーティエンドポイントに基づくベンチマークや、ファーストパーティエンドポイントが存在しない場合にモデルを提供するプロバイダーの中央値)
マーキュリー2は、GDPval-AA、ターミナルベンチハード、τ²ベンチテレコムなど複数のエージェント評価で同等の小型モデルと比べて平均以上の性能を示し、高い出力速度を提供します
マーキュリー2の詳細とベンチマークについては「人工解析」を参照してください。
11.31K