Inception Labs, yeni nesil üretime hazır Diffusion LLM'i Mercury 2'yi piyasaya sürdü. Mercury 2, önemli zekâ artışlarıyla >1.000 çıktı token/s elde ediyor @_inception_ai'nin Diffüzyon LLM'leri ("dLLM'ler"), otoregressif tabanlı LLM'lerden farklı bir mimari kullanır. Diffusion LLM üretim süreci gürültüyle başlar ve birden fazla tokenı paralel değiştirebilen bir transformatör modeliyle çıktıyı yinelemeli olarak iyileştirir. Bu, çıkış token üretiminin paralelleştirilmesine olanak tanır ve birçok çıkış tokenı aynı anda üretildiği için daha yüksek çıkış hızları sağlar. Önemli çıkarımlar: ➤ Karşılaştırılabilir boyut/fiyat sınıfı modelleri arasında, Mercury 2 zeka ile çıkış hızı açısından rekabet halindedir. Önde gelen zekaya sahip olmasa da, çıkış hızı bu sınıftaki bir sonraki en hızlı modelin 3 katından fazla (birinci taraf uç noktalarına veya birinci taraf uç noktası olmayan sağlayıcıların medianına dayalı benchmarklar) ➤ Ana güçler arasında ajanik kodlama ve terminal kullanımı ile talimat takip etme yer alır. Merkür 2, Terminal-Bench Hard'da Claude 4.5 Haiku ile benzer seviyede performans gösteriyor ve IFBench'te (Talimat Takib) %70 puan alıyor, gpt-oss-120B, GPT-5.1 Codex mini ve GPT-5 nano'yu geride bırakıyor Inception Labs arka planı: Bu, Inception Labs'ın ikinci yayınıdır. Kurucular daha önce Stanford, UCLA ve Cornell'den profesörlerdi ve Flash Attention, Decision Transformers ve Direct Preference Optimization (DPO) gibi yapay zeka araştırmaları ve teknolojilerine katkıda bulunmuşlardır. Daha fazla analiz için aşağıya bakınız.
Çıkış hızı karşılaştırması diğer modellerle (birinci taraf uç noktalarına veya birinci taraf uç noktası mevcut olmayan sunucuların medyanına dayalı benchmarklar)
Mercury 2, GDPval-AA, Terminal-Bench Hard ve τ²-Bench Telecom gibi çeşitli ajanik değerlendirmelerde küçük karşılaştırılabilir modellere kıyasla yüksek çıkış hızlarını sunarken yüksek çıkış hızlarını sunarken
Merkür 2'nin daha fazla detayı ve kıyaslamaları için Yapay Analiz'e bakınız:
11,31K