Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Inception Labs ha lanciato Mercury 2, il loro modello Diffusion LLM di nuova generazione pronto per la produzione. Mercury 2 raggiunge >1.000 token di output/s con significativi guadagni in intelligenza
I Diffusion LLM di @_inception_ai (“dLLMs”) utilizzano un'architettura diversa rispetto ai LLM basati su autoregressione. Il processo di generazione del Diffusion LLM inizia con il rumore e affina iterativamente l'output utilizzando un modello transformer che può modificare più token in parallelo. Questo consente la parallelizzazione della generazione dei token di output, permettendo velocità di output più elevate poiché molti token di output vengono generati contemporaneamente.
Punti chiave:
➤ Tra i modelli di dimensioni/prezzi comparabili, Mercury 2 si comporta in modo competitivo in intelligenza rispetto alla velocità di output. Anche se non ha l'intelligenza leader, la sua velocità di output è più di 3 volte quella del modello più veloce in questa classe (benchmark basati su endpoint di prima parte o la mediana dei fornitori che servono il modello dove un endpoint di prima parte non è disponibile)
➤ I punti di forza chiave includono la codifica agentica e l'uso terminale e il rispetto delle istruzioni. Mercury 2 si comporta a un livello simile a Claude 4.5 Haiku su Terminal-Bench Hard e ottiene il 70% su IFBench (Instruction Following), superando gpt-oss-120B, GPT-5.1 Codex mini e GPT-5 nano
Contesto di Inception Labs:
Questa è la seconda release di Inception Labs. I fondatori erano precedentemente professori di Stanford, UCLA e Cornell e hanno contribuito alla ricerca e alle tecnologie AI, inclusi Flash Attention, Decision Transformers e Direct Preference Optimization (DPO).
Vedi sotto per ulteriori analisi.

Confronto della velocità di output rispetto ad altri modelli (benchmark basati su endpoint di prima parte o sulla mediana dei fornitori che servono il modello dove un endpoint di prima parte non è disponibile)


Mercury 2 si comporta meglio rispetto a modelli comparabili più piccoli in diverse valutazioni agentiche, tra cui GDPval-AA, Terminal-Bench Hard e 𝜏²-Bench Telecom, offrendo al contempo elevate velocità di output.

Vedi Analisi Artificiale per ulteriori dettagli e benchmark di Mercury 2:
11,31K
Principali
Ranking
Preferiti
