Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Oberoende analys av AI-modeller och hostingleverantörer - välj den bästa modellen och API-leverantören för ditt användningsfall
Alibaba har utökat sin Qwen3.5-modellfamilj med 3 nya modeller – 27B-modellen är en utmärkelse, med 42 poäng på Artificial Analysis Intelligence Index och matchar öppna viktmodeller 8–25 gånger sin storlek
@Alibaba_Qwen har utökat Qwen3.5-familjen med tre nya modeller tillsammans med flaggskeppet 397B som släpptes tidigare denna månad: Qwen3.5 27B (Dense, med 42 poäng på Intelligence Index), Qwen3.5 122B A10B (MoE, 42) och Qwen3.5 35B A3B (MoE, 37). De två MoE (Mixture-of-Experts)-modellerna aktiverar endast en bråkdel av de totala parametrarna per framåtpassning (10B av 122B respektive ~3B av 35B). Intelligensindexet är vårt syntesmått som inkluderar 10 utvärderingar som täcker allmänt resonemang, agentiska uppgifter, kodning och vetenskapligt resonemang.
Alla modeller är Apache 2.0-licensierade, stöder inbyggt 262K-kontext och återgår till den hybridarkitekturen för enhetligt tänkande/icke-tänkande från ursprungliga Qwen3, efter att Alibaba gick över till separata kontrollpunkter för Instruct och Reasoning med Qwen3 2507-uppdateringarna.
Viktiga benchmarkingresultat för resonemangsvarianterna:
➤ Qwen3.5 27B får 42 på Intelligence Index och är den mest intelligenta modellen under 230B. Den närmaste modellen av liknande storlek är GLM-4.7-Flash (totalt 31 miljarder, 3 miljarder aktiva) som får 30 poäng. Öppna viktmodeller med ekvivalent intelligens är 8–25 gånger större i termer av totala parametrar: MiniMax-M2.5 (230B, 42), DeepSeek V3.2 (685B, 42) och GLM-4.7 (357B, 42). I FP8 Precision krävs ~27GB för att lagra modellvikterna, medan du i 4-bitars kvantisering kan använda laptop-kvalitetshårdvara med 16GB+ RAM
➤ Qwen3.5 27B får 1205 poäng på GDPval-AA (Agentic Real-World Work Tasks), vilket placerar det bland större modeller. För kontext får MiniMax-M2.5 1206, GLM-4.7 (Resonemang) 1200 och DeepSeek V3.2 (Resonemang) 1194. Detta är särskilt anmärkningsvärt för en 27B-parametermodell och antyder stark agentisk kapacitet för dess storlek. GDPval-AA testar modeller på verkliga uppgifter inom 44 yrken och 9 stora industrier
➤ AA-Allvetande är fortfarande en relativ svaghet inom Qwen3.5-familjen, främst driven av lägre noggrannhet snarare än hallucinationsfrekvens. Qwen3.5 27B får -42 på AA-Omniscience, jämförbart med MiniMax-M2.5 (-40) men ligger bakom DeepSeek V3.2 (-21) och GLM-4.7 (-35). Även om Qwen3.5 27B:s hallucinationsfrekvens (80 %) är lägre än jämförbara (GLM-4,7 90 %, MiniMax 89 %, DeepSeek 82 %), är dess noggrannhet också lägre med 21 % jämfört med 34 % för DeepSeek V3,2 och 29 % för GLM-4,7. Detta är sannolikt en följd av modellstorleken – vi har generellt observerat att modeller med fler totala parametrar presterar bättre på noggrannhet i AA-Omniscience, eftersom bredare kunskapsinkallning gynnas av större parameterantal
➤ Qwen3.5 27B är likvärdigt intelligent som Qwen3.5 122B A10B. 122B A10B är en Mixture-of-Experts-modell som endast aktiverar 10B av sina totala 122B parametrar per framåtpass. 27B-modellen leder i GDPval-AA (1205 Elo mot 1145 Elo) och något på TerminalBench (+1,5 p.p.), medan 122B-modellen leder på SciCode (+2,5 p.p.), HLE (+1,2 p.p.) och har en lägre hallucinationsfrekvens (Omniscience -40 vs -42)
➤ Qwen3.5 35B A3B (Reasoning, 37) är den mest intelligenta modellen med ~3B aktiva parametrar, 7 poäng före GLM-4.7-Flash (30). Andra modeller i denna ~3B aktiva kategori inkluderar Qwen3 Coder Next (totalt 80 miljarder, 28), Qwen3 Next 80B A3B (27) och NVIDIA Nemotron 3 Nano 30B A3B (24)
➤ Qwen3.5 27B använde 98 miljoner utdatatoken för att köra Intelligence Index, vilket kostade ~299 dollar via Alibaba Cloud API. Detta är anmärkningsvärt hög tokenanvändning jämfört med modeller med liknande intelligens: MiniMax-M2.5 (56M), DeepSeek V3.2 (61M) och till och med den större Qwen3.5 397B (86M).
Övrig information:
➤ Kontextfönster: 262K tokens (kan utökas till 1M via YaRN)
➤ Licens: Apache 2.0
➤ API-prissättning (Alibaba Cloud): 397B: $0,60/$3,60, 122B: $0,40/$3,20, 27B: $0,30/$2,40, 35B A3B: $0,25/$2,00 per 1 miljon in-/utmatningstoken

3,56K
Kling 3.0 1080p (Pro) tar #1-platsen i text-till-video på både With Audio och Without Audio-topplistor inom Artificial Analysis Video Arena, och överträffar därmed Grok Imagine, Runway Gen-4.5 och Veo 3.1!
I Bild till video placerar Kling 3.0 1080p (Pro) #4 på With Audio-topplistan och #6 i No Audio, efter Grok Imagine och PixVerse v5.6.
Kling 3.0 är den senaste utgåvan från @Kling_ai , vilket innebär ett stort steg från deras Kling 2.6-modeller. Modellen finns i 1080p (Pro) och 720p (Standard) kvalitetsnivåer, och stödjer upp till 15-sekunders generationer samt native ljudgenerering.
Kling har också släppt Kling 3.0 Omni, en multimodal modell som sträcker sig bortom videogenerering och stödjer bild- och videoinmatningar, videoredigering och videogenerering i en enda enhetlig modell. Kling 3.0 Omni 1080p (Pro) och Omni 720p (Standard) presterar också starkt, där Omni 1080p (Pro) placerar #2 i Text-till-Video med ljud och #4 i Ingen Ljud.
Kling 3.0 finns tillgängligt via Kling AI-appen och via API på @fal. Kling 3.0 1080p (Pro) kostar ~13 dollar/min utan ljud och ~20 dollar/min med ljud, medan 720p (Standard) kostar ~10 dollar/min respektive ~15 dollar/min. Utan ljud är 1080p (Pro) jämförbart med Veo 3.1 till 12 dollar/min, men en betydande premie jämfört med Kling 2.5 Turbo och Grok Imagine på 4,20 dollar/min.
Se nedan för jämförelser mellan Kling 3.0 1080p (Pro) och andra ledande modeller i vår Artificial Analysis Video Arena 🧵

146
Inception Labs har lanserat Mercury 2, deras nästa generations produktionsklara Diffusion LLM. Mercury 2 uppnår >1 000 utgångstokens/s med betydande ökningar i intelligens
@_inception_ai:s Diffusion LLMs ("dLLMs") använder en annan arkitektur jämfört med autoregressiva LLM:er. Diffusion LLM-genereringsprocessen börjar med brus och förfinar iterativt utgången med hjälp av en transformatormodell som kan modifiera flera tokens parallellt. Detta möjliggör parallellisering av generering av utdatatoken, vilket möjliggör snabbare utdata eftersom många utdatatoken genereras samtidigt.
Viktiga slutsatser:
➤ Bland jämförbara storleks-/prisklassmodeller presterar Mercury 2 konkurrenskraftigt i intelligens kontra utgångshastighet. Även om den inte har ledande intelligens, är dess utmatningshastighet mer än tre gånger den näst snabbaste modellen i denna klass (benchmarks baserade på förstaparts-endpoints eller medianen av leverantörer som levererar modellen där en förstaparts-endpoint inte finns tillgänglig)
➤ Viktiga styrkor inkluderar agentisk kodning och terminalanvändning samt instruktionsföljning. Mercury 2 presterar på liknande nivå som Claude 4.5 Haiku på Terminal-Bench Hard och får 70 % på IFBench (Instruction Following), vilket överträffar gpt-oss-120B, GPT-5.1 Codex mini och GPT-5 nano
Bakgrund till Inception Labs:
Detta är den andra versionen från Inception Labs. Grundarna var tidigare professorer vid Stanford, UCLA och Cornell och har bidragit till AI-forskning och teknologier inklusive Flash Attention, Decision Transformers och Direct Preference Optimization (DPO).
Se nedan för vidare analys.

11,31K
Topp
Rankning
Favoriter
