Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alibaba, Qwen3.5 model ailesini 3 yeni modelle genişletti - 27B modeli öne çıkıyor; Yapay Analiz Zeka Endeksi'nde 42 puan aldı ve açık ağırlıklı modelleri 8-25 kat büyüklüğünde eşleştiriyor
@Alibaba_Qwen, bu ayın başında piyasaya sürülen 397B amiral gemisi ile birlikte üç yeni model ile Qwen3.5 ailesini genişletti: Qwen3.5 27B (Dense, Intelligence Index'de 42 puan), Qwen3.5 122B A10B (MoE, 42) ve Qwen3.5 35B A3B (MoE, 37). İki MoE (Uzmanların Karışımı) modeli, ileri geçişte toplam parametrelerin sadece bir kısmını aktive eder (sırasıyla 122B'nin 10B ve 35B'nin ~3B'si). Zeka İndeksi, genel akıl yürütme, ajanik görevler, kodlama ve bilimsel akıl yürütmeyi kapsayan 10 değerlendirmeyi içeren sentez metriklerimizdir.
Tüm modeller Apache 2.0 lisanslıdır, 262K bağlamını yerel olarak destekler ve Alibaba'nın Qwen3 2507 güncellemeleriyle Talimat ve Akıl yürütme kontrol noktalarını ayırmasına geçişinden sonra orijinal Qwen3'ten birleşik düşünme/düşünme dışı hibrit mimarisine geri dönüyor.
Akıl yürütme varyantları için temel kıyaslama sonuçları:
➤ Qwen3.5 27B, Zeka Endeksi'nde 42 puan alıyor ve 230B altındaki en zeki modeldir. Benzer boyuttaki en yakın model GLM-4.7-Flash (toplamda 31B, 3B aktif) ve 30 puan alıyor. Eşdeğer zekaya sahip açık ağırlıklı modeller toplam parametreler açısından 8-25 kat daha büyüktür: MiniMax-M2.5 (230B, 42), DeepSeek V3.2 (685B, 42) ve GLM-4.7 (357B, 42). FP8 hassasiyetinde model ağırlıklarını depolamak ~27GB gerektirirken, 4-bit quantizasyonda 16GB+ RAM ile dizüstü kalitede donanım kullanılabilir
➤ Qwen3.5 27B, GDPval-AA (Ajanik Gerçek Dünya İş Görevleri) üzerinden 1205 puan alarak daha büyük modellerin yanına koyulmuştur. Bağlam için, MiniMax-M2.5 1206, GLM-4.7 (Akıl yürütme) 1200 ve DeepSeek V3.2 (Akıl yürütme) 1194 puan alıyor. Bu özellikle 27B parametre modeli için dikkat çekicidir ve boyutuna göre güçlü bir ajan yeteneği olduğunu gösterir. GDPval-AA, 44 meslek ve 9 büyük sektörde gerçek dünya görevleri üzerinde modelleri test ediyor
➤ AA-Her Şeyi Bilme, Qwen3.5 ailesinde görece zayıf bir zayıflık olarak kalıyor; bu durum esas olarak halüsinasyon oranından ziyade düşük doğruluktan kaynaklanıyor. Qwen3.5 27B, AA-Omniscience'da -42 puan alıyor, MiniMax-M2.5 (-40) ile karşılaştırılabilir ama DeepSeek V3.2 (-21) ve GLM-4.7 (-35) geride. Qwen3.5 27B'nin halüsinasyon oranı (%80) akranlarından (GLM-4.7 %90, MiniMax %89, DeepSeek %82) daha düşük olsa da, doğruluğu %21 ile daha düşük, DeepSeek V3.2 için %34 ve GLM-4.7 için %29. Bu muhtemelen model boyutunun bir sonucudur - genel olarak AA-Omniscience'da daha fazla toplam parametreye sahip modellerin doğruluk açısından daha iyi performans gösterdiğini gözlemledik; çünkü daha geniş bilgi hatırlaması daha büyük parametre sayılarından fayda sağlar
➤ Qwen3.5 27B, Qwen3.5 122B A10B ile eşdeğer zekiliktedir. 122B A10B, her ileri geçişte toplam 122B parametrelerinin sadece 10B'sini etkinleştiren Uzmanlar Karışıklığı modelidir. 27B modeli GDPval-AA'da (1205 Elo vs 1145 Elo) ve TerminalBench'te biraz liderdir (+1.5 p.p.), 122B modeli ise SciCode (+2.5 p.p.), HLE (+1.2 p.p.) ile önde ve daha düşük halüsinasyon oranına sahip (Omniscience -40 vs -42)
➤ Qwen3.5 35B A3B (Reasoning, 37) ~3B aktif parametrelere sahip en akıllı modeldir, GLM-4.7-Flash (30) üzerinden 7 puan öndedir. Bu ~3B aktif kategorideki diğer modeller arasında Qwen3 Coder Next (toplam 80B, 28), Qwen3 Next 80B A3B (27) ve NVIDIA Nemotron 3 Nano 30B A3B (24) bulunmaktadır
➤ Qwen3.5 27B, Alibaba Cloud API üzerinden ~$299 maliyetli Intelligence Index'i çalıştırmak için 98M çıkış tokenı kullandı. Bu, benzer zekaya sahip modellere kıyasla belirgin şekilde yüksek token kullanımıdır: MiniMax-M2.5 (56M), DeepSeek V3.2 (61M) ve hatta daha büyük Qwen3.5 397B (86M).
Diğer bilgiler:
➤ Bağlam penceresi: 262K token (YaRN üzerinden 1M'ye genişletilebilir)
➤ Lisans: Apache 2.0
➤ API fiyatlandırması (Alibaba Cloud): 397B: $0.60/$3.60, 122B: $0.40/$3.20, 27B: $0.30/$2.40, 35B A3B: $0.25/$2.00 her 1M giriş/çıkış tokenı başına

Qwen3.5 27B, model boyutuyla ajanik yetenekleriyle öne çıkıyor. GDPval-AA'da 1205 Elo oranı ile toplam parametreleri 8-25 kat daha fazla olan modellerle eşleşiyor ve ~14 kat daha küçük olmasına rağmen 397B amiral gemisi (1208)'in sadece 3 puan gerisinde kalıyor.

40B veya daha az toplam parametreye sahip açık ağırlıklı modeller arasında, Qwen3.5 27B ve 35B A3B, Zeka Endeksi'nde açık liderler olarak öne çıkıyor. Bu boyut kategorisindeki en akıllı ikinci model GLM-4.7-Flash (30) modelidir

Tam Qwen3.5 ailesini diğer önde gelen modellerle karşılaştırın:
Qwen3.5 27B HuggingFace Deposu:
3,59K
En İyiler
Sıralama
Takip Listesi
