Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alibaba ha ampliado su familia de modelos Qwen3.5 con 3 nuevos modelos: el modelo 27B es destacado, obteniendo 42 en el Índice de Análisis de Inteligencia Artificial y igualando a modelos de pesos abiertos de 8-25 veces su tamaño
@Alibaba_Qwen ha ampliado la familia Qwen3.5 con tres nuevos modelos junto al buque insignia de 397B lanzado a principios de este mes: el Qwen3.5 27B (Denso, obteniendo 42 en el Índice de Inteligencia), Qwen3.5 122B A10B (MoE, 42) y Qwen3.5 35B A3B (MoE, 37). Los dos modelos MoE (Mezcla de Expertos) solo activan una fracción de los parámetros totales por pasada (10B de 122B y ~3B de 35B respectivamente). El Índice de Inteligencia es nuestra métrica de síntesis que incorpora 10 evaluaciones que cubren razonamiento general, tareas agenciales, codificación y razonamiento científico.
Todos los modelos tienen licencia Apache 2.0, soportan nativamente 262K de contexto y regresan a la arquitectura híbrida de pensamiento/no pensamiento unificado del Qwen3 original, después de que Alibaba se movió a separar los puntos de control de Instrucción y Razonamiento con las actualizaciones Qwen3 2507.
Resultados clave de benchmarking para las variantes de razonamiento:
➤ Qwen3.5 27B obtiene 42 en el Índice de Inteligencia y es el modelo más inteligente por debajo de 230B. El modelo más cercano de tamaño similar es GLM-4.7-Flash (31B total, 3B activos) que obtiene 30. Los modelos de pesos abiertos de inteligencia equivalente son de 8-25 veces más grandes en términos de parámetros totales: MiniMax-M2.5 (230B, 42), DeepSeek V3.2 (685B, 42) y GLM-4.7 (357B, 42). En precisión FP8, se necesitan ~27GB para almacenar los pesos del modelo, mientras que en cuantización de 4 bits se puede usar hardware de calidad de laptop con 16GB+ de RAM
➤ Qwen3.5 27B obtiene 1205 en GDPval-AA (Tareas de Trabajo del Mundo Real Agenciales), colocándolo junto a modelos más grandes. Para contexto, MiniMax-M2.5 obtiene 1206, GLM-4.7 (Razonamiento) obtiene 1200 y DeepSeek V3.2 (Razonamiento) obtiene 1194. Esto es particularmente notable para un modelo de 27B de parámetros y sugiere una fuerte capacidad agencial para su tamaño. GDPval-AA evalúa modelos en tareas del mundo real a través de 44 ocupaciones y 9 industrias principales
➤ AA-Omnisciencia sigue siendo una debilidad relativa en toda la familia Qwen3.5, impulsada principalmente por una menor precisión en lugar de la tasa de alucinación. Qwen3.5 27B obtiene -42 en AA-Omnisciencia, comparable a MiniMax-M2.5 (-40) pero detrás de DeepSeek V3.2 (-21) y GLM-4.7 (-35). Aunque la tasa de alucinación de Qwen3.5 27B (80%) es más baja que la de sus pares (GLM-4.7 90%, MiniMax 89%, DeepSeek 82%), su precisión también es más baja con un 21% frente al 34% de DeepSeek V3.2 y el 29% de GLM-4.7. Esto es probablemente una consecuencia del tamaño del modelo: hemos observado generalmente que los modelos con más parámetros totales tienen un mejor rendimiento en precisión en AA-Omnisciencia, ya que el recuerdo de conocimiento más amplio se beneficia de un mayor conteo de parámetros
➤ Qwen3.5 27B es igualmente inteligente que Qwen3.5 122B A10B. El 122B A10B es un modelo de Mezcla de Expertos que solo activa 10B de sus 122B de parámetros totales por pasada. El modelo de 27B lidera en GDPval-AA (1205 Elo frente a 1145 Elo) y ligeramente en TerminalBench (+1.5 p.p.), mientras que el modelo de 122B lidera en SciCode (+2.5 p.p.), HLE (+1.2 p.p.) y tiene una tasa de alucinación más baja (Omnisciencia -40 frente a -42)
➤ Qwen3.5 35B A3B (Razonamiento, 37) es el modelo más inteligente con ~3B de parámetros activos, 7 puntos por delante de GLM-4.7-Flash (30). Otros modelos en esta categoría de ~3B activos incluyen Qwen3 Coder Next (80B total, 28), Qwen3 Next 80B A3B (27) y NVIDIA Nemotron 3 Nano 30B A3B (24)
➤ Qwen3.5 27B utilizó 98M de tokens de salida para ejecutar el Índice de Inteligencia, costando ~$299 a través de la API de Alibaba Cloud. Este uso de tokens es notablemente alto en comparación con modelos de inteligencia similar: MiniMax-M2.5 (56M), DeepSeek V3.2 (61M) e incluso el más grande Qwen3.5 397B (86M).
Otra información:
➤ Ventana de contexto: 262K tokens (extendible a 1M a través de YaRN)
➤ Licencia: Apache 2.0
➤ Precios de API (Alibaba Cloud): 397B: $0.60/$3.60, 122B: $0.40/$3.20, 27B: $0.30/$2.40, 35B A3B: $0.25/$2.00 por 1M de tokens de entrada/salida

Qwen3.5 27B se destaca por su capacidad agente a su tamaño de modelo. Con un Elo de 1205 en GDPval-AA, iguala a modelos con 8-25 veces más parámetros totales y se queda atrás del buque insignia de 397B (1208) por solo 3 puntos a pesar de ser ~14 veces más pequeño.

Entre los modelos de pesos abiertos con 40B de parámetros totales o menos, Qwen3.5 27B y 35B A3B se destacan como los claros líderes en el Índice de Inteligencia. El siguiente modelo más inteligente en esta categoría de tamaño es GLM-4.7-Flash (30)

Compara toda la familia Qwen3.5 con otros modelos líderes en:
Repositorio de Qwen3.5 27B en HuggingFace:
3,56K
Parte superior
Clasificación
Favoritos
