Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 El equipo Qwen de Alibaba lanzó un marco que hace que el entrenamiento de IA sea 8 veces más eficiente.
Se llama OPUS.
Resuelve el problema del que cada laboratorio de IA está en silencio en pánico: el Muro de Datos.
El texto público de alta calidad se está agotando. Las proyecciones dicen que se habrá ido para 2026–2028.
OPUS no encuentra más datos. Selecciona los datos correctos en cada paso de entrenamiento.
Así es como funciona:
→ En cada paso del optimizador, OPUS puntúa un buffer candidato de muestras de entrenamiento
→ Proyecta la actualización efectiva de cada muestra en la geometría real del optimizador (AdamW, Muon)
→ Mide cuánto mejoraría cada muestra el rendimiento en un benchmark objetivo
→ Utiliza muestreo de Boltzmann para preservar la diversidad y evitar redundancias
→ Selecciona solo los tokens de mayor utilidad para la actualización
Aquí está la parte más sorprendente:
Entrenó a GPT-2 XL con 30B de tokens y superó a modelos entrenados con 200B de tokens.
No es un error tipográfico. 30B superó a 200B.
En Qwen3-8B, OPUS igualó el entrenamiento completo con 3B de tokens usando solo 0.5B de tokens. Una ganancia de eficiencia de datos de 6x. En pre-entrenamiento continuo en dominios científicos.
Aún más loco: deliberadamente le dieron a OPUS los datos de menor calidad (puntuación FineWeb-Edu 3) mientras que las líneas base se entrenaron en la partición de alta calidad (puntuaciones 4–5). OPUS aún ganó. Datos de menor calidad, seleccionados dinámicamente, superaron a los datos de mayor calidad filtrados estáticamente.
Todo esto con solo un 4.7% de sobrecarga computacional adicional.
...

Parte superior
Clasificación
Favoritos
