Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 El equipo Qwen de Alibaba lanzó un marco que hace que el entrenamiento de IA sea 8 veces más eficiente.
Se llama OPUS
Resuelve el problema que hace que todos los laboratorios de IA estén en silencio en pánico: el Muro de Datos.
Se está acabando el texto público de alta calidad. Las proyecciones indican que habrá desaparecido para 2026–2028.
OPUS no encuentra más datos. Selecciona los datos correctos en cada paso de entrenamiento.
Así es como funciona:
→ En cada paso del optimizador, OPUS puntua un búfer candidato de muestras de entrenamiento
→ Proyecta la actualización efectiva de cada muestra en la geometría real del optimizador (AdamW, Muon)
→ Mide cuánto mejoraría cada muestra el rendimiento en un índice objetivo
→ Utiliza el muestreo de Boltzmann para preservar la diversidad y evitar redundancia
→ Selecciona solo los tokens de mayor utilidad para la actualización
Aquí viene la parte más loca:
Entrenó a GPT-2 XL en tokens 30B y superó a los modelos entrenados con tokens 200B.
Eso no es un error tipográfico. 30B venció a 200B.
En Qwen3-8B, OPUS emparejaba el entrenamiento completo con tokens 3B usando solo 0,5B tokens. Una ganancia de eficiencia de datos 6 veces. En formación previa continua en dominios científicos.
Aún más loco: dieron deliberadamente a OPUS los datos de menor calidad (puntuación FineWeb-Edu 3) mientras que las bases entrenaron con la partición de alta calidad (puntuaciones 4–5). OPUS aun así ganó. Los datos de menor calidad, seleccionados dinámicamente, superaban a los datos de mayor calidad filtrados estáticamente.
Todo esto con solo un 4,7% de sobrecarga adicional de cómputo.
...

Populares
Ranking
Favoritas
