Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
CUDA-Agent es el primer modelo de entrenamiento RL conocido, ¡superando a Claude Opus-4.6 y Gemini 3 Pro en la generación del kernel CUDA!
CUDA Agent utiliza RL agentico para entrenar modelos que generen automáticamente núcleos CUDA de alto rendimiento, utilizando directamente la velocidad real de perfilado de la GPU como señal de recompensa, rompiendo el molde
Echa un vistazo a los siguientes datos:
Benchmark de KernelBench: Los núcleos simples/medianos son 100% más rápidos que torch.compile, los núcleos complejos son un 92% más rápidos
En general, un 96,8% más rápido que torch.compile, mucho mejor que Claude Opus 4.5/Gemini 3 Pro (alrededor del 40%).
El verdadero techo del hardware de IA es la capacidad de "desbloquear + optimizar el circuito cerrado por software", no solo el chip en sí.
Combinado con el evento simultáneo Apple Ane: Apple M4 ANE: 6,6 TFLOPS/W (80 veces más que el ≈ A100), cientos de millones de dispositivos están inactivos y el cuello de botella es API cerrada + capa de abstracción (escudos CoreML 2–4 veces el rendimiento)
GPU NVIDIA: El agente RL aprende "optimización definitiva con retroalimentación real de hardware", demostrando que la estrategia aprendida puede superar reglas estáticas
El foso de rendimiento del hardware (Apple/Nvidia) está siendo destruido por la IA "ingeniería inversa + optimización RL"; la primera destroza APIs cerradas para convertir chips inactivos en granjas de potencia computacional, y la segunda utiliza aprendizaje por refuerzo para exprimir cada gota de rendimiento de las GPUs existentes. En el futuro, no será el hardware de potencia computacional lo que quedará atascado, sino que quién domine primero el bucle cerrado de "feedback nativo de hardware + optimización de aprendizaje independiente", tanto blanda como dura, y que puede duplicar el rendimiento del equipo existente puede romper el muro de gigantes paso a paso. Este crecimiento compuesto genera una velocidad difícil de percibir para la intuición humana: de 10x a 100x → 1.000x en pocos años
La era del entrenamiento en dispositivo (lado ANE) + inferencia extrema en la nube/borde (lado del agente CUDA) se ha acelerado, y la IA misma puede "autooptimizarse" cerca del pico teórico. El potencial de cientos de millones de dispositivos Apple inactivos + enormes tarjetas NVIDIA está siendo abierto colectivamente por hackers e investigadores independientes o corporativos.


Populares
Ranking
Favoritas
