Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
CUDA-Agent est le premier modèle d'entraînement RL connu, surpassant Claude Opus-4.6 et Gemini 3 Pro dans la génération de noyaux CUDA !
CUDA Agent utilise un modèle d'entraînement RL agentic pour générer automatiquement des noyaux CUDA haute performance, en utilisant directement la vitesse de profilage GPU réelle comme signal de récompense, brisant les conventions.
Regardez les données suivantes :
Benchmark KernelBench : noyaux simples/moyens 100 % plus rapides que torch.compile, noyaux complexes 92 % plus rapides.
Globalement, 96,8 % plus rapides par rapport à torch.compile, bien au-delà de Claude Opus 4.5/Gemini 3 Pro (environ 40 %).
Le véritable plafond du matériel AI est la capacité de "déverrouillage logiciel + boucle d'optimisation", et pas seulement le chip lui-même.
En lien avec l'événement Apple Ane qui se produit en même temps : Apple M4 ANE : 6,6 TFLOPS/W (≈80 fois A100), des centaines de millions d'appareils inactifs, le goulot d'étranglement étant l'API fermée + les couches d'abstraction (CoreML masque 2 à 4 fois le débit).
NVIDIA GPU : l'Agent RL a appris "l'optimisation ultime sous retour d'information matériel réel", prouvant que les stratégies apprises peuvent battre les règles statiques.
La performance des matériels (Apple/NVIDIA) est en train d'être doublement attaquée par l'"ingénierie inverse AI + optimisation RL" — le premier brisant les API fermées pour transformer les puces inactives en fermes de calcul, le second utilisant l'apprentissage par renforcement pour extraire chaque goutte de performance des GPU existants. À l'avenir, ce ne sera pas le matériel de calcul qui posera problème, mais qui maîtrisera en premier le "retour d'information matériel natif + optimisation d'apprentissage autonome" en boucle, combinant matériel et logiciel, qui pourra doubler la performance des appareils existants et ainsi briser progressivement les murs des géants. Ce type de croissance composite créera une vitesse que l'intuition humaine a du mal à percevoir facilement : en quelques années, on peut passer d'une expansion de 10 fois à 100 fois → 1 000 fois.
L'ère de l'entraînement sur appareil (côté ANE) + de l'inférence extrême dans le cloud/edge (côté CUDA Agent) arrive à grands pas, l'IA peut "s'auto-optimiser" jusqu'à atteindre des pics théoriques. Le potentiel de centaines de millions d'appareils Apple inactifs + d'innombrables cartes NVIDIA est en train d'être collectivement ouvert par des hackers indépendants/entreprises/chercheurs.


Meilleurs
Classement
Favoris
