Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Clădirea @EurekaLabsAI. Anterior Director AI @ Tesla, echipa fondatoare @ OpenAI, CS231n/PhD @ Stanford. Îmi place să antrenez rețele neuronale mari și profunde.
Am avut aceeași idee, așa că m-am jucat cu asta în nanochat. De exemplu, aici sunt 8 agenți (4 claude, 4 codex), fiecare cu câte 1 GPU care rulează experimente nanochat (încercând să șterg softcap logit fără regresie). Pe scurt, nu funcționează și e un haos... Dar tot este foarte frumos de privit :)
Am încercat câteva configurații: 8 cercetători independenți solo, 1 cercetător șef care dădea muncă la 8 cercetători juniori, etc. Fiecare program de cercetare este o ramură git, fiecare om de știință o bifurcează într-o ramură de funcționalitate, arbori de lucru git pentru izolare, fișiere simple pentru comunicații, sărind peste Docker/VM-uri pentru simplitate momentan (consider că instrucțiunile sunt suficiente pentru a preveni interferențele). Organizația de cercetare rulează în grile de ferestre tmux cu sesiuni interactive (ca Teams), astfel încât să fie frumos de privit, de văzut munca lor individuală și de "preluat" dacă e nevoie, adică fără -p.
Dar, ok, motivul pentru care nu funcționează până acum este că ideile agenților sunt destul de proaste din start, chiar și la cel mai mare nivel de inteligență. Nu gândesc cu atenție designul experimentelor, folosesc variații puțin absurde, nu creează baze puternice și nu ablează corect lucrurile, nu controlează cu grijă durata de execuție sau eșecurile. (Ca exemplu, un agent a "descoperit" ieri că mărirea dimensiunii ascunse a rețelei crește pierderea de validare, ceea ce este un rezultat total fals având în vedere că o rețea mai mare va avea o pierdere de validare mai mică în regimul infinit de date, dar apoi antrenează mult mai mult timp, nu este clar de ce a trebuit să vin să subliniez asta). Sunt foarte buni la implementarea oricărei idei bine conturate și descrise, dar nu le generează creativ.
Dar scopul este ca acum să programezi o organizație (de exemplu, o "organizație de cercetare") și agenții săi individuali, astfel încât "codul sursă" este colecția de prompturi, abilități, unelte etc. și procese care îl compun. De exemplu, un stand up zilnic dimineața face acum parte din "codul organizației". Și optimizarea preantrenării nanochat este doar una dintre multele sarcini (aproape ca o evaluare). Atunci – având o sarcină arbitrară, cât de repede organizația ta de cercetare generează progrese în această privință?

Thomas Wolf28 feb. 2026
De ce provocarea NanoGPT speedrun nu este acum cercetare complet automatizată de AI?
681
Odată cu iminentul val de cerere pentru token-uri, există oportunități semnificative de a orchestra memoria + calculul de bază *exact cum trebuie* pentru LLM-uri.
Constrângerea fundamentală și neevidentă este că, datorită procesului de fabricare a cipului, obții două fonduri complet distincte de memorie (de implementări fizice diferite): 1) SRAM integrat pe cip, care este imediat lângă unitățile de calcul, este incredibil de rapid, dar cu o capacitate foarte redusă, și 2) DRAM extern care are o capacitate extrem de mare, dar conținutul lui îl poți trage doar printr-un pai lung. Pe lângă asta, există multe detalii ale arhitecturii (de exemplu, tablouri sistolice), numere etc.
Proiectarea substratului fizic optim și apoi orchestrarea memoriei + calcul în fluxurile de lucru de top ale LLM-urilor (prefill/decodare de inferență, antrenament/finetuning, etc.) cu cel mai bun debit/latență/dolari este probabil cel mai interesant puzzle intelectual de astăzi, cu cele mai mari recompense (\cite 4.6T din NVDA). Toate acestea pentru a obține multe jetoane, rapid și ieftin. Se poate argumenta că fluxul de lucru care ar putea conta cel mai mult (decodarea prin inferență *și* pe contexte lungi de tokenuri în bucle agențice strânse) este cel mai greu de realizat simultan de ~ambele tabere care există astăzi (HBM-întâi NVIDIA adiacent și SRAM-întâi Cerebras). Oricum, echipa MatX are grad A++, așa că este o plăcere să am o mică implicare și felicitări pentru mărire!

Reiner Pope25 feb. 2026
Construim un cip LLM care oferă un throughput mult mai mare decât orice alt cip, atingând totodată cea mai mică latență. Îl numim MatX One.
Cipul MatX One se bazează pe o matrice sistolică splittable, care are eficiența energetică și a zonei pentru care sunt faimoase matricele sistolice mari, beneficiind totodată de o utilizare ridicată pe matrici mai mici cu forme flexibile. Cipul combină latența scăzută a designurilor SRAM-first cu suportul pe termen lung al HBM. Aceste elemente, împreună cu o abordare nouă a numericii, oferă un debit mai mare pe LLM-uri decât orice sistem anunțat, în timp ce se potrivesc simultan cu latența proiectelor SRAM-first. Un debit mai mare și latența mai mică îți oferă modele mai inteligente și mai rapide pentru abonamentul tău.
Am strâns un Seria B de 500 de milioane de dolari pentru a încheia dezvoltarea și a scala rapid producția, cu tapeout în mai puțin de un an. Runda a fost condusă de Jane Street, una dintre cele mai tehnice firme de pe Wall Street, și Situational Awareness LP, al cărei fondator @leopoldasch scris memoriul definitiv despre AGI. Participanții includ @sparkcapital, @danielgross și @natfriedman's fund, @patrickc și @collision, @TriatomicCap, @HarpoonVentures, @karpathy, @dwarkesh_sp și alții. De asemenea, primim investitori din întregul lanț de aprovizionare, inclusiv Marvell și Alchip.
@MikeGunter_ și cu mine am început MatX pentru că am considerat că cel mai bun cip pentru LLM-uri ar trebui să fie proiectat pornind de la principii fundamentale, cu o înțelegere profundă a ceea ce au nevoie LLM-urile și cum vor evolua. Suntem dispuși să renunțăm la performanța modelelor mici, la volumul redus de sarcini și chiar la ușurința programării pentru a livra pe un astfel de cip.
Acum suntem o echipă de 100 de persoane, cu oameni care se gândesc la totul, de la programe de învățare, la programări Swing Modulo, la părți de gardă/rotundă/lipicioasă, la conexiuni blind-mate — toate în aceeași clădire. Dacă doriți să ne ajutați să arhitectăm, proiectăm și implementăm mai multe generații de cipuri în volum mare, luați în considerare să ni vă alăturați.
216
CLI-urile sunt foarte interesante tocmai pentru că sunt o tehnologie "moștenită", ceea ce înseamnă că agenții AI le pot folosi nativ și ușor, le pot combina, interacționa cu ele prin întregul set de instrumente al terminalului.
De exemplu, roagă-ți agentul Claude/Codex să instaleze acest nou CLI Polymarket și cere orice dashboard-uri, interfețe sau logică arbitrară. Agenții îl vor construi pentru tine. Instalează și CLI de pe Github și poți să le ceri să navigheze prin repo, să vadă probleme, PR-uri, discuții, chiar și codul în sine.
Exemplu: Claude a construit acest dashboard de terminal în ~3 minute, cu cel mai mare volum de polimarketuri și schimbarea de 24 de ore. Sau poți să-l transformi într-o aplicație web sau orice altceva vrei. Și mai puternic dacă îl folosești ca un modul de pipeline-uri mai mari.
Dacă ai orice fel de produs sau serviciu, gândește-te: pot agenții să le acceseze și să le folosească?
- Documentele tale vechi (pentru oameni) sunt cel puțin exportabile în Markdown?
- Ai scris Abilități pentru produsul tău?
- poate fi folosibil produsul/serviciul dumneavoastră prin CLI? Sau MCP?
- ...
Suntem în 2026. Construiește. Pentru. Agenți.


Suhail Kakar24 feb. 2026
Prezentarea Polymarket CLI - cea mai rapidă modalitate pentru agenții AI de a accesa piețele de predicție
construită cu rugină. Agentul tău poate interoga piețele, plasa tranzacții și extrage date – toate de la terminal
Rapid, ușor, fără capete
161
Limită superioară
Clasament
Favorite
