Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Membangun @EurekaLabsAI. Sebelumnya Direktur AI @ Tesla, tim pendiri @ OpenAI, CS231n/PhD @ Stanford. Saya suka melatih jaring saraf dalam yang besar.
Saya memiliki pemikiran yang sama jadi saya telah memainkannya di nanochat. Misalnya ini adalah 8 agen (4 claude, 4 codex), dengan masing-masing 1 GPU menjalankan eksperimen nanochat (mencoba menghapus softcap logit tanpa regresi). TLDR adalah tidak berfungsi dan berantakan... Tapi masih sangat indah untuk dilihat :)
Saya mencoba beberapa pengaturan: 8 peneliti solo independen, 1 kepala ilmuwan yang memberikan pekerjaan kepada 8 peneliti junior, dll. Setiap program penelitian adalah cabang git, setiap ilmuwan mencabang ke dalam cabang fitur, pohon kerja git untuk isolasi, file sederhana untuk komunikasi, lewati Docker/VM untuk kesederhanaan atm (saya menemukan bahwa instruksi sudah cukup untuk mencegah gangguan). Organisasi penelitian berjalan dalam kisi jendela sesi interaktif (seperti Teams) sehingga cantik untuk dilihat, melihat pekerjaan masing-masing, dan "mengambil alih" jika diperlukan, yaitu tidak ada -p.
Tapi ok alasan itu tidak berhasil sejauh ini adalah karena ide-ide agen cukup buruk di luar kotak, bahkan pada kecerdasan tertinggi. Mereka tidak berpikir dengan hati-hati meskipun desain eksperimen, mereka menjalankan variasi yang sedikit tidak masuk akal, mereka tidak membuat garis dasar yang kuat dan membuang hal-hal dengan benar, mereka tidak mengontrol runtime atau kegagalan dengan hati-hati. (Hanya sebagai contoh, seorang agen kemarin "menemukan" bahwa meningkatkan ukuran jaringan tersembunyi meningkatkan kehilangan validasi, yang merupakan hasil yang benar-benar palsu mengingat bahwa jaringan yang lebih besar akan memiliki kehilangan validasi yang lebih rendah dalam rezim data tak terbatas, tetapi kemudian juga berlatih lebih lama, tidak jelas mengapa saya harus datang untuk menunjukkannya). Mereka sangat pandai dalam mengimplementasikan ide yang dicakupan dengan baik dan dijelaskan tetapi mereka tidak menghasilkannya secara kreatif.
Tetapi tujuannya adalah bahwa Anda sekarang memprogram organisasi (misalnya "organisasi penelitian") dan agennya masing-masing, jadi "kode sumber" adalah kumpulan petunjuk, keterampilan, alat, dll. dan proses yang membentuknya. Misalnya, standup harian di pagi hari sekarang menjadi bagian dari "kode organisasi". Dan mengoptimalkan prapelatihan nanochat hanyalah salah satu dari banyak tugas (hampir seperti eval). Kemudian - diberi tugas sewenang-wenang, seberapa cepat organisasi penelitian Anda menghasilkan kemajuan di dalamnya?

Thomas Wolf28 Feb 2026
Mengapa tantangan speedrun NanoGPT belum sepenuhnya penelitian otomatis AI sekarang?
723
Dengan tsunami permintaan token yang akan datang, ada peluang signifikan untuk mengatur memori+komputasi yang mendasarinya *tepat* untuk LLM.
Kendala mendasar dan tidak jelas adalah bahwa karena proses fabrikasi chip, Anda mendapatkan dua kumpulan memori yang sama sekali berbeda (dari implementasi fisik yang berbeda juga): 1) SRAM on-chip yang berada tepat di sebelah unit komputasi yang sangat cepat tetapi berkapasitas sangat rendah, dan 2) DRAM off-chip yang memiliki kapasitas yang sangat tinggi, tetapi isinya hanya bisa Anda hisap melalui sedotan panjang. Selain itu, ada banyak detail arsitektur (misalnya susunan sistolik), numerik, dll.
Desain substrat fisik yang optimal dan kemudian orkestrasi memori+komputasi di seluruh alur kerja volume teratas LLM (prefill/decode inference, pelatihan/finetuning, dll.) dengan throughput/latensi/$ terbaik mungkin merupakan teka-teki intelektual paling menarik saat ini dengan imbalan tertinggi (\cite 4.6T dari NVDA). Semua itu untuk mendapatkan banyak token, cepat dan murah. Bisa dibilang, alur kerja yang mungkin paling penting (dekode inferensi *dan* melalui konteks token yang panjang dalam loop agen yang ketat) adalah yang paling sulit dicapai secara bersamaan oleh ~kedua kubu dari apa yang ada saat ini (NVIDIA pertama HBM yang berdekatan dan Cerebras yang pertama SRAM yang berdekatan). Bagaimanapun, tim MatX adalah kelas A++ jadi senang saya memiliki sedikit keterlibatan dan selamat atas kenaikan gajinya!

Reiner Pope25 Feb 2026
Kami membangun chip LLM yang memberikan throughput yang jauh lebih tinggi daripada chip lain sekaligus mencapai latensi terendah. Kami menyebutnya MatX One.
Chip MatX One didasarkan pada susunan sistolik yang dapat dipisahkan, yang memiliki energi dan efisiensi area yang terkenal dengan susunan sistolik besar, sementara juga mendapatkan pemanfaatan tinggi pada matriks yang lebih kecil dengan bentuk yang fleksibel. Chip ini menggabungkan latensi rendah dari desain SRAM-first dengan dukungan HBM konteks panjang. Elemen-elemen ini, ditambah pandangan baru pada numerik, memberikan throughput yang lebih tinggi pada LLM daripada sistem yang diumumkan, sekaligus mencocokkan latensi desain SRAM-first. Throughput yang lebih tinggi dan latensi yang lebih rendah memberi Anda model yang lebih cerdas dan lebih cepat untuk dolar langganan Anda.
Kami telah mengumpulkan Seri B senilai $500 juta untuk menyelesaikan pengembangan dan menskalakan manufaktur dengan cepat, dengan tapeout dalam waktu kurang dari setahun. Putaran ini dipimpin oleh Jane Street, salah satu perusahaan Wall Street yang paling paham teknologi, dan Situational Awareness LP, yang pendirinya @leopoldasch menulis memo definitif tentang AGI. Peserta antara lain dana @sparkcapital, @danielgross dan @natfriedman, @patrickc dan @collision, @TriatomicCap, @HarpoonVentures, @karpathy, @dwarkesh_sp, dan lain-lain. Kami juga menyambut investor di seluruh rantai pasokan, termasuk Marvell dan Alchip.
@MikeGunter_ dan saya memulai MatX karena kami merasa bahwa chip terbaik untuk LLM harus dirancang dari prinsip pertama dengan pemahaman mendalam tentang apa yang dibutuhkan LLM dan bagaimana mereka akan berkembang. Kami bersedia menyerah pada kinerja model kecil, beban kerja volume rendah, dan bahkan kemudahan pemrograman untuk menghadirkan chip semacam itu.
Kami sekarang adalah tim beranggotakan 100 orang dengan orang-orang yang memikirkan segala hal mulai dari jadwal tingkat pembelajaran, hingga Penjadwalan Modulo Ayunan, hingga bagian penjaga/bulat/lengket, hingga koneksi buta—semuanya di gedung yang sama. Jika Anda ingin membantu kami merancang, merancang, dan menerapkan banyak generasi chip dalam volume besar, pertimbangkan untuk bergabung dengan kami.
247
CLI sangat menarik justru karena merupakan teknologi "warisan", yang berarti agen AI dapat menggunakannya secara asli dan mudah, menggabungkannya, berinteraksi dengannya melalui seluruh toolkit terminal.
Misalnya, minta agen Claude/Codex Anda untuk menginstal CLI Polymarket baru ini dan minta dasbor atau antarmuka atau logika yang sewenang-wenang. Agen akan membangunnya untuk Anda. Instal Github CLI juga dan Anda dapat meminta mereka untuk menavigasi repo, melihat masalah, PR, diskusi, bahkan kode itu sendiri.
Contoh: Claude membangun dasbor terminal ini dalam ~3 menit, dengan volume tertinggi polymarket dan perubahan 24 jam. Atau Anda dapat menjadikannya aplikasi web atau apa pun yang Anda inginkan. Bahkan lebih kuat ketika Anda menggunakannya sebagai modul alur yang lebih besar.
Jika Anda memiliki produk atau layanan apa pun, pikirkan: dapatkah agen mengakses dan menggunakannya?
- Apakah dokumen lama Anda (untuk manusia) setidaknya dapat diekspor di Markdown?
- sudahkah Anda menulis Keterampilan untuk produk Anda?
- dapatkah produk/layanan Anda dapat digunakan melalui CLI? Atau MCP?
- ...
Ini tahun 2026. membangun. Untuk. Agen.


Suhail Kakar24 Feb 2026
Memperkenalkan CLI Polymarket - Cara Tercepat bagi Agen AI untuk Mengakses Pasar Prediksi
dibangun dengan karat. Agen Anda dapat mengkueri pasar, melakukan perdagangan, dan menarik data - semuanya dari terminal
cepat, ringan, tanpa overhead
189
Teratas
Peringkat
Favorit
