Saya ingat ketika Qwen 1.0 keluar (musim gugur 2023, belum lama ini!) dan kami menambahkan dukungan ke mlx-lm. Dan mereka tidak berhenti merilis model, masing-masing mendorong batas bobot terbuka. @JustinLin610 selalu menghubungi untuk memastikan model baru didukung dengan baik di MLX. Saya tidak tahu berapa banyak makalah penelitian yang ditulis berkat Qwen, ratusan, mungkin ribuan. Saya tidak tahu berapa banyak produk atau startup yang dibangun berkat Qwen. Mungkin banyak. Terima kasih @JustinLin610, @huybery, dan anggota tim Qwen lainnya atas kontribusi Anda terhadap AI.