Recuerdo cuando salió Qwen 1.0 (otoño de 2023, ¡no hace tanto tiempo!) y añadimos soporte para mlx-lm. Y no dejaron de lanzar modelos, cada uno empujando la frontera de los pesos abiertos. @JustinLin610 siempre se ponía en contacto para asegurarse de que los nuevos modelos tuvieran un buen soporte en MLX. No sé cuántos artículos de investigación se escribieron gracias a Qwen, cientos, tal vez miles. No sé cuántos productos o startups se están construyendo gracias a Qwen. Probablemente muchos. Gracias @JustinLin610, @huybery y al resto del equipo de Qwen por sus contribuciones a AI.