Ingeniero de investigación full-stack/ML, principalmente dedicado a asuntos relacionados con IA, LLM y MLX @JohnMai_Dev El 3 de marzo de 2026, la inferencia del modelo Qwen3.5-0.8B fue implementada con éxito en el chip Apple M1 Pro, y se ejecutó directamente usando el Apple Neural Engine (ANE). Basándose en un proyecto de código abierto: Llama directamente al Apple Neural Engine para trabajos revolucionarios en entrenamiento e inferencia, mucha gente pensaba que Apple no abriría ANE para entrenamiento/inferencia completo En el pasado, ANE se usaba principalmente solo para inferencia CoreML integrada en el sistema, y era difícil que terceros llamaran directamente y de forma eficiente, pero ahora, a través de maderix/ANE, se puede usar directamente ANE para ejecutar inferencia directa de modelos grandes modernos (algunas personas incluso hacen entrenamiento de retropropulsión) Y basado en el pequeño modelo de 0,8B lanzado por Qwen + ANE = consumo energético extremadamente bajo, buena velocidad y privacidad local total El M1 Pro puede funcionar, lo que significa que un gran número de usuarios antiguos de Mac (series M1/M2) de repente disponen de una opción de acelerador de IA muy eficiente, que es más eficiente en consumo energético y rápida que usar solo GPU/CPU La cooperación de Ane ha convertido completamente al Mac en una estación de trabajo de IA local barata, y las viejas máquinas de Apple pueden razonar con el modelo chino moderno grande (Qwen3.5 0.8B), abriendo la puerta a nuevas formas de jugar con una IA local y eficiente.