Un ingeniero de investigación de ML/full-stack, que se centra principalmente en cosas relacionadas con AI, LLM y MLX. @JohnMai_Dev logró implementar con éxito la inferencia del modelo Qwen3.5-0.8B en el chip M1 Pro de Apple el 3 de marzo de 2026, y lo hizo utilizando directamente el Apple Neural Engine (ANE). Basado en un proyecto de código abierto: un trabajo innovador que llama directamente al Apple Neural Engine para el entrenamiento y la inferencia, ya que antes muchas personas pensaban que Apple no abría el ANE para realizar entrenamientos/inferencias completos. Antes, el ANE se utilizaba principalmente para la inferencia de CoreML integrada en el sistema, y era difícil para terceros llamarlo de manera eficiente. Ahora, a través de maderix/ANE, se puede utilizar directamente el ANE para la inferencia hacia adelante de modelos grandes modernos (incluso hay quienes ya están haciendo entrenamiento de retropropagación). Además, el modelo pequeño de 0.8B lanzado basado en Qwen + ANE = consumo de energía extremadamente bajo, velocidad bastante buena y privacidad total local. El M1 Pro puede ejecutarlo, lo que significa que muchos usuarios de Mac antiguos (series M1/M2) de repente tienen una opción de acelerador de AI muy eficiente, que es más económica en energía y más rápida que usar solo GPU/CPU. La combinación del ANE convierte a la Mac en una estación de trabajo de AI local económica, y las viejas máquinas de Apple pueden utilizar el modelo grande moderno en chino (Qwen3.5 0.8B) para la inferencia, abriendo la puerta a nuevas formas de AI local eficiente en Mac.