Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Lançamento realmente impressionante de miniaturas híbridas da equipe Qwen, como sempre!
As pessoas estão perguntando como eles se comparam em velocidade, latência e memória aos LFMs da @liquidai para implantação no dispositivo?
Aqui está um rápido perfil do Apple M3 Ultra:
> LFM2.5-1.2B é 52% mais rápido em decodificação do que o Qwen3.5-0.8B.
> LFM2-700M é 71% mais rápido que o Qwen3.5-0.8B na decodificação
> LFM2-2.6B tem a mesma velocidade que Qwen3.5-2B na decodificação
> LFM2-700M usa 46% menos memória de pico que o Qwen3.5-0.8B
> LFM2-2.6B usa 21% menos memória de pico que Qwen3.5-2B
> preenchimento do lfms com o mesmo tamanho de parâmetro geralmente é 12% mais rápido que o Qwen3.5
Projetamos a série LFM2 com nossa abordagem de design meta IA de hardware no loop, que nos permite descobrir a arquitetura mais eficiente para um determinado processador sem sacrificar a qualidade.
Este teste é feito no Apple M3 Ultra, memória unificada de 512 GB
Configuração:
> 512 tokens de prompt, 128 tokens de geração,
> 5 testes por configuração
> Framework: MLX (mlx-lm / mlx-vlm)

Melhores
Classificação
Favoritos
