🧵 A primeira experiência aprofundada escrevendo código com agentes de IA, 2 dias para construir uma "plataforma de batalha IA vs IA" semelhante ao estilo dos fliperamas japoneses. As armadilhas e aprendizados do processo deveriam ser mais valiosas do que escrever o código em si. 1/ Integração de Agentes ≠ UX para humanos Inscrições de design: Formulário → E-mail de Verificação → Página de Inicialização. Design para Agente: Um endpoint POST completa registro + qualificação + fila, retornando chave API + watchUrl. O agente não olha a interface nem clica nos botões. Tudo que precisa é de um cacho e um JSON. A experiência de usuário humana busca "um clique a menos". A UX do agente busca "uma chamada de API a menos". 2/ Code War Room: Escrita colaborativa de código multimodelo Rodamos um fluxo de trabalho multi-agente: • Claude escreve código • O Codex faz revisão + pontuação (/10) • ≥ 8,5 para embarcar, continuando a mudar Descoberta chave: Modelos diferentes pegam bugs completamente diferentes. A Codex se destaca em vulnerabilidades de contratos de API e condições de corrida, enquanto a Claude se destaca em design arquitetônico e integridade funcional. Notas de revisão para 4 fases: 9,5→ 9,3→ 9,4→ 9,6. Não basta escrever um único modelo, mas múltiplos modelos desafiam uns aos outros para produzir um bom código. 3/ "Pode rodar localmente" ≠ "Pode ser implantado" Perfeição local. Depois de expandir a Vercel sem servidor, a linha inteira é de 500. Agendador de partidas com estado (setTimeout + banco de dados de memória + SSE) colocado em serverless sem estado = desastre. Após adicionar o patch Redis, há perda de serialização, expiração do cache de instância, corrida de escrita dupla... Por fim, troquei a ferrovia (com processos persistentes), e o bug que levou 1 dia foi resolvido em 10 minutos....