Então, é assim que o meu Dumb‑Agent está aprendendo o mapa do Otherside @OthersideMeta Estive a construir um "Dumb‑Agent" que está basicamente a fazer "Roomba‑Mapping" no Otherside. Sem créditos de API de IA. Sem modelo de visão. Sem chamadas de “analisar esta captura de tela”. Apenas uma aplicação local em Python a ser irritante, determinística e implacável. E está a funcionar — você pode literalmente ver o mapa a tomar a forma do Nexus numa grade de pixels vista de cima. - O truque: parar de “imaginar” o mapa, apenas medi-lo O agente não *adivinha* layouts. Ele apenas responde continuamente: - Onde estou? - Eu me movi? - Eu teletransportei / usei trilhos / renasci? - O que isso implica sobre este tile/o tile em que estive. Tudo é escrito num mapa de grade (JSON) com chaves por coordenadas como "cx,cy" com rótulos simples para o que foi aprendido. Eu também posso rotular um ponto da grade enquanto jogo, como [nota interessante para analisar aqui]. Você acaba com a “neblina de guerra” sendo desvendada, uma célula de cada vez. - Como sabe onde está (duas fontes) Ele rastreia coordenadas usando dois sinais: - Logs do jogo UE (batimento cardíaco): O jogo é código, ele gera logs, o bot lê os logs - o bot analisa a posição do batimento cardíaco do jogador. Este é o fluxo “confiável”. - OCR do mapa de abas: abre o mapa do jogo, captura apenas a região de coordenadas, faz OCR localmente, fecha o mapa. Ele também rejeita outliers óbvios de OCR, para que uma leitura maldita não destrua o mapa....