Así es como mi Dumb‑Agent está aprendiendo el mapa de Otherside @OthersideMeta He estado construyendo un "Dumb‑Agent" que básicamente está haciendo "mapeo tipo Roomba" en Otherside. Sin créditos de API de IA. Sin modelo de visión. Sin llamadas de “analizar esta captura de pantalla”. Solo una aplicación local de Python siendo molesta, determinista y persistente. Y está funcionando: puedes ver literalmente cómo el mapa toma la forma del Nexus en una cuadrícula de píxeles desde arriba. - El truco: deja de “imaginar” el mapa, solo mídelo El agente no *adivina* los diseños. Simplemente responde continuamente: - ¿Dónde estoy? - ¿Me moví? - ¿Me teletransporté / rail / reaparecí? - ¿Qué implica eso sobre este mosaico/el mosaico en el que estaba justo antes? Todo se escribe en un mapa de cuadrícula (JSON) clave por coordenadas como "cx,cy" con etiquetas simples de lo que se ha aprendido. También puedo etiquetar un lugar de la cuadrícula mientras juego, como [nota interesante para analizar aquí]. Terminas con la “niebla de guerra” desvelándose, una celda a la vez. - Cómo sabe dónde está (dos fuentes) Rastrea coordenadas usando dos señales: - Registros del juego de UE (latido): El juego es código, genera registros, el bot lee los registros - el bot analiza la posición del latido del jugador. Este es el flujo “confiable”. - OCR del mapa de pestañas: abre el mapa en el juego, captura solo la región de coordenadas, lo OCR localmente, cierra el mapa. También rechaza obvios valores atípicos de OCR para que una lectura maldita no arruine el mapa....