Jag satsar ännu mer på Bee Edge AI. Vi hörde hela tiden saker från kunder som... "Fånga fler bilder när X händer." "Kartlägg dessa vägar, upptäck detta specialföremål." "Ladda upp video endast när Y aktiveras." Den listan tar aldrig slut, och vi kommer inte att släppa tusen engångsfilmer. Så vi gjorde Bee programmerbar: en utplacerbar edge vision-dator där du kör dina egna moduler (C++ eller Python), triggar händelser, målar efter geografi och kontrollerar exakt vad som fångas och laddas upp. Det är produkten. Låt oss dyka ner i vad du får: 🧑 💻C++ eller Python-moduler: välj låglatensprestanda eller snabb iteration. 📸 Visionsprimitiv: kör din egen detektor/klassificerare eller koppla in dig på native Map AI-utgångar. Full sensoråtkomst: 12,3 MP bildrutor, stereodjup och 2K-videoströmmar för klipp eller kontinuerlig inspelning. 🚙 Fordon + förarsignaler: GNSS + IMU, plus inbyggda händelser (bromsning, svängning, acceleration) eller din egen logik. 💻 Realtidsinferens på enheten: ~5,1 TOPS, fungerar offline, laddar upp senare när bandbredd finns. 📱Anslutning som tjänst: strukturerade utdata strömmar till ditt Bee Maps-utvecklarkonto via LTE/WiFi; Du sätter policyn. 🛠️ Plattform: OTA-utrullningar, hälso-/genomströmnings-/felmått, geo-målinriktning Vad folk skickar med det * Ändringsdetektion: ladda upp endast det som ändrats – nya/borttagna/uppdaterade tillgångar. * Anpassade kantdetektioner: företagsnamn, verktygsutrustning, grindar/accesspunkter med härledd metadata. * Förarhändelsens insamling: "körde mot rött ljus", "för snabbt in i kurva + hård broms" → strukturerad registrering + kort klipp/bildrutor/djup. * Precisionsbildledningar: var N meter, händelsestyrda fullupplösta stillbilder, djupbaserad mätning, skärningsklipp. ...