Noen limte inn klientdata i ChatGPT. Resultatet var nyttig. De delte det internt. Ingen tenkte noe særlig over det... Inntil seks uker senere, da en klient spurte hvorfor informasjonen deres dukket opp et uventet sted. Så kom kaoset: Hvilket verktøy, hvilken modell/versjon, hvem gjorde det, hvilke data ble lagt inn, hva utdataene sa, hvor det spredte seg? Det verste er at det meste av det ikke kunne gjenopprettes. Det de hadde var en supportsak, spredte e-posttråder og ingen klare svar. Slik ser AI-risiko ut i de fleste selskaper. Risikoen blir først synlig når noen begynner å stille spørsmål. Det de trenger er en registrering, et bevis på lenken som eksisterer før noen vet å spørre. Det er en av Numbers roller i AI-bransjen: revisjonsinfrastruktur for AI-resultater. Når var sist selskapet ditt reviderte hvilke AI-verktøy ansatte bruker?