Iemand heeft klantgegevens in ChatGPT geplakt. De output was nuttig. Ze deelden het intern. Niemand dacht er veel over na… totdat zes weken later een klant vroeg waarom hun informatie ergens onverwachts verscheen. Toen begon de chaos: Welke tool, welk model/versie, wie deed het, welke gegevens gingen erin, wat zei de output, waar verspreidde het zich? Het ergste is dat het meeste niet te herstellen was. Wat ze hadden was een supportticket, verspreide e-mailthreads en geen duidelijke antwoorden. Dit is hoe AI-risico eruitziet in de meeste bedrijven. Het risico wordt pas zichtbaar wanneer iemand begint vragen te stellen. Wat ze nodig hebben is een record, een on-chain bewijs dat bestaat voordat iemand weet om te vragen. Dat is een van de rollen van Number in de AI-industrie: auditinfrastructuur voor AI-output. Wanneer heeft jouw bedrijf voor het laatst gecontroleerd welke AI-tools medewerkers gebruiken?