Jemand hat Kundendaten in ChatGPT eingefügt. Die Ausgabe war nützlich. Sie haben sie intern geteilt. Niemand dachte viel darüber nach… bis sechs Wochen später ein Kunde fragte, warum seine Informationen irgendwo unerwartet auftauchten. Dann kam das Durcheinander: Welches Tool, welches Modell/version, wer hat es gemacht, welche Daten wurden eingegeben, was sagte die Ausgabe, wo hat es sich verbreitet? Der schlimmste Teil ist, dass der Großteil davon nicht wiederherstellbar war. Was sie hatten, war ein Support-Ticket, verstreute E-Mail-Threads und keine klaren Antworten. So sieht das Risiko von KI in den meisten Unternehmen aus. Das Risiko wird erst sichtbar, wenn jemand anfängt, Fragen zu stellen. Was sie brauchen, ist ein Protokoll, ein on-chain Beweis, der existiert, bevor jemand weiß, dass er fragen sollte. Das ist eine der Rollen von Number in der KI-Industrie: die Audit-Infrastruktur für KI-Ausgaben. Wann hat Ihr Unternehmen zuletzt geprüft, welche KI-Tools die Mitarbeiter verwenden?