有人将客户数据粘贴到 ChatGPT 中。 输出结果很有用。他们在内部分享了这些信息。 没有人对此多加思考……直到六周后,一位客户问他们的信息为什么出现在某个意想不到的地方。 然后开始了混乱: 哪个工具,哪个模型/版本,谁做的,输入了什么数据,输出了什么,传播到了哪里? 最糟糕的是,大部分信息无法恢复。 他们所拥有的只是一个支持票,零散的电子邮件线程,以及没有明确答案。 这就是大多数公司中 AI 风险的样子。风险只有在有人开始提问时才会显现。 他们需要的是一个记录,一个在任何人知道要问之前就存在的链上证据。 这就是 Number 在 AI 行业中的角色之一:审计 AI 输出的基础设施。 你们公司上一次审计员工使用的 AI 工具是什么时候?