Alguém colou dados de clientes no ChatGPT. A saída foi útil. Eles compartilharam internamente. Ninguém pensou muito nisso… até seis semanas depois, quando um cliente perguntou por que suas informações apareceram em algum lugar inesperado. Então veio a correria: Qual ferramenta, qual modelo/versão, quem fez isso, quais dados foram inseridos, o que a saída disse, onde se espalhou? A pior parte é que a maior parte disso era irrecuperável. O que eles tinham era um ticket de suporte, e-mails dispersos, e nenhuma resposta clara. É assim que o risco da IA se apresenta na maioria das empresas. O risco só se torna visível quando alguém começa a fazer perguntas. O que eles precisam é de um registro, uma evidência em cadeia que exista antes que alguém saiba para perguntar. Esse é um dos papéis da Number na indústria de IA: auditar a infraestrutura para saídas de IA. Quando foi a última vez que sua empresa auditou quais ferramentas de IA os funcionários estão usando?