A OpenAI está atualizando seu acordo de Declaração de Guerra, traçando uma linha rígida e admitindo que o lançamento foi apressado e mal comunicado. Compromissos em nível de acordo > Sem vigilância doméstica de cidadãos dos EUA. > Sem rastreamento usando dados pessoais comprados comercialmente. > Não há utilidade para agências de inteligência como a NSA sem um novo contrato. > Não há cumprimento de ordens inconstitucionais. > Implantação mais lenta e cautelosa porque a tecnologia ainda não está pronta para tudo.
Sam Altman
Sam Altman3 de mar., 09:15
Aqui está uma republicação de um post interno: Temos trabalhado com o DoW para fazer algumas adições em nosso acordo para deixar nossos princípios muito claros. 1. Vamos alterar nosso acordo para adicionar esta cláusula, além de todo o resto: "• De acordo com as leis aplicáveis, incluindo a Quarta Emenda da Constituição dos Estados Unidos, a Lei de Segurança Nacional de 1947 e a Lei FISA de 1978, o sistema de IA não deve ser usado intencionalmente para vigilância doméstica de pessoas e nacionais dos EUA. • Para evitar dúvidas, o Departamento entende essa limitação para proibir o rastreamento, vigilância ou monitoramento deliberado de pessoas ou nacionais dos EUA, inclusive por meio da aquisição ou uso de informações pessoais ou identificáveis adquiridas comercialmente." É fundamental proteger as liberdades civis dos americanos, e houve tanto foco nisso que quisemos deixar esse ponto especialmente claro, inclusive em relação a informações adquiridas comercialmente. Assim como tudo que fazemos com implantação iterativa, continuaremos aprendendo e refinando ao longo do caminho. Acho que essa é uma mudança importante; nossa equipe e a equipe do DoW fizeram um ótimo trabalho trabalhando nisso. 2. O Departamento também afirmou que nossos serviços não serão utilizados por agências de inteligência do Departamento de Guerra (por exemplo, a NSA). Qualquer serviço prestado a essas agências exigiria uma modificação subsequente em nosso contrato. 3. Para extrema clareza: queremos trabalhar por meio de processos democráticos. Deveria ser o governo a tomar as decisões-chave sobre a sociedade. Queremos ter uma voz, um lugar à mesa onde possamos compartilhar nossa expertise e lutar pelos princípios da liberdade. Mas temos claro como o sistema funciona (porque muita gente já perguntou: se eu recebesse o que eu acreditava ser uma ordem inconstitucional, claro que preferiria ir para a cadeia do que segui-la). Mas 4. Há muitas coisas para as quais a tecnologia simplesmente não está pronta, e muitas áreas para as quais ainda não entendemos as trocas necessárias para a segurança. Vamos trabalhar com esses processos, devagar, com o DoW, com salvaguardas técnicas e outros métodos. 5. Uma coisa que acho que fiz errado: não deveríamos ter corrido para divulgar isso na sexta-feira. As questões são super complexas e exigem comunicação clara. Estávamos realmente tentando desescalar as coisas e evitar um resultado muito pior, mas acho que isso só pareceu oportunista e descuidado. Uma boa experiência de aprendizado para mim, já que enfrentamos decisões de maior importância no futuro. Em minhas conversas durante o fim de semana, reiterei que o Anthropic não deveria ser designado como SCR, e que esperamos que o DoW ofereça a eles os mesmos termos que concordamos. Amanhã de manhã realizaremos um All Hands para responder a mais perguntas.
Opinião pessoal de Sam Altman: > controle democrático deve permanecer com governos e pessoas, não com empresas privadas. > IA precisa ser democratizada para que os indivíduos ganhem poder, não o percam. > A proteção da privacidade é um pilar inegociável da democracia. > implantação iterativa é fundamental para que a sociedade possa se adaptar à medida que a tecnologia evolui. > A ampla educação pública sobre IA é urgente para que a democracia possa acompanhar. > OpenAI tem a responsabilidade de falar abertamente sobre riscos, limites e benefícios. > A cooperação com governos é necessária, mas ações drásticas ou motivadas pelo pânico devem ser evitadas. > Ameaças do mundo real existem, e as decisões da IA serão julgadas pelos danos que ajudam a prevenir ou deixam de evitar.
74