A OpenAI está a atualizar o seu acordo DoW, traçando uma linha dura e admitindo que a implementação foi apressada e mal comunicada. Compromissos a nível de acordo > Sem vigilância doméstica de cidadãos dos EUA. > Sem rastreamento usando dados pessoais adquiridos comercialmente. > Sem uso por agências de inteligência como a NSA sem um novo contrato. > Sem conformidade com ordens inconstitucionais. > Implementação mais lenta e cautelosa porque a tecnologia ainda não está pronta para tudo.
Sam Altman
Sam AltmanHá 22 horas
Aqui está uma re-publicação de um post interno: Temos trabalhado com o DoW para fazer algumas adições ao nosso acordo para deixar nossos princípios muito claros. 1. Vamos alterar nosso contrato para adicionar esta linguagem, além de tudo o mais: "• De acordo com as leis aplicáveis, incluindo a Quarta Emenda da Constituição dos Estados Unidos, a Lei de Segurança Nacional de 1947, a Lei FISA de 1978, o sistema de IA não deve ser intencionalmente usado para vigilância doméstica de cidadãos e nacionais dos EUA. • Para evitar dúvidas, o Departamento entende que esta limitação proíbe o rastreamento, vigilância ou monitoramento deliberado de cidadãos ou nacionais dos EUA, incluindo através da aquisição ou uso de informações pessoais ou identificáveis adquiridas comercialmente." É crítico proteger as liberdades civis dos americanos, e houve tanto foco nisso, que queríamos deixar este ponto especialmente claro, incluindo em relação às informações adquiridas comercialmente. Assim como tudo o que fazemos com implantação iterativa, continuaremos a aprender e refinar à medida que avançamos. Acho que esta é uma mudança importante; nossa equipe e a equipe do DoW fizeram um ótimo trabalho nisso. 2. O Departamento também afirmou que nossos serviços não serão usados por agências de inteligência do Departamento de Guerra (por exemplo, a NSA). Quaisquer serviços para essas agências exigiriam uma modificação posterior ao nosso contrato. 3. Para extrema clareza: queremos trabalhar através de processos democráticos. Deve ser o governo a tomar as decisões-chave sobre a sociedade. Queremos ter uma voz e um assento à mesa onde possamos compartilhar nossa experiência e lutar pelos princípios da liberdade. Mas estamos claros sobre como o sistema funciona (porque muitas pessoas perguntaram, se eu recebesse o que acreditava ser uma ordem inconstitucional, é claro que eu preferiria ir para a prisão do que segui-la). Mas 4. Há muitas coisas para as quais a tecnologia simplesmente não está pronta, e muitas áreas que ainda não entendemos os trade-offs necessários para a segurança. Trabalharemos através disso, lentamente, com o DoW, com salvaguardas técnicas e outros métodos. 5. Uma coisa que acho que fiz errado: não deveríamos ter apressado isso na sexta-feira. As questões são super complexas e exigem comunicação clara. Estávamos genuinamente tentando desescalar as coisas e evitar um resultado muito pior, mas acho que apenas parecia oportunista e descuidado. Boa experiência de aprendizado para mim enquanto enfrentamos decisões de maior risco no futuro. Em minhas conversas durante o fim de semana, reiterei que a Anthropic não deveria ser designada como um SCR, e que esperamos que o DoW ofereça a eles os mesmos termos que concordamos. Faremos uma reunião geral amanhã de manhã para responder a mais perguntas.
Visão pessoal de Sam Altman : > O controle democrático deve permanecer com os governos e o povo, não com empresas privadas. > A IA deve ser democratizada para que os indivíduos ganhem poder, e não o percam. > A proteção da privacidade é um pilar não negociável da democracia. > A implementação iterativa é crítica para que a sociedade possa se adaptar à medida que a tecnologia evolui. > A educação pública ampla sobre IA é urgente para que a democracia possa acompanhar. > A OpenAI tem a responsabilidade de falar abertamente sobre riscos, limites e benefícios. > A cooperação com os governos é necessária, mas ações impulsionadas pelo pânico ou drásticas devem ser evitadas. > Existem ameaças no mundo real, e as decisões de IA serão julgadas pelo dano que ajudam a prevenir ou falham em prevenir.
51