Uma das exclusões ao uso da IA é sutilmente diferente entre as comunicações da OpenAI e da Anthropic. Sam: "responsabilidade humana pelo uso da força, inclusive para sistemas de armas autônomos." O PR da Anthropic apenas diz "armas totalmente autônomas".
Sam Altman
Sam Altman28 de fev. de 2026
Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada. Em todas as nossas interações, o DoW demonstrou profundo respeito pela segurança e desejo de parceria para alcançar o melhor resultado possível. A segurança da IA e a ampla distribuição de benefícios são o núcleo da nossa missão. Dois dos nossos princípios de segurança mais importantes são a proibição da vigilância em massa doméstica e a responsabilidade humana pelo uso da força, inclusive para sistemas de armas autônomos. O DoW concorda com esses princípios, os reflete em leis e políticas, e nós os incluímos em nosso acordo. Também construiremos salvaguardas técnicas para garantir que nossos modelos se comportem como devem, algo que o DoW também desejava. Implantaremos FDEs para ajudar com nossos modelos e, para garantir sua segurança, implementaremos apenas em redes em nuvem. Estamos pedindo ao DoW que ofereça esses mesmos termos a todas as empresas de IA, o que, em nossa opinião, todos deveriam estar dispostos a aceitar. Expressamos nosso forte desejo de ver as coisas se afastando das ações legais e governamentais e rumo a acordos razoáveis. Continuamos comprometidos em servir toda a humanidade da melhor forma possível. O mundo é um lugar complicado, bagunçado e, às vezes, perigoso.
Levando a mensagem de Sam formulada literalmente, isso pode significar que o DoW pode usar os modelos da OpenAI em weapsons totalmente autônomos, desde que haja consideração suficiente sobre a "responsabilidade humana".
486