AI 使用的一個例外在 OpenAI 和 Anthropic 的通訊中有微妙的不同。 Sam: "對於使用武力的人的責任,包括對自主武器系統的責任。" Anthropic 的公關只是說 "完全自主武器。"
Sam Altman
Sam Altman2026年2月28日
今晚,我們與國防部達成了一項協議,將我們的模型部署在他們的機密網絡中。 在我們的所有互動中,國防部表現出對安全的深切尊重,以及希望合作以實現最佳結果的願望。 AI安全和利益的廣泛分配是我們使命的核心。我們最重要的兩項安全原則是禁止國內大規模監控和對使用武力的人類責任,包括對自主武器系統的責任。國防部同意這些原則,並在法律和政策中反映出來,我們將其納入我們的協議中。 我們還將建立技術保障措施,以確保我們的模型按預期行為,這也是國防部所希望的。我們將部署FDE來協助我們的模型並確保其安全,我們將僅在雲網絡上進行部署。 我們要求國防部向所有AI公司提供相同的條件,因為在我們看來,每個人都應該願意接受。我們表達了強烈的願望,希望事情能夠從法律和政府行動中降級,轉向合理的協議。 我們仍然致力於盡我們所能服務全人類。這個世界是一個複雜、混亂,有時危險的地方。
從字面上理解山姆的訊息,這可能意味著國防部可以在完全自主的武器中使用OpenAI的模型,只要對於「人類責任」有足夠的考量。
478