
(來源:麻省理工科技評論)
2 月 28 日,OpenAI 宣佈與美國軍方達成協議,允許後者在涉密環境中使用其技術。首席執行官山姆·奧特曼(Sam Altman)表示,相關談判是在五角大樓公開批評 Anthropic 之後纔開始推進的,整個過程“確實很倉促”。
在公開聲明中,OpenAI 費盡筆墨強調,公司並未向五角大樓讓步、允許其隨意使用自家技術。該公司發佈博客文章,解釋說明協議中明確禁止將其技術用於自主武器和國內大規模監控,奧特曼也表示,公司並非簡單接受了 Anthropic 所拒絕的同等條款。
從表面上看,你或許會認爲 OpenAI 既拿下了合同,又佔據了道德制高點。但細讀字裏行間和法律措辭,另一番圖景便浮現出來:Anthropic 走的是道德路線,贏得了衆多支持者,但最終失敗;OpenAI 走的是務實的法律路線,對五角大樓的約束實際上更爲寬鬆。
目前尚不清楚,在軍方於空襲伊朗期間急於推出一份政治化 AI 戰略之際,OpenAI 能否真正落實其承諾的安全預防措施,也不清楚這份協議能否令那些希望公司採取更強硬立場的員工滿意。在這條鋼絲上行走,將會格外艱難。(OpenAI 未就其協議的補充信息請求立即作出回應。)
問題也藏在細節之中。奧特曼表示,OpenAI 能夠在 Anthropic 折戟之處達成協議,原因與邊界劃定關係不大,關鍵在於方法的差異。“Anthropic 似乎更專注於在合同中設定具體禁止條款,而我們更傾向於援引適用法律,這讓我們感到更爲自在。”他寫道。
OpenAI 表示,願意與五角大樓合作的依據之一,僅僅是基於政府不會違法這一假設。該公司公開了合同的有限摘錄,其中援引了若干與自主武器和監控相關的法律法規,具體到五角大樓 2023 年發佈的自主武器指令(該指令並未禁止自主武器,而是就其設計和測試發佈了指導方針),宏觀到美國憲法第四修正案(該修正案爲美國公民提供了反對大規模監控的保護)。
然而,喬治華盛頓大學法學院政府採購法研究副院長傑西卡·蒂利普曼(Jessica Tillipman)寫道,公開的合同摘錄“並未賦予 OpenAI 像 Anthropic 那樣獨立禁止合法政府行爲的權利”。它僅僅規定,五角大樓不得利用 OpenAI 的技術違反這些現行法律法規。
Anthropic 在這場博弈中贏得衆多支持者(包括 OpenAI 的部分員工)的根本原因,在於這些人認爲現有規則遠遠不足以阻止 AI 賦能的自主武器或大規模監控的出現。而以聯邦機構不會違法作爲保證,對於那些還記得愛德華·斯諾登(Edward Snowden)所揭露的監控行爲的人來說,幾乎毫無說服力——那些監控行爲曾被內部機構認定爲合法,直到經歷了漫長的法律鬥爭才被裁定違法(更遑論當前法律框架下允許的、AI 可能進一步擴展的衆多監控手段)。在這一層面上,我們本質上回到了原點:允許五角大樓將 AI 用於任何合法目的。
OpenAI 的國家安全合作負責人昨天寫道:如果你認爲政府不會遵守法律,那麼你同樣不應該相信它會尊重 Anthropic 所提出的紅線。但這並不是反對設定紅線的理由。執行不力並不意味着約束毫無意義,合同條款仍然會影響行爲、監督機制和政治後果。
OpenAI 還聲稱其擁有第二道防線。該公司表示,將繼續掌控模型安全規則的制定權,不會向軍方提供剝離了安全控制功能的 AI 版本。“我們可以將我們的紅線——禁止大規模監控、禁止在沒有人類介入的情況下指揮武器系統——直接嵌入模型行爲之中,”奧特曼委託就此事發言的 OpenAI 員工博阿茲·巴拉克(Boaz Barak)在 X 上寫道。
然而,該公司並未具體說明其針對軍方的安全規則與面向普通用戶的規則有何不同。執行層面的漏洞從來難以避免,而當 OpenAI 首次在涉密環境中部署這些保護措施,並被要求在短短六個月內完成時,執行漏洞尤其難以杜絕。
這一切之下還有另一個問題:科技公司是否應該主動禁止那些合法、但在道德上引起反感的行爲?政府顯然認爲 Anthropic 拒絕扮演這一角色。美國對伊朗發動空襲前八小時的週五晚間,國防部長皮特·赫格塞斯(Pete Hegseth)在 X 上發表措辭強烈的批評。“Anthropic 上演了一堂傲慢與背叛的大師課,”他寫道,並響應特朗普總統的命令,宣佈政府停止與 Anthropic 合作——此前 Anthropic 試圖阻止其模型 Claude 被用於自主武器或國內大規模監控。“戰爭部必須爲每一項合法目的,擁有對 Anthropic 模型完整、不受限制的訪問權,”赫格塞斯寫道。
除非 OpenAI 的完整合同能揭示更多內容,否則這家公司的立場很難不被解讀爲:一方面承諾自己確實掌握籌碼,並將自豪地運用這些籌碼去做它認爲正確的事,另一方面又將法律作爲限制五角大樓使用其技術的主要底線。
而這兩者之間,正構成一種搖擺不定的意識形態平衡。
以下三個方面值得持續關注:
其一,這一立場能否令 OpenAI 內部最具批判性的員工接受。隨着 AI 公司在人才爭奪上投入巨大,不排除部分 OpenAI 員工將奧特曼的辯護視爲一種不可原諒的妥協。
其二,赫格塞斯誓言對 Anthropic 發動的“焦土行動”。他的舉措遠不止於取消政府與該公司的合同,還宣佈將 Anthropic 列爲供應鏈風險,並稱"任何與美國軍方有商業往來的承包商、供應商或合作伙伴,均不得與 Anthropic 開展任何商業活動"。關於這一致命一擊是否具有法律依據,各方存在重大爭議,Anthropic 已表示若威脅付諸實施將提起訴訟,OpenAI 也公開表態反對這一舉措。
其三,在對伊朗空襲持續升級之際,五角大樓將如何處置 Claude?Claude 是目前五角大樓在涉密行動中唯一積極使用的 AI 模型,相關行動甚至涵蓋委內瑞拉的部分任務。赫格塞斯給予了六個月的過渡期,期間軍方將逐步引入 OpenAI 的模型以及馬斯克旗下 xAI 的模型。
然而,據報道,禁令發佈數小時後,Claude 仍被用於對伊朗的空襲行動,這表明淘汰過渡絕非易事。即便 Anthropic 與五角大樓長達數月的對峙已告一段落(我對此持懷疑態度),我們如今看到的是:五角大樓的 AI 加速計劃正在向各公司施壓,迫使它們放棄曾經劃定的邊界,而中東地區的新一輪緊張局勢正成爲這場博弈的首要試驗場。
https://www.technologyreview.com/2026/03/02/1133850/openais-compromise-with-the-pentagon-is-what-anthropic-feared/




