2026 年 3 月,一場史無前例的法律戰爭正在華盛頓與矽谷之間展開。AI 安全研究公司 Anthropic——Claude 系列模型的開發者——正式對美國國防部提起聯邦訴訟,挑戰五角大廈將其列入「供應鏈風險」黑名單的決定。這不是一起普通的政府合約糾紛,而是一場觸及 AI 時代最根本張力的憲法對決:當一家 AI 公司的安全原則與國家軍事需求產生不可調和的衝突時,誰有最終決定權?
這起事件的深層意義遠超過 Anthropic 本身。它將決定美國 AI 產業的未來走向——科技公司是否有權對自家技術的使用設定倫理底線,還是國家安全的大旗可以壓倒一切?這是 AI 時代的「五角大廈文件案」,其判決結果將為整個產業立下先例。
從盟友到敵人:一段急轉直下的合作關係
要理解這場衝突的戲劇性,必須先回顧雙方曾經的蜜月期。2024 年,Anthropic 與 Palantir、Amazon Web Services(AWS)聯手,成功將 Claude 模型引入美國政府的情報與國防體系。2025 年 7 月,國防部透過其首席數位與人工智慧辦公室(CDAO)授予 Anthropic 一紙價值 2 億美元的合約,使 Claude 成為首個獲得機密軍事用途許可的前沿 AI 系統。
Claude 隨後被部署於美軍和情報人員的分析與行動支援任務中,包括 2026 年初捕捉委內瑞拉前總統馬杜羅(Nicolás Maduro)的「絕對決心行動」(Operation Absolute Resolve)。在那次行動中,Claude 的表現獲得了國防部長乃至白宮的高度讚賞——國防部長乘格塞斯(Pete Hegseth)本人曾稱讚 Claude 是「精妙絕倫」(exquisite)的技術。
然而,轉折點出現在 2025 年秋天。五角大廈正在推動 GenAI.mil 平台——一個為全軍提供前沿 AI 工具的政府認證樞紐。在談判過程中,國防部要求 Anthropic 允許其將 Claude 用於「任何合法用途」(any lawful use),而非按照公司的標準使用條款。Anthropic 大致同意,但劃下了兩條不可逾越的紅線:Claude 不得用於自主致命武器,也不得用於大規模國內監控。
「絕對決心行動」結束後,美國官員開始推動將 Claude 的軍事用途擴展到正是 Anthropic 明確反對的那些領域。Anthropic 執行長 Dario Amodei——長期以來將這類用途稱為「不正當的」和「容易被濫用的」——據報向乘格塞斯表示公司不會讓步。乘格塞斯則堅持要求不受限制地使用。雙方的對峙最終走向了不可調和的破裂。
史無前例的黑名單:國安條款被用來對付美國公司
2026 年 3 月 5 日,川普政府正式將 Anthropic 列為「供應鏈風險」(supply chain risk),依據的是美國法典第 10 篇第 3252 條。這項條款允許國防部長將特定公司排除在政府合約之外,以防止敵對勢力「破壞、惡意植入不需要的功能」或以其他方式「顛覆」軍事資訊系統。
關鍵在於:這項條款在歷史上僅被用於與敵對政府有關聯的外國公司。將其用於一家在美國註冊成立、且直到不久前還是國防部信賴合作夥伴的美國公司,完全沒有先例。川普政府不僅禁止了新的合約,還指令所有聯邦機構停止使用 Anthropic 系統,並警告繼續使用可能觸發合約懲罰條款。
川普本人在 Truth Social 上稱 Anthropic 的員工為「左翼瘋子」(leftwing nut jobs),並宣布聯邦機構將有六個月的過渡期來淘汰該公司的產品。這番言論直接將一個複雜的國安與倫理議題,變成了赤裸裸的政治對立。
三重法律攻勢:Anthropic 的憲法牌
四天後的 3 月 9 日,Anthropic 在加州聯邦法院提起訴訟,提出三項核心主張:
第一,違反第一修正案。 Anthropic 主張,五角大廈將其列入黑名單並非基於真正的安全風險,而是因為該公司公開表達了對 AI 在戰爭中應有倫理限制的觀點。川普在社群媒體上稱 Anthropic 為「激進左翼覺醒公司」(RADICAL LEFT WOKE COMPANY),這正好為 Anthropic 的論點提供了佐證——政府的決定是出於對特定觀點的敵意,而非合法的國安考量。
第二,違反第五修正案正當程序條款。 國防部在未提供通知、未做出事實認定、也未給予任何有意義的申訴機會的情況下,就對 Anthropic 施加了嚴重的經濟後果。訴狀將政府的行為描述為在「缺乏任何程序保障」的情況下施加「嚴厲懲罰」。
第三,違反行政程序法(APA)。 Anthropic 指出兩個關鍵矛盾:其一,第 3252 條的立法目的是防範外國敵對勢力的滲透或破壞,而 Anthropic 是一家與任何敵對政府毫無關聯的美國公司;其二,即便五角大廈將 Claude 標記為國安威脅,軍方仍持續在活躍的軍事行動中部署 Anthropic 的系統——包括上個月對伊朗的軍事打擊。國防部長一邊稱讚 Claude 是「精妙絕倫的技術」,一邊又要將其製造商趕出國防體系,這種自相矛盾在法律上是難以站得住腳的。
數十億美元的商業衝擊與產業寒蟬效應
這場衝突的經濟後果正在迅速蔓延。根據 Anthropic 公共事務負責人 Thiyagu Ramsamy 的說法,黑名單造成了「即時且不可逆的傷害」。具體損失包括:
與國防部現有及預期合約相關的年度經常性收入損失超過 1.5 億美元。與金融機構總計約 1.8 億美元的談判受到干擾——一份 1,500 萬美元的合約被暫停,一家金融科技客戶將合約從 1,000 萬美元砍至 500 萬美元。超過 100 家企業客戶向 Anthropic 表達了對「與該公司合作可能帶來的後果」的深切憂慮。Anthropic 估計,在最壞情況下,公司可能損失國防承包商及國防部相關客戶 50% 至 100% 的營收。
更深層的影響在於產業層面的寒蟬效應。如果政府可以因為一家 AI 公司堅持自己的安全原則而對其進行懲罰性制裁,那麼整個 AI 產業的安全研究動機將被嚴重削弱。正如 Palantir 執行長 Alex Karp 在 3 月 12 日的 AIPcon 9 大會上對 CNBC 表示:「國防部正計劃淘汰 Anthropic;目前還沒有淘汰。我們的產品與 Anthropic 整合在一起,未來可能會與其他大型語言模型整合。」這番看似中性的表態,實際上揭示了一個尷尬的事實——即便是國防科技巨頭 Palantir,也無法在短期內找到 Claude 的替代品。
國防部首席技術官 Emil Michael 在接受 CNBC 採訪時坦承:「你不可能一夜之間拔掉一個深度嵌入的系統。」五角大廈內部備忘錄甚至承認,在「無可行替代方案存在」的罕見情況下,將考慮「關鍵任務活動」的豁免。換句話說,政府一邊在政治上封殺 Anthropic,一邊在軍事上離不開它。
更宏觀的框架:AI 安全與國家權力的結構性張力
這起事件的歷史意義,在於它首次以法律形式呈現了 AI 時代一個無法迴避的根本問題:誰來定義 AI 的使用邊界?
從 Anthropic 的角度來看,公司的「負責任 AI」(Responsible AI)原則不是行銷話術,而是寫入企業章程的核心承諾。Dario Amodei 和他的團隊從 OpenAI 離開創立 Anthropic,正是因為他們認為 AI 安全需要被置於商業利益之上。如果在政府壓力下放棄這些原則,Anthropic 將失去其存在的根本意義。
從五角大廈的角度來看,國防部不能容忍一家私人企業在合約關係中對軍方如何部署技術設定限制。這等於讓一個供應商插入軍事指揮鏈——這是任何軍事組織都無法接受的。40 頁的法庭文件中,政府辯稱 Anthropic 拒絕允許「所有合法用途」使其成為國安系統的「不可接受的風險」。
然而,這兩個立場之間存在一個被刻意忽略的中間地帶。Anthropic 並非拒絕所有軍事合作——它已經在機密環境中部署了 Claude,並協助了實際的軍事行動。它拒絕的是兩個特定領域:自主致命武器和大規模國內監控。這兩個領域恰恰是國際社會和 AI 倫理學界長期以來最為關切的議題。五角大廈將「設定使用限制」等同於「供應鏈風險」,在邏輯上是一個巨大的跳躍。
司法前景與產業影響
國安法律專家普遍認為 Anthropic 有相當強的法律基礎。第 3252 條將排除措施定位為防範真正的破壞或顛覆風險的「最後手段」,而非用來施壓美國公司放棄內部政策承諾的工具。政府一邊依賴、一邊打壓同一家公司技術的矛盾行為,將是法院難以忽視的漏洞。
但政府的辯護也不容小覷。法院在國安事務上傳統上給予行政部門極大的裁量空間。五角大廈可能會主張,Anthropic 的使用限制實質上等於供應商試圖介入軍事指揮決策——這是法院歷來非常認真對待的國安關切。
無論判決結果如何,這起案件已經在 AI 產業中投下了一顆震撼彈。對其他 AI 公司而言,訊號再清楚不過:如果你想做政府生意,就必須準備好放棄對技術使用的倫理控制權。這對 Google DeepMind、OpenAI、Meta AI 等公司的內部安全團隊來說,是一個令人不寒而慄的前例。
結語:定義 AI 時代的社會契約
Anthropic 訴五角大廈案的核心,是在追問一個我們遲早必須回答的問題:在 AI 能力呈指數級增長的時代,技術開發者是否應該擁有對自己創造物的最終倫理否決權?還是國家安全的邏輯永遠凌駕於一切之上?
從產業分析的角度來看,這場對決的結果將深刻影響全球 AI 治理的走向。如果 Anthropic 勝訴,它將為 AI 公司建立一個憲法級別的保護屏障,確認企業有權基於倫理原則拒絕特定的技術使用方式。如果政府勝訴,它將確立行政部門在國安旗幟下對 AI 產業近乎無限的管轄權——這不僅影響美國,也將為全球其他政府提供一個現成的模板。
我們正在目睹的,不只是一場法律訴訟,而是 AI 時代社會契約的第一次正式談判。它的結果,將決定未來數十年人類與 AI 之間的權力平衡。
參考資源
- Syracuse Law Review 分析:When AI Ethics Collide with National Security
- CNBC 報導:Palantir is still using Anthropic's Claude as Pentagon blacklist plays out
- CNBC 報導:Anthropic sues Trump administration over supply chain risk designation
- Forbes 報導:Pentagon Says Anthropic's AI Safety Limits Make It An 'Unacceptable' Wartime Risk
- Washington Examiner:Pentagon blacklisting Anthropic AI was retaliatory, Elizabeth Warren suggests