在近期的一集《Sharp Tech》Podcast 中,主持人 Andrew Sharp 與 Ben Thompson 深入剖析了矽谷與華府之間正在上演的一場權力大戲。這不僅是頂尖 AI 新創 Anthropic 與美國國防部之間的商業衝突,更是一場牽涉政治哲學、法律、民主制度與商業戰略的深層對話。

這場風暴如何爆發?當聲稱「最講道德」的 AI 公司遇上掌握絕對暴力壟斷的國家機器,誰會先眨眼?

衝突引爆:當 AI 被貼上「供應鏈風險」標籤

事件的導火線,始於川普政府宣布取消一份與 Anthropic 相關的國防合約,並計畫在未來六個月內將 Anthropic 的技術從所有聯邦政府機構中逐步汰除。更具毀滅性的是,國防部長 Pete Hegseth 公開威脅要將 Anthropic 標記為「供應鏈風險」(Supply Chain Risk),這意味著任何與美國政府有業務往來的機構,都將被禁止與 Anthropic 合作。

據 CNBC 報導,五角大廈已於 2026 年 3 月 5 日正式通知 Anthropic 領導層,該公司及其產品已被正式列為供應鏈風險,立即生效。這種標記通常保留給外國對手,而非國內科技公司,其法律效力是否經得起司法挑戰仍是未知數。但政治訊號已經再清楚不過:在國家機器面前,沒有企業可以自外於權力的引力場。

Ben Thompson 在節目中直言,儘管「供應鏈風險」的實際定義與影響範圍仍在變動,但這無疑是政府對「不合作」AI 企業展現的極限施壓。這已經超越了單一合約的損失,直接威脅到前沿 AI 公司在國家安全戰略藍圖中的存亡。

值得注意的是,這是美國國防部首次將「供應鏈風險」標籤貼在一家美國本土企業身上。過去,這類標記幾乎專門保留給華為、中興等被視為國安威脅的外國企業。將同樣的武器對準國內頂尖 AI 新創,不僅史無前例,更凸顯了當前行政部門在 AI 治理上的強硬立場已經突破了傳統的政商互動框架。

更加諷刺的是,就在五角大廈宣布將 Anthropic 列為供應鏈風險的同時,美軍在伊朗戰場上仍然高度依賴 Claude 模型。根據 Bloomberg 報導,Claude 是 Palantir Maven Smart System 的核心 AI 工具之一,中東前線的軍事操作人員每天都在使用它來處理情報數據。換言之,五角大廈一邊在政治層面封殺 Anthropic,一邊在戰術層面離不開它——這種認知失調本身就說明了這場衝突的荒謬性。

Dario Amodei 的兩難:道德堅持還是戰略誤判?

在衝突升溫之際,Anthropic 執行長 Dario Amodei 的一封內部備忘錄意外外洩。據 TechCrunch 報導,Amodei 在信中措辭強硬,稱 OpenAI 與五角大廈的替代交易是「安全劇場」(Safety Theater),並將 OpenAI 圍繞該交易的公關訊息稱為「徹頭徹尾的謊言」。他指出國防部針對 Anthropic 的真正原因有二:

第一,政治獻金與奉承。Amodei 直言,國防部與川普政府之所以針對他們,是因為 Anthropic 沒有像 OpenAI 的 Sam Altman 那樣捧著大把政治獻金,也沒有給予川普「獨裁者式的讚美」。第二,他強調公司絕不妥協安全底線,特別是在國內大規模監控和自主武器兩個議題上。

然而,這封充滿理想主義的內部信,保鮮期卻短得可憐。短短幾小時後,《金融時報》便獨家披露 Amodei 已悄悄重回談判桌,開始與五角大廈官員 Emil Michael 進行重新談判。據報導,這場談判是雙方試圖在五角大廈存取 Claude 模型的條款上達成妥協的最後努力。

Andrew Sharp 對此幽默地嘲諷:「這封信看起來就像 Dario 試圖在員工面前塑造悲壯形象,結果卻迅速被現實打臉。」

兩億美元合約的崩壞:爭議核心是什麼?

要理解這場衝突,必須回溯其核心爭議。2024 年底,Anthropic 透過與 Palantir 的合作,將 Claude 模型部署到五角大廈的機密網路中。到了 2025 年中,Anthropic 簽下了一份價值兩億美元的國防合約,並推出專為軍事用途設計的 Claude 模型,包括處理機密材料的能力。

問題在於合約中的一項條款:允許軍方以「任何合法用途」(any lawful use) 使用 Anthropic 的 AI。Amodei 對此提出異議,堅持合約應更明確禁止國內大規模監控和自主武器的使用。當 Anthropic 拒絕讓步時,國防部轉向 OpenAI 達成了替代協議。

但據 Reuters 報導,這場衝突不僅關乎實質條款,更關乎風格與態度。多位知情人士表示,在談判過程中 Anthropic 反覆強調其使用政策和紅線,讓五角大廈官員感覺「被一家公司教做事」。正如一位知情人所言:「這是一個自尊心和外交手腕的問題。」

Emil Michael 的回應更為直接。他公開稱 Amodei 為「騙子」,並指其有「上帝情結」(God complex)。他在聲明中強調:「我們不會讓任何一家公司在國會已通過的法律之上,自行制定一套新政策。」

權利、產權與國家暴力:霍布斯與洛克的底層邏輯

Ben Thompson 在節目中切入了一個極為深刻的政治哲學視角。他回憶起自己曾讓 ChatGPT 比較霍布斯 (Thomas Hobbes) 與洛克 (John Locke) 關於「權利來源」的辯論。

Ben 點出一個殘酷的現實:Anthropic 這些 AI 公司賴以生存的護城河——財產權、服務條款、智慧財產權——本質上都是「法律建構」。而這些法律之所以能運作,完全是因為有美國政府的暴力壟斷(軍隊、警察)在背後支撐。

「如果你不納稅,或者你拒絕遵守政府規則,最終來找你的會是帶著槍的人。」Ben 如此警告。如果 Anthropic 真的開發出可能顛覆全球格局的通用人工智慧 (AGI),卻拒絕與保護他們的政府合作,這無異於玩火。AI 公司不能一邊躲在美國政府的產權保護傘下,一邊卻以道德之名,拒絕將這項「終極武器」提供給國家作防禦之用。

有效利他主義的傲慢與反民主盲點

這場討論也無可避免地掃到了 Anthropic 背後的意識形態——有效利他主義 (Effective Altruism, EA)。Ben 嚴厲批判了這個社群中普遍存在的菁英傲慢:「我們是世界上最聰明的人,只有我們真正考慮了成本與效益,其他人都是愚蠢的,因此我們應該為所有人做決定。」

在 Ben 的分析框架中,這種心態是極度反民主的。在美國的體制下,權力的合法性來自選舉(即便科技圈不喜歡當選的川普),而不是未經民意授權的科技菁英。當 AI 實驗室因為政治潔癖拒絕支援國防部時,他們實質上是在削弱美國軍隊的技術優勢。

更深層的危機在於,這種「不結盟」的態度會激發國家的生存危機感。如果政府認定某家公司掌握了足以顛覆國家的力量卻不受控,政府將有極大的誘惑去踐踏產權,直接將這些實驗室國有化。

科技圈的集體反彈:當敵人的敵人成了盟友

這場衝突引發了矽谷罕見的跨公司團結。數百名來自 OpenAI 和 Google 的員工聯名發表公開信,呼籲國防部撤回對 Anthropic 的供應鏈風險標記,並敦促國會介入調查這是否構成行政權力的不當擴張。公開信中明確表示,他們同樣反對將 AI 用於「國內大規模監控」和「無人類監督的自主殺傷」。

前川普白宮 AI 顧問 Dean Ball 更是措辭激烈,將這項標記稱為美國共和體制的「死亡喘息」(death rattle)。他認為,政府已經放棄了戰略清晰度與基本尊重,轉而以「流氓式」的部族主義對待國內創新者,其待遇甚至不如外國對手。這番話從一位前共和黨政府官員口中說出,格外具有震撼力。

與此同時,Anthropic 的政治處境也揭示了另一個不可忽視的變數:金錢政治。OpenAI 總裁 Greg Brockman 近期向 MAGA Inc. 超級政治行動委員會捐贈了 2,500 萬美元。Amodei 在外洩的備忘錄中直指,Anthropic 之所以被針對,部分原因正是他們「沒有像某些人那樣拿著政治獻金和奉承話去朝貢」。無論這個指控是否完全屬實,它都指向了一個令人不安的現實:在當前的華府,AI 政策的走向可能不完全取決於技術或安全考量,而是取決於誰更懂得「進貢」。

矛盾的弔詭:失去合約,卻贏得市場

這場衝突最出人意料的後果,是 Anthropic 在消費市場上的爆發。據 Reuters 報導,在與政府公開衝突後,Claude 登上了 Apple App Store 的榜首,Anthropic 的年化營收從幾週前的 140 億美元飆升至 190 億美元。支持者甚至在公司總部外用粉筆寫下致敬文字,其中一則寫道:「上帝愛 Anthropic。」

這個現象揭示了一個深刻的市場動態:在一個對政府權力擴張日益警覺的時代,「敢對五角大廈說不」反而成了最強大的品牌敘事。Anthropic 意外地將自己定位為「有原則的科技公司」,這在消費者心中的溢價,短期內甚至超過了失去政府合約的損失。

最新數據讓這個故事更加精彩。根據多方報導,Anthropic 在 2026 年 2 月完成了一輪高達 300 億美元的 G 輪融資,公司估值飆升至約 3,800 億美元。其年化營收已達到約 140 億美元,其中 Claude Code(編碼代理產品)單獨就貢獻了 25 億美元的年化營收。公司服務超過 30 萬家企業客戶,而全球最大的專業服務公司之一 Deloitte 更是將 Claude 部署給了其 47 萬名員工——這是 Anthropic 迄今為止規模最大的企業部署案例。

這些數字背後反映的是一個更深層的產業趨勢。根據 Nvidia FY2026 Q4 財報,全球 AI 基礎設施需求正以指數級速度增長——單季營收 681 億美元,全年營收突破 2,159 億美元。Nvidia CEO Jensen Huang 在財報電話會議上明確指出:「代理式 AI 的拐點已經到來。」而 Anthropic 的 Claude Code 正是這波代理式 AI 浪潮中最具代表性的產品之一。換言之,五角大廈試圖封殺的,恰恰是當前 AI 產業中成長最快、最具戰略價值的技術方向。

從更宏觀的資本市場角度來看,Moody's 的一份報告指出,Amazon、Meta、Microsoft、Oracle、Alphabet 等主要雲端供應商,有高達 6,620 億美元的未來資料中心租約承諾尚未入帳。這個天文數字說明了一件事:全球科技產業正在以史無前例的規模押注 AI 基礎設施。在這樣的背景下,Anthropic 被標記為供應鏈風險的舉措,不僅影響的是一家公司,更可能對整個 AI 產業的政商互動模式產生深遠影響。

流行歌手 Katy Perry 在 X 上分享了自己從 ChatGPT 轉向 Claude 的截圖,配上一句簡潔的「done」,引發了一波社群媒體上的集體「叛逃」潮。這種消費者層面的自發性品牌運動,是金錢買不到的行銷效果。

然而,CNN 的最新報導為投資人帶來了一線喘息空間。Anthropic 發言人表示,經過律師團隊研究,該供應鏈風險標記的適用範圍比最初暗示的要窄——Anthropic 的產品(包括 Claude)仍然可以透過 Microsoft 365、GitHub、Azure AI Foundry 等平台向非國防部的客戶提供服務,公司也可以繼續與 Anthropic 合作非國防相關的專案。這意味著「全面封殺」的末日情境可能不會發生,但政治信號依然明確而冰冷。

但投資人並不這麼樂觀。據報導,Anthropic 的重要投資者——包括 Amazon CEO Andy Jassy——已就此事與 Amodei 進行了討論。部分投資者對 Amodei 讓問題惡化到這個地步感到失望,認為這既是實質問題,更是外交手腕的問題。他們擔心的是更廣泛的後果:如果「供應鏈風險」標記真的全面落實,Anthropic 將被切斷與整個國防生態系統的聯繫。

戰略信用透支:從強硬抵制到光速妥協

Andrew 在節目中引述了一個精準概念:「戰略信用透支」(Strategy Credit Overdraft)。Anthropic 長期以來將自己包裝為「最有道德、最注重安全的 AI 公司」,這本來是區隔 OpenAI 的絕佳市場策略。

但這次,他們把道德牌打成了死局。為了維持道德光環而向國防部說「不」,直接威脅到了公司的核心生存能力。這就像一個政客為了迎合極端基本盤,在初選走得太偏,結果在大選中面臨全盤皆輸的窘境。面對可能被聯邦政府全面封殺的深淵,Anthropic 最終重回談判桌的選擇證明了:在國家機器面前,商業生存永遠凌駕於道德姿態之上。

歷史的迴音:網路中立性與黨派狂熱的重演

Ben 將當前大眾與媒體的反應,與 2017 年川普第一任期內廢除「網路中立性」(Net Neutrality) 的爭議進行了對比。當年,FCC 主席 Ajit Pai 廢除該法案時,科技圈爆發了末日般的恐慌,Pai 甚至收到了死亡威脅。但事實證明,網路並沒有因此崩潰,反而迎來了寬頻與 5G 基礎建設的投資熱潮。

耐人尋味的是,FCC 現任主席 Brendan Carr 也加入了這場論戰,公開表示 Anthropic 在與五角大廈的交涉中「犯了一個錯誤」,應該「修正方向」。這番發言進一步強化了一個政治現實:在當前的華府權力格局中,與行政部門作對的代價遠超想像。

Ben 指出,現在許多人對川普政府打壓 Anthropic 的反應,同樣陷入了盲目的「黨派狂熱」。很多人根本不在乎 AI 政策的合理性或國家安全的本質,單純因為「這是川普做的」就膝反射式地反對。

最新轉折:道歉、訴訟威脅與談判的羅生門

就在供應鏈風險標記正式生效後的數小時內,劇情再次出現戲劇性轉折。Amodei 於 3 月 5 日深夜發表了一份冗長的公開聲明,首次對外洩備忘錄的措辭公開道歉:「那是公司非常艱難的一天,我為那篇貼文的語氣道歉。它不代表我深思熟慮後的觀點。那篇文字寫於六天前,已經是過時的評估。」

然而,Amodei 在道歉的同時展現了另一面——他明確表示 Anthropic 已做好對五角大廈提起訴訟的準備。他在聲明中強調,國防部信函中使用的語言,即使假設其法律依據站得住腳,其適用範圍也僅限於客戶直接作為國防部合約一部分使用 Claude 的場景,而非所有擁有國防合約的客戶對 Claude 的所有使用。這是一個關鍵的法律區分,如果 Anthropic 的解讀成立,供應鏈風險標記的實際殺傷力將大幅縮減。

更耐人尋味的是談判狀態的「羅生門」。Amodei 在聲明中聲稱:「我想重申,過去幾天我們一直在與國防部進行富有成效的對話。」但幾乎在同一時間,Emil Michael 在 X 上發文直接否認:「我想終結所有猜測:國防部目前沒有與 Anthropic 進行任何活躍的談判。」這種公開的「各說各話」,要麼說明雙方對「談判」的定義存在根本分歧,要麼暗示某一方在進行輿論戰。無論如何,這場對峙的最終結局仍懸而未決。

Microsoft 的表態則為市場注入了一劑定心丸。微軟發言人明確表示,經過律師團隊研究,Anthropic 的產品(包括 Claude)仍可透過 M365、GitHub 和 Azure AI Foundry 等平台向非國防部客戶提供服務,微軟也將繼續與 Anthropic 在非國防相關專案上合作。考慮到微軟是 Anthropic 模型最重要的分發渠道之一,這個表態的份量不可小覷。

未解之謎與後續觀察

在節目尾聲,兩位主持人達成了共識:隨著 AI 技術呈指數級躍升,我們必須超越黨派之爭,嚴肅面對政府與 AI 公司之間的「權力對齊」問題。如果社會大眾與媒體只會用「法西斯」或「舔狗」互相攻擊,我們將徹底錯失解決 AI 時代民主治理危機的機會。

這場博弈留下了幾個懸而未決的重大問題:「供應鏈風險」標記的法律效力能否經得起司法挑戰?Anthropic 與五角大廈的重啟談判能否達成妥協?如果未來 AGI 真的成真,美國政府會不會制定全新的法律框架,強制徵收或接管這些技術?而科技巨頭在未來的國安防線中,究竟是承包商,還是擁有談判籌碼的「準國家實體」?

唯一確定的是:AI 時代的政商關係,已經進入了一個全新的、充滿不確定性的領域。而這場 Anthropic 與五角大廈的衝突,或許只是序幕。

推薦延伸資源:

  1. Stratechery:Ben Thompson 的科技商業分析電子報,深入理解科技巨頭與國家權力的動態框架。
  2. Sharp Tech Podcast:本文分析的音檔出處,推薦收聽完整集數感受主持人間的思維碰撞。
  3. Reuters 獨家報導:Anthropic 投資人推動緩和五角大廈衝突的最新動態。
  4. Financial Times 報導:追蹤 Anthropic 與五角大廈重啟談判的後續發展。

原始連結:https://sharptech.fm/member/episode/preview-the-anthropic-mess-continues-frontier-ai-and-the-uncertain-future-of-law-q-a-on-netflix-dating-apps-f-1