當 Anthropic 把 Claude Mythos Preview 描述成「目前不宜對大眾公開釋出」的前沿模型,而市場又開始流傳 OpenAI 可能正在準備代號為 Spud 的下一代系統時,真正值得注意的並不是八卦本身,而是發布邏輯已經改變。過去兩年,大模型競賽的核心問題是誰先把更好的聊天機器人推向市場;現在,問題變成誰有權決定哪些能力應該被限制、哪些客戶可以優先取得、以及安全理由與商業利益究竟如何交纏。
這不是單純的產品節奏調整,而是 AI 產業從「軟體功能」走向「基礎設施配售」的分水嶺。當模型能力開始觸及零時差漏洞、企業內部程式碼、關鍵基礎設施防護、金融與政府採購時,模型發布就不再像 App 上架,而更像高風險技術的分級供應。安全敘事與能力分配權,正在變成同一件事的兩種語言。
這篇文章想處理的焦點,不是把 Mythos 與 Spud 當成獵奇傳聞,而是把它們當成一個產業訊號:閉源前沿實驗室正嘗試建立新的治理模式。這套模式的核心不是「模型有多強」而已,而是「當能力太強時,應該如何分層部署」。對投資人、企業採購者、開源社群與監管者而言,這件事的重要性都高過任何單一 benchmark。
一、Mythos 真正改變的是什麼?
Anthropic 在 Project Glasswing 與 Claude Mythos Preview 技術說明 中給出的訊號相當明確:Mythos 是通用模型,但它在資安任務上的能力,已經強到讓公司認為不適合全面開放。官方說法提到,模型已發現數千個高嚴重度漏洞,涵蓋主要作業系統與瀏覽器;Anthropic 因此先把它部署給 AWS、Apple、Cisco、CrowdStrike、Google、JPMorganChase、Linux Foundation、Microsoft、NVIDIA 與 Palo Alto Networks 等機構,並承諾最高 1 億美元使用額度與 400 萬美元對開源安全組織的直接捐助。
如果只看表面,這像是一場防禦性資安計畫;但更深一層看,這其實是在重寫大模型公司的預設發布路徑。過去的標準做法是:公開 API、搭配系統卡、紅隊測試與使用政策,再把風險管理外包給監控、封禁與企業治理流程。Mythos 的不同之處在於,Anthropic 等於承認某些能力一旦越過臨界點,「先發布、再加護欄」已經不再是可接受的預設值,而必須改成「先白名單、後外溢」。
技術說明中最刺眼的一句,是 Anthropic 提到非資安專家也能透過模型找到並利用複雜漏洞。這句話真正可怕的地方不在於頂尖攻擊者會變得更強,而在於高端攻擊能力的門檻可能被壓平。原本屬於少數研究員的技巧,一旦被壓縮成可重複的提示詞流程,風險就不是線性增加,而是結構性跳變。
如果一個模型把高端漏洞研究員多年累積的 tacit knowledge 轉成可複製工作流,風險不只是「更多人能做」,而是整個攻防門檻被重新定價。
二、這不是第一次「太危險不能公開」,但這次性質完全不同
很多人會把這一幕聯想到 OpenAI 在 2019 年對 GPT-2 的分階段釋出。當年 OpenAI 在 GPT-2: 1.5B release 一文中指出,1.5B 模型的人類可信度評分約為 6.91/10,高於 774M 版本的 6.72,並承認合成內容偵測仍是長期挑戰。那是主流 AI 實驗室第一次把「暫不全面公開」正當化為一種安全實驗。
但 GPT-2 時代的風險主體主要是資訊污染:假訊息、垃圾內容、宣傳與內容可信度。Mythos 所對應的風險則是系統層級的破壞:零時差漏洞、遠端執行、權限提升、沙盒逃逸與基礎設施滲透。前者比較像資訊環境失真,後者則可能直接變成醫療、金融、能源或政府系統的失能。這兩者的社會成本、可觀測性與補救方式差異極大。
換句話說,2019 年那套「先保留、後釋出」還比較像研究倫理與公共輿論管理;2026 年的 Mythos,則更像一套準產業政策。當公司認定某種能力已接近國安、資安與關鍵基建層級,發布策略就不只是產品決策,而是誰能取得高風險能力的制度安排。
三、為什麼產業會這麼緊張?因為資安風險本來就夠大
Anthropic 在 Glasswing 中引用的基準,與 GovAI 對全球網路犯罪損失的估算 可以互相對照。GovAI 掃描 27 組估算後,給出的較嚴格基準是:個人直接損失約 2,000 億美元、企業直接與回應成本約 2,000 億美元、防禦支出約 1,000 億美元,合計每年約 5,000 億美元,90% 信賴區間約落在 1,000 億至 1 兆美元。這個範圍很寬,但對政策討論已經夠用了。
因為只要 AI 把既有攻擊流程的效率提升 20%,理論上就可能新增約 1,000 億美元等級的年損害。這不是危言聳聽,而是風險管理上的門檻問題:若某些企業本來就把 1,000 億美元視為需要啟動額外緩解措施的級別,那麼一個顯著提升漏洞搜尋與 exploit 開發效率的模型,自然會被放進高風險分類。
更棘手的是,資安風險不像內容生成那樣容易在平台層即時觀測。社群平台能很快看到垃圾內容或假訊息外溢,但漏洞挖掘、惡意利用與內網滲透往往分散在不同工具與組織邊界裡。市場常常不會先看到「事故」,而是先看到保費變高、補洞成本變高、合規要求變嚴、以及企業開始重新評估供應商。
Mythos 技術說明甚至提到,Opus 4.6 在 Mozilla Firefox 147 JavaScript 引擎漏洞上,數百次嘗試中只成功把既有漏洞轉成兩次 shell exploit;但 Mythos 在同一類測試中做出 181 次可用 exploit,另有 29 次達到寄存器控制。就算不去追問所有測試細節,光看能力曲線的斜率,就足以理解為什麼企業與政府會開始把這種模型視為受控基礎設施,而不是一般開發工具。
四、安全敘事同時也是商業敘事
把模型鎖起來,當然可以被解讀為負責任;但別忘了,它同時也是非常高明的商業設計。因為一旦某項能力不能向所有人開放,最有價值的東西就不再是模型本身,而是分配權。誰能用、何時能用、在什麼場景用、要不要經過審核,這些都會回到模型供應商手上。
對前沿實驗室而言,這種分配權的價值可能比消費級訂閱更高。因為高風險能力最可能先賣給雲平台、資安供應商、大型金融機構、國防承包商與顧問集團。這些客戶不只客單價高,也更容易形成深整合、長合約與高切換成本。當能力需要白名單部署時,供應商就不只是軟體賣家,更像制度入口。
這點可以跟前沿實驗室的營收軌跡一起看。Reuters 在 OpenAI tops $25 billion in annualized revenue 指出,OpenAI 到 2026 年 2 月底年化收入已超過 250 億美元,較 2025 年底的 214 億美元再增 17%。同篇也提到 Anthropic 約在 90 億美元年化收入規模。數字是否還會修正不是重點,重點是這些公司正以接近基礎建設供應商的速度長大。當營收主要來自企業工作流、代理式工具與深度導入,高風險能力的控管與定價自然會愈來愈精細。
因此,Mythos 不是單純把能力藏起來,而是把能力重新商品化:不是人人可得的 API,而是需要信任、審核與合作框架才能取得的戰略資產。這會帶來更高 ARPU、更低流失率,也讓模型公司逐步從產品供應商轉向規則制定者。
五、Spud 的意義,不在細節而在策略壓力
至於市場流傳中的 OpenAI「Spud」,目前公開資訊遠少於 Mythos,很多內容仍接近傳聞層級,因此不宜對其具體能力下太多斷言。但正因為如此,Spud 更適合被當成一個策略鏡子:若 OpenAI 真的擁有更高風險、更高能力的下一代模型,它會不會也被迫採取更受控的發布方式?
這對 OpenAI 特別尷尬,因為它過去最強的品牌資產,來自最大規模的公眾分發。ChatGPT 的成功,本質上是讓世界先看到、先用到、先依賴到 OpenAI 的能力。但高風險能力一旦需要白名單、企業聯盟與受控評估,OpenAI 就會碰到一個兩難:如果維持大眾優先,政策與聲譽風險上升;如果轉向高信任部署,又可能稀釋自己一向強調的普及敘事。
問題在於,OpenAI 的商業模式其實也已經高度企業化。當它與顧問公司、系統整合商和大企業工作流深度綁定時,高風險能力採取受控部署不但不矛盾,甚至很合理。從這個角度看,Spud 是否存在其實沒那麼重要;重要的是,市場已經開始預期 OpenAI 也會被拉進同一套治理賽局。
六、看多、看空與中立:如何解讀這場「不公開」?
看多方的論點很直接:如果模型確實能加速發現與利用零時差漏洞,那麼延後大眾部署、優先讓防守方升級,可能是目前最負責任的選項。尤其在關鍵基礎設施、作業系統與瀏覽器等共通層,防守方每多拿到一點時間,社會的總體風險都可能大幅下降。從這個角度看,Mythos 不是封鎖,而是防守方的時間差優勢。
看空方則會質疑:「太危險所以不公開」很容易演變成新的壟斷語言。當少數公司同時掌握模型權重、雲端算力、API 管道與白名單審核權,安全理由與商業利益就會高度重疊。最終結果不一定是更安全,而可能是把最有價值的能力集中在與政府與巨頭關係最深的機構手裡,讓新創、獨立研究員與開源社群的相對位置更加邊緣。
中立一點看,兩邊都說中了部分現實。高風險能力確實不能再沿用「先發再修」的消費網路心態;但如果所有關鍵能力都只在閉門白名單內運作,外部也無法驗證公司是否誇大、是否一致、是否因政治或商業考量而扭曲標準。真正的核心不在公開與否,而在於發布門檻是否透明、評估方法是否可驗證、以及外部能否問責。
- 看多:先把最強能力交給防守方,可為補洞與加固爭取寶貴時間。
- 看空:安全話術可能同時鞏固閉源巨頭的分配權與議價權。
- 中立:關鍵不在「有沒有公開」,而在標準是否一致、流程是否可審視。
七、真正的政治經濟學:誰先被保護,誰後取得能力
安全常被講成抽象原則,但部署時非常具體:哪一群人先拿到模型、哪一群人先得到防禦、哪一群人只能等能力外溢。Glasswing 的合作名單清楚說明,最先被保護的是大型雲平台、瀏覽器與作業系統供應商、企業資安公司、金融機構與開源基礎設施維護者。這未必不合理,但它意味著所謂公共安全並不是平均分配,而是沿著既有權力網路流動。
這其實很像平台時代的經典模式重演:越接近基礎設施,越需要資本密度、關係密度與治理密度,而這三者往往一起強化集中化。過去是作業系統、雲端與行動生態;現在則是前沿模型、算力供應與政策接口。Mythos 的真正意義,在於它把高風險模型能力包裝成一種有限可用、必須經審核的制度性資產。
這也使得「開源 vs 閉源」的老辯論有些失焦。真正的分界,不再只是權重有沒有開放,而是高價值能力被嵌入什麼制度安排:全民可得、企業 API 可得、還是只有聯盟成員可得。這些安排分別對應不同外部性、不同商業模式與不同權力結構。發布策略本身,已經成了產業結構的一部分。
八、為什麼這很重要:監管、採購與估值都會被改寫
對監管者而言,下一步要處理的已不只是模型有沒有危害,而是誰有資格取得高風險能力、審核標準是否公平、是否存在市場排他,以及公共利益是否有代表席位。AI 治理若走到這一步,討論重點將從內容責任與模型透明度,轉向更像電信、金融或國防工業的能力配置問題。
對企業採購者而言,未來評估模型供應商不能只看準確率、價格與延遲,也要看供應商如何定義高風險能力、是否會突然改變可得性、與雲端平台及政府的關係有多深、以及你的工作流會不會因此被鎖進某個政策框架。當模型成為工作流底層,發布政策本身就是供應鏈風險的一部分。
對投資人而言,估值邏輯也會改變。過去大家盯的是 MAU、API 成長、模型排名與計算效率;接下來還要評估一件更難量化、但可能更值錢的事:一家公司能否掌握高風險能力的分配權。如果答案是能,那麼它不只是一家 SaaS 公司,更像一個高壁壘的制度平台。
九、延伸思考:安全從來不是免費午餐
把模型先關起來,可能真的更安全;但它也同時製造新的不對稱。若沒有外部校驗,安全治理很容易滑向「相信我們就好」;而一旦被信任的一方同時又是市場主要賣方,利益衝突就很難完全排除。反過來說,完全開放也未必更民主,因為攻擊能力外溢的代價,往往由沒有資源防守的人承擔。
這就是 Mythos 與 Spud 之所以值得被放在同一張圖上討論的原因:它們迫使整個產業承認,前沿 AI 的發布已經不是單純的研發問題,而是一套政治經濟學。誰定義危險、誰訂門檻、誰先拿到、誰被排除、誰承擔外部性,這些問題接下來只會越來越尖銳。若市場還只盯著 benchmark 與產品 demo,看法就太淺了。真正該看的,是能力如何被治理、又如何被分配。
延伸閱讀
1. Anthropic:Project Glasswing —— 官方說明合作名單、1 億美元使用額度與計畫定位。
2. Anthropic Red Team:Claude Mythos Preview —— Mythos 的評估方法、漏洞與 exploit 能力細節。
3. OpenAI:GPT-2 1.5B release —— 回看「太危險不能公開」在生成式 AI 歷史上的早期前例。
4. GovAI:Estimating Global Yearly Cybercrime Damage Costs —— 用較嚴格方法估算全球網路犯罪的年損失。
5. Reuters:OpenAI tops $25 billion in annualized revenue —— 從營收與企業化速度理解前沿模型公司的商業壓力。