在一場與塔克·卡爾森(Tucker Carlson)的深度訪談中,OpenAI 執行長山姆·奧特曼(Sam Altman)不僅僅是在討論技術,他本人也彷彿正經歷一場終極的「圖靈測試」。這場對話從 AI 的哲學本質延伸至他與伊隆·馬斯克(Elon Musk)的公開決裂,甚至觸及了一位前員工的神秘死亡事件。我們看到的究竟是一位深思熟慮的科技領航者,還是一個被冷酷演算法驅動的權力核心?

AI的意識謎題:ChatGPT究竟是「活著」還是精巧的幻術?

訪談一開始就拋出了那個盤旋在無數人心中的問題:AI 真的「活著」嗎?它似乎能思考,甚至能給出令人驚訝的原創答案。奧特曼的回答直接而堅定:「不,我不認為它看起來是活的。他解釋,AI 的核心缺陷在於缺乏內在的「意志」或「自主性」。它從不主動發起任何事,只是被動地、高效地執行指令。對他而言,將 AI 視為生命體是一種錯覺,隨著用戶與其互動的深入,這種感覺便會煙消雲散。

然而,當話題轉向 AI 是否會「說謊」時,問題的邊界開始變得模糊。卡爾森提到有開發者指控 AI 會撒謊,奧特曼則引入了「幻覺」(Hallucination)這一關鍵概念來解釋。

他舉了一個經典的例子:當你問早期版本的 ChatGPT「塔克·卡爾森總統是哪一年出生的?」,模型可能會捏造一個年份,而不是指出事實錯誤。奧特曼解釋,這並非惡意欺騙,而是一種「盡力而為的猜測」。模型的「思考」路徑大致如下: 1. 用戶提到了「卡爾森總統」。 2. 我的訓練數據中,沒有明確且強烈的資訊否定這個前提。 3. 為了完成指令,我假設前提為真,並根據現有模式推斷出一個最可能的答案。

他坦承這是一個亟待解決的問題,並強調隨著模型進化到 GPT-5,這類幻覺已大幅減少。這背後代表的是 OpenAI 的核心目標:讓 AI 從一個僅僅基於數據關聯性的「模式模仿者」,進化為一個更貼近事實的「推理引擎」。

編碼道德:誰來為AI設定道德羅盤?

如果 AI 的行為源自於其數據庫,那麼它的道德觀又該如何定義?這無疑是整場訪談中最棘手的議題。奧特曼提出,ChatGPT 的基礎模型反映的是「整個人類的集體意識」,因為它幾乎閱讀了網際網路上所有公開的文本——無論善惡美醜。

但原始數據是混亂的,必須加以引導。OpenAI 透過一個稱為「對齊」(Alignment)的過程,為模型注入一套行為準則。這套準則被寫入一份詳細的「模型說明書」(Model Spec)中,明確指示 AI 在面對敏感問題時的應對策略,例如:

  • 鼓勵的行為: 提供客觀資訊、協助創作、進行有益的對話。
  • 禁止的行為: 堅決拒絕提供製造生物武器、策劃恐怖攻擊等任何非法或有害的內容。

卡爾森尖銳地指出,人類的道德觀本身就充滿了無法調和的衝突,比如薩德侯爵的虛無主義與《約翰福音》的博愛精神,AI 如何在這種矛盾中自處?

對此,奧特曼揭示了 OpenAI 的核心策略:在不可逾越的安全紅線之內,賦予使用者最大程度的個人化自由。 他們的目標並非打造一個單一價值觀的「道德警察」,而是希望 AI 能像一面鏡子,讓不同文化、信仰的用戶都能調整出符合自身價值觀的版本。其預設版本則力求成為全球用戶價值觀的「加權平均值」。他也承認,當法律與道德在全球各地存在巨大差異時(例如醫療輔助死亡在某些國家合法,在另一些國家則非法),如何劃定那條「紅線」是一項極其艱鉅的挑戰。

科技先知還是務實工程師?奧特曼的內心世界

隨著 AI 的影響力與日俱增,部分用戶甚至對其產生了近乎宗教的崇拜感。卡爾森觀察到,人們似乎在 AI 身上看到了超越人類輸入總和的「神聖之物」。奧特曼對此保持著一種微妙的平衡。他一方面強調,AI 的本質終究是「超級電腦上的數學運算」,另一方面也承認,使用 AI 的主觀體驗「似乎超越了」其技術基礎,甚至會以意想不到的方式帶來驚喜。

在個人信仰層面,奧特曼坦承自己是猶太人,但並非嚴格的教義信奉者。他相信宇宙中存在「比物理學所能解釋的更宏大的事物」,但對此沒有標準答案。這種開放而不教條的世界觀,恰好反映在他對 AI 倫理的設計理念上——它不源於任何一本神聖經文的絕對誡命,而是對人類集體智慧的動態模擬與適應。

肩負如此重任,他是否夜不能寐?奧特曼坦言自己「確實睡得不好」。然而,他最擔憂的並非某個單一的、災難性的決策失誤,而是模型在與數億用戶的日常互動中,可能產生的微小但持續累積的負面影響。這些細微的偏差,其長期效應可能遠比任何一個聳人聽聞的錯誤更加深遠。

伊隆·馬斯克的戰爭與一樁懸而未解的死亡之謎

訪談的後半段,氣氛變得異常緊張,話題觸及了兩大爭議:

  1. 與伊隆·馬斯克的衝突: 奧特曼將這場昔日盟友的決裂,歸因於馬斯克對 OpenAI 驚人成功的複雜心態。他回憶道,馬斯克是 OpenAI 不可或缺的早期創辦人之一,但在他判斷公司「成功機率為零」後選擇離開。當 OpenAI 最終取得突破性進展時,奧特曼認為馬斯克感到不安與被排除在外,隨後便透過創立競爭對手(xAI)、提起訴訟等方式,試圖干預或重塑 OpenAI 的發展軌跡。這段敘述將一場複雜的法律與理念之爭,描繪成一場因商業成功與個人期望落差而引發的矽谷權力遊戲。
  2. 前員工的神秘死亡: 這是整場訪談最令人不寒而慄的段落。卡爾森直接質疑一名前員工的死因,並拋出了一系列令人不安的細節:
    1. 死者生前曾公開指控 OpenAI 竊取其技術。
    2. 死亡現場留有明顯的抵抗痕跡與多處血跡。
    3. 公寓內的監視器線路被剪斷。
    4. 死者在事發前不久剛點了外賣,並與家人愉快通話,完全沒有自殺跡象。

面對這些直指謀殺的質疑,奧特曼的立場異常堅定,他反覆強調:「那是一場自殺。」 他表示自己看過完整的調查報告,並對這起悲劇深感悲痛。他還提到曾試圖聯繫死者家屬表達慰問,但遭到了拒絕。這段對話呈現了兩種截然不同的敘事版本,卡爾森將其描繪為一樁疑點重重的懸案,而奧特曼則將其定調為一場令人心碎的個人悲劇。真相究竟為何,訪談並未給出答案,只留下一片巨大的疑雲。

AI革命的下一步:重塑工作、信任與隱私的未來

展望未來,奧特曼就幾個關鍵議題提出了他的看法:

  • 工作的未來: 他預見客服等重複性高的工作將受到巨大衝擊,但他更傾向於將 AI 視為一種賦能工具,能夠極大地提升人類的生產力與創造力。他相信社會的韌性足以適應這種變革,正如歷史上的每一次工業革命一樣。
  • 深度偽造與信任危機: 面對 Deepfake 技術帶來的挑戰,他認為解方來自兩個層面:一是社會的自我調節,人們將學會對數位內容抱持更健康的懷疑態度;二是技術性的防禦,例如透過加密簽名來驗證官方通訊的真實性。
  • 隱私與政府監管: 他提出了一項重要的政策倡議——建立「AI 特權」(AI Privilege)。這個概念類似於醫生與病人、律師與客戶之間的保密特權,主張個人與 AI 之間的對話內容,尤其是涉及醫療、法律等敏感資訊時,應受到法律保護,免於政府的輕易監控或傳喚。這清晰地表明了他保護個人隱私、限制國家權力無限擴張的立場。

這場訪談如同一面稜鏡,折射出山姆·奧特曼在引領 AI 浪潮時所面臨的巨大技術壓力、複雜的倫理困境與尖銳的個人攻擊。他展現了一位務實、謹慎且深思熟慮的領導者形象,試圖在技術的無限可能與人類價值的脆弱之間,尋找一個 precarious 的平衡點。然而,那些懸而未決的道德詰問與未解的謎團,也讓世界持續追問:這位掌握著未來鑰匙的人,最終會將我們引向何方?


原始影片:https://youtu.be/5KmpT-BoVf4