在 TED 的聚光燈下,一場關於人工智慧未來的深度對話展開,由主持人 Chris Anderson 與備受矚目的 OpenAI CEO Sam Altman 擔綱主角。這不僅是一次技術展示,更是一場關於 AI 將如何重塑我們的社會、創造力甚至存在本身的哲學思辨。從令人驚嘆的 AI 生成內容,到對通用人工智慧(AGI)的審慎探討,Altman 描繪了 OpenAI 的發展路徑,同時也坦誠面對伴隨而來的巨大挑戰與責任。
GPT-4o 與 Sora 小試牛刀:當 AI 開始「看見」與「創造」
對話開場,Anderson 便拋出了由 OpenAI 最新模型(如多模態的 GPT-4o 和影片生成模型 Sora)生成的「考題」。第一項挑戰是根據提示「Sam Altman 在 TED 上與 Chris Anderson 分享驚人啟示」生成圖片。結果相當有趣:圖片精準捕捉了兩人的服裝風格和 TED 舞台氛圍,甚至連手部細節都處理得不錯。然而,正如 Anderson 指出的,圖片中的 Altman 顯得「過於生動活潑」,這細微的失真反而突顯了 AI 理解與表達的微妙之處。
另一項展示則更為抽象:一個 AI 生成的圖表,巧妙地將「意識」(Consciousness – 主觀感受)與「智能」(Intelligence – 解決問題的能力)區分開來。Anderson 對此表示「印象深刻」,認為這清晰地劃分了兩個經常被混淆的概念。Altman 解釋,這類圖像生成並非獨立功能,而是 GPT-4o 核心智能的延伸應用。「這些模型的核心是理解世界,生成圖像只是其能力的體現之一。」
更引人深思的是一段 AI 生成的查理布朗風格漫畫,內容是角色們探討 AI 是否真的在「思考」。這觸及了一個核心問題:當 AI 的行為表現與思考過程越來越難以與人類區分時,模擬思考與真實思考之間的界線在哪?Altman 拋出了耐人尋味的觀點:「如果我們最終無法分辨兩者,那它們之間的差異,又有多重要呢?」這暗示了未來評價智能的標準,可能更側重於其功能與影響,而非內在的「感覺」。
社會衝擊波:AI 是賦能工具,還是飯碗終結者?
話題自然轉向 AI 對社會結構的潛在衝擊。Anderson 直言不諱地提出了許多人的擔憂:AI 是否會取代大量工作崗位,例如高薪的管理顧問?
Altman 並未迴避這個問題,他承認變革在即,但更傾向於將 AI 定位為一種「放大器」或「賦能工具」,而非單純的替代品。他類比歷史上的技術革命(如印刷術、計算機),認為 AI 同樣會「極大地提升人類的能力上限,同時也拉高對生產力的期望」。他預期,AI 將催生新的工作形態,並讓人們能專注於更高層次的策略、創意與人際互動。
然而,創作領域的挑戰尤為突出。討論深入到智慧財產權的灰色地帶,特別是 AI 模型在未經藝術家明確同意下,學習並模仿其獨特風格的問題。Altman 表示,OpenAI 已採取一些保護措施,例如「阻止用戶直接使用在世藝術家的名字生成圖像」。但他坦承,現有框架不足以應對 AI 時代的創作歸屬與報酬分配,迫切需要探索「新的經濟模型與版權框架」,以確保創作者的權益在技術浪潮中得到保障。這是一個仍在尋求答案的關鍵問題:如何在擁抱 AI 巨大潛力的同時,建立公平且可持續的創新生態?
AGI 迷霧:定義、風險與 OpenAI 的安全網
通用人工智慧(AGI)——這個被視為 AI 發展聖杯的概念,其定義至今仍相當模糊,即使在 OpenAI 內部也未有統一定論。Altman 嘗試釐清當前模型(如 GPT-4)與真正 AGI 的區別。他強調,現有模型仍存在關鍵限制:
- 缺乏持續學習能力:無法像人類一樣自主、持續地從經驗中學習和進化。
- 無法獨立發現新知識:不能主動進行科學探索或發現全新的科學原理。
- 代理能力(Agency)有限:無法設定複雜目標,並在真實世界中自主規劃、執行長期任務。
針對外界關於 OpenAI 可能已秘密開發出具有意識的 AI 模型的傳言,Altman 直接駁斥為「無稽之談」。但他同時也嚴肅承認,通往 AGI 的道路充滿重大風險,主要包括:
- 潛在濫用:如被用於生物恐怖主義、發動大規模網路攻擊或製造虛假信息。
- 失控風險:特別是當 AI 具備自我改進能力後,可能出現目標偏離或無法預測的行為。
為應對這些挑戰,Altman 強調 OpenAI 採用的「迭代部署」(Iterative Deployment)策略至關重要。這意味著在模型能力相對較弱、風險可控的階段就將其部署,收集真實世界的回饋,及早發現問題並進行修正。結合內部的「準備框架」(Preparedness Framework)——一套嚴格的安全評估和風險應對機制,OpenAI 試圖在創新速度與安全保障之間找到平衡。「在風險相對較低時學習,是負責任地推進強大 AI 的唯一途徑。」他補充道,一旦 AI 系統具備更強的「代理能力」,將帶來全新的、更嚴峻的安全挑戰,需要更高級別的防範措施。
關於開源,Altman 確認 OpenAI 計劃「未來發布一個強大的開源模型」,以回饋社群。但他同時強調,OpenAI 的核心策略仍然是「構建最佳的整合產品和服務」,而不僅僅是提供基礎模型。這反映了 OpenAI 在開放與商業化、模型能力與產品體驗之間的權衡。
使命、責任與未來展望:謹慎樂觀地駛向 AI 新紀元
對話的尾聲,Anderson 向 Altman 提出了關於個人和道德責任的深刻詰問:當你開發的技術可能徹底改變人類文明的軌跡時,你如何承擔這份沉甸甸的責任?
Altman 重申 OpenAI 的核心使命:「確保通用人工智慧安全地造福全人類」。他承認,實現這一目標的具體策略會隨著技術發展和社會反饋而演進,但「造福人類」的初衷不會改變。他也分享了個人層面的感悟,提及為人父的經歷讓他對未來世代的福祉有了更深的體認。
展望未來,Altman 描繪了一個充滿希望但也需謹慎應對的圖景。他期待,在 AI 的輔助下,未來世代將「比我們更加智慧,能夠做出更明智的集體決策」,生活在一個「難以置信的富足」的世界裡。他甚至想像,後人回望我們這個受限於資源、疾病和認知偏差的時代時,可能會帶著「一絲憐憫」。
儘管對 AI 的潛在風險有著清醒的認識,Altman 的最終訊息是「以謹慎而非恐懼的態度擁抱這項變革性技術」。他呼籲社會各界積極參與到關於 AI 治理、倫理和應用的討論中,共同塑造一個普惠、安全的 AI 未來。 這場對話留下了許多待解的議題:AGI 的確切定義與衡量標準、如何建立全球協調的 AI 安全規範、創作者經濟在 AI 時代的具體形態…… 但它無疑為我們理解 OpenAI 的戰略、挑戰以及 Sam Altman 對 AI 終局的思考,提供了寶貴的線索。