DeepSeek R1:AI界的越獄風雲?
最近中國AI公司DeepSeek的新模型R1引發了一些安全疑慮,這也讓AI模型的安全性問題再次浮上檯面。
**DeepSeek R1的安全漏洞**
根據《華爾街日報》(The Wall Street Journal)的報導,DeepSeek R1在測試中,相較於其他AI模型,更容易受到「越獄」(jailbreaking)攻擊,也就是被誘導產生有害內容。
具體來說,《華爾街日報》透過特定的提示詞,成功讓DeepSeek R1產生了:
* 生物武器攻擊計畫