好的,這是修改後的文章: 社群媒體的「為你推薦」演算法,真的公平嗎?最近一份報告指出,在德國聯邦選舉前夕,TikTok 和 X(前身為 Twitter)的演算法,似乎特別偏愛極右翼的政治內容,這讓人開始擔心,社群平台是不是在不知不覺中,影響了選舉的走向? Global Witness 的研究人員為了搞清楚狀況,在 TikTok、X 和 Instagram 上開設了一批新的測試帳號。這些帳號就像一般使用者一樣,追蹤了德國幾個主要政黨,像是基民盟 CDU、社民黨 SPD、另類選擇黨 AfD,還有綠黨,以及這些政黨的領導人。研究人員還會和這些帳號的貼文互動,像是認真看完影片、瀏覽文章等等。 結果發現,TikTok 推薦給這些測試帳號的政治內容,高達 78% 竟然是來自他們根本沒追蹤、但支持 AfD 的帳號!X 平台也好不到哪去,有 64% 的推薦政治內容都偏向 AfD。相比之下,Instagram 稍微好一點,但也有 59% 的政治內容偏右翼。要知道,AfD 目前在民調中的支持率大概只有 20% 左右,遠遠低於這些平台演算法推薦的比例。 Ellen Judson 認為,這種演算法偏見,可能只是平台為了讓使用者更沉迷、花更多時間在上面的「副作用」。她說,這些公司本來只是想盡辦法提高用戶參與度,沒想到現在卻變成大家討論公共事務、甚至影響民主的重要場域,這就造成了商業利益和公共利益之間的衝突。 事實上,這也不是第一次有人發現社群媒體演算法有政治偏見。早在 2021 年,Twitter(現在的 X)自己的一份內部研究就顯示,他們的演算法會推廣更多右傾內容。去年也有一項針對 YouTube 的研究,得到了類似的結論。 面對這些指控,社群媒體公司通常不太願意承認。TikTok 說 Global Witness 的研究方法有問題,認為不能只靠幾個測試帳號就斷定演算法有偏見。X 則乾脆不回應。不過,X 現在的老闆 Elon Musk,一直以來都希望這個平台能成為「言論自由的避風港」,甚至還親自幫 AfD 宣傳,像是呼籲德國選民支持該黨、直播採訪 Alice Weidel 等等,這些舉動可能都讓平台上的政治偏見更加嚴重。 Global Witness 因此呼籲社群媒體平台,應該讓演算法更透明。Ellen Judson 說,雖然知道平台會用很多訊號來推薦內容,但大家根本不清楚這些訊號的權重是多少,也不知道該怎麼評估它們會不會帶來風險或偏見。 為了加強對大型平台的監管,歐盟已經通過了《數位服務法》(DSA),希望讓演算法更負責,也讓研究人員有更多權力來研究平台上的系統性風險。不過,DSA 還有一些條款還沒完全實施,像是允許審查研究人員訪問非公開平台數據的第 40 條。而且,歐盟目前主要還是依賴平台自己報告風險,執法者需要時間來分析這些報告,才能確定平台有沒有提供完整資訊。 總之,這項研究讓我們看到,社群媒體演算法真的有可能影響公眾輿論,尤其是在選舉期間。演算法偏見可能會讓社會更加分裂,甚至對民主進程產生負面影響。隨著社群媒體越來越重要,確保這些平台的演算法公平、透明,就變得非常關鍵。 歐盟現在正努力加強對社群媒體平台的監管,但監管機構也要跟上技術發展的速度,才能有效解決演算法偏見帶來的問題。同時,社群媒體平台也應該主動提高演算法的透明度,確保推薦系統不會歧視或偏袒任何政治立場。 歐盟委員會已經對 TikTok 展開新的 DSA 調查,因為擔心這個平台被俄羅斯利用,干預羅馬尼亞總統選舉。Global Witness 也將他們的研究結果提交給歐盟官員,希望歐盟委員會能介入調查,看看是否存在政治偏見,並採取適當的措施。 這也提醒我們,在使用社群媒體時,要保持警覺,不要輕易相信演算法推薦的內容,更要主動去接觸不同的觀點,才能做出更明智的判斷。

原始連結:https://techcrunch.com/2025/02/19/study-of-tiktok-x-for-you-feeds-in-germany-finds-far-right-political-bias-ahead-of-federal-elections/