前 Meta 新聞負責人 Campbell Brown 創立 Forum AI,花 17 個月系統性評估主流 […] 〈前 Meta 新聞主管調查:幾乎所有 AI 模型政治左傾,Gemini 曾援引中共官媒〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。前 Meta 新聞負責人 Campbell Brown 創立 Forum AI,花 17 個月系統性評估主流 […] 〈前 Meta 新聞主管調查:幾乎所有 AI 模型政治左傾,Gemini 曾援引中共官媒〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。

前 Meta 新聞主管調查:幾乎所有 AI 模型政治左傾,Gemini 曾援引中共官媒

2026/05/15 09:40
閱讀時長 11 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。

前 Meta 新聞負責人 Campbell Brown 創立 Forum AI,花 17 個月系統性評估主流 AI 模型的資訊品質,發現 Gemini 曾在處理非中國相關報導時引用中共官方網站資訊,且幾乎所有測試模型都存在左傾政治偏向。
(前情提要:AI 摧毀 133 年來普林斯頓大學傳統:當「作弊」逐漸變成常識
(背景補充:97,895 條地下論壇對話告訴你:駭客社群其實也恨 AI

本文目錄

Toggle
  • 沒有人在測的那個問題
  • 流暢的錯誤,比沉默更難被發現
  • 法規倒逼,不是道德自覺

Brown 是記者出身,曾在 CNN 擔任主播,後來轉任 Meta 新聞負責人,直接管理 Facebook 在全球 30 億使用者面前如何呈現新聞的政策。

這個位置讓她近距離看到了「平台如何塑造資訊流通」的全貌。她在 17 個月前離開 Meta,於紐約創立了 Forum AI,專門做一件 foundation model 公司普遍跳過的事:系統性評估 AI 給出的資訊是否準確、是否公正、是否具有多元視角。

沒有人在測的那個問題

Forum AI 的核心產品是一套「地緣政治事件基準架構」。

運作方式是:Forum AI 邀請一批各自具有不同政治光譜與專業背景的頂尖顧問:Niall Ferguson、Fareed Zakaria、前美國國務卿 Tony Blinken、前眾議院少數黨領袖 Kevin McCarthy、前美國國家安全副顧問 Anne Neuberger…針對同一個複雜的地緣政治事件,替主流 AI 模型的回答逐一評分。

目前,Forum AI 已達到與人類專家約 90% 共識的閾值,讓 Forum AI 的評估結果具有可辯護的基準,而不只是一個人的觀點。

Brown 發現的問題分三個層次,每一層都比上一層更難從技術角度修復。

第一層是來源選擇邏輯的漏洞。Gemini 在處理某些與中國無關的報導時,引用了來自中共官方網站的內容。這不是一般意義上的事實錯誤,而是模型在抓取來源時的篩選邏輯問題:AI 只判斷「這是文字,這是連結」,不判斷「這個來源的立場是什麼、可信度如何、是否帶有明確的政治目的」。

來源本身的政治性,在 AI 的輸出流程中是不可見的。

第二層是結構性的政治偏向。Brown 測試的幾乎所有主流模型都表現出左傾政治偏向。這不是陰謀論,而是訓練語料分布的自然結果。AI 從什麼文本學習,就傾向複製那些文本的語氣和立場框架。

英語網際網路的主流內容 — 主流媒體報導、學術論文、社群媒體貼文 — 整體上帶有特定的政治傾向,訓練出來的模型就會繼承這個傾向,而且不會意識到它正在這樣做。

更棘手的是,這種偏向不是一個可以找出來修補的 bug,而是嵌入在模型的每一次輸出邏輯裡。

第三層是缺乏脈絡與多視角。Brown 表示現有模型普遍缺乏「背景脈絡、多視角與論證透明度」。AI 給出的答案是陳述句,不是「這件事在 A 派看來代表的是這個,在 B 派看來代表的是那個,兩者的根本分歧在於…」的結構。

它給你一個答案,但不告訴你這個答案是從哪個角度出發的。

流暢的錯誤,比沉默更難被發現

Brown 指出了一個結構性盲點:foundation model 公司在評估和排名模型時,優先考量的是數學、編碼與邏輯推理能力,資訊準確性和政治多元性幾乎從未出現在主流基準測試清單上。

原因不難理解。程式碼有對錯,跑測試就知道。數學題有標準答案,準確率可以計算。但「什麼是一篇地緣政治新聞的準確且公正的報導」,需要誰來判斷?需要多少個具有不同立場的人形成共識才算數?這個問題沒有工程解法。

在工程師主導、以基準測試排名決定市場定位的產品開發流程裡,它就被系統性地跳過了。結果是,資訊準確性在 AI 的能力評估體系中幾乎是隱形的指標。

被跳過的代價,可以從一個具體案例看出來。紐約市去年對 AI 招聘系統進行了一輪合規審計,目的是檢查僱主使用的 AI 篩選工具是否違反現行的反歧視僱傭法規。根據審計結果,超過半數的案例沒有偵測到違規行為。

這個數字的問題不在於「違規率低」,而在於它可能代表的是:執行審計的 AI 工具其準確性本身就不夠,以至於它看不出問題所在,而不是問題真的不存在。

這就是 Brown 論點的核心:AI 的問題,不只是給出錯誤的事實,更是讓人帶著信任去接受錯誤的事實。一個人知道自己不知道某件事,至少還有機會去查。但當 AI 用流暢、自信、沒有猶豫的語氣給出一個錯誤答案,大多數使用者根本沒有理由懷疑它。

流暢的錯誤,比沉默更難被發現,也更難被糾正。

法規倒逼,不是道德自覺

Brown 的判斷直截了當:驅動改變的不會是道德壓力或公眾輿論,而是企業合規風險帶來的商業壓力。

Brown 的論點背後有一個現實主義的基礎:在 AI 產業的現有激勵結構下,沒有人有足夠強烈的理由主動解決這個問題,直到它的代價變得無法忽視。信貸審批、保險核保、招聘篩選,這些場景裡的 AI 決策都受現行法規約束。

一旦 AI 輸出有歧視性或不準確的結果,使用 AI 的企業要承擔法律責任。這個壓力最終會向上傳導到模型供應商,要求他們提供可審計、可驗證、準確性有保障的輸出。不是因為他們覺得這樣做在道德上是正確的,而是因為企業客戶的合約裡開始寫進了這個要求。

Lerer Hippeau 去年領投了 Forum AI 的 300 萬美元種子輪。這個數字在 AI 領域是小錢,但它代表的是一個判斷:「AI 評估」是一門生意,而且這門生意的需求,可能比目前可見的更快速增長。

📍相關報導📍

Meta 推出 AI「端到端加密」無痕聊天,祖克柏:連我們自己都看不到

脆 Threads 上線新功能 Ask Meta,開放用戶標記 @MetaAI 獲問題解答(台灣暫未支援)

羅永浩回歸 X 首發長文:與 Gemini 驚悚對談,高等智慧會殺死愛?

YC 執行長分享 AI 秘訣:未來屬於會搭建資訊複利系統的人

市場機遇
Gensyn 圖標
Gensyn實時價格 (AI)
$0.03994
$0.03994$0.03994
-18.87%
USD
Gensyn (AI) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。

KAIO 全球首發

KAIO 全球首發KAIO 全球首發

享受 KAIO 0 費率交易,把握 RWA 熱潮