
HodlX 客座文章 提交您的帖子
人工智能(AI)引發(fā)了算法審查的倫理危機。掩蓋這個問題,我們冒著讓政府和企業(yè)掌控全球?qū)υ挼娘L(fēng)險。
人工智能技術(shù)和產(chǎn)業(yè)都呈現(xiàn)拋物線式增長,其審查潛力也日益增強。
自 2010 年以來,每隔一到兩年,訓(xùn)練人工智能系統(tǒng)的計算能力就會增加增加了 10 倍,審查和控制公共言論的威脅比以往任何時候都更加真實。
全球公司排名隱私和數(shù)據(jù)治理是他們面臨的最大人工智能風(fēng)險,而審查制度并未出現(xiàn)在他們的關(guān)注范圍內(nèi)。
人工智能 –可以在幾秒鐘內(nèi)處理數(shù)百萬個數(shù)據(jù)點–可以通過各種方式進行審查,包括內(nèi)容審核和信息控制。
LLM(大型語言模型)和內(nèi)容推薦可以大規(guī)模過濾、抑制或大量共享信息。
2023 年,自由之家強調(diào)人工智能正在加強國家主導(dǎo)的審查制度。
在中國,國家互聯(lián)網(wǎng)信息辦公室 (CAC) 已將審查策略納入生成式人工智能工具,要求聊天機器人支持“社會主義核心價值觀”并屏蔽共產(chǎn)黨想要審查的內(nèi)容。
中國的人工智能模型,例如 DeepSeek 的 R1,已經(jīng)審查諸如天安門廣場大屠殺之類的話題,以傳播國家敘事。
“為了保護自由開放的互聯(lián)網(wǎng),民主政策制定者–與世界各地的民間社會專家并肩合作–應(yīng)該為開發(fā)或部署人工智能工具的國家和非國家行為者建立強有力的基于人權(quán)的標(biāo)準(zhǔn),”總結(jié)自由之家。
2021 年,加州大學(xué)圣地亞哥分校發(fā)現(xiàn),在審查數(shù)據(jù)集上訓(xùn)練的人工智能算法,例如中國的百度百科,將關(guān)鍵詞“民主”與“混亂”聯(lián)系起來。
在未經(jīng)審查的來源上訓(xùn)練的模型將“民主”與“穩(wěn)定”聯(lián)系起來。
2023年,自由之家發(fā)布的《網(wǎng)絡(luò)自由》報告發(fā)現(xiàn),全球互聯(lián)網(wǎng)自由度連續(xù)13年下降。該報告將下降的很大一部分歸咎于人工智能。
22 個國家已制定法律,要求社交媒體公司采用自動化系統(tǒng)進行內(nèi)容審核,這可能會被用來壓制辯論和示威活動。
例如,緬甸軍政府利用人工智能監(jiān)控Telegram群組,并根據(jù)異見人士的帖子拘留他們,甚至執(zhí)行死刑。伊朗也發(fā)生了同樣的事情。
此外,在白俄羅斯和尼加拉瓜,政府因個人在網(wǎng)上發(fā)表言論而判處嚴(yán)厲的監(jiān)禁。
自由之家成立至少有 47 個政府利用評論來引導(dǎo)網(wǎng)上對話朝著他們喜歡的方向發(fā)展。
調(diào)查發(fā)現(xiàn),過去一年,至少有 16 個國家使用新技術(shù)來散播懷疑的種子、抹黑對手或影響公眾辯論。
至少有 21 個國家要求數(shù)字平臺使用機器學(xué)習(xí)來刪除政治、社會和宗教言論。
2023年路透社報告警告稱,人工智能生成的深度偽造和虛假信息可能會“破壞公眾對民主進程的信任”,從而使那些試圖加強信息控制的政權(quán)更加得心應(yīng)手。
在2024年美國總統(tǒng)大選中,人工智能生成的圖像錯誤地暗示泰勒·斯威夫特支持唐納德·特朗普,這表明人工智能已經(jīng)在操縱輿論。
中國是人工智能驅(qū)動審查制度最突出的例子。
泄露的數(shù)據(jù)集分析TechCrunch 在 2025 年發(fā)布的一篇文章揭示了一套復(fù)雜的人工智能系統(tǒng),旨在審查污染丑聞、勞資糾紛和臺灣政治問題等話題。
與傳統(tǒng)的基于關(guān)鍵詞的過濾不同,該系統(tǒng)使用 LLM 來評估上下文并標(biāo)記政治諷刺。
研究員肖強指出,這樣的系統(tǒng)“顯著提高了國家主導(dǎo)的信息控制的效率和粒度”。
2024 年眾議院司法委員會的一份報告指責(zé)美國國家科學(xué)基金會 (NSF) 資助人工智能工具,以打擊有關(guān) Covid-19 和 2020 年大選的“錯誤信息”。
報告發(fā)現(xiàn),美國國家科學(xué)基金會資助了基于人工智能的審查和宣傳工具。
“為了打擊有關(guān)新冠病毒和 2020 年大選的虛假信息,美國國家科學(xué)基金會 (NSF) 一直在向大學(xué)和非營利研究團隊發(fā)放數(shù)百萬美元的資助,”讀報告。
“這些由納稅人資助的項目的目的是開發(fā)人工智能審查和宣傳工具,政府和大型科技公司可以利用這些工具通過限制某些觀點或宣傳其他觀點來塑造公眾輿論。”
2025 年《連線》雜志報告發(fā)現(xiàn)DeepSeek 的 R1 模型在應(yīng)用和訓(xùn)練層面都包含審查過濾器,從而導(dǎo)致敏感話題被屏蔽。
2025 年,皮尤研究中心的一項調(diào)查成立83% 的美國成年人擔(dān)心人工智能引發(fā)的錯誤信息,其中許多人擔(dān)心其對言論自由的影響。
皮尤采訪了人工智能專家,他們表示人工智能訓(xùn)練數(shù)據(jù)可能會無意中強化現(xiàn)有的權(quán)力結(jié)構(gòu)。
解決人工智能驅(qū)動的審查制度
2025 年 HKS 錯誤信息審查呼吁改進報道,以減少因恐懼而產(chǎn)生的審查呼聲。
這 調(diào)查發(fā)現(xiàn)38.8% 的美國人對人工智能在 2024 年美國總統(tǒng)大選期間傳播錯誤信息所扮演的角色感到有些擔(dān)憂,44.6% 的人表示非常擔(dān)憂,而 9.5% 的人表示不擔(dān)憂,7.1% 的人完全不知道這個問題。
創(chuàng)建一個開源的人工智能生態(tài)系統(tǒng)至關(guān)重要。這意味著公司必須披露訓(xùn)練數(shù)據(jù)集的來源和偏差。
政府應(yīng)該創(chuàng)造人工智能監(jiān)管框架優(yōu)先考慮言論自由。
如果我們想要一個人類的未來,而不是一個由人工智能管理的技術(shù)官僚反烏托邦的世界,那么人工智能行業(yè)和消費者就需要鼓起勇氣來應(yīng)對審查制度。
Manouk Termaaten 是一位企業(yè)家、人工智能出口商,也是垂直工作室人工智能.He 的目標(biāo)是讓人工智能惠及所有人。他擁有工程和金融背景,致力于通過便捷的定制工具和價格實惠的計算機顛覆人工智能領(lǐng)域。
生成的圖像:DALLE3






.png)





















