人民熱評:“80后死亡率”系謠言,要學會識破“AI幻覺”

“截至2024年末,80后死亡率突破5.2%”“70后死亡率低於更年輕的80后”……這是真的嗎?尤其是,文章表示這些數據來自第七次全國人口普查的所謂“權威數據”。你有沒有被嚇到?
細究之下,不難發現重重破綻:第七次全國人口普查於2020年開展,隻統計過去一年死亡率的整體數據,既無法“預測未來”,也沒有針對任何特定群體的單獨統計。甚至連慣例也不符合,國家統計局等專業統計數據中關於死亡率用千分率表示,而非百分率。
在清晰的事實面前,謠言不值一駁。關鍵是這樣的謠言從何而來、因何廣為傳播?
據相關專家分析,這很有可能是AI大模型在問題回答過程中,抓取了錯誤網頁信息或是在不准確數據基礎上的錯誤計算,從而給出未經驗証的偏差信息。
數字駭人聽聞,自然引發關注。不少自媒體為了博取眼球、變現流量,更是借題發揮。遇到“可疑”數據,不去核實、求証,反而將其包裝為“權威結論”,還冠以“80后再不xx就遲了”“80后必須要做的兩個打算”等聳動標題,甚至以死亡率作為噱頭來帶貨,收割為此焦慮的受眾,同時也助長了這些離譜數據的炒作和傳播。
日前,中央網信辦發布2025年“清朗”系列專項行動整治重點,其中點明“整治‘自媒體’發布不實信息”“整治AI技術濫用亂象”等,正是聚焦人民群眾反映強烈的突出問題、在破解難點瓶頸方面下功夫的努力。進一步壓實各方主體責任,持續淨化信息內容、規范功能服務,才能合力護航網絡生態持續向好。
在科技飛速迭代進步的今天,我們應該如何對待AI,讓信息化技術紅利真正造福於民、服務於社會發展?
目前,中國網民突破11億,其中生成式人工智能用戶約2.5億人。深受網民喜愛的AI大模型,雖然有超強的數據儲存和運算能力,但受訓練的語料不足、數據來源的局限等因素影響,確實可能造成“信息污染”。
近段時間,不少人熱衷於用AI大模型回答問題、搜索資料甚至生成正式文本。有人發現,AI有時會“一本正經地胡說八道”,拼湊、嫁接甚至編造事實,這種現象被稱為“AI幻覺”。而隨著技術的發展,“AI幻覺”的復雜性和隱蔽性也在不斷提升。無論是此次數據謠言,還是此前“大媽擺攤賣水果被罰16萬元”“被壓在地震廢墟下的小男孩”等AI謠言,無不是給我們敲響警鐘:不能毫不設防地盲目依賴AI,需要從算法投喂中奪回判斷力。畢竟,人應成為工具的主導,而不是被工具駕馭。
分享讓更多人看到
- 評論
- 關注