人民網
人民網>>觀點

人民日報環球走筆:大數據社會需要考慮算法治理

方師師
2019年01月08日09:58 | 來源:人民網-人民日報
小字號

  算法,曾被描述為一件相當溫和的事情——計算過程明確,步驟可控,結果一目了然。近年來,算法通常與大數據結合,通過打分、排序、評級的方式在用戶、環境和推薦對象之間建立聯系,進行自動化推薦。搜索引擎中的網頁呈現,電子商務中的商品推薦,社交網絡中“你可能認識的好友”,內容推薦引擎中的新聞推薦等,都是算法應用的豐富場景。

  然而,算法的廣泛應用也引發一些問題。不久前,英國伯明翰地方警局表示正在研發一套名為“國家數據分析方案”的系統,旨在通過對居民個人數據資料的分析,預測公民的“犯罪指數”,引導警方提前干預。盡管警方一再強調不會僅根據風險指數就進行逮捕,但這個消息還是引發了廣泛爭議。

  由於算法具有技術門檻,很多時候出現問題難以追責,造成傷害無從補償。如何讓數據分析系統自証其算法“公平有效”,這是人們十分關心的問題,也是一道現實難題。2015年,美國芝加哥法院使用的犯罪風險評估算法就被証明對黑人造成了系統性歧視:黑人更有可能被這個系統錯誤地標記為具有高犯罪風險,從而被法官判處更長的刑期。另外,數百萬人由於該算法無法獲得保險、貸款和租房等服務,如同被算法“囚禁”。美國皮尤研究中心發布的《公眾對計算機算法的態度》報告則顯示,58%的受訪者認為,算法和其他計算機程序總會包含偏見。

  顯然,算法的設計、目的、數據使用等都是設計開發者的主觀選擇,其主觀偏見有可能被嵌入算法系統。數據的有效性和准確性,也會影響整個算法決策和預測的准確性。正是由於設計偏向、數據缺陷,再加上無法公開透明的“算法黑箱”,使得算法過濾、算法偏見、算法歧視和算法操控的情況屢屢發生。近幾年,全球互聯網平台紛紛開發智能推薦系統,大多數都是根據用戶使用痕跡進行關聯推薦。算法越智能,越能使用戶被“安排”進所謂“信息繭房”,即陷入為其量身定制的信息之中。久而久之,用戶處於信息“自我禁錮”困境,從而失去了解更大范圍事物的機會。其后果,有可能就是導致人們視野日趨偏狹,思想日趨封閉、僵化甚至極化。

  大數據背景下,解決算法智能帶來的麻煩已是不可回避的課題。越來越多人提出著手研究算法治理的主張,雖然注定是十分艱巨的事情,但也當屬值得邁出的一步。


  《 人民日報 》( 2019年01月08日 17 版)

(責編:段星宇、王倩)

分享讓更多人看到

返回頂部