人民銳評:協同治理,讓AI走得更穩
“AI治理”系列評論③
222
訂閱已訂閱已收藏
收藏點擊播報本文,約
“建立AI生成內容侵權快速處置綠色通道”“加快構建AI治理體系,啟動專項立法研究”“強化技術向善與安全可控,健全倫理審查體系”……在2026年全國兩會上,多位代表委員聚焦人工智能產業治理建言獻策。
當前,人工智能正以前所未有的速度迭代演進,“人工智能+”與各行業各領域融合不斷加深,深刻重塑生產方式與社會運行邏輯。在此背景下,構建契合科技倫理的協同治理體系,已不再是可有可無的附加項,而是決定AI能否實現規模化落地、行業能否行穩致遠的關鍵變量。
制度是根基,協同治理首在政府統籌、依法立規,為發展劃定“紅線”與“軌道”。“十五五”規劃建議提出“加強人工智能治理,完善相關法律法規、政策制度、應用規范、倫理准則”﹔國務院“人工智能+”行動意見要求完善人工智能法律法規與倫理准則,推進相關立法,優化安全評估和備案管理﹔多部門圍繞“人工智能+制造”強調落實倫理管理辦法,加強行業自律與企業倫理風險防范。
這些要求均來自產業實踐痛點,並非抽象原則。近段時間,某視頻生成模型頻頻陷入隱私和侵權爭議:僅憑一張面部圖像,就能夠模仿本人的聲音,僅用兩行提示詞,就能生成高水平視頻﹔某裝備制造企業曾因AI排產模型未進行公平性測試,導致中小供應商訂單被系統性壓縮,引發供應鏈信任危機。
實踐中,信任機制缺失往往源於三個方面:透明度不足、責任邊界模糊、權限控制失衡,這些問題直接制約產業規模化應用。因此,政府需發揮主導引領作用,通過完善法律法規與倫理准則,為AI發展劃定清晰邊界。
自律是保障,協同治理需要企業主責、行業自律,將合規轉化為核心競爭力。 對企業而言,合規不應被視為成本,而應成為贏得市場信任的“通行証”。隱私數據安全,各平台守土有責,必須形成“數據不能被隨意拉取,隱私不能被隨意窺探”的行規和共識。那些主動構建安全架構、強化數據保護、提升透明度的企業,更容易贏得市場信任與政策支持。相反,那些名為“創新”實為繞過所有移動互聯網生態的“黑灰產”,最終隻會被行業和時代拋棄。
共識是土壤,協同治理必須織密全域公眾防護網,形成多元共治的良性生態。人工智能的治理不僅是監管者與開發者的事,更需要全社會的共同參與。媒體要加強科普引導,提升公眾對深度偽造、算法陷阱、信息泄露的識別能力﹔科研機構與倫理專家要前瞻研判風險,為治理提供專業支撐﹔用戶要謹慎開啟無障礙等權限功能,定期審查授權列表,避免在支付等高風險場景過度依賴AI代理,形成基本的數字安全素養。通過公眾安全意識的提升,形成強大的社會監督力量,填補治理盲區。
人工智能時代的治理邏輯,從來不是限制創新,而是為創新保駕護航﹔協同治理的目標,也不是在風險邊緣試探,而是讓技術在可控軌道上加速前行。AI治理是系統工程、長期工程,唯有久久為功,才能趨利避害、賦能未來。隻有當政府、企業、行業與用戶形成合力,將倫理合規內化為發展的內生動力,人工智能才能真正實現向上向善,在協同治理的護航下行穩致遠。
分享讓更多人看到
- 評論
- 關注


































第一時間為您推送權威資訊
報道全球 傳播中國
關注人民網,傳播正能量