AI生成內容真假難辨對平臺治理提出挑戰 專家建議 明確平臺法律責任提升審核識別精度

近年來,生成式人工智慧(AIGC)技術迅速發展。昔日需要整個團隊協作完成的視頻製作,如今僅憑一張圖片、一句文字指令即可實現。然而,伴隨技術普及而來的是濫用風險的加劇。紛雜的AI生成內容常常令人真假難辨,不僅干擾公眾認知,對行業監管和平臺治理也提出了新的挑戰。

 

今年9月1日起,《人工智慧生成合成內容標識辦法》(以下簡稱《辦法》)施行,意味著所有利用人工智慧技術生成、合成的文本、圖片、音頻、視頻、虛擬場景等資訊,必須依法添加相應的聲明標識。

 

然而在實際應用中,AI生成內容標注仍存在諸多難點。例如,用AI工具生成的視頻,若用戶有心將浮水印去除,平臺往往難以有效識別其AI屬性,導致大量未標識內容持續傳播。

 

對此,《法治日報》記者採訪西南政法大學公法研究中心執行主任楊尚東、中國農業大學法律系副教授薛鐵成、中央財經大學法學院教授王葉剛以及北京航空航太大學法學院副教授王天凡,共同探討應對之策。

 

記者:平臺是內容傳播和觸達公眾的關鍵環節,因此承擔著監督和管理的重要責任。據觀察,一些平臺通常會在相關帖文上標注類似“疑似AI創作,請謹慎甄別”等提示。此類提示,是否足以認定平臺已經盡到合理的注意義務?是否能使其自動免除法律責任?

 

王葉剛:不能據此當然認定平臺已經盡到合理的注意義務。平臺在性質上屬於網路服務提供者,我國民法典侵權責任編對網路服務提供者的侵權責任具體規定了通知規則(避風港規則)、知道規則(紅旗規則)。判斷平臺是否盡到了合理的注意義務,是否需要承擔侵權責任,需要依據侵權責任編的規定進行判斷,而不能以標注“疑似AI創作,請謹慎甄別”等提示語為由認定其盡到了注意義務。

 

王天凡:判斷平臺是否履行“合理注意義務”,需綜合多方因素考量。比如,標識的顯著性與有效性方面,提示語是否足夠清晰、醒目,不易被忽略或裁剪;數字浮水印是否能抵抗壓縮、剪輯等。防控措施方面,平臺是否建立了與其技術能力和規模相匹配的、主動的侵權內容識別與過濾機制,以及在接到侵權通知後,平臺是否能夠迅速回應並採取刪除、遮罩等必要措施。另外,對於顯而易見的、利用名人肖像進行虛假廣告的深度偽造內容,法律對平臺的“應知”要求會更嚴格。

 

記者:調查顯示,很多AI生成內容引發的整蠱、造謠亂象,均是內容發佈者有意為之,甚至故意繞開平臺監管。對此,應如何加強管理?

 

薛鐵成:必須明確,蓄意發佈AI生成圖片、視頻整蠱甚至造謠的行為,可能涉嫌違法。若內容發佈者明知其行為可能引發恐慌、報警、擾亂社會秩序,仍主動發佈AI生成的圖片、視頻等誤導性內容,其主觀上可能構成謊報警情的間接故意,最終行為或被認定為報假警。根據治安管理處罰法相關規定,當事人將被處以行政處罰。若情節嚴重,還可能觸犯刑法中的“編造、故意傳播虛假資訊罪”,須依法承擔刑事責任。

 

加強對內容發佈者的管理,要進一步壓實平臺責任。《辦法》採用的是漏洞填補和責任加重的AI標識管理規則。在關涉AI生成內容發佈的各個環節中,後一環節對前一環節負有檢驗和審核的責任。例如,提供網路資訊內容傳播服務平臺發佈AI生成內容時,既需要檢驗用戶提供的AI生成內容是否有平臺的隱式標識,還需要檢驗用戶是否聲明AI生成內容。如果均沒有相關AI內容標識和聲明,本平臺檢測到顯式標識或者其他生成合成痕跡的,識別為疑似生成合成內容,也應當採取適當方式在發佈內容周邊添加顯著的提示標識,提醒公眾該內容疑似AI生成內容。

 

楊尚東:首先,平臺應明確AI生成內容的管理規範。平臺需制定清晰的AI生成內容管理規則,一方面強制要求用戶對AI生成內容進行標注或主動聲明;另一方面完善平臺細則,針對惡意傳播AI違規內容的視頻及帳號,依法依規採取提示、下架、封號等階梯式處置措施。

 

其次,平臺應加強AI生成內容的審核與標識。內容發佈前,平臺應升級審核機制,通過“技術檢測+人工復核”的雙重模式提升AI內容識別精度,精准篩選出可能擾亂社會秩序的內容及帳號,並降低此類整蠱內容的傳播權重。內容發佈後,平臺需在聊天、評論等交互環節,進一步強化AI生成內容的明確標識與風險提示,引導用戶理性判斷。

 

最後,平臺應建立快速回應與事實核查機制。平臺可搭建公眾舉報通道,及時發現審核疏漏的問題內容。針對可能擾亂公共秩序的資訊,第一時間啟動事實核查與應急回應,快速採取限流、刪除等措施,防止內容擴散造成更大負面影響。

 

記者:針對AI生成內容標識的規範與治理,當前實踐中還存在哪些核心問題,又該從哪些方面推進完善以保障落地效果?

 

薛鐵成:當前相關法律制度仍缺乏AI服務提供平臺和網路資訊傳播平臺未履行AI標識義務的責任規定,難以建立對相關平臺未履行AI標識義務的懲戒機制。在相關規定已經明確AI服務提供平臺和網路資訊傳播平臺在內容生成和發佈環節義務的基礎上,還應進一步明確其未履行義務的責任種類和承擔責任的方式,以督促相關責任主體履行監管義務。

 

楊尚東:其一,健全AI生成內容管理的法規體系。未來,應在《辦法》基礎上進一步細化平臺治理規範、明確政府監管職責、規範用戶使用行為,強化法律執行效力,為生成、製作與傳播合成內容的相關主體設定清晰的法律紅線。

 

其二,構建跨部門協同監管機制。推動網信、公安等相關部門形成全鏈條監管合力,加強對生成式人工智慧大模型的審核管理及其應用場景的監督,嚴格落實內容標識要求。同時,建立跨領域資訊共用平臺,提升監管聯動能力與精准性,實現高效協同治理。

 

其三,強化網路空間法治宣傳教育。借助各類媒體平臺,向公眾普及人工智慧基礎知識與AI生成內容的識別技巧,提升全民數字素養與技術認知水準。(趙麗 丁一)

 


廣告
廣告