最近,某演員遭遇“AI盜播”,在同一時間“現身”多個直播間帶貨。該演員向自己的“分身”提出質疑,還被拉黑了。此事再度引發公眾對AI(人工智能)的討論。
近年來,生成式AI飛速發展,曾經需要一定專業技能才能完成的視頻制作,如今可以輕松完成。但技術被一些人濫用,也帶來一系列亂象:有消費者偽造“買家秀”騙取退款,社交平臺出現大量虛假明星合影,詐騙分子偽造音視頻“圍獵”老年人……AI原本是表達創意、提高工作效率的好幫手,如今卻有淪為造假工具的危險,這一現象必須引起警惕。
9月份開始施行的《人工智能生成合成內容標識辦法》明確,人工智能生成合成內容標識包括顯式標識和隱式標識。顯式標識是以文字、聲音等方式呈現并可以被用戶明顯感知到的標識,當AI內容具有迷惑性甚至誤導性時,顯著的標識能夠幫助用戶迅速作出判斷、辨別虛假信息;隱式標識是指采取技術措施在生成合成內容文件數據中添加的標識,在追溯偽造內容來源、維護被侵權人合法權益方面具有重要意義。
《標識辦法》施行以來,各大平臺紛紛響應,出臺各類細則確保AI內容亮明身份,邁出了AI內容治理的關鍵一步。但目前仍有部分AI內容未添加任何標識,對觀眾形成誤導。進一步遏制AI造假亂象,還需構建多層次的治理體系。
比如,強化法律保障,進一步明確AI造假的處罰標準,厘清服務提供者、平臺、用戶三方責任,覆蓋多種造假情形;加強監管力度,針對各類AI造假行為開展專項治理工作,建立多部門協同聯動的監管體系,形成打擊合力;升級技術手段,提升高精度檢測能力,精準識別造假內容。
演員被“分身”只是一記警鐘。技術迅猛發展,治理必須跟上。只有規則、監管、技術同步“打補丁”,才能有效減少AI造假,降低公眾上當受騙的風險。(作者:趙心儀 來源:經濟日報)