近期,中國針對人工智能技術(shù)的快速發(fā)展及其帶來的潛在風險,正式推出了《人工智能生成合成內(nèi)容表示辦法》。這一舉措緊隨雷軍對AI換臉和AI擬聲技術(shù)的公開關(guān)注,標志著中國在AI治理領(lǐng)域邁出了重要一步。
隨著AI技術(shù)的廣泛應用,市場上已涌現(xiàn)出超過300款生成式AI產(chǎn)品和3000多個生成合成服務。然而,技術(shù)的濫用也引發(fā)了社會對虛假信息傳播和身份冒充等問題的擔憂,導致信任危機。為此,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《辦法》,旨在通過“技術(shù)標準+管理制度”的雙重模式,強化AI治理,確保技術(shù)的健康發(fā)展。
《辦法》中的一大亮點是引入了顯式標識和隱式標識的雙軌機制。顯式標識要求AI生成的內(nèi)容以直觀的方式,如視頻水印、文本標注等,明確告知用戶其身份。而隱式標識則通過數(shù)字水印、元數(shù)據(jù)嵌入等技術(shù),在文件底層添加不可見的“身份證”,為監(jiān)管部門提供溯源依據(jù)。
對于內(nèi)容發(fā)布平臺而言,《辦法》同樣提出了嚴格要求。平臺需自動檢測并標識上傳的內(nèi)容,對未標識的內(nèi)容添加顯著提示。同時,平臺還需提供標識工具,引導創(chuàng)作者主動聲明內(nèi)容的AI生成屬性。對于申請無顯式標識的用戶,平臺需對其身份和使用記錄至少保留6個月,以實現(xiàn)從源頭防控技術(shù)濫用。
《辦法》還對用戶(創(chuàng)作者)設(shè)定了明確的規(guī)范。使用AI生成的內(nèi)容必須主動標識,且標識不得刪除、偽造或隱匿。一旦違反規(guī)定,將依據(jù)相關(guān)法律法規(guī)追究責任。這一舉措旨在確保AI生成內(nèi)容的真實性和可信度,維護社會信任。