近日,社交平臺X的隱私政策更新引起了廣泛關注。自11月15日起,該平臺將允許使用用戶數據來訓練AI模型,除非用戶主動選擇退出。然而,這一政策并未提供明確的退出選項,且提醒用戶即便在X上刪除了內容,這些信息仍可能在其他地方存在。此舉引發了用戶的強烈不滿,尤其是擔心作品被無償使用的創作者。
實際上,X平臺并非首個采取此類做法的公司。過去一年,Adobe、谷歌、Zoom等公司也紛紛在其服務條款或隱私政策中引入了類似內容。這引發了關于AI訓練與隱私、版權等問題的廣泛爭議,相關法律問題仍在熱烈討論中。
X平臺此次更新的隱私政策擴大了用戶數據的共享范圍,包括與第三方合作伙伴共享,這進一步加劇了用戶的擔憂。部分用戶已經開始在其他平臺注冊新賬號,并計劃陸續轉移他們的作品。對此,X平臺回應稱,他們只會使用公開可用的信息來訓練AI模型,不會涉及任何私有內容。然而,“公開”與“私有”內容的界定并不明確,這引發了更多的質疑。
使用用戶數據訓練AI模型的做法確實帶來了諸多隱患。一方面,訓練數據的質量與數據本身一樣重要。如果X平臺的AI模型接受了仇恨言論等不良信息的訓練,那么它可能會復制并生成誤導性內容。另一方面,使用用戶數據訓練AI還涉及版權和隱私權問題。根據歐盟的《通用數據保護條例》和美國加州的《加州消費者隱私法》,公司在使用用戶個人數據進行AI訓練時必須獲得用戶的明確同意。然而,許多大公司通過復雜或模糊的服務條款或隱私政策來征求用戶同意,以規避法律風險。這導致普通用戶難以理解具體含義,且往往只有同意才能使用平臺服務,處于被動地位。同時,缺乏明確的撤回機制也讓用戶難以撤銷之前的“同意”。
總的來說,關于AI訓練所使用的數據的合法性問題仍然是一個亟待解決的問題。相關法律法規需要進一步完善,以保護用戶的隱私權和版權。