據《法治日報》報道,一段時間以來,不少未成年人的家長飽受AI劇情聊天軟件困擾。一些打著“角色扮演”等旗號的AI劇情聊天應用,在吸引未成年人的同時,也悄然滋生了一些灰色地帶。在部分AI劇情聊天軟件的對話中,出現了色情擦邊、語言暴力以及侮辱用戶的內容。
在社交媒體持續深入生活的當下,包括聊天軟件在內的各種應用,本質上已帶有某種公共屬性,應該為個人、家庭、社會提供積極助力。反觀這些所謂的AI劇情聊天軟件,有不少提供的都是“逆服務”:通過設定極富想象力的劇情和風格迥異的人物角色來吸引用戶,允許用戶與虛擬角色進行深度互動,甚至允許用戶設定虛擬角色為“出軌對象”。顯然這些皆屬于極不健康的AI軟件。
身處高度數字化、信息化的今天,技術向善是一個基本常識,但技術向惡的問題時有發生,也提醒著各方加固技術防火墻的必要。圍繞很多App的使用,相關平臺都推出了青少年模式,可該模式很多時候形同虛設,輕易就被未成年人繞過,早已為人詬病。
亂象頻仍,主要還是相關平臺企業受到利益驅使,無視自身社會責任。都知道未成人的錢好賺,但決不能因此丟了底線、失了節操,搞出很多影響未成人三觀形塑和健康成長的東西來。
在這個問題上,相關軟件運營商首先要守土盡責。可以利用AI技術提供劇情聊天服務,但不能背離公序良俗污染社會空氣,更不能無視未成年人的合法權益。2023年7月頒布的《生成式人工智能服務管理暫行辦法》第四條規定,提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德。
包括AI劇情聊天軟件在內的各類軟件運營商都要按照《未成年人保護法》《未成年人網絡保護條例》等法律規定,履行法定責任和社會責任。其中軟件所提供的青少年模式決不能淪為擺設,因為在相關軟件未分類分級管理的情況下,未成年人很容易看到不符合其年齡的內容,進而影響其身心健康。這就需要各軟件運營商切實將青少年模式設計為不容繞過的“鋼鐵模式”。
近日,國家網信辦發布《移動互聯網未成年人模式建設指南》,其中重點提出了未成年人模式建設的整體方案,鼓勵和支持移動智能終端、應用程序和應用程序分發平臺等共同參與。
這對運營商是一個嚴峻考驗,既考驗運營商保護未成年人的誠意和決心,也在考驗運營商的技術服務能力。家長應當對問題軟件進行積極投訴,消協組織應以侵害不特定未成年消費者為由提起公益訴訟。另外,有關部門也要依據相關法律和規章,對AI劇情聊天軟件亂象深入調查,精準處罰。
有專家指出,針對AI劇情聊天軟件,特別是其青少年模式,應強化內容審核機制以確保技術能有效篩選并阻止不當對話。平臺需要對AI模型進行倫理審查,以保障其生成的內容符合相關法律與法規的要求??傊挥袕娀脚_責任,才能保護未成年人。