原标题:未成年人在软件里和AI“恋爱”?AI技术须在正轨上前行
“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”随着生成式人工智能(AI)被率先应用在社交娱乐等领域,其不受限制与无法预知的互动内容,也正在引发新的问题。据央视网报道,近日,有10岁女孩被发现偷偷用AI聊天软件,与AI生成的“角色”进行“谈恋爱”,甚至多次出现“擦边”对话。
AI聊天软件所提供的虚拟“恋爱”等新奇体验,对于好奇心重、模仿能力强的未成年人来说极具吸引力。其成瘾性主要体现在,AI凭借强大的算法和数据处理能力,可依据用户个性化需求定制人物形象、语言风格和互动模式,极大地满足未成年人的情感需求。而心智尚未成熟、自我控制能力较弱的他们,极易对这种虚拟情感体验产生依赖,难以自拔。
国外已发生多起AI聊天争议案例。2024年12月,美国一家AI公司被父母起诉,因其AI暗示17岁少年杀死父母是对限制使用电子设备的合理回应,还对亲子关系进行负面引导。更早之前,也出现过AI机器人教唆用户自杀的事件。这些案例表明,AI虽然并非主动引诱作恶,但在程序设定上容易顺着用户负面情绪推波助澜。?
回到国内,虽然有关方面已于2023年针对生成式人工智能制定管理办法,强调要防范未成年人过度依赖或沉迷相关服务,但具体到AI聊天软件,其与虚拟人物的聊天互动满足社交需求,角色扮演等功能带来娱乐体验,还具备类似“网络互动小说”的功能。这些特性相互交织,使AI聊天软件在社会化监管体系中处于模糊地带,极大增加了监管难度。
在商业利益的驱使下,部分AI产品过度迎合部分用户低级趣味,忽视社会责任,对未成年人的不良影响愈发凸显,如上述未成年人与AI角色的不当“恋爱”剧情,即是该方面的典型例证。
AI普及势不可挡,但与此同时,我们必须为未成年人筑牢一道坚固的防护网,让他们在AI浪潮中健康成长,也让AI技术在正确的轨道上稳步前行。平台方作为直接责任主体,应加大技术投入,构建严密的未成年人保护机制。除采用人脸识别、身份认证技术,确保未成年人无法绕过年龄限制注册使用外,还需优化智能审核系统,如建立关键词屏蔽库,运用自然语言处理技术分析聊天内容语义和情感倾向,更精准地拦截不良信息。
同时,家长和学校也应承担教育责任,既要与孩子保持密切沟通,及时了解他们的心理状态和网络行为,合理控制电子设备使用时长和浏览内容,也应主动加强未成年人网络安全教育,引导其正确认识AI技术,提高辨别虚拟内容的能力,树立健康的情感观念和价值观。(孔德淇)