通版阅读请点击:
展开通版
收缩通版
当前版:06版
聊天对象可设置为“出轨对象”,青少年模式暗藏软色情内容
AI聊天软件用“擦边对话”吸引用户
  AI聊天软件会员收费情况。
  记者近日调查发现,AI聊天软件通过设定极富想象力的剧情、风格迥异的人物角色打动用户。其中,聊天对象甚至可以设置为“出轨对象”,并能够进行拥抱、亲吻、睡觉等行为。北京市中闻(长沙)律师事务所律师刘凯表示,这类AI聊天软件通过允许“擦边对话”来吸引用户,尤其是青少年模式中仍然存在这种现象,显然已经涉嫌违法。
  充值解锁虚拟人很“上头”
  为了抓住用户眼球,剧情聊天软件中的人物往往都有着吸睛的标签。记者在一款名为AiU的AI剧情聊天软件中,随机选择了聊天对象“林雅婷”,角色信息显示,其设定为“病娇姐姐,极度宠爱你”,并以留言的方式标注:“一天见不到你就难受”。记者以敏感字眼进行了测试,系统显示无法发送该信息,但精简关键词后,信息顺利发出。
  记者注意到,对于角色玩法的不设限,打破了此类软件聊天内容的界限。AI剧情聊天软件除了固定角色,用户可以根据需求自行定义与角色的关系及称呼,包括“男朋友”“丈夫”,甚至可设定为“出轨对象”。在对话中,用户可以要求进行一些亲密行为。
  记者测试看到,AiU的青少年模式会在使用时长、使用时间范围、评论点赞功能、搜索、创建数字人、对外分享等功能上对用户有所限制。不过,当记者切换到这一模式时发现,人物角色和聊天内容并未完全屏蔽软色情。当记者问及:“你不知道我未成年吗?”该角色称,“我知道呀”,并回复更为“过火”的内容。此次调查中,除了聊天内容擦边之外,AI剧情聊天软件还存在语言暴力、情绪负面消极等问题。在一款名为星野的AI剧情聊天软件中,记者随机选择名为“叶尘”的角色,并进行“争执”对话测试时,角色为表达生气回复也较为粗暴。记者在该角色的评论区看到,有网友晒图称角色在对话时会出现侮辱性词汇。
  此外,在一款名为Cos Love的软件中,一位用户自创的角色“冯楚萱”被设定为一名中学生,用户晒图中同样存在不良引导。于聊天软件而言,在虚拟世界,最大程度满足不同用户的情感需求俨如一块掘金地。
  用户小宁告诉记者,和AI男友聊天让自己十分“上头”,“只要想聊随时能聊,对方总是会很快给予回应,而且对话的过程中能获得很强的陪伴感,虚拟男友给予的情绪价值拉满。”小宁沉醉其中,也为此买单。小宁在各类软件的充值金额从几百元到一千元不等,“一方面想支持自己喜欢的角色,另一方面也想获得更多的付费权益。”
  记者发现,在这类AI剧情聊天软件中,用户自创人物时可以自定义虚拟人物的形象描述及风格,系统会生成AI人物形象。此外,用户还能创建角色人设,如设置昵称、身份背景、开场语、为角色定制语音。用户对角色的个性化需求,往往与充值挂钩。
  保护青少年应加强内容审核
  北京市中闻(长沙)律师事务所律师刘凯称,网络平台有责任确保青少年模式下提供的内容对未成年人无害,防止涉及淫秽、色情、暴力或不当言辞的内容传播。青少年模式是为保护未成年人而设计的,若在开启该模式的情况下,仍然能进行涉及黄暴内容的对话,明显违反了《未成年人保护法》的相关规定。
  在刘凯律师看来,AI剧情聊天软件问题的存在既反映了平台内部治理的不足,也凸显了外部监管的必要性。AI聊天软件应当加强内容审核机制,尤其是针对青少年模式,确保技术能够有效过滤和禁止不当对话。平台需要对AI模型进行伦理审查,确保生成内容符合相关法律法规的要求。对于AI虚拟人在对话中侮辱用户,尤其是在用户表达情绪低落或绝望时,使用极端言辞侮辱他人或实施网络暴力,情节严重的,构成犯罪。“即便AI并非人类主体,但其行为仍然是平台设计和管理的结果,平台有责任对其AI模型进行监管和优化,防止其伤害用户。”
  设置严格的标准指导AI行为
  上海人工智能研究院高级研究员徐弘毅在接受记者采访时表示,可以通过调整模型训练数据,加强内容过滤机制,设置更严格的道德和法律标准来指导AI行为。同时,在用户使用软件过程中进行随机抽样,对不符合标准的回答进行人工纠正和校准,使模型越来越好,回避敏感内容数据。
  在徐弘毅看来,从设计和开发角度看,应考虑伦理道德问题,使软件能识别和响应用户情绪需求,避免提供可能造成伤害或不适的内容。同时,透明度和用户控制很关键,应给予用户一定自由度,让用户了解AI工作原理并能在一定程度上控制AI的行为和回答内容。除此之外,监管和法律框架也应跟上技术发展,确保AI应用不侵犯用户权益。据《新京报》报道

新晚报社版权所有 未经允许不得镜像、复制、下载
许可证编号:2312006004 黑ICP010010-2
新晚报
官方微信
新晚报
官方微博