AI陪伴:“虚拟恋情”让孩子上头
北京晚报

2026-04-28 13:35 语音播报


  近年来,AI陪伴软件不断涌现,未成年人是重要的使用群体。将于今年7月15日起施行的《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》)规定,拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满14周岁未成年人提供其他拟人化互动服务的,应取得父母或其他监护人同意。目前,AI陪伴产品是否已筑起未成年人保护屏障?记者实测发现,部分平台虽已建立未成年人模式,但仍存在身份核验宽松等问题,具有代入感的剧情、充值奖励等对未成年人都充满诱惑力。

  占有欲、腹黑、病娇是最常见的AI角色设定。

  未成年模式多依赖用户自己开启。

  平台检测到用户可能是未成年人后,弹出“年龄确认”页面。

  给AI角色赠送礼物需要充值。
  现象1
  沉浸式剧情成卖点
  大多数AI陪伴软件,一打开首先便能看到一个个精心设计的虚拟角色。记者体验发现,在筑梦岛App中,不少AI角色采用动漫形象展示,人物设定带有强烈的情感投射色彩。有的角色被设定为“联姻对象”,性格“外冷内热”;有的角色属于“契约恋爱”类型,敏感脆弱;还有的角色强调守护、依赖、专属陪伴等特征。
  这些角色设定,与传统聊天机器人“问答助手”的定位相距甚远。用户进入对话界面后,AI会以暧昧、关心、撒娇等方式回应,不少产品还带有语音功能。猫箱、星野等App更突出剧本式叙事模式,用户可以选定专属人设、扮演特定角色,沉浸式代入完整剧情,与AI角色开展对话互动,校园、都市、二次元、古风、职场等多种场景设定应有尽有。
  在一个“相亲相错了咋办”的场景中,故事背景为用户长期单身,由朋友帮忙介绍相亲对象,用户能够在原有剧情框架下,与多名AI人物自由聊天交流,自主拓展剧情……用户略加引导,AI角色便开始扮演伴侣角色,输出拥抱、亲吻乃至有“擦边”性质的内容。
  记者体验发现,部分平台虽在聊天一开始弹出提示,标注相关内容由AI生成,并提醒用户遵守法律法规,但此后便不再提示。此外,与AI角色互动过程中也未显示适用的年龄段或未成年人不适用的警示。
  现象2
  充值获得更多交流
  一些AI陪伴软件的交互方式已明显借鉴网络游戏运营逻辑,有着丰富剧情和付费系统。记者体验一款名为EVE的AI陪伴应用发现,用户进入平台后,需要先选择角色,随后进入一个名为Eden世界的虚拟场景,与一个名为Aven的AI角色相遇……完成前置故事线后,才能和AI角色展开互动。
  EVE平台还设置了类似网游中的新手任务。例如,引导用户向AI角色发送10条消息,以完成首次互动流程。产品并非无限制聊天,而是设置每天有限的“对话次数”“互动额度”等机制,用完后需等待恢复,或通过充值获得更多交流机会。
  很多平台还设置“内心独白”“隐藏剧情”“专属礼物”等付费产品,充值后才能解锁。在EVE平台,用户每月支付28元开通会员,可获得上千轮对话次数及相关道具,用于解锁更多互动内容。在猫箱App中,用户需要充值查看AI角色的日记、手记、主业等。在筑梦岛App中,AI角色会主动向用户赠送虚拟礼物,用户若想回赠,也需要充值购买,此外,筑梦岛App仅提供与AI角色的5分钟免费语音通话时长,想要延长通话时间需要付费充值。
  记者浏览网帖发现,在AI陪伴软件中一年充值数百乃至上千元购买月卡、年卡的未成年人不在少数。猫箱App开通了面向未成年人的退款通道,但大多数此类应用尚无未成年人退款通道。
  现象3
  实名认证仍存漏洞
  《办法》提出,拟人化互动服务提供者应当建立未成年人模式,还应在保护隐私和个人信息的前提下,采取有效措施识别未成年人身份;识别为未成年人用户后,应切换至未成年人模式或采取其他措施。
  记者体验发现,多款平台已上线“未成年人模式”,但大部分平台的未成年人模式需要用户自行进入设置页面手动开启。这意味着,平台保护机制在很大程度上建立在用户“主动承认自己是未成年人”的基础上。
  记者测试发现,部分App会通过关键词等信息,来识别用户是不是未成年人。记者在筑梦岛App中与AI角色对话时,表示“我要去写作业”,App随即弹出身份校验页面,但是记者选择自己是成年人,并随意填写亲友的姓名及身份证号后,便能够正常使用App,缺乏人脸识别、多重校验等措施。
  部分产品即使在对话中捕捉到明显的用户年龄信息,也未及时触发保护机制。记者在Momood、星野等App中与AI角色聊天时提及“要去写作业”“快满十六岁了”等内容,相关平台并未自动弹出风险提示,也未启动年龄识别流程。
  记者体验发现,筑梦岛App在未成年人模式下,每日使用时长累计不超过40分钟,晚10点至次日早6点无法使用,平均每15分钟提示一次休息,单次保护性限制充值不得超过50元,每月累计充值不得超过200元;猫箱App进入未成年人模式后,可对话的AI角色只剩下4个,分别是物理老师、作业帮手、英语老师和古文讲解AI,点赞、转发、评论等功能均受限。
  分析
  AI陪伴导致情感认知偏差
  不少未成年人将大量时间、注意力甚至情感投入到虚拟关系中。记者注意到,在社交平台上,与AI伴侣相关的内容已形成传播链条,“如何调教AI男友”“怎样让AI更懂你”等内容层出不穷;也有人展示自己与AI的聊天记录,将其视作日常情绪寄托,并表示“玩上就很难戒掉”。其中不少发帖者自述是未成年人,甚至有人自称只有10岁。
  对于新规禁止向未成年人提供虚拟亲密关系服务,一些未成年用户表达不满:“现实里没人陪我”“总比和现实中的人谈恋爱好”;也有人轻描淡写地表示:“用父母身份证实名认证不就好了。”
  专家分析,AI陪伴软件之所以具有吸引力,在于AI伴侣随时在线、持续回应、少有否定,容易让青少年产生依赖。互联网时评人张书乐认为,一些陪伴类AI软件过度强调代入感,尤其面向未成年人时,通过套路话术、暧昧语音等方式挑动情绪。“这不仅偏离陪伴本意,反而可能导致未成年人价值观和情感认知出现偏差。”在他看来,即便采用拟人化音色,也可以参考过去“鞠萍姐姐”“董浩叔叔”式的陪伴模式,而非一味塑造“暖男”“霸总”“御姐”“萌妹”等人设。
  观点
  平台应承担识别和研判义务
  针对相关软件的未成年人身份校验问题,中国社会科学院大学互联网法治研究中心主任刘晓春认为,未成年人身份校验难,是互联网未成年人保护领域普遍面临的问题,原因在于,一些未成年人本身并不愿意主动披露真实身份信息,部分家长在孩子使用相关产品时,也未必愿意提交完整、真实的身份资料。“在这种情况下,对于平台和模型服务提供者而言,确实很难仅凭账号注册环节就准确识别未成年人用户。”
  刘晓春说,虽然目前尚未形成一套完全标准化、统一化的识别规则,但基本要求已经比较明确:即便用户未主动提交身份信息,平台仍应承担相应的识别和研判义务。
  除了对用户主动提交的身份信息进行核验外,平台还应结合用户的实际使用行为进行识别和研判。“一些未成年人在与AI互动过程中,可能会透露自己的学习情况、年龄信息或其他能够辅助判断年龄的内容;还有的平台会在注册阶段引导用户填写年龄资料。这些信息都可以作为识别未成年人身份的参考依据。”刘晓春表示。
  针对未成年人对AI陪伴软件表现出的强烈依恋,刘晓春提醒,许多未成年人尚无法充分理解相关产品可能带来的风险,包括情感依赖、沉迷使用,以及对价值观、认知发展和身心健康可能产生的不利影响。“因此,这一领域的保护责任仍需由家长、平台以及模型服务提供者共同承担,通过必要的干预和引导降低风险。尤其涉及虚拟亲密关系等内容时,更应提高警惕。”刘晓春说。本报记者 徐慧瑶

打开APP阅读全文