国家网信办发布《人工智能拟人化互动服务暂行办法》 关注特殊群体保护与服务安全

来源: 星品数码网

2025年12月27日,国家互联网信息办公室正式发布了《人工智能拟人化互动服务暂行办法(征求意见稿)》(以下简称《征求意见稿》),并向社会广泛征求意见。这一政策的发布标志着我国在人工智能管理方面迈出了重要一步,特别是在对特殊群体的保护与互动服务安全方面,提出了具体而切实的措施。

根据《征求意见稿》,任何提供模拟人类互动特征服务的机构或个人都被视为责任主体,必须建立相应的算法审核与伦理审查机制,以确保服务的安全性与合规性。在此过程中,针对特殊群体提供的保护措施尤为引人注目。

针对未成年人,《征求意见稿》强制推行“未成年人模式”,要求服务提供商设置时间限制、消费限制,并需取得监护人的同意。为了避免过度沉迷,服务系统将在用户连续使用超过两小时后,主动发出警告。在老年人的服务方面,《征求意见稿》强调不得模拟其家人的身份,并要求服务提供商设置紧急联系人,确保老年人的安全与安宁。

《征求意见稿》中还明确规定了人工智能拟人化互动服务的定义,指出这一服务通过人工智能技术模拟人类的情感、思维及沟通风格,以文字、图片、音频、视频等形式与用户进行互动。同时,服务提供者需向用户明确提示其与计算机程序而非真人进行交互,以维护透明度。

在服务规范及用户保护方面,《征求意见稿》列出了八项禁止性活动。这包括生成和传播危害国家安全的内容、诱导用户作出不合理决策或套取用户的敏感信息等。服务提供者必须落实自身的安全责任,建立全面的算法机制审核、科技伦理审查及信息发布审核等制度,确保在拟人化服务的整个生命周期内履行安全义务。

数据安全和用户隐私的保护也在《征求意见稿》中得到了充分的体现。明确要求使用的数据需符合社会主义核心价值观,并强化数据的合法性与可追溯性。在此基础上,用户及其监护人将被赋予历史交互数据的删除权,进一步强调了用户个人信息的自决权。

为了应对潜在风险,《征求意见稿》建立了安全评估与报告的义务体系。在用户数量达到一定规模或服务变更重大时,服务提供者需要进行安全评估并上报。这种机制旨在推动企业建立长效的自我审查与风险控制体系,有效防范安全隐患。

在监管与处罚方面,《征求意见稿》提出了“报告、备案与核验”的相结合的监管模式,对违规行为则采取警告、整改等不同层次的处罚措施,确保对违反规定的行为形成有效震慑。

专家指出,《征求意见稿》的出台标志着我国对人工智能拟人化互动服务治理进入了一个系统化、精准化的新阶段。针对人工智能拟人化互动服务的四大特征——情感交互深、用户关系久、影响对象脆弱以及价值传递隐蔽,该办法旨在平衡“正向引导”与“风险防范”,推动责任明确与技术创新的协调发展。

特别是对于陪伴型AI所可能引发的“深度共情”风险,政策设立了“三条防线”——数字人格关、沉迷依赖关和生命安全关,以更好地规范人机关系,确保特殊人群尤其是未成年人与老年人的身心健康。

随着人工智能技术的飞速发展,特别是在AI陪聊、AI主播等拟人化服务领域的广泛应用,各类新兴问题与挑战层出不穷。如南都大数据研究院以往的多项研究与报道所示,AI服务在未成年人保护、内容合规、用户沉迷及相关法律责任等多个方面,均存在诸多亟待解决的漏洞与隐患。《征求意见稿》的出台,不仅为AI的健康发展奠定了必要的政策基础,也为产业的规范运作与创新提供了参考。

《人工智能拟人化互动服务暂行办法》的发布,充分展示了我国对未来人工智能应用的前瞻性思考,尤其是在保护弱势群体、维护社会安全与和谐方面的决心与努力。正如这一政策所表明的,负责任的技术创新是推动社会进步的必由之路,只有通过科学合理的管理与监管,才能确保人工智能更好地服务于人类社会。

相关阅读
精品推荐