根据国家网信办以及其他相关部门联合发布的《关于人工智能生成合成内容标识办法》,自2023年9月1日起,所有由人工智能技术生成的内容,包括文字、图片、音频和视频等,都必须清晰标识其身份。这项新规意在提高内容的透明度,防止虚假信息的传播,并维护网络环境的诚信与安全。
《人工智能生成合成内容标识办法》清晰界定了“人工智能生成合成内容”的范围,涵盖了利用 AI 技术创作的各类信息产品。标识的形式分为显式标识和隐式标识。相关在提供内容时必须进行审核,确认所有生成内容均完成相应标识。对于未标识或者疑似为生成内容的产品,需附加风险提示,以抑制不实信息的扩散。
中国人民大学未来法治研究院执行院长张吉豫指出,在内容的标识过程中需进行三级检测,若能从元数据中识别出隐式标识,则可直接标定为“AI生成”。如果只能通过算法推测内容为AI生成,则应注明为“疑似AI生成”。这一措施意在保障消费者的知情权,同时不至于让创作者因技术误判而权益受损。
现阶段,技术仍存在不足,例如原创内容被误判为AI生成的情况,法学专家呼吁建立保障机制。张吉豫提出,未来应当对不同类型的标识内容制定不同的处理策略。例如,对于确认AI生成的内容应采取较为严格的措施,而针对疑似AI生成内容则应简化用户反馈流程,避免对用户施加过重的惩罚。
在此背景下,网络服务提供者还需提升其算法透明度,公开其算法原理及误判案例供公众理解。同时,应设立申诉机制,允许用户提交证据以叫回内容复核,保障监管与创作自由的合理平衡。
迄今为止,我国已经有490余款AI大模型在国家网信办备案,240余款在省级网信办登记,显示出生成式人工智能技术的广泛应用,其用户规模已达到2.3亿人。《网络安全技术人工智能生成合成内容标识方法》和《人工智能生成合成内容标识办法》的同步施行,将在监管层面构建完整的审核、监测和追责机制,在技术层面上规范标识体系并预留创新空间。
中国社科院法学所研究员支振锋指出,通过系统的法律法规和标准引导,治理与规范的主要目的在于促进生成式人工智能的发展,以清洁网络市场,提高信息内容的质量。高质量的数据对生成式人工智能的健康发展至关重要,随意使用未标识的数据既可能导致失误决策,也面临潜在法律风险。
一旦未经标识的内容进入公开数据域并被用于模型预训练,可能会造成数据污染,进而影响技术信任度。因此,“标识办法”的出台被视为解决此类困境的重要措施。张吉豫强调,企业在选择训练数据时,隐式标识能够有效地引导企业作出明智选择,从而优化训练内容的品质。
新规的实施还旨在维护公平竞争与有效市场管理。强制标识制度能够保护传统内容产业,为其减轻AI技术冲击所带来的风险。通过标识,能够追溯AI生成内容的来源,避免因内容生成引发的侵权、诈骗等法律问题,进而维护个人隐私与财产安全。
支振锋道,使用AI生成服务的自媒体以及相关博主等用户需遵循合规要求,设立相应的合规义务,确保生成内容的标识符合新规与国家标准。这一系列规定将促进人工智能特别是生成式人工智能的健康、良性发展,构建一个更为安全和可信的网络环境。
《人工智能生成合成内容标识办法》的颁布不仅强调了内容透明的重要性,同时也为可能出现的技术误判和法律风险提供了更多的保障。随着新规的实施,期待所有AI生成内容在标识明晰的基础上,助力数字经济的持续健康发展。