随着人工智能技术的快速发展,合成内容的生成日益增多,如何对这些内容进行有效的管理与监督成为社会关注的焦点。为应对这一挑战,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》将于2023年9月1日起正式施行。这一办法要求所有通过人工智能生成的文本、图片和视频等内容在传播过程中必须“亮明身份”,旨在促进行业规范与信息安全,保护创作者权益。
根据《人工智能生成合成内容标识办法》,人工智能生成合成内容是指通过人工智能技术生成的文本、音频、图片、视频及虚拟场景等信息。为确保透明度和安全性,标识的形式将包括显式标识和隐式标识。显式标识要求内容提供者在内容上架时明确标识该内容为AI生成,而隐式标识则是通过元数据中检测出信息。在此过程中,内容传播需加大审核力度,对于未标识或疑似生成的内容需增加风险提示,以有效遏制虚假信息的传播。
中国人民大学未来法治研究院的执行院长张吉豫表示,标识办法实施后,内容应当建立分级标识和处理机制。明确区分AI生成内容和疑似AI生成内容,根据标识结果的精确度,采取不同的管理措施。对“明确AI生成”的内容应采取更严格的措施,而对于“疑似AI生成”的内容应建设便捷的用户反馈渠道,确保创作者不受过度惩罚。
不过,遵循算法的审核机制也面临着技术挑战。法学专家指出,目前现有的算法存在一定的数据偏差和场景适配不足的问题,导致部分原创内容被误判为AI生成,这种情况严重影响了创作者的权益,亟需建立保障机制以减少误判的发生。张吉豫建议,相关网络服务提供者应公开算法原理和误判样本数据,提高透明度,并设立申诉渠道,允许用户提交证据以请求复核,从而在监管与创作自由之间找到平衡点。
在标识办法实施的背景下,预计将对行业、个人用户、以及相关技术的发展产生深远影响。作为我国人工智能领域首个集“办法+强标准”于一身的政策指导,其同时施行的国家标准《网络安全技术人工智能生成合成内容标识方法》将有助于建立审核、监测和追责的闭环机制,并为技术规范提供基础与创新空间。中国社科院法学所的研究员支振锋指出,生成式人工智能治理的目标是通过规范促进发展,改善互联网市场环境,实现网络内容生态空间的净化。
生成式人工智能产业的发展也离不开高质量的数据支持。专家分析称,依据错误或不完整数据所做的决策可能导致方向偏离,因此需加强合规性和准确性,避免未经标识的内容被大模型用于预训练,从而出现数据污染,影响技术的可信度。因此,《人工智能生成合成内容标识办法》的出台被视为从源头解决数据问题的一项关键措施。
在标识办法与国家标准的双重监管下,将对大规模搬运人工智能直接生成内容的行为进行有效拦截,为内容提供更明确的合规要求,有助于降低总体审核运营成本,实现有效管理与公平竞争。专家指出,强制性的标识要求不仅有助于保护传统内容产业,降低AI技术带来的负面冲击,还能追溯AI生成内容的来源,减少因生成内容引发的侵权与诈骗问题,从而维护个人隐私和财产安全。
随着《人工智能生成合成内容标识办法》的实施,各类服务提供者将面临合规压力,尤其是一些自媒体账号和MCN机构等商业运营的内容生产者,必须符合相关法律法规的要求,以确保内容生成与传播过程中的合规性。
《人工智能生成合成内容标识办法》的实施是应对人工智能快速发展所带来的挑战的重要举措,能够有效提升信息传播的透明性,维护行业秩序,也为创造健康的网络生态提供了良好的基础。