4月18日,“人工智能生成合成内容标识政策法规宣讲会(广东站)”在广州市白云区智慧城市展厅举行。此次会议旨在向广东省内的高校、科研院所、人工智能企业及互联网等相关单位,详细解读最新发布的《人工智能生成合成内容标识办法》(简称“标识办法”)及其配套的强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》(简称“标识方法”)。会议强调,推动智能内容的标识与监管,是净化网络环境、遏制虚假信息传播的重要手段。
在会议的分享环节,暨南大学新闻与传播学院的林爱珺教授以“AIGC时代多模态虚假信息的识别与人机协同核查”为主题,深入探讨了如何应对生成式人工智能带来的信息安全挑战。林教授指出,多模态信息的隐蔽性和渗透性,为虚假信息的传播提供了更为复杂的环境。在她看来,一段伪造的视频不仅包含虚假的图像,还常常搭配与之相符的虚假声音和字幕。这些信息之间的交互与验证,提升了虚假信息的隐蔽性,使得公众辨识的难度大大增加。
林爱珺教授还指出,人工智能大模型的表达风格和叙事逻辑如果加以利用,能够进一步增强虚假信息的迷惑性,特别是在多模态虚假信息中,公众容易将其误认为事实。她强调,“标识办法”和“标识方法”的实施,是用户识别虚假信息、追踪其源头的重要工具。
为了有效识别和监测多模态虚假信息,林教授详细介绍了“标识办法”的两个核心技术,即显式标识与隐式标识。显式标识是通过文字、声音或图形等直接呈现内容的人工智能特征,从而提升用户对内容真实性的判断能力。这一过程可以结合自然语言处理、深度伪造检测等技术手段,进一步增强虚假信息识别的效果。
相比之下,隐式标识则更注重信息的内在属性,如文件属性、提供者编码及传播路径等关键数据。这一机制不仅能够为虚假信息的追踪提供数据支撑,还能通过分析信息发布的时间序列,识别出信息传播的最初发源点,以此抑制虚假账户的活动。同时,通过节点分析,能够揭示信息在网络中流动的路径,从而有效阻止虚假信息的扩散。
林教授还针对AI大模型的事实核查能力进行了深入分析。她指出,目前的AI大模型在训练过程中面临的信息真伪鉴别不足的问题,主要由于数据来源于互联网,而缺乏系统的事实核查机制。这使得一些未经验证的信息被纳入训练模型,影响其后续的应用效果。
她提倡结合人工智能与人工审核的方式,建立“人工智能+人工”的双重审核机制,特别是在需要专业知识的领域,可以充分利用领域专家的经验进行信息的甄别与判断。同时,通过用户反馈与专家认证的结合,将推动人工智能的自我学习与优化,不断提升事实核查的准确性和效率,确保有效监测与治理生成内容的真实性。
在治理人工智能生成的虚假信息问题上,林爱珺教授呼吁,必须采取综合性的措施,包括技术、法律与伦理框架的共同作用,建立全方位的保障体系。她提议,构建“-AIGC服务提供者-AIGC服务用户”的三方协同治理模式,提升公众的数字素养并增强其对虚假信息的识别能力,以减少虚假信息的影响。
此次宣讲会由中央网信办网络管理技术局与广东省委网信办指导,并由中国网络空间安全协会和广东省网络数据安全与个人信息保护协会主办,南方都市报与南都大数据研究院承办。本次活动的举办不仅有助于提升与会者对人工智能内容标识政策的理解,也是在全社会范围内推动虚假信息治理的重要实践。
通过如此全面的阐述,广东省在推进人工智能领域的标识政策与虚假信息治理方面,展现出高度的重视和前瞻性的策略,这将为维护网络安全、提升公众数字素养贡献力量。