2025年3月13日,《科学》杂志发表了一篇创新性的论文,题为《模型是文化和社会技术》。这篇文章提出了一个引人深思的观点,即大语言模型(LLMs)应被定义为文化和社会技术,而不是简单的智能代理。这一观点的提出不仅从跨学科的角度丰富了我们对大语言模型的理解,也为当前关于这一技术的讨论提供了新的框架。
长期以来,关于人工智能技术的讨论通常聚焦于其智能和自主性。这种“智能代理”的视角实际上隐含了许多误解。通过整合社会科学与计算机科学的思考,我们可以更清楚地看到这一技术的真实面貌。文章指出,自人类文明发展以来,我们一直以来依赖文化作为知识传递的媒介。从语言的诞生到文字的形成,再到印刷术的广泛应用,这一历史进程表明,文化作为信息处理的工具对社会的演进起到了至关重要的作用。
正如经济学家哈耶克所言,市场的价格机制可以简化复杂的经济关系,而类似的机制也贯穿于各种社会制度中。民主政体的选举、官僚体系的信息分类,这些制度本质上都是依赖于对信息的抽象和简化,形成有用的表征。这些文化和社会技术之所以重要,是因为它们在某种程度上能够“压缩”人类行为和思维的复杂性,让个体在信息洪流中找到方向。没有个体的创造力与能力,这些技术便失去了存在的意义。
值得注意的是,虽然大语言模型在某种程度上试图模仿人类的思维过程,然而它们实际上并不具备真正的智能。当前的所有大模型仍然依赖于大量人类反馈和训练数据进行学习,其输出质量依赖于输入数据的多样性和丰富性。这使得它们在反映人类文化时具备了一定的局限性。大模型如何处理信息的能力,借助于庞大的文本库,能够生成类人语言,这一过程其实是对文化信息的再加工,而非真正的智能创造。
随着技术的发展,大语言模型在某种程度上具有了类市场和官僚体系的特征,并对人类社会的影响相当显著。对此,许多专家表示担忧:大模型可能取代知识工作者的岗位,甚至会在文化与社会中产生同质化的趋势。这种同质化并不是偶然的,而是技术设计目标的内在倾向所致。由于大模型的训练主要基于普遍存在的数据,它们在面对稀有或新的场景时会显得不够准确。这一过程可能进一步加剧文化产品的同质化。
从另一个角度来看,这种技术的整合与平衡能够为我们解决复杂问题提供新的可能性。我们可以考虑构建一种“类社会”生态,让不同大模型相互辩论、交叉融合,形成更加多元的视角。这类多样化的系统对科学与文化的进步尤为重要,能够促进不同观点的交流与碰撞,从而推动知识的创造。
在当前的技术环境下,数字信息的分发变得异常便捷。这使得信息生产者和消费者之间的关系愈发紧张,集中化的权力倾向让系统的所有者能够轻松获取利益,而其他人则可能被边缘化。因此,如何在保持技术进步的同时,防止集中权力和资源的现象,成为了摆在我们面前的重要课题。
在这场关于人工智能的深入讨论中,学者们不应简化为机器与人类的二元逻辑,而是应考虑到技术内部的复杂性以及它与社会的互动关系。随着历史的不断演变,技术的影响从未是单一线性的,而是在多次协商与妥协中找到平衡。因此,我们必须吸取历史的教训,结合社会科学与工程学的观点,共同探讨如何在这一文化与社会技术框架下进行有效治理。
未来,我们将迎来更接近智能体的系统,但当前的大语言模型显然落在文化与社会技术的范畴内。确保跨学科的研究合作将有助于我们把握这一复杂技术的发展与影响,把人工智能的讨论从代理的误区引导至更加深刻的文化与社会技术的分析中去。这不仅能够提升我们对技术本质的理解,也能够促进其在社会应用中的积极转变,通过深度对话和合作,真正实现人类与技术的共生发展。