在通往通用人工智能(AGI)之路上,智谱科技作为国内大模型领域的领导者,再次展示了其卓越的技术能力。9月30日,智谱正式发布并开源其最新一代大模型GLM-4.6。此次发布不仅是技术的革新,还标志着开源模型在能力方面的重大突破,尤其是在Agentic Coding等关键能力的显著提升上。这一消息在国庆节前夕发布,引发了广泛的关注,标志着智谱在大模型技术研发中迈出了重要的一步。
GLM-4.6目前已经在智谱的MaaS(bigmodel.cn)上线,并计划在Hugging Face和ModelScope等同步开源,遵循MIT协议进行共享。这一操作的公开性和透明性将进一步促进业界的合作与创新。
从公开的基准测试和真实编程任务结果来看,GLM-4.6在代码生成方面的能力已全面与Claude Sonnet 4保持一致,成功地成为当下国内最强的代码生成模型。这一成就的取得是在智谱团队不懈努力下的结果,他们已在长上下文处理、逻辑推理、信息检索、文本生成及智能体应用等多个领域实现了整体性能的显著超越。
为测试GLM-4.6在实际编程任务中的表现,智谱团队实施了在ClaudeCode环境下进行的74个真实场景编程任务的评估。结果显示,GLM-4.6不仅优于Claude Sonnet 4,还在人均token消耗上比之前的GLM-4.5节省了30%以上,成为同类模型中的最低消耗。为了确保测试的透明性和可信度,智谱公开了所有测试题目及Agent的完整轨迹,以便业界进行验证与复现。
在此之前,GLM-4.5已首次实现推理、编码和智能体能力的深度融合,在全球市场上赢得了优秀口碑并取得了商用成功。智谱公开数据显示,该模型在Openrouter上长期稳居全球前十的供应商。自发布以来,智谱MaaSAPI的商业化增长也超过了10倍,这令人期待新一代的GLM-4.6将为客户带来更大的价值。
更为值得注意的是,智谱已在寒武纪领先的国产AI芯片上实现了FP8+Int4的混合量化推理部署。这一创新标志着国内首次在芯片上落地FP8+Int4模型,形成了模型和芯片一体化的解决方案。这一方案在保持模型精度的同时,大幅降低了推理成本,为国产芯片本地化运行大模型提供了现实的可行路径和示范意义。
与此同步进行的,摩尔线程基于vLLM推理框架对GLM-4.6完成了适配。新的GPU架构能够在原生FP8精度下稳定运行模型,充分证明了MUSA架构及全功能GPU在生态兼容性和快速适配能力方面的优势。寒武纪与摩尔线程的协作标志着国产GPU已经具备了与前沿大模型进行协同迭代的能力,这将加速构建自主可控的AI技术生态。
未来,随着GLM系列大模型与国产芯片的深入协同,智谱将持续推动模型训练和推理环节的性能与效率双重优化,构建更加开放、可控、高效的人工智能基础设施。GLM-4.6将在智谱MaaS为企业与公众提供服务,这一组合将释放出更广泛的社会与产业价值。
GLM-4.6的发布不仅是智谱科技在技术上取得的新高峰,也为行业提供了新的视角和方向。在不断追求创新和卓越的过程中,智谱有望在全球大模型市场中占据越来越重要的地位。随着技术的不断迭代和应用的深入,相信未来国产大模型将推动更多的行业变革,实现更具影响力的成果。