OpenAI发布GPT-5路由功能遭遇挑战,算力成本控制成大模型行业关键

来源: 小世评选

在人工智能的快速发展中,算力成本的管理已成为大模型行业进步和商业化成功的关键因素。随着技术不断革新,行业内部对如何优化算力使用的关注日趋增加。比如,在今年初,DeepSeek在国际开源社区取得成功,展示了将高性能模型的推理与训练算力成本控制至10%以内的技术实力,这一成就迅速引发了行业的广泛关注。而不久后,GPT-4的推出也进一步促进了Mixture of Experts(MoE)架构的普及——这一架构的引入,因其有效降低了模型推理过程中的算力成本,几乎成为了大部分大模型开发者的默认选择。

即便是在这样的技术大背景下,OpenAI最近推出的GPT-5及其“路由(routing)”功能却遭遇了意想不到的挑战。此功能的设计初衷是依据问题的复杂性,将用户请求智能地分配给不同算力消耗级别的模型,以达到更好的用户体验和算力效率。遗憾的是,在实际运行中,路由功能未能准确匹配用户的需求与模型的能力,导致许多用户对GPT-5的初期表现感到失望。因此,OpenAI不得不回撤部分功能,允许用户手动选择推理模型与基本模型之间的切换。这一变动使得GPT-5在一些用户眼中成为了“降本增笑”的典型案例。

OpenAI为何仍选择冒险推出这样一个功能呢?其背后有着深层次的考虑。从用户角度看,OpenAI推出的大量模型使得普通用户在选取合适模型时面临了显著的难度。尤其是对于那些并不熟悉这一技术领域的用户如何为不同的任务选择最合适的模型成为了OpenAI必须面对的重要问题。从算力成本的视角来看,推理模型与非推理模型间的算力差异显著,因此高效地调配这一能源形式,成为了影响大模型产品算力使用效率的关键因素。因此,路由功能的推出,不仅是为了改善用户体验,更是为了在保持商业模式可持续性的同时,降低算力开支。

不过,构建高效可靠的路由功能并非易事。从技术本质上讲,这个功能涉及“多目标+强约束”的复杂工程问题,要求在质量、延迟、算力成本、容量管理和成功率等多个维度间进行实时的优化。根据外媒对UIUC计算机专业助理教授的采访,其指出这一问题的解决难度可能与构建一个类似于亚马逊的推荐系统相当,需耗费大量专家的时间与精力。这一观点也间接表明,路由功能的实现并不会一帆风顺。

在实际应用场景中,路由功能所面临的挑战显而易见。即便是像DeepSeek这样国内顶尖的大模型团队,在内置“推理-非推理”选择功能后,仍然遭遇了模型稳定性的问题。而OpenAI在GPT-5上推出的路由功能同样未能如预期发挥作用,这进一步反映出处理此类问题的复杂和困难。

尽管面临着重重挑战,算力成本控制依旧是大模型领域亟需重视的重要方向。随着人工智能技术的不断演变,模型所需处理的任务种类和复杂度日益增加,这进一步推动了算力需求的提升。为了应对这些挑战,OpenAI正在积极推进其名为Stargate的基础设施扩展计划,并在印度等地设立新的数据中心,以增强其本地算力配置能力。同时,他们也在持续研究如何更有效地降低模型的算力需求,特别是针对“路由”功能的深入探讨未曾停歇。

在大模型时代,如何高效调度“深度思考”的能力,将在很大程度上决定各大模型公司在系统效率、商业模式和用户体验上的竞争力。因此,对于所有参与大模型开发的公司提升“算力兑换智力”的效率始终是其追求的终极标准与目标。显然,随着技术的进步与行业的发展,算力成本管理的挑战和优化将在未来的一段时间内持续成为行业关注的焦点。

相关阅读
精品推荐