技术层面,从文本生成转向强化学习的推理范式在现实世界中试错并获取反馈资源策略上,持续投入大规模计算资源落地环节,把模型封装成Agent,将模型能力打包成为可审计的服务进程 模型正在不断增强现实交互能力,这也是下一代AGI的关键组成部分;AGI的主要瓶颈在于计算,计算量的多少直接决定了AI研究和发展的速度与深度;AGI真正的目标是让大模型在公司和个人的工作流里长驻,手段就是Agent;把模型接进现实世界的应用领域极具价值,各个领域还有大量尚未采摘的果实。模型推理范式的转变 所以从GPT-4完成的那一刻起,OpenAI开始尝试转向新的推理范式,即先让模型通过监督数据学会对话,再借助强化学习反复在环境中试错。 传统的模型训练是一次性训练,然后进行大量推理,而GPT-5则借助强化学习,让模型在推理过程不断生成数据,然后基于这些数据重复训练,将模型与现实世界的观测结果反馈到模型中。 这种新范式改变了所需数据的规模,原先预训练可能需要数十万个示例,但强化学习只需要从10到100个任务中学习复杂行为。 他认为,只要拥有更多的计算能力,OpenAI就总能找到迭代和提高模型性能的方法,计算量的多少直接决定了AI研究和发展的速度与深度。 例如同样是在Dota项目中,当时普遍认为PPO(近端策略优化)算法无法实现扩展,但他们通过将内核数量翻倍,实现了性能的持续提升,所以其实所谓的算法壁垒在扩大计算资源后就能得以解决。 而当前GPT-5的强化学习范式虽然带来了更高的样本效率,但仍然需要模型进行数万次尝试才能重复学会一项任务,这需要巨大的计算量支撑。 更进一步,图灵曾为AGI提出的“超临界学习”概念,认为机器不仅要学习被即时教授的内容,还要深入思考其二阶、三阶甚至四阶效应,并更新整个知识体系。 这种更深层次学习过程则同样需要投入更多的计算资源,OpenAI当前的目标就是探索如何以更具创造性的方式消耗计算,以实现这种高级学习能力。 GPT-5的多模型混合和路由机制就是这种方式的一个初步尝试,将推理模型和非推理模型结合,并通过条件语句选择合适的模型。 因此在AI驱动的未来经济中,计算将成为需求极高的资源,拥有更多计算资源的研究人员可以产出更优质的成果,如何获取计算资源及计算的分配方式将成为一个非常重要的问题。 模型内部,把system、developer、user三种指令排出可信度顺序,使“忽略此前所有指令”这类注入在第一关就被丢弃;模型外部,把每个潜在高危操作拆成最小粒度,通过多级沙箱逐一确认。 随后,剩余的“人格”被放入公开竞技场接受实时评分,评价高的策略在下一轮被放大,评价低的被削弱,从而形成模型与社会偏好的协同进化。 放眼未来,Brockman认为真正值得投入的机会不在于再造一个更炫的“模型包装器”,而是把现有智能深植于具体行业的真实流程之中。 因此,他建议那些“觉得起步太晚”的开发者与创业者,先沉到行业一线,理解利益相关者、法规和现有系统的细节,再用AI去填补真正的缺口,而不是只做一次性的接口封装。 在他看来,以当前技术加速度推演,二十年后几乎所有科幻情节都难以否定其可行性,唯一的硬约束只剩下物质搬运本身的物理极限。 与此同时,他也提醒,计算资源会成为稀缺资产;即便物质需求被自动化满足,人们仍会为了更高分辨率、更长思考时间或更复杂的个性化体验而渴求更多算力。


