Gate 新闻消息,4 月 29 日——OpenAI 的研究人员 Sébastien Bubeck 和 Ernest Ryu 表示,AI 系统可能在两年内完成大部分人类研究工作,并将数学作为衡量 AI 进展的清晰标尺。与模糊的性能测试不同,数学问题提供精确的验证:答案要么正确,要么错误,不留任何模棱两可的空间。

Bubeck 指出,真正的 AI 思考要求能够在长链推理中存活下来。在多步骤论证中出现一个错误,就会使整个证明崩塌,因此,对先进模型而言,过程中进行错误检测与修正才是终极目标。OpenAI 的内部实验室已经生成了十多项完全崭新的定理,并且可在顶级组合数学期刊发表,表明 AI 现在产出的是真正原创、具有突破性的工作,而不仅仅是将现有论文重新拼接组合。

然而,要实现持续的科学突破,就需要在数周的测试中保持稳定的专注。目前的系统仍需要严格的人类监督,以引导并核验方向每一次转变。Bubeck 用“AGI 时间”来衡量一个模型能独立模仿人类思考多久;目前系统大约在几天到一周的量级运行,而行业目标是达到数周或数月,以便在诸如生物学等领域实现自主工作。

长久记忆对于这一未来至关重要。标准的聊天窗口会限制深度——复杂的数学证明往往超过 50 页——而代码仓库则展示了更长时间的工作会话如何带来更深入的难题求解。随着 AI 获得更强的独立性与记忆,人类专业知识反而会更有价值,而不是更低。工作人员必须保留深厚的基础性知识,用以质疑并核验机器给出的答案;同时,组织也需要新的自动化过滤器与声誉系统,以便在大量由 AI 辅助的研究涌入之时维持信任。