在今天举行的2026中关村论坛年会开源主题圆桌上,月之暗面创始人杨植麟和智谱CEO张鹏,小米MiMo大模型负责人罗福莉,以及无问芯穹联合创始人兼CEO夏立雪、香港大学助理教授、博士生导师、Nanobot团队负责人黄超等业界重量级人物齐聚一堂,对AI行业大家关心的问题进行深入探讨。

小米新模型的推出,让拥有DeepSeek背景的罗福莉进一步成为大众视线的焦点。罗福莉在中关村论坛的现身,和一众头部模型公司大佬同台论道,对小米大模型来说,无疑也是一次“抬咖”。

以下是罗福莉在这场圆桌会谈中的发言汇总:

杨植麟:现在最流行的就是OpenClaw,大家在日常使用或者类似产品时,觉得什么最有想象力或印象深刻?

罗福莉:我认为OpenClaw是一个非常革命性和颠覆性的事件。虽然深度Coding的人首选可能还是Code,但用过OpenClaw的人会感受到它在Agent框架设计上是领先于Code的,Code的最新更新其实都在向OpenClaw靠近。

它给我的最大价值在于“开源”:这有利于社区深入参与。它把国内次顶级闭源模型的上限拉得非常高,在绝大部分场景下任务完成度已非常接近最新模型,同时又靠Skill体系保证了下限。

此外,它点燃了大家的想象力。大家发现大模型外的Agent层有巨大空间,更多人不仅是研究员,开始参与AGI变革,这在一定程度上替代了重复工作,释放了时间去做更有想象力的事。

杨植麟:罗福莉,小米最近通过发布新模型和开源技术对社区做出了贡献,小米做大模型有什么独特优势?

罗福莉:我想先不谈小米的独特优势,而是谈谈中国大模型团队的优势。

两年前,中国团队在算力受限,尤其是互联带宽受限的情况下,做出了突破:在低端算力限制下,通过模型结构创新(如DPCV3、M1、MA等)去追求最高效率。这给了我们勇气和信心。

虽然现在国产芯片不再受限,但这种对高效率、低推理成本的探索依然重要。例如,现在的Hybrid、SPA、Linear Attention结构等。

为什么结构创新重要?因为OpenClaw越用越聪明的前提是推理Context。现在的难题是:怎么在1M或10M的长上下文下,做到成本够低、速度够快?只有这样,才能激发高生产力任务,实现模型自迭代,在复杂环境中依靠超长Context完成自我进化。

我们现在正在探索Long Context Efficient架构,以及如何在真实长距离任务上做到稳定和高上限。

更长期看,随着推理需求爆发,今年可能增长100倍,竞争维度将下探到算力、推理芯片甚至能源层面。

杨植麟:最后我们来做一个开放式展望。想请各位用一个词来描述接下来十二个月大模型发展的趋势,以及你的期望。

罗福莉:我觉得,把这个问题缩小到一年,其实非常有意义。因为如果放到五年,从我自己对AGI的定义来看,我甚至会觉得它已经实现了。

如果要用一个词来描述接下来一年里,AGI进程中最关键的一件事,我认为会是“自进化”。

虽然这个词听起来有点玄,过去一年大家也提过很多次,但我最近才真正对它有了更深的体会。更重要的是,我开始看到“自进化”这件事,已经出现了一个更务实、可落地、可实操的路径。

原因在于,借助于足够强大的模型,我们之前在chat这个范式下,其实并没有真正发挥出预训练模型的上限。而这个上限,现在正在被Agent框架激活。尤其是当模型开始执行更长时间任务的时候,我们会发现,它是可以自己学习、自己进化的。

一个很简单的尝试就是:在现有的Agent框架里,给它叠加一个可验证的约束条件,再给它设置一个loop,让模型不停下来,持续地围绕目标迭代优化。这样我们就会发现,它能够不断拿出更好的方案。

如果这种自进化持续下去,现在其实已经可以跑一两天了,国内很多模型基本都能做到,当然这也和任务难度有关。比如在一些科学研究任务里,像探索更好的模型结构,因为模型结构本身有明确的评估标准,比如更低的perplexity,这类任务就比较适合验证。我们已经发现,在这种确定性较高的任务上,模型能够自主运行和演化两三天。

所以从我的角度看,自进化是目前唯一一个真正有机会创造“新东西”的方向。它不是简单替代现有人的生产力,而是像顶尖科学家一样,去探索这个世界上原本还不存在的东西。

其实一年前,我还觉得这个进程可能需要三到五年;但就在最近,我开始觉得这个时间尺度应该缩短到一到两年。也就是说,我们很可能在近期就能看到:大模型叠加一个很强的自进化Agent框架后,对科学研究带来至少指数级的加速。

因为我最近已经观察到,我们组内做大模型研究的同学,他们的workflow本身就高度不确定、依赖创造力。而借助Claude Code,再加上顶尖模型,基本已经能够把我们自己的研究效率提升接近十倍。

所以我非常期待,这样的范式能够辐射到更广泛的学科和领域。我觉得这是接下来非常重要的一件事。

本文转自:凤凰网科技

原文地址: https://tech.ifeng.com/c/8rqLSESBmDP