杨植麟、张鹏、罗福莉,AI顶流们聊了“龙虾”和未来12个月的行业关键词

界面新闻记者 | 伍洋宇

界面新闻编辑 | 文姝琪

AI界的顶流们聚到了一起。

3月27日,2026年中关村论坛在AI开源前沿论坛安排了一场圆桌,集齐了目前AI领域产业链上几家头部厂商的话事人,月之暗面创始人兼CEO杨植麟、智谱华章CEO张鹏、小米Mimo大模型负责人罗福莉、无问芯穹联合创始人兼CEO夏立雪,以及来自学界的香港大学助理教授黄超。

即便是最触及AI技术边界的一群人,话题也是从近期热点OpenClaw发起。

张鹏认为,OpenClaw使顶尖模型能力普惠化,非技术人员也可以通过自然交互实现复杂编程与任务处理,其核心价值在于构建灵活的“脚手架”,释放用户创造力。 

作为基础设施层的厂商,夏立雪所看到的是它对于整个大模型系统和生态带来的更多机遇和挑战。“因为我们现在所有能够用到的资源,想要支撑起这样一个快速增长的时代是不够的。” 

罗福莉将其当做一种AI框架的革命性与颠覆性事件看待,并且因为是开源,有利于整个社区参与深度改进。“另外从技术角度来说,它保证了模型下限,同时又拉升了上限,在绝大部分场景,它的任务完成度已经非常接近Claude最新模型。” 

另外,这场圆桌还重点探讨了以OpenClaw为代表的Agent产品如何降低AI使用门槛、推动Agent框架创新,以及算力需求激增对行业的影响。 

发言者们还共同回答了一个开放问题,即未来12个月AI大模型发展的一个关键词。罗福莉提出“自进化”是这个问题的答案,并且是她眼中唯一可以创造出新东西的路径。“它不是去替代我们现有的人的生产力,而是说它是像顶尖科学家一样去探索出来这个世界上没有的东西。”

如果放在一年前,罗福莉认为自进化到来的时间历程会持续三到五年,但站在今天这个时间点,她认为已经缩短到1-2年。“我很期待这样一种范式辐射到更广的学科和领域。”

图片来源:界面新闻

以下为本场圆桌对话实录,略作编辑:

1、从体验和技术,谈OpenClaw和相关Agent演进

杨植麟:今天邀请到的嘉宾覆盖了不同的层面,从模型层到算力层到Agent层,很高兴能跟大家一起探讨,最主要的关键词是开源和Agent。我们先从第一个问题开始,大家自己日常使用OpenClaw或者类似的产品,觉得最有想象力或者印象深刻的是什么?从技术的角度来看,如何看待今天OpenClaw和相关Agent的演进?我们先从张鹏这里开始。

张鹏:我确实很早就开始自己玩这个东西,毕竟也是程序员出身,玩这些东西还是有些自己的体验。这个事情可能给大家带来的最大突破点,或者说新增的一点就在于,这件事不再是程序员或者极客们的专利,普通人也可以比较方便使用顶尖模型的能力,尤其是在编程和推理方面的能力。

跟大家在交流过程当中,我更愿意把它叫做一个“脚手架”——它提供的是一种可能性,在模型基础上搭起了一个很牢固、很方便,但又很灵活的脚手架。

大家可以按照自己的意愿去使用很多以前模型提供的新奇的东西,原来的一些想法受限于不会写代码或者不会一些技能,今天终于可以通过很简单的交流就可以实现。

这个事情对我来说是一个非常大的冲击。 

夏立雪:其实我最开始用OpenClaw的时候是不太适应的,因为我习惯于跟大模型聊天的交流方式,然后发现聊天很慢、很尴尬。

后来我就意识到一个问题——它和之前的聊天机器人有很大的不一样,它应该是一个能够帮我完成大型任务的“人”。但同时它对于整个系统的能力要求也变得很大,这是为什么我一开始用Pro会觉得它有点卡的原因。

所以我作为基础设施层的厂商,看到的是它对于整个大模型系统和生态都带来了更多的机遇和挑战。因为我们现在所有能够用到的资源,想要支撑起这样一个快速增长的时代是不够的。比如说拿我们公司来说,从1月底开始,基本上每两周我们的部署量就翻一番,到现在基本上翻了10倍。

上次见到这种速度还是当时3G时代手机流量的增长,现在的这个token量就跟当年我们每个月有100M手机流量一样。

这种情况下,我们所有的资源需要进行更好的优化和整合,让每一个人——不仅仅在AI里面,在整个社会上——都能够把这样的AI能力用起来。

罗福莉:我自己是把OpenClaw当做一种框架层面非常革命性和颠覆性的事件来看待的。

虽然我知道我身边所有在进行深度使用的人,可能第一选择还是Claude Code,但它在很多框架上的设计性是领先于Claude的,包括最近Claude很多更新都是在往这个方向靠近。Claude可能最开始只能在桌面上去实现我的创意,但在OpenClaw,我可以随时随地实现我的创意。

后面我发现OpenClaw带来的核心价值在于两个。第一,它是开源的。开源是一个非常有利于整个社区去深入参与、改进、投入到这种框架中的非常重要的前置条件。

而且像OpenClaw这样的框架,它很大的价值是把国内的一些模型——可能没有非常接近闭源模型,但水平还是在次闭源模型赛道上的——上限拉到非常高,在绝大部分场景,它的任务完成度已经非常接近Claude的最新模型。

同时它又把下限保证得非常好,因为它可以靠一套harness系统,或者说靠它的skills体系等诸多设计,保证任务的完成度和准确率。所以我觉得从技术角度来说,它是保证了下限、拉升了上限。 

黄超:首先从交互模式上来讲,为什么OpenClaw这次会爆火?第一个就是给了大家一种更有“活人感”的感觉,之前包括像Cursor、Claude Code这些Agent,给人感觉更像是一种工具。

OpenClaw第一次以IM软件嵌入的交互模式,可以让大家更有真人感,更接近于自己想象中的个人管家、贾维斯这样的概念,这可能是交互模式上的突破。

另外我觉得它带给大家的一个启发是,它的架构——Agent Loop这种非常简单但高效的框架,再一次被证明了。它让我们重新思考:我们是否需要一个all-in-one非常强大的智能体来帮我们做很多事情,还是需要一个比较好的、类似于轻量级操作系统或脚手架一样的小管家?

我觉得它带来的是可以通过一个小的system prompt,让整个社区玩起来的心态。

它撬动了整个生态里面所有的工具,越来越多的人可以去设计面向这样系统的应用,去赋能各行各业。我觉得它天然就和整个开源生态结合得非常紧密,这两点是带给我们最大的启发。

图片来源:界面新闻

2、智谱发了最新GLM模型,它为什么提价?

杨植麟:顺着这个话题,我想问一下张鹏,最近智谱也发布了新的GLM模型,我理解对Agent能力做了很大的增强,能不能给大家介绍一下这个新模型和其他模型的不同之处?以及我们也观察到有一个提价的策略,这反映了什么样的市场特性?

张鹏:前两天确实我们紧急更新了一波,当然这是在整个发展目标当中的一个阶段。

这个事情最主要的目的还是从原来简单的对话到“干活”。干活对能力的需求是非常高的:它需要自己去做长期规划,不断地尝试,不断地去压缩自己看到的信息,然后debug,还可能涉及到动态信息的处理。我们在这方面做了加强,比如说在大场景下如何通过不停地自己去执行任务。

另外大家也提到关于消耗量的问题。聪明的模型干复杂的任务消耗量是非常巨大的,可能一般人体会不出来,但看到自己账单上的钱在发生变化。所以在这方面我们也做了一些优化,让模型在面临复杂任务的时候能有更高效的效率去完成。

提价这个事情其实也很好解释。我们现在不再简单地问一个问题、它回答,它背后思考的链路是更长的,还要去debug,随时改正自己的错误,消耗量非常大,是原来回答一个简单问题的10倍,成本是有一定提高的。

我们把它回归到一个正常的商业价值上来。因为长期靠低价竞争也不利于整个行业的发展,这是我们的考量。

3、AGI时代,AI Infra也应该是Agent

杨植麟:随着token量的爆炸,现在可能逐渐从训练时代变成了推理时代。所以想请教一下立雪,从Infra的层面,推理时代对于无问芯穹来说意味着什么?

夏立雪:确实,我们是一个诞生在AI时代的基础设施厂商,现在也在跟应用做合作,让大家能够把我们这样一个token工厂更高效地用起来。

所以我们一直在思考:AGI时代需要的基础设施会是什么样子?我们怎么一步步地去实现和推演它?

我们一直以来都是从软硬件打通的方式去做布局和解决的。我们接入了几乎所有我们能看到的计算芯片,把国内十几种芯片和几十个不同的算力集群都统一连接起来,这样能够解决AI系统中算力资源紧缺的问题。

这里我们做了很多优化,包括让模型和硬件上的各种显存、各种基础进行最优适配,也在看会不会在最新的模型结构和硬件结构下进行更深度的化学反应。

但面向Agent时代,我们认为这还是不够的。我举一个例子,比如Agent能够做到秒到毫秒级别去思考和发起任务,而这件事情在我们之前的底层K8s等能力上其实没有做好准备,因为人类发起一个任务大概是分钟级别的。

这样的功能需要进一步能力,我们称之为Agentic Infra。

真正AGI时代到来的时候,我们认为连基础设施都应该是一个智能体。token工厂本身也应该是一个能够自我进化、自我迭代的自主组织,根据AI客户的需求迭代自己的基础设施,这样AI和AI之间才能更好地形成耦合。

所以我们一直在思考,基础设施和AI的发展不应该是一个隔离的状态,而是应该产生非常丰富的化学反应,做到算法和基础设施的协同。

图片来源:界面新闻

4、再谈中国团队做大模型的独特优势

杨植麟:接下来想问问福莉,小米最近通过发布新的模型,包括开源背后的技术,我觉得对社区做出了很大的贡献。想问一下小米在做大模型方面,你觉得会有什么独特的优势?

罗福莉:我们先抛开小米在做大模型方面有什么独特优势这个话题,我更想谈一下中国的做大模型的团队在做大模型上的优势,我觉得这个话题更具备更广泛的价值。

大概在两年前,我看到中国的基座大模型团队已经开始了一个非常好的突破:我们在怎么在有限的算力,尤其是在一些NVLink互联带宽受限的算力的情况下,突破这些低端算力的限制,去做一些看似是为了效率妥协的模型结构创新,像DeepSeek系列V2、V3的MoE和MLA等等。

虽然在今天,我们自己的国产芯片,尤其是推理芯片以及训练芯片,已经不再受这个限制,但我们能看到在这样的限制情况下,催生了我们对于更高的训练效率、更低的推理效率的模型结构的全新探索。

我为什么觉得结构创新如此重要?OpenClaw大家如果真实地去用,会发现你越用越好用,越用越聪明。那么它的一个前提是你的推理Context。

Long-Context是我们谈论了很久的一个话题,但现在真正能有一个模型在Long-Context的情况下表现非常好、性能强劲、推理成本非常低,很多模型不是做不到一兆或十兆的Context,而是因为成本太贵了、速度太慢了。

怎么能在一兆或十兆的Context下推理成本够低、速度够快,这样才会有真正高生产力价值的任务交给这个模型,从而去激发只有在Long-Context情况下才能完成的高复杂度任务。可能我们才能在十兆甚至一百兆Context的情况下实现模型的自迭代。

所谓模型的自迭代,就是它可以在一个复杂环境中,依靠超长Context完成对自我的进化,这个进化有可能是对Agent框架本身的,也有可能是对模型参数本身的。

因为我们认为Long-Context本身其实就是对参数的一种进化。所以怎么实现一个Efficient Long Context 的架构,以及怎么在推理侧做到Efficient Long Context ,它是一个全方位的竞争。

5、Planning、Memory、Tool Use:Agent框架层面的重要方向

杨植麟:下面想问一下黄超,你自己觉得从Agent的框架或者应用的层面,接下来会有什么技术方向是比较重要的、大家需要去关注的?

黄超:如果我们把Agent的一些技术抽象出来,它关键组成部分包括Planning、Memory和Tool Use这几个模块。

从Planning来讲,现在的问题还是面向一些长程的任务或者非常复杂的任务,比如说500步甚至更长的部署。很多模型不一定能做很好的Planning,因为它本质上可能不具备这样的隐性知识,特别是在一些复杂的垂直领域。所以Planning未来可能需要把已有的各种复杂任务的知识固化到模型里面去。

从Skill的角度,包括Parties这种机制也是缓解了Planning带来的错误——给模型提供高质量的Skill,它在概率上能更好地完成比较难的Task。

然后是Memory。我觉得Memory给我们的感受就是好像永远都会存在信息压缩不准确、检索不准这样的问题。现在包括长程任务、复杂场景,Memory就会暴涨,带来很大的压力。

但现在包括各类“龙虾”们,大家都采用的是最简单的方式——文件系统、Markdown格式的Memory,通过共享文件这样的方式来做。

我觉得未来Memory应该是很重要的,可能会走向分层的设计,包括如何让Memory做得更通用。老实讲,现在整个Memory很难做到通用——Coding场景的、Deep Search的、多媒体领域的,整个数据的模态差别会很大,如何对这些Memory进行很好的检索索引,我觉得这永远是需要推进的方向。

另外一点,未来可能不止一个“龙虾”,一群“龙虾”相比一个“龙虾”,上下文的暴增大家可以想象会非常大。这也是带给Memory的压力——如何管理一群Agent带来的上下文?特别是对于复杂的Coding、科研发现,不管是模型还是Agent的架构,压力都很大。

对于Tool Use这块,也就是Skill。当时MCP本身存在的问题,现在Skill其实还是会存在。比如MCP当时有质量不保障的问题、可能存在安全问题,现在Skill也是。

低质量的Skill会很影响Agent任务的完成度。另外Skill也会存在恶意注入的问题,所以可能需要靠整个社区来把Skill发展得更好,甚至在执行过程中进化出新的Skill。

6、不是5年而是12个月,大模型未来发展的1个关键词

杨植麟:我们来一个开放式的展望,想请各位用一个词来描述一下接下来12个月大模型发展的趋势以及你的期望。

黄超:12个月在AI看起来好遥远,不知道12个月之后会发生什么。

杨植麟:原来写的是5年,我觉得应该改。(笑)

黄超:我觉得这个词应该叫“生态”。现在Claw让大家这么活跃了,但是未来Agent真的是要去从真正的个人助手,特别是转化为“打工人”,我觉得还是很重要的。

这块可能需要整个生态的努力,不管是对于模型的迭代,还是对于Skills平台的迭代,还有各种工具的迭代,我觉得都需要去更好地面向Claw,去创造更好的生态。

从我自己感觉比较明显的是,未来的很多软件是不是还是给人用的?相信可能未来大部分的软件都不一定会是面向人类的。

所以我觉得需要一个生态去把不管是软件系统,还是数据,还是各种技术,都把它变成Agent Native的模式,这样可能才能让整个Agent的发展更加丰富。

罗福莉:我觉得把这个问题缩小到一年非常有意义,因为我觉得五年从我心目中对于AGI定义而言,已经实现了。

如果说要用一个词来描述接下来一年AGI历程里边最关键的一个事情的话,我认为会是“自进化”。虽然这个词是一个有点玄幻的概念,过去一年大家也多次提到,但是我最近才对这个词有了一个更深的体会,或者说具体自进化这个事怎么做,会有一个更务实、更实操可行的方案。

这里边的原因是借助于很强大的模型,我们之前在Chat那个范式下根本没有发挥出来预训练模型的上限,这个上限现在是被Agent框架激活到了,当它执行更长时间的任务的时候,我们发现这个模型它可以自己去学习和进化。

很简单一个尝试,当你在现有的Agent框架里边给它叠加一个可以Verify的条件限制,然后再给它设置一个Loop,让这个模型就不停下来持续去迭代优化这个目标,我们就能发现这个模型会持续拿出更好的方案。

如果这样的一种自进化能持续,现在国内模型其实已经能跑一两天了,当然跟任务的难度有关。

我们组内做大模型研究的同学,基本上他的Workflow是非常不确定的、是高度创造力的,我们发现借助Claude Code或非常顶尖的模型,基本上已经能够加速我们自己的研究效率近十倍了。

所以从我的角度上来看,我觉得自进化是一个唯一可以创造新的东西的地方,它不是去替代我们现有的人的生产力,而是说它是像顶尖的科学家一样去探索出来这个世界上没有的东西。

一年前我会觉得这个时间历程会拉到三到五年,但是在近期我会觉得应该缩小到最近一到两年,就可以让大模型叠加一个非常强的自进化的Agent框架,实现对于科学研究的一个至少指数级的加速。

我很期待这样的一种范式辐射到更广的学科和领域,我觉得自进化是非常重要的。 

夏立雪:我的关键词叫“可持续Token”。作为基础设施的角度,我看到很大的问题就是资源终究是有限的。我们现在作为一个Token工厂,能否给大家提供持续、稳定、大规模能够用起来的这些Token,让顶尖的模型能够真正继续为更多的下游去服务是一个很重要的问题。

我也认为这个可持续也是想把中国特色的Token经济学给做起来。在之前的时代我们叫Made in China,把中国的制造业成本优势变成好的商品输出到全球。我们现在想做的有点像AI Made in China,就是能够把中国能源上的优势,通过这些Token工厂,可持续地转化为优质的Token输出到全球,成为一个世界的Token工厂,这是我想要在今年看到的、中国给世界的人工智能带来的价值。 

张鹏:大家都可能都在仰望星空,我就落地一点。我觉得未来12个月面临的最大的问题可能就是“算力”。

刚才也说了,所有的技术,包括智能体框架,让很多人有很好的创造力、效率提升十倍,但前提条件就是大家能够用得起来,你不能因为算力不够,一个问题提出去让它思考半天也不给我答案,这个肯定是不行的。

也是因为这样的一些原因,可能甚至连我们的研究进展,包括很多想要做的事情其实都受阻了。前两年我记得有句老话叫“没卡没感情,谈卡伤感情”,我觉得今天又到了这个地步了,但情况又不一样了,我们又到了推理的阶段,转向推理阶段是因为需求真的在爆发,十倍、百倍的爆发,还有很大量的需求没有满足,怎么办?我们大家可能一起来想想办法。