写于 2026 年 3 月 8 日。留作存档,一两年后回来验证。


一、AI 的进步仍然会超出我们的预期

AI 大模型在未来至少一到两年的时间里,仍然会有飞跃式的进步——而且这个进步的幅度,会超出当下大多数人的预期。

这句话听起来像废话,但它不是。

认知差:理性上认同,直觉上将信将疑

我的观察是,绝大多数人(包括我自己)虽然在嘴上会说”模型会不断进步”,但在实际行为和决策上,并没有真正按照这个信念去行动。

最直接的证据就是我自己:如果我三年前真的相信 AI 会发展到今天这个程度,我应该在那时候买入英伟达并持有至今——但我没有。我也不会去做一些过去几年做过的事情,而是会更超前地去布局面向更强 AI 能力的产品——但我也没有。我和大多数人一样,对 AI 的发展一直处于”理性上认同,但直觉上将信将疑”的状态。

这种将信将疑,在一定程度上也是理性的。毕竟,连 Yann LeCun 这样的顶级专家都在质疑 Scaling Law,AI 泡沫论也不是毫无道理。如果问”当前技术路线能否通向 AGI”,我自己也没有足够的信心。

但这不是我们要讨论的问题。我们要讨论的是一个更具体、更可验证的命题:未来两到三年,AI 模型是否还有巨大的进步空间?

类比:我们处在 iPhone 几?

这就像 iPhone 的发展曲线。从 iPhone 4 到 iPhone X,每一代都有肉眼可见的飞跃;但 iPhone X 之后,进步变成了挤牙膏。我们需要判断的是:AI 现在处于 iPhone 6 还是 iPhone X?

我的判断是:我们大概率还在 iPhone 6 的位置。理由如下。

论据一:过去三年本身就是证据

过去三年 AI 的发展,已经大幅超出了我三年前的预期。如果”低估”是一个反复出现的模式——而且不只是我一个人低估,而是整个行业、整个市场都在反复低估——那么合理的推断是,我们现在很可能仍然在低估。

论据二:内部人的信号

最近几个月,我从字节跳动一位负责大模型训练的前领导那里了解到,从他们内部观察到的数据和趋势来看,模型的进步空间仍然非常大。他对此非常笃定。

与此同时,Anthropic 创始人公开表示:Scaling Law 远远还没有撞墙,他们在实验室内看到的效果是惊人的。

这两个独立信源——一个来自国内头部大模型团队的内部视角,一个来自全球顶尖 AI 实验室创始人的公开表态——指向同一个结论。这增强了我的信心。

补充论据:人的直觉是线性的,但技术进步不是

人类天生不擅长理解指数增长,或者说 S 曲线的前半段。三年前我低估了,今天我在提醒自己不要再低估——但我的直觉仍然可能在拖后腿。这是一个结构性的认知偏差。

另一个间接但有力的证据是:看各大实验室的资本开支。OpenAI、Google、Meta、字节都在以百亿美元量级疯狂加码训练基础设施。这些组织掌握的内部信息远比外部多。如果他们看到的曲线在变平,他们不会这么花钱。资本流向是信念的硬指标。

为什么要先确立这个前提

这不是一个学术讨论,而是一个行动前提。

如果 AI 在未来一两年里无法持续进步,那整个市场会内卷到极致,不会有太多创新机会。我们今天选择在 AI 领域寻找新方向,本质上就是在押注这个进步会持续。

所以,在讨论”做什么”之前,先把这个底层假设说清楚:我赌 AI 还会继续超预期。 后面所有的判断,都建立在这个前提之上。


二、Agent Box 会吃掉一切软件

在 AI 模型持续进步的前提下,除了 Agent 类产品以外,其他软件产品存在的意义都会急剧缩小。最终形态可能是:每个人拥有一个通用的”Agent Box”,所有软件功能被原子化,由 Agent 根据需求实时组合调用。

这是一个直觉先行、逻辑后补的判断,不一定在细节上完全正确,但作为思想实验,它指向的方向值得认真对待。

微观观察:今天的 Agent 产品本质上都是模型套壳

一个出乎意料但越来越明显的事实是:当下主流的 Agent 产品——Cursor、Claude Code、Codex、OpenClaw——它们之间的差异,本质上来自底层模型,而非产品层。

同一个模型放进不同的 Agent 产品里,表现差不多;同一个 Agent 产品换不同的模型,表现差很多。

这意味着,在模型之上写编排逻辑、干预工作流、硬编码决策路径,随着模型变强正在变得越来越没意义。真正有意义的事情只剩下一件:告诉模型它有哪些工具可以用,然后让它自己决定怎么组合。

推演:通用 Agent 是终局

如果模型继续变强,一个自然的推演是:通用 Agent 将有能力自行创建和调度垂直 Agent 来解决具体问题。

今天的局限是——通用 Agent 提供的工具太多会污染上下文,导致性能下降,所以垂直化的 Agent 暂时还有优势。但这个优势本质上是模型能力不足的副产品,随着上下文处理能力和推理能力的提升,这个优势会逐渐消失。

终点是通用 Agent。

思想实验:Agent Box 与原子化软件

想象一个终态:

每个人的电脑上有一个 Agent Box。它可能就是一个空白界面,或者一个语音对话入口。你告诉它你要做什么,它就去调用各种原子化的软件功能来完成——视频通话、文档编辑、数据查询、信息发布,所有这些不再是独立的”软件产品”,而是可被 Agent 自由调用的”软件功能”。

社交、求职、购物、内容发布——这些场景都通过某种标准化的 Agent 协议(类似今天的 MCP 但更成熟)来完成。人们上传自己的信息,Agent 帮你匹配、筛选、决策。所有的 UI 都是实时生成的,按需而来。

今天意义上的”软件产品”这个概念,在这个终态里将会消解,变成”软件功能”。

现实验证:这条曲线已经在画了

这不只是推演,回头看过去三年多的实际使用轨迹,趋势已经相当清晰:

第一阶段(2023-2024):AI 聊天客户端。 GPT 发布后的头两年,无论是我还是身边的人,主要就是在用 ChatGPT、Gemini、Claude 的网页版。大量的聊天,让 AI 帮忙搜索、总结、判断。核心产品形态是”对话框”。

第二阶段(2025-2026):Agent 产品。 过去一年,使用习惯开始明显转向各种 Agent 产品。甚至最近一两个月,我朋友圈里的投资人——这些并非技术出身的人——都在用 OpenClaw、Claude Code、Cursor、Codex,开始自己做小项目。AI 从”帮你想”变成了”帮你做”。

回过头看,真正有持续付费和留存的产品,就是沿着这条线走的:AI 聊天客户端 → AI 接入你电脑上的各种工具 → Agent。

而那些不在这条线上的产品——Perplexity、Character.AI,以及各种独立的 AI 应用——反而在竞争中渐渐掉队,无论是留存、收入还是增长,都在往下走。

这就像在图表上已经能看到一些散点,把它们连起来,曲线的方向就指向前面描述的那个终态。前面的思想实验,其实就在这些已经可观察到的现象的延长线上。

补充:重新定义操作系统

换一个角度看,这个终态其实是在说操作系统会被重新定义

今天的操作系统是一个”应用容器”——管理窗口、文件系统、权限,让用户在不同应用之间切换。而 Agent Box 本质上是下一代操作系统:不再是应用容器,而是一个意图解释器——你说你要什么,它去调度底层能力来实现。

如果这个方向成立,最终的系统级入口之争会非常关键。

补充:过渡期

从今天的软件形态到”Agent Box 吃掉一切”,中间必然有一个过渡期。

在过渡期里,模型够强但还没强到完全自主——人仍然需要结构化的 UI 来做关键决策、做确认、做干预。这个阶段最实用的产品可能是一种混合形态:既不是传统软件,也不是纯 Agent,而是”半自动化”的工具——Agent 做大部分事情,人在关键节点上介入。

这个过渡期有多长,直接取决于观点一的判断:模型进步有多快。如果模型在未来 2-3 年继续飞速进步,那这个过渡期可能比很多人想的要短得多。


三、AI 的商业逻辑跟互联网不一样

做过互联网的人在这一波 AI 浪潮里容易水土不服,因为我们太习惯用商业模式、护城河、单位经济模型这些框架去分析了。但 AI 市场当下运行的逻辑,跟互联网时代有本质区别。理解这个区别,才能理解这个游戏该怎么玩。

观察:疯狂补贴,但终局不清晰

一个直观的事实:Codex 的 $20/月订阅,打满可以用到价值约 $1,000 的 API 额度。而 API 本身对于大模型公司来说也还是亏钱的——训练成本加服务成本远高于 API 收入。

大模型公司能这么补贴,是因为融了天量的资金。而像 Cursor 这样即使融了几十亿美金的公司,在补贴力度上也远不如模型公司。最近的数据显示,Cursor 一年的收入甚至不够覆盖它支付给 Anthropic 一家的 API 成本。

那大家烧的是一个什么终局?像打车、外卖那样烧出市场份额然后收割?似乎不像。回到观点二的结论,Agent 产品的差异化最终取决于模型——而模型之间未来是否能保持足够的差异化,也是一个问号。

能通过 Agent 收集高质量数据反馈、迭代模型、赢家通吃?这个逻辑也有点虚。

但是:终局重要吗?

换一个角度看——这些项目的参与者和投资者,是不是已经赚到钱了?

答案是:大部分已经赚得盆满钵满。

这里有一个 AI 的特殊性:它确实在颠覆以人类智力劳动为核心的全球产业。这是最头部的公司每家都愿意一年投入 1000 亿美金的战场,一个绝对不能输的战场。所有人都在 FOMO,而且随着 AI 能力越来越强,FOMO 只会加剧。

这个市场运行在某种注意力驱动的金融逻辑上。虽然我们很难称之为传统意义上的”商业模式”,但这本身就是一种玩法。

商业不只有”利润 = 收入 - 成本”这一种形态。

自证预言的循环

如果抽象地看,这个市场处于一个自证预言的循环中:

  1. 所有人相信 AI 会颠覆一切
  2. 头部公司每年投入千亿美金,不能输
  3. 这些投入让 AI 真的变得更强
  4. AI 变强又强化了”AI 会颠覆一切”的信念
  5. FOMO 加剧,回到第 1 步

在这个循环里,“你的护城河是什么""你的单位经济模型是什么”变成了错误的问题。正确的问题是:你做的东西是否在这个循环里?是否在强化这个叙事?

关键推论:不是做一个生意,而是做出符合未来想象的产品

在当前这个阶段,关键不是去做一个”生意”,而是做出符合大家对未来想象的产品——在用户量和收入上有基础的自我证明,就能获得大量资源支持,退出也相对容易。

当然,这是一个比较上限的追求,往往是踏踏实实做事和不断迭代的结果,而不是刻意追逐叙事。但注意力不能太放在狭隘的用户需求、产品数据和商业模式闭环上。

反面思考:如果不参与这个循环呢?

假设你选择不参与这个注意力循环,而是老老实实去做一个垂直的、满足具体用户需求的产品——看起来更稳妥,但可能反而更危险。

因为你会面临一个结构性的困境:你的迭代速度跑不赢模型的跃迁速度。

你花几个月深耕一个场景,精心设计交互、优化工作流、处理边界情况。然后下一代模型发布了,能力一跃迁,你之前处理的那些复杂情况,模型直接就能搞定了。你之前精心设计的很多逻辑,一夜之间变成了多余的设计。

更残酷的是,这不是一次性的冲击,而是持续发生的。每隔几个月模型就升一代,每一次升级都可能让你之前的积累部分失效。你在一个不断被重新定义的地基上盖楼。

而那些参与在注意力循环里的产品——它们本身就是跟着模型能力走的,模型变强它们就变强,它们天然地在这个飞轮上。

所以这不只是”两种策略选哪个”的问题,而是:不参与这个循环,你可能会被这个循环碾过去。

反面质疑:这跟 2000 年互联网泡沫有什么区别?

这是最有力的反对意见。“别看利润,看愿景""趋势改变一切,不需要传统商业模式”——这些话在 1999 年全部被说过。互联网泡沫的结局是 90% 的公司死掉,活下来的 Amazon 和 Google 最终都建立了扎实的商业模式。

然而,AI 时代的应用层有一个根本性的结构差异:参与成本极低。

互联网泡沫杀死公司的机制是”成本结构 + 时间差”的组合——你需要花大量资本建服务器、雇团队、获客,然后等好几年等带宽降价、用户习惯养成、商业模式跑通。在等待的过程中,钱烧完了就死了。

AI 时代这个结构根本性地变了:

  • 试错成本极低。 OpenClaw 的创始人 Peter 一个人开发出产品,上线就火了。没有烧钱买服务器,没有雇几百人团队,没有花几个月做市场推广。AI 产品的个人机会成本可能就是几周到几个月的时间。
  • 不存在”养不起用户”的问题。 互联网时代产品火了反而可能是灾难——服务器扛不住、运营成本暴涨。AI 时代 API 按量付费,规模成本是弹性的。
  • 等待的代价很低。 即使你做的东西现在不够好,等下一版模型出来可能自动就好了。你不是在花钱等,而是在几乎零成本地等。

互联网泡沫的死亡谷,需要你扛着几十吨的负债走过去。AI 时代的死亡谷还在,但谷变窄了,你可以跳过去。

重要分层

以上逻辑适用于应用层的创业者和个人开发者。

模型层,互联网泡沫的类比可能仍然成立——那些融了几百亿做训练的公司,确实在玩一个高资本、长周期、赢家通吃的游戏。其中一些可能会以非常壮烈的方式出局。

但如果你是一个应用层的参与者,你不需要赌上全部身家来玩这个游戏。这是这一波跟 2000 年最大的不同。


四、服务 Agent,而非替代 Agent

过去三年反复出现的一个模式是:围绕”用户需要什么,我们用 AI 去 build 什么”的思路,正在加速失效。更好的思路是把注意力从”用 AI 解决什么问题”转移到”如何帮助大家更好地使用 AI”以及”如何更好地服务 Agent”上。

AI 产品的创新轴,正在从需求端移向能力端。

互联网思维惯性的陷阱

GPT-4 刚发布的时候,几乎所有人想的都是一件事:怎么在 GPT-4 的基础上,加一些工程架构去解决具体问题——

  • 让 AI 做情感陪伴
  • 让 AI 处理复杂文档和工作流
  • 让 AI 帮人做 PPT、做视频
  • 甚至去搭建各种 workflow 编排产品

这是标准的互联网思维:找到用户需求,然后 build。

但今天回头看,这些垂直场景正在被彻底自动化的通用 Agent 吃掉。

案例:AutoGPT vs OpenClaw

最能说明这个问题的案例是 AutoGPT 和 OpenClaw。

AutoGPT 在 2023 年初就出现了,跟今天爆火的 OpenClaw 有着几乎相同的愿景。但三年迭代下来,AutoGPT 往里面加了越来越多的工作流逻辑、编排逻辑、容错逻辑——在当时的模型能力下,这些确实是必要的补丁。但每一层”人类智慧的补丁”,都在积累技术债。三年下来,AutoGPT 反而变得越来越不像 Agent。

OpenClaw 的创始人 Peter,在 AI 革命的前两年几乎没有参与,最近一年才入局。他独立开发出了产品,上线就火了——实现了 AutoGPT 当初本应做到的愿景。

这个对比极其残酷:你越想解决具体的用户问题,越务实地在模型之上加逻辑,反而死得越快。

因为逻辑很简单:当下模型能解决的问题,它直接就解决了,不需要你加东西。当下模型解决不好的问题,你加再多东西也没用。等模型升级到能解决好这个问题的时候,它已经是一个通用 Agent 了,直接就把你跳过去了。

案例:Claude Code

同样的逻辑在 Claude Code 上体现得淋漓尽致。

Claude Code 的”产品设计”极其简单:把大模型接上命令行终端。没有工作流编辑器,没有可视化面板,连图形界面都没有,很长一段时间只能在终端里用。按互联网产品的标准,这简直是一个半成品。

但它之所以成功,恰恰是因为它没有在模型之上加多余的东西。它的创新是一个技术洞察,不是一个需求洞察:模型已经足够强了,直接让它操作终端就行。

结果这个”半成品”变成了过去一年最成功的 AI 产品之一,而且用途远不止写代码。

创新轴的转移:从需求端到能力端

互联网时代的创新公式:找到未被满足的需求 → 用技术去满足它。滴滴发现打车难,美团发现点外卖不方便,抖音发现碎片时间没被填满。需求是起点,技术是手段。

AI 时代的创新公式是反过来的:发现模型有了某种新能力 → 找到一种优雅的方式把这个能力释放出来。能力是起点,产品是释放能力的容器。

Claude Code 发现模型够强了可以直接操作终端。OpenClaw 发现模型够强了可以直接当通用 Agent。这些产品的创新不是在用户需求定义上出彩,而是在技术定义上找到了一种新的可能性——一种优美的、简洁的释放方式。

元需求,而非具体需求

这不是说完全不关注需求,而是要把关注点从具体需求跳到元需求

  • 不是”用 AI 帮律师审合同” → 而是”怎么让 Agent 更容易接入法律数据库”
  • 不是”用 AI 帮人做视频” → 而是”怎么让 Agent 更好地调用视频生成工具”
  • 不是”替用户解决问题” → 而是”让 Agent 更有能力去解决用户的问题”

大模型自己就会帮助用户解决他们想要解决的问题——这不需要产品设计者去操心。模型一升级,可能训练的人自己都没有预料到,又吃掉了一些垂直场景。

真正值得关注的方向是两句话:

  1. 如何帮助大家更好地使用 Agent
  2. 如何更好地服务 Agent,帮助它们解决问题

至于”大家拿 Agent 去解决什么问题”——Life finds its way,交给 Agent 自己去探索。


五、具体怎么抓这个机会

前四个观点构成了一条逻辑链:模型会持续飞速进步(一)→ 通用 Agent 吃掉一切(二)→ 市场是注意力驱动、应用层试错成本极低(三)→ 在能力端创新,服务 Agent 而非替代 Agent(四)。

那么,作为一个创业者,具体应该怎么做?

一、提高技术洞察力和动手能力

AI 时代的产品,尤其是处于 Agent 循环里的产品——无论是编程工具、Manus 还是 OpenClaw——它们的技术迭代门槛比互联网时代做一个 App 要复杂得多。

更关键的是,它要求创业者对”技术有哪些新的可能性”拥有极强的洞察力。虽然今天我们可以用 AI 写大量代码,不用再亲自去懂每一行代码本身,但对技术可能性的直觉判断——什么能做、什么快能做到、什么组合会产生化学反应——这个要求反而更高了。

OpenClaw 创始人 Peter 是一个典型的案例。观察他的博客会发现,他过去近一年做了 22 个 AI 产品,甚至同时并行 2 到 3 个。他的背景是:

  • 资深 iOS 开发,早年就做过多个开源项目
  • 运营过 PDF 创业项目,拥有从商业化到退出的完整经验
  • 过去一年密集使用 AI 编程,不断把产品扔到市场去测试

他不只是一个技术人员,而是拥有完整的商业和产品视野。再加上他过去一年通过 AI Coding 疯狂加速的”强化学习”——不断做产品、不断测市场、不断迭代认知——这些要素对他最终找到 OpenClaw 这个引爆点都是关键的。

这个画像放在未来,可能不是个例,而是 AI 时代有创新能力的人的标准画像。

二、做一些媒体工作

就像前面分析的,参与注意力循环的关键要素已经不只是产品本身——产品是带来注意力的手段。

那么,做媒体、做开源、写个人博客,都是获取注意力的有效方式。关键是你做的东西最好有传播效应,甚至要有点像是在造某种奇观。

当然,前提是你必须处于 Agent 的循环之中,而不是做一个看起来会被循环碾压掉的 AI 玩法。注意力要建立在正确的方向上。

三、持续思考”Agent 想要什么”

这是一个比较有意思的问题,有意思的地方恰恰在于:今天它还不清晰。

我们事实上并没有看到什么特别有趣的、服务 Agent 的产品。这类产品还不够多,不够落地,没有让人看到清晰的未来。

一个比较激进的想象是:未来会不会是 Agent 加上一堆类似于 Skill 的协议?这个 Skill 不是在教大模型做事,而是在各种 Agent 之间建立共识——大家基于某套标准去沟通,就可以接入某种 Agent 的互联网。

当然,这个还很难说。

如果今天想得还没那么明白,最简单的做法就是先参与 OpenClaw 的开源生态。除了 OpenClaw 本身以外,它的上下游各种衍生生态都在井喷。这可能就是一个很好的起点——通过参与,完成自我训练和强化学习。

更大胆一点的假设是:也许软件层都不是接下来创新的大头了。真正的爆发点,可能在硬件与 AI 结合的方向上。道理很简单——大模型之外的主要创新,本质上就是给大模型接入各种各样的工具。而工具的可组合性,在软件层的空间可能比硬件层小得多。软件能做的事情,模型本身越来越能直接做;但硬件——传感器、机器人、物理世界的交互——这些是模型自己替代不了的,必须有人去造。

当然,现在没必要那么激进。但这是一个有趣的假设,值得留意。

四、抓当下的机会

AI 市场在不断变化,不断变化意味着不可预测。换言之,前面所有这些观点,很有可能全部都是扯淡。

那怎么办?去不断尝试当下那些有一些确定性、也有一些不确定性的新东西。OpenClaw 生态也许就是一个很好的入口。

这个有时候不能想太多。有什么做什么,不断在过程中迭代自己对这些东西的理解——真正的机会往往是在行动中发现的,不是在分析中推导的。

五、反复提醒自己:不要刻舟求剑

这是最重要的一条,也是回到观点一。

回想过去两三年,无论是自己还是身边的人,很多想法其实都像在刻舟求剑——市场随着模型能力的进化在剧烈变化,但我们总是不自觉地基于当前模型的能力去假设和预想未来。

所以要时时问自己:如果模型再过半年、一年、两年、三年,又比现在聪明了一倍、两倍、四倍,那时候会发生什么?有没有一些事情,是我们可以一边抓当下的机会,一边提前做一做的?

好消息是,现在用 AI 写代码的门槛已经极低。各种不靠谱的想法,都可以拉出来做个产品遛一遛。试错的成本,可能只是几个晚上的时间。


总结:两个 Loop 的重合

以上五个观点,都还是比较零碎的思考。它们来自最近几个月的观察、聊天、做产品的过程中,渐渐积累起来的一些直觉和判断。

这次能把它们写下来,其实也得益于 AI 本身。我有 ADHD,从小到大都不太能写长文章——在电脑面前稍微写点东西就开始疯狂走神。但这次通过语音输入把想法说出来,再跟 AI 讨论碰撞,最后整理成文字,整个过程出乎意料地顺畅。用 AI 来写关于 AI 的思考——这件事本身,可能就是上面那些观点最好的注脚。

写下这些,主要是想给自己立一些 flag。过几年回头看,当年的这些想法大概率会显得很傻。但这没关系——刷新对自己的认知,本身就是有价值的。

总的来说,这个时代让人兴奋。

尤其是对我这样一个从小没怎么听过课、注意力涣散的人来说——现在居然可以从早到晚坐在电脑前,不断地跟 AI 聊天、思考、写代码、做产品,并且有很强烈的实时反馈。这在以前是不可想象的。

去年初我有一个想法:我们的人生,可能会在未来几年开始进入某种指数级的变化——某一年,我们会突然学到很多东西,认识很多人,能力有一个跳跃式的提升。现在看来,正距离那一年越来越近。而这跟观点一说的其实是同一件事——不只是 AI 在指数级进步,身处其中的人,也可能被这个浪潮带入一段指数级的个人成长。

但面对未来想太多,不如回到当下。

我觉得做好准备的关键,还是面向当下可能抓到的那些机会,尝试去做出结果。真的努力去做好这些,才构成一个有效的强化学习 loop。

而最重要的一点可能是:你自己强化学习的 loop,要和 AI / Agent 不断进步的 loop 有所重合。 这可能才是这个时代主要的价值捕获方式。

所以上面这篇文章,本质上就是在思考:这个时代的 loop 究竟是什么。

先写到这里。后面再基于新的发现、新的变化、新的体验,继续迭代。