🧠 Dario Amodei 深度访谈:我们正接近指数的终点
引言:三年前的预言已经兑现
2023年,Anthropic CEO Dario Amodei 在 Dwarkesh Podcast 上做了一个预测:三年后,你和 AI 对话一小时,很难分辨它跟一个受过良好教育的人有什么区别。
三年后,这个预测基本兑现了。
现在他又回来了,带着更大胆的预测:1-3 年内有 50% 的概率出现”数据中心里的天才之国”,10 年内 90% 确信。
这位同时经营着年收入每年翻 10 倍公司、刚完成 300 亿美元融资、估值 3800 亿美元的 CEO,在这次访谈中回答了几乎所有关键问题:Scaling 到底在 scale 什么?AI 编程的真实生产力是多少?AI 公司凭什么能盈利?监管会不会毁掉一切?中美能不能各有各的”天才之国”?
一、Scaling 还在继续,只是换了个形式
从预训练到强化学习
三年前的 Scaling 很简单——预训练的损失值随着算力增加而对数线性下降。但现在情况变复杂了:强化学习(RL)的 scaling 没有公开的规模定律。
Dario 的回答是:别想复杂了,本质上和之前一样。
他 2017 年写的内部文档”大算力团块假说”(The Big Blob of Compute Hypothesis)列出了七个关键要素:
- 原始算力
- 数据量
- 数据质量和分布广度
- 训练时间
- 可 scale 的目标函数(预训练和 RL 各一种)
- 数值稳定性相关的归一化技术
关键新信息:RL 现在也展现出与预训练相同的对数线性的 scaling 规律。
“我们在 RL 上看到了和预训练一样的 scaling。”
类比:从 GPT-1 到 GPT-2 的泛化
早期的预训练也是从窄分布数据开始的。GPT-1 是在同人小说上训练的,泛化能力很差。直到 GPT-2 用了全互联网数据,才开始出现真正的泛化。
RL 正在经历同样的过程:从数学竞赛到代码,再到更多任务,泛化正在到来。
二、”数据中心里的天才之国”:时间预测
Dario 的时间线
| 时间 | 预测 | 置信度 |
|---|---|---|
| 1-3 年 | “天才之国”出现 | 50% |
| 10 年 | “天才之国”出现 | 90% |
什么是”天才之国”?
一个由 AI 组成的、能力相当于或超越人类顶尖专家的系统,可以自主完成复杂的认知任务——从科学研究到软件开发,从战略决策到创新设计。
当前状态:还没到
Dario 明确否认当前接近 AGI:
“如果我们已经有了’数据中心里的天才之国’,我们会知道的。你有了你也会知道。在座的每个人都会知道。华盛顿的每个人都会知道。”
三、AI 编程的真实生产力:15-20%
不是”写了 90% 代码”
Dwarkesh 质疑了”AI 写 90% 代码”的含义——编译器也”写了所有代码”。关键不是谁写了多少行,而是真实生产力提升了多少。
生产力的光谱
Dario 提出了一个清晰的光谱:
1 | |
当前数据
- 当前 AI 编程带来的总生产力提升:15-20%
- 半年前:约 5%
- 趋势:正在加速
Dario 预测这个数字会继续增长:10%、20%、25%、40%……
为什么是 15-20%,不是更高?
Amdahl 定律(系统整体提升受限于最慢的环节)开始生效。必须消除所有阻止闭环的瓶颈。
四、AI 公司到底怎么赚钱?
天然盈利结构
Dario 透露了 AI 行业的成本结构:
- 约 50% 算力用于训练
- 约 50% 算力用于推理(运行模型为用户生成回答)
- 推理毛利率:超 50%
- 亏损主要来自:需求预测偏差
Anthropic 的收入曲线
| 年份 | 收入规模 | 增长 |
|---|---|---|
| 2023 | 0 → 1 亿美元 | - |
| 2024 | 1 亿 → 10 亿美元 | 10x |
| 2025 | 10 亿 → 90-100 亿美元 | ~10x |
| 2026年1月 | 又增加数十亿美元 | - |
2026 年 2 月估值:3800 亿美元(刚完成 300 亿美元 G 轮融资)
与 OpenAI 的策略差异
| 公司 | 策略 | 财务预测 |
|---|---|---|
| OpenAI | “要么统治要么破产”的豪赌 | 2026 年预计亏损 140 亿美元,2027 年中期可能现金枯竭 |
| Anthropic | “活着到达终点” | 2027 年现金消耗率降至收入的 9%,2028 年左右盈亏平衡 |
Dario 认为 OpenAI “根本没有把账算清楚”,他们在现金耗尽之前赌能跑出足够的收入。
五、扩散的速度:极快但非无限快
Dwarkesh 的辣评
“扩散是 AI 能力不够时的遮羞布。”
他的论证:AI 相比人类有天然的集成优势——能在几分钟内读完你全部的 Slack 和文档,可以无限复制已验证的实例,没有招聘时的逆向选择问题。
Dario 的回应
扩散确实存在,不只是模型能力不够的借口。
Claude Code 的例子:
- 对个人开发者:几乎零门槛
- 大企业:仍需法务审查、安全合规、领导层决策、IT 部署
核心框架:
“一切都极快,但不是瞬间完成。”
存在两个指数:
- 模型能力的指数
- 经济扩散的指数
两者都很快,但后者有自己的节奏。
六、持续学习:可能根本不需要
Dwarkesh 的问题
大多数工作中,人的价值来自”在职学习”积累的上下文和理解。AI 缺乏这种能力,是不是会严重限制它的经济价值?
Dario 的反驳
在编程领域,没有人把”模型不够了解代码库”列为主要痛点。为什么?
因为代码库本身就是外部记忆的载体。
- 人类需要六个月学习代码库
- 模型把它读进上下文就行了
一百万 token 的上下文相当于人类读一百万个词——“至少几天到几周”的学习量。
Dario 的判断
预训练泛化 + RL 泛化 + 上下文内学习,可能就足以实现大部分”天才之国”的能力。
如果需要持续学习,一到两年内也会解决。
七、地缘政治:芯片不卖,药物可以
中美能不能各有各的”天才之国”?
Dario 的立场:
- 芯片和数据中心:不应卖给中国
- 疾病治疗药物:可以
理由:前者是战略基础设施,后者是造福人类。
八、为什么不多买算力?
Dwarkesh 的追问
如果你真信天才之国就要来了,你应该倾尽全力买算力。潜在市场规模(TAM)是万亿级的。为什么这么保守?
Dario 的回答:风险
他确实对技术进展有很高的信心(1-2 年有直觉性的判断)。但不确定的是技术到位之后,收入到来需要多久。
可能 1 年,可能 2 年,甚至 5 年都有可能。
而算力采购需要提前 1-2 年决策。如果你预测 2027 年收入达到 1 万亿美元,购买了 5 万亿美元的算力,但实际收入只有 8000 亿——没有任何对冲工具能拯救你。
“我的印象是,其他一些公司根本没有把账算清楚,他们并不真正理解自己承担的风险。”
九、关键洞察总结
技术层面
- Scaling 继续有效——从预训练到 RL,对数线性规律不变
- “天才之国”1-3 年内 50% 概率,10 年内 90%
- 当前 AI 编程生产力 15-20%,正在加速
商业层面
- AI 行业有天然盈利结构——推理毛利率超 50%
- 经济扩散极快但非无限快——模型能力指数 vs 经济扩散指数
- Anthropic 策略:活着到达终点——OpenAI 策略:要么统治要么破产
哲学层面
- 持续学习可能不是必需品——预训练泛化 + 上下文学习可能足够
- 扩散不是借口——但大企业采用确实有摩擦
- 我们还没到 AGI——如果真到了,所有人都会知道
结语:接近指数的终点
Dario 三年前预测”和 AI 对话一小时难以分辨”已经兑现。
现在他预测”数据中心里的天才之国”即将到来。
如果我们相信他——以及他背后每年翻 10 倍的收入曲线——那么:我们正接近指数的终点。
那个终点不是世界末日,而是一个新时代的开始:
- 认知工作的成本趋近于零
- 创新速度指数级增长
- 人类的角色被重新定义
问题是:你准备好了吗?
参考
- 原始访谈视频:https://youtu.be/n1E9IZfvGMA
- 作者:@dotey
- 发布时间:2026-02-15
本文基于 Dario Amodei 在 Dwarkesh Podcast 的访谈整理。