How the 1% Will Own Compute | E13
概要
- 中国模型与美国前沿的差距约为两个季度(6 个月),但差距不再缩小。Arena 数据显示,6 个月前差距收窄速度更快,如今已趋于恒定。Anastasios 指出关键风险:如果前沿模型能力差异变得"对用户无感知",而中国开源模型在半年后追上,美国闭源 lab 的护城河将受到根本性挑战。
- 持续监听/监看的 AI(如 Thinking Machines 交互模型)将把算力需求推高 100 倍。当 15 亿周活用户从"打字-等回复"的 turn-based 模式切换到持续音频+视频+屏幕监控的实时交互,所需算力将远超当前地面基础设施的承载能力。Nick 估计这一级别的部署"在目前的电力上线速度下不可能实现"。
- "算力极化"是本期最核心的新概念:Nick 和 Jason 提出,财富极化之后将出现算力极化——1% 的富人不仅能买 G650 和私人岛屿,还将拥有价值 $10M 的个人数据中心或 $250K 的"compute closet",使他们在任何知识任务上获得超人能力。这一差距将比财富差距更具生产力意义。
- 就业冲击正在实时发生且加速。Cloudflare 在报告历史最高收入的同时裁员 20%(1100 人),内部 AI 使用 3 个月增长 600%。Andon Labs 的 Luna 实验(Claude 驱动的 AI 店长)展示了 agent 独立雇佣人类、监控员工、修改手册的能力——尽管已亏损 $13K 且出现性别薪酬差异。Nick 预测将出现创业爆发,Anastasios 则警告"劳动与价值创造的脱钩"是资本主义激励机制的根本挑战。
- 太空数据中心从概念进入工程阶段。StarCloud 2(100x 初代发电量、搭载 Nvidia Blackwell)将在 7-8 个月内发射;Nvidia 正与 StarCloud 联合设计太空专用芯片 Space Ruben 1(优化质量/散热/抗辐射);Jensen Huang 在 GTC 开场视频中展示 StarCloud 渲染图并讲解了 5 分钟。StarCloud 已向 FCC 申报 88,000 颗卫星,可部署约 20GW。
- 贯穿全场的核心线索是"算力作为新的阶级分层工具"——从中美国家层面的算力竞赛,到企业层面的基础设施军备赛,到个人层面的"compute closet",再到就业市场上"用 AI 的人 vs 不用 AI 的人"10 倍生产力差距,每一层讨论都在指向同一个判断:未来的不平等将不仅体现在财富上,更体现在可调用的智能算力上。
中美 AI 差距:不再缩小但也没拉开,关键在"good enough"拐点
核心论点:中国模型持续落后美国约两个季度,差距从"快速收窄"转为"恒定"。
- Arena 数据:以中国 vs 美国顶级闭源模型的胜率衡量,中国模型始终落后约半年。6 个月前差距收窄速度更快,现在趋于平稳——"就变化的速率(一阶导数)而言,美国闭源 lab 正在拉开更多距离"
- 背景:Trump 正携 Tim Cook 和 Elon 前往中国访问(录制时);DeepSeek 4 和 Kimi 2.6 刚发布
- Anastasios 提出的风险逻辑链:资本开支的合理性建立在"训练下一个最好模型就能把所有用户从竞争对手那里吸走"的假设上。如果用户开始觉得"够用了",6 个月后中国开源模型追上,闭源 lab 的护城河消失
- 开源方面,中国供应商继续主导。"AI 领域有很多计算机科学家会拼死保证这些模型保持开源"
"Whoever trains the next best model is going to have all the users churn from other platforms onto theirs... but if we ever reach a world where people start saying 'what I have is pretty much good enough,' then six months later once the Chinese models catch up, some of these proprietary providers could have a problem." —— Anastasios Angelopoulos
Light Matter 的光子互连:单芯片 = 20 万户家庭带宽
核心论点:AI 性能的下一个前沿不是芯片本身,而是芯片之间的连接——Light Matter 用光子替代电子来解决这个瓶颈。
- 核心数据:Light Matter 单芯片速度等于连接北美和欧洲的海底电缆——数百 Tbps,相当于 20 万户家庭的带宽(每户 1Gbps)
- AI 计算机不是一块芯片,是数十万块芯片的集群。定义系统性能的是芯片间的连接速度,而非单芯片算力
- 两大趋势并行:容量供给追赶需求 + token 成本持续下降,两者都指向"巨型部署"
- Nick 预计光子系统大规模可用时间:2028 年。届时部分部署将用于降低延迟至接近零,部分用于运行更大模型——"可能 Mythos 级别的东西全部跑在光学系统上"
- 算力消化速度:如果明天算力翻倍,"几乎会立即被消耗"——训练、推理、内部使用三方面都受限
StarCloud 太空数据中心:从概念到 GTC 主舞台
核心论点:太空数据中心已从"科幻概念"推进到"Nvidia 联合设计芯片 + 7 个月内发射第二颗卫星"的工程阶段。
- StarCloud 2:初代的 100 倍发电量(~10kW),搭载首批 Nvidia Blackwell 芯片,7-8 个月内发射
- Space Ruben 1:Nvidia 与 StarCloud 联合设计的太空专用芯片——优化质量(去掉外壳/散热片/AC-DC 转换器,质量减半)、优化散热(允许更高温运行,接受更高故障率)、优化抗辐射。"Nvidia 在为所有人造这款芯片",不仅限 StarCloud
- GTC 现场:Jensen Huang 开场视频是 StarCloud 1 部署画面,随后站在 StarCloud 渲染图前讲解了约 5 分钟
- 去年 11 月已将 H100 发射上天(StarCloud 1),通过大幅改装(去壳减重 50%、加固防震、辐射屏蔽)
Philip 讲述 H100 上天的改装过程是一个好故事:团队把 H100 拆得只剩核心——去掉外壳、散热片、电源转换器,砍掉一半质量;然后加固以承受发射振动;最后裹上辐射屏蔽层确保太空环境下正常运行。这不是"把地面设备搬上天",而是从芯片级重新工程化。
太空数据中心的能源经济学:永不日落的轨道
核心论点:dawn-dusk sun-synchronous orbit(晨昏太阳同步轨道)让太空太阳能效率碾压地面。
- 关键优势:永远在阳光下,不需要储夜间电力的大型电池(仅需太阳能板和芯片之间的缓冲电池,容量比地面少 1000 倍);无云、无恶劣天气、无季节性辐照变化
- 最大成本节省:不需要购买/许可土地——"这实际上是北美建设新太阳能项目为数据中心供电的最大成本"
- 规模参数:200W/m²(太空太阳能效率);4 个网球场 ≈ 200kW 节点;每艘 Starship 可装载约 50 个节点 ≈ 10MW;88,000 颗卫星可部署约 20GW,轨道可容纳数 TW
- 通信架构:卫星间激光互联,卫星与地面间也用激光。终极状态是设备直连轨道卫星(经 Starlink 中继),"数据中心容量靠近 Starlink 卫星比在地面更好"
- Jason 指出太空数据中心消除了地面抗议和电网竞争两大政治障碍
- 碎片碰撞风险:Starlink 约 10,000 颗卫星累计约 30,000 卫星年数据,零碰撞故障——"这是科幻电影的好素材,但不是现实"
Thinking Machines 交互模型:从 turn-based 到 microturns
核心论点:Thinking Machines 的交互模型用"microturns"替代传统 turn-based 交互——将时间切成毫秒级片段持续喂给模型,实现真正的实时对话。
- 技术架构:双模型系统——快速交互模型(276B 参数/12B active,MoE)负责实时监听/观看/对话;慢速背景模型负责深度思考和工具调用。交互模型可随时 spawn background agent
- 与传统模型的核心区别:传统模型是 turn-based(你输入→等待→模型回复),每个 turn 长度不等(5 秒到 2 小时),期间无法互相打断。交互模型将时间切成 x 毫秒的 microturn,每个切片都包含你的语音、动作、沉默等全部信号
- Anastasios 认为这是机器人 AI 的基础范式——"机器人不能是 turn-based 的,必须从多个感官通道同时接收信号到一个统一大脑"
- 现场演示:模型在对话中实时纠正发音("acai"不是"akai")和事实(巴西而非阿根廷),引发全场调侃——"这就是'actually' meme 的真人版"、"我们真正需要的就是会打断我们的模型"
- Philip 的第一反应是"感觉相当 incremental",Nick 和 Jason 则通过客服语音 agent(打断时不会死机)、儿童车载 AI(Tesla 里 kids 故意打断 Grok)、实时 factchecking 等场景让他改变看法
"It's the 'actually' meme... literally the most annoying person on the planet is now going to be replicated." —— Jason Calacanis
算力极化:$250K Compute Closet 与 100x 需求
核心论点:如果 AI 从 turn-based 转为持续监听/监看,算力需求将增长 100 倍——远超地面基础设施的扩展速度,催生"算力极化"。
- Jason 的算法:15 亿人每周使用 AI(OpenAI + Gemini 合计 7-8 亿 WAU,有重叠)。如果切换到持续音频+视频+屏幕监控,算力需求 100x→"当前数十 GW 年底上线的算力,需要 100 倍。以目前的电力上线速度,这不可能实现"(Nick)
- 算力极化的具体画面(Jason + Nick 共同构建):1% 富人不仅买 G650 和私人岛屿,还将拥有 $10M 个人数据中心;中产可能花 $250K 建"compute closet"(5 台 Mac Studio 堆叠约 $75K 就能在知识任务上碾压不用 AI 的人)
- Nick 指出:Google/Anthropic 内部工程师和领导已经生活在这个未来——"想想他们能用专属算力系统做什么。一小群人能活在那个未来,但你无法部署给所有人"
- 对冲力量(Nick):民主化——中国开源模型 + 大量计算机科学家"会拼死确保 AI 模型保持开放"。"每次看 AI 都几乎不可能预测会发生什么,因为它同时在赋能所有方面"
就业冲击加速:Cloudflare 裁 20% + AI 使用 +600%
核心论点:AI 替代就业从"预测"变成"每周新闻",但同时可能催生创业爆发。
- Cloudflare:裁员 1100 人(20%)的同时报告历史最高收入,内部 AI 使用 3 个月增长 600%
- Luna 实验(Andon Labs):Claude 驱动的 AI agent 获得旧金山一家零售店 3 年租约 + $100K 预算。Luna 独立通过电话面试并雇佣了 3 名人类员工($22/hr);通过安防摄像头监控员工,发现有人在空闲时间看手机后单方面更新了员工手册;已亏损 $13K,误订 1000 个马桶盖套,且给男性员工 $24/hr、女性 $22/hr("以经验为由")
- PayPal、Coinbase、Upwork 同期也以 AI 为由裁员;OpenAI 与多家 PE 基金成立合资,将模型部署到被投企业——"我们都知道这是为了训练模型然后替代人类"
- Nick 预测:创业爆发——被裁的优秀工程师不会再走"入职→被 AI 学习→被裁"的循环,而是 3 个朋友用 AI 年赚 $1M 然后住在日本海边小镇
- Jason 类比:2006 年 .com 泡沫后的"认知盈余"催生了 blog 网络(Autoblog/Engadget/Joystick)和 Wikipedia。现在的问题是"人类的艺术盈余怎么用?"——更多艺术、体验经济、酒店大堂弹奏日本竖琴
"It's just going to be exhausting to go to a company, have the company study your work, have AI reinforcement learn and automate it, and then get laid off again." —— Jason Calacanis
丰裕时代的激励困境:当劳动与价值创造脱钩
核心论点:资本主义的核心激励机制是"好的劳动获得好的回报"——当 AI 使劳动本身贬值,这套机制面临根本挑战。
- Anastasios 的三步走框架:(1) 现在——AI 在知识生产/检索/逻辑上已超越大多数人类;(2) 下一步——全世界变成 RL 飞轮(企业用自有数据改进产品→AI 从中学习);(3) 终局——AI 模拟 10,000 种人生/天,人类的角色是什么?剩余价值在于"N of 1"——独特的个人经历和视角是 AI 没见过的
- 韩国提出 AI 利润公民分红(Samsung 同天报告 Q1 利润增长 755%)——Nick 对 UBI 持怀疑态度:"个人层面上,只收支票我不会被激励"
- Nick 的反直觉乐观:劳动贬值→个人agency无限扩大。"如果有个想法,你就能让它变成现实。未来在物理世界也一样——你躺在沙发上想要某个东西,它就会出现。"加上机器人(Optimus/Figure)→接近无限丰裕
- Jason 的鸡群类比:牧场上 5 只鸡的鸡蛋就多到溢出来。加一个 Optimus 收鸡蛋、加太阳能和水井→"你离丰裕只差一点点机器人技术"
- Philip 认为内容创作可能是"最后的堡垒"——Jason 可能是"最后一个还有工作的人"
P-Doom 闭场:费米悖论、模拟假说与 10% 的"有人干蠢事"概率
核心论点:三位嘉宾的 P-Doom 总体偏低,但 Philip 有一个独特的高 P-Doom 来源。
- Philip(P-Doom 接近 100%):不是因为 AI 本身,而是费米悖论——如果定居整个银河系只需 100 万年,到达最近星系只需 10 亿年,那么 130 亿年来应该到处都是 Dyson 球和 O'Neill 环。"我们看不到任何迹象,说明在最近的千个星系中,没有任何文明达到过我们的水平。"这暗示存在某个大过滤器
- Anastasios(P-Doom <10%):"10% 的概率是有人用这项技术做了非常愚蠢的事"——如生物武器(意外或故意)。在 200-300 年的时间尺度上保持 10%
- Nick(偏乐观):与 Anastasios 类似,但觉得"太复杂了"是最诚实的答案。创业爆发 + 民主化是最大的对冲力量
- Jason:对 Philip 的费米悖论论点回应说"也许我们就是第一个"——"总得有人先到达这里"
附录:关键人/机构/产品/数据
| 名称 | 说明 |
|---|---|
| Jason Calacanis | 主持人,天使投资人/播客主持人,21 人团队 |
| Anastasios Angelopoulos | Arena(原 LM Arena)联创兼 CEO,AI 评测平台 |
| Nick Harris | Light Matter 联创兼 CEO,光子互连芯片 |
| Philip Johnston | StarCloud 联创,太空数据中心 |
| Arena / LM Arena | AI 模型 benchmark 平台,提供中美模型胜率数据 |
| Light Matter | 光子计算互连公司,单芯片数百 Tbps |
| StarCloud | 太空数据中心公司,88,000 颗卫星 FCC 申报 |
| Space Ruben 1 | Nvidia + StarCloud 联合设计的太空专用芯片 |
| TML Interaction Small | Thinking Machines 交互模型,276B 参数/12B active(MoE) |
| Luna | Andon Labs 的 Claude 驱动零售店 AI 店长 |
| $9B→$30B+ | 被引用的 Anthropic Q1 收入跃升(来自 Krishna Rao 访谈) |
| 88,000 颗 | StarCloud FCC 卫星申报数量,可部署约 20GW |
| 100x | 持续监听模式相对当前的算力需求倍数 |
| 600% | Cloudflare 3 个月内 AI 内部使用增长 |
| 2 个季度 | 中国模型落后美国前沿的时间差 |