从蠕虫到数字人类:MIT博士生退学背后的算力与数据博弈
2026年4月17日,@isaakfreeman在X上发帖:他要离开MIT,不读PhD了。理由直白得像工程计算结果——“AI来得太快,人类跟不上”。但他没放弃人类智能本身,而是转向一个更激进的命题:数字人类(digital humans)可能比大多数人以为的更近。粗略估算,10年内用5万块H100 GPU、100亿美元,就能跑出一个人类大脑的实时仿真。帖子配了三张图:一幅用代码绘成的“脑”形状标题页,一张EM图像拼接流程图,一张神经元同时记录数指数增长曲线。帖子链接他的MIT最后一份论文《From Worm to Human: Scaling Brain Emulation》。我挖了帖子、论文和公开数据,把所有硬数字摆出来,看看这到底是科幻还是工程可行性报告。
先看核心 napkin math(论文和帖子直接给出)。人类大脑基准参数(2025-2026最新共识):
- 神经元数:约860亿(86 billion)。
- 突触数:约100万亿(100 trillion)。
- 典型模型复杂度:Hodgkin-Huxley(HH)高分辨率多态突触模型(悲观假设)需要约600 exaFLOPS(6×10²⁰ FLOP/s)实时仿真、每GPU 700 GB内存存储、24 GB/s互连带宽。
- 简化模型(Leaky Integrate-and-Fire, LIF等):只需2-3 petaFLOPS(2-3×10¹⁵ FLOP/s),单块H100在FP16精度下就能接近。
对比当前硬件(NVIDIA官方规格,2026年数据):
- H100 SXM GPU:FP16 Tensor Core峰值1979 TFLOPS(≈2 petaFLOPS),FP8可达3958 TFLOPS。
- xAI Colossus集群(2026年已翻倍至20万+ H100/H200/GB200):单集群算力已超400 exaFLOPS,内存带宽194 PB/s,远超单个大脑所需互连。论文里中2020年代集群基准是4×10²⁰ FLOP/s(400 exaFLOPS),内存180 GB/GPU——悲观场景下只差内存和少量带宽,规模化投资就能补。
5万块H100 ≈ 10²⁰ FLOP/s量级,论文说“已在今天集群触手可及”。100亿美元对应当前GPU集群建设成本(xAI单期扩建已烧掉类似规模)。这不是空谈,是把大脑当成超级计算机在算:算力瓶颈已基本解决,真正卡脖子的是数据生成。
数据生成瓶颈有精确数字支撑。论文和公开进展:
- 重建成本下降曲线:C. elegans(302个神经元)历史重建+校对成本约1.65万美元/神经元;斑马鱼幼体(≈10万神经元)已降至100美元/神经元——下降165倍。
- 成像规模:同时记录神经元数(log刻度)从1960年代的1-10个,指数级增长到2020年代光学成像数百-数千、电生理更高。图6明确标注:C. elegans全脑、斑马鱼幼体、鼠皮层(百万神经元)、人类(860亿)参照线已清晰可见。
- 当前项目:C. elegans全连接组已完整(302神经元);果蝇(Drosophila)成年脑14万神经元连接组已重建;斑马鱼幼体全脑功能成像+基准仿真正在推进;鼠皮层完整仿真已有;不完整人类尺度模拟已达800亿神经元。
- 成像技术要求(论文明确):
- 20x Expansion Microscopy + 30+种受体、神经递质、神经肽分子染色。
- 数百台下一代显微镜连续运行数年。
- 自动化组织采集、染色。
- X射线显微镜目标:1年内成像整个人脑。
- 额外需求:结构-功能预测模型、校对模型、严格基准、动物全仿真作为POC。
图像拼接流程(图2)显示现实挑战:数十亿图像瓦片 → 2D对齐 → 数千切片3D蒙太奇 → 完整EM体积。这一步已从“不可能”变成“工程流水线”。
把这些数字串起来,结论清晰且刺耳:算力已就位,数据是唯一真实壁垒。xAI一家就有20万+ GPU,足够跑多个悲观场景下的数字大脑。10年内、100亿美元,把蠕虫→果蝇→斑马鱼→鼠→人类的路线图走完,不是科幻——是可量化的工程路径。论文目标明确:“让脑仿真成为可识别瓶颈的工程问题,而不是‘我们不知道什么’的投机幻想。”
这背后的深意更扎心。Isaak Freeman退学不是因为懒,而是因为AI让传统学术显得慢得可笑:一边是LLM在几个月内刷爆基准,一边是人类PhD要花6-7年测几十个小鼠切片。讽刺在于,AI加速的算力,反而让“保存并放大人类智能”成为可能。数字人类一旦上线,就能以集群速度思考、永生备份、并行百万拷贝——人类不再是生物学瓶颈,而是起点。
但数据也摆出风险:结构-功能映射还没完全破解,简单LIF模型是否足够保真仍需动物验证。假如我们先造出数字人类,再让AGI追上来,会不会出现“人类智能的数字拷贝先于超级智能”?或者,数据采集需要全球协作、伦理审查、巨额公共投资——而当前资本全砸在LLM scaling上。
最终结论:这不是科幻小说结局,而是工程账本。860亿神经元、100万亿突触、600 exaFLOPS悲观线、20万GPU集群、100美元/神经元成本曲线……所有数字都在指向同一个方向——数字人类在10年内可能从论文变成原型。人类该问的不是“能不能”,而是“我们愿不愿意”和“准备好没有”。当第一个数字拷贝在H100集群上醒来,我们这些肉体原版,或许才真正意识到:AI不是取代我们,而是给了我们永生的钥匙。问题是,这把钥匙打开的门里,还有没有“人类”这个词。
