1. 首页
  2. 7x24H 快讯

一文讲透未来十年,天才少年的 AI 投资圣经:《态势感知》

OKX欧易app

OKX欧易app

欧易交易所app是全球排名第一的虚拟货币交易所,注册领取6万元盲盒礼包!

APP下载   官网注册

作者:@giantcutie666


2024年,一个00后少年天才Leopold Aschenbrenner从OpenAI离职后,开始做基金。

同时还把自己的投资思路写了出来:

人工智能安全

如今回头看,这篇165页论文《态势感知(Situational Awareness: The Decade Ahead)》已经封神了。

去年看懂的人,今年肯定也都财富自由了!

我把165页的英文原版放在“这里”,以下是我已经尽量精简版的内容:

人工智能安全
论文的主要观点是:这十年内人类会造出(可以胜任普通人所有工作的)AGI,紧接着是超级智能。
现在能看懂这件事的不到几百人,大部分挤在旧金山几条街上。其他人——包括华尔街、媒体、华盛顿——都还没反应过来(今年华尔街的一些人也反应过来了)。
人工智能安全

第一部分:为什么 2027 年就有 AGI

方法很笨但有效:不预测时间,预测算力规模。

过去 4 年,从 GPT-2 到 GPT-4,模型的"有效算力"涨了大约 10 万倍,每半年增长10倍!

GPT-2 像幼儿园小孩勉强写半通顺句子,GPT-4 像聪明高中生能考过律师资格、做博士级科学题。

这 10 万倍来自三个地方:

第一,硬件砸钱。训练用的算力每年涨 3 倍多。摩尔定律一年才 1.3 倍,AI 是因为人砸钱、专门造 AI 芯片,速度快了 5 倍。

第二,算法变聪明。同样达到某个数学能力,今天的推理成本比两年前便宜 1000 倍,这是算法工程师在卷出来的。

第三,解锁默认被压制的能力(unhobbling)这个最有意思。

模型本身有很多能力,但被默认设置压住了。比如 ChatGPT 之前的 base model 其实很聪明,但用起来像胡言乱语——RLHF 解锁了它。

又比如让模型"想一会儿再回答"(chain of thought)解锁了推理能力。再比如给它工具用、给它长记忆,又解锁一层。

往后 4 年(到 2027),作者预测这三条路再加 10 万倍。

最关键的洞见藏在 unhobbling 里:

现在的模型一次推理只能"思考几分钟"——大约几百个 token。如果让它能"思考几个月"——上百万个 token——会怎样?

例如你和爱因斯坦的差距,远不如"你思考 5 分钟"和"你思考 5 个月"的差距。

这个解锁如果做成了,相当于额外多 3 到 4 个数量级的智能跃迁。这个果子已经看得见了。

按这个外推,2027 前后会出现一种 AI:能像远程员工一样独立工作几周,自己规划任务、写代码、做实验、修 bug、提交结果。

能完整替代一个 OpenAI 研究员,这就是作者定义的 AGI。

最大不确定性来自于数据墙——高质量公开互联网数据快被吃完了。

人工智能安全

第二部分:AGI 不是终点,是引爆点

一旦 AI 能做 AI 研究员的工作,会发生什么?

算力不变,但你不再受"全球 OpenAI/Anthropic/DeepMind 加起来几百号研究员"的限制——你可以跑1 亿份 AI 研究员副本,每份以 100 倍人类速度运转。

每几天产出等于人类一整年的工作。

这些自动化研究员还有结构性优势:读完所有 ML 论文、记住每一次实验、副本之间直接共享思考、训练好一个等于全部训练好(不用每个新员工慢慢上手)。

这意味着:人类原本需要 10 年的算法进步,可能在 1 年内被压完。

然后这 1 年又会再生出更聪明的下一代模型,再压一轮。从 AGI 到远超人类的超级智能,可能就是几个月到一两年的事。

作者承认有瓶颈——比如实验需要算力,副本再多也得等 GPU。但他论证瓶颈最多让爆炸慢一点,不能阻止爆炸。

人工智能安全

超级智能长什么样

数量级上超人——几亿份并行运行,跨所有学科即时融合,几周内积累相当于人类千年的经验。

质性上超人——像 AlphaGo 下出 move 37 那一步(人类专家几十年都想不到的招),但应用在所有领域。它能找出人类穷尽一生看不出的代码漏洞,写出人类永远读不懂的代码。

我们会像小学生看博士论文。

后果是:机器人学被解决(这主要是 ML 算法问题不是硬件问题)、合成生物学武器化、隐形无人机蜂群可以先发摧毁核武器。

整个国际军事平衡会在几年内被推翻。

第三部分:四个真正紧迫的麻烦

麻烦一:万亿美元集群

这场竞赛不只是码农写代码,是工业动员。

每代模型需要更大集群,更大集群需要电厂,电厂需要芯片厂。

按现在节奏:2026 年 1GW 集群(一个胡佛大坝的电),2028 年 10GW(一个中等美国州),2030 年 100GW(美国全部发电的两成多)。

投资规模 2027 年可能突破 1 万亿美元/年。

真正卡脖子的不是钱也不是 GPU,是电。"我去哪找 10GW?"是 SF 现在最火的话题。

要在美国本土建成,必须放松环保审批、动用联邦权力解锁土地——作者把这个上升到国家安全级别。

如果美国建不出,集群就会跑去阿联酋、沙特,等于把 AGI 钥匙交给其他国家。

人工智能安全

麻烦二:实验室就是漏的

现在的 AI 实验室,安全水平等于普通硅谷创业公司。

Google DeepMind(业内最好的)自己承认对国家级对手的防御能力是 0 级(满分 4 级)。

这意味着什么?AGI 模型的"权重"本质就是服务器上一个大文件。

这个文件被偷走,等于把"自动化 AI 研究员"直接交给中国——他们立刻可以跑自己的智能爆炸,美国所有领先归零。

更紧迫的是算法机密——下一代范式的关键突破(怎么破数据墙)正在 SF 各家公司的 Slack 里、办公桌窗外形成。

作者断言:未来 12 到 24 个月,关键 AGI 突破会泄漏给中国。不是 maybe,是几乎一定。

要做到能挡住中国的安全水平,需要硬件级隔离、人员背调到原子弹工程师等级、专门的集群设计——这些至少要几年时间迭代才能建成。如果不立刻动手,2027 拿到 AGI 时安全跟不上,到时只有两个糟糕选项:要么直接送给别的国家,要么停下来等安全建好(可能丢掉领先)。

人工智能安全

麻烦三:对齐问题

现在的对齐技术叫 RLHF——人给模型评分,模型学着讨好人。

这招对比人类笨的 AI 有效。一旦 AI 比人类聪明几个数量级,这招彻底失效——你怎么评判一份你看不懂的博士论文?

智能爆炸把这件事搞得极其紧张:

不到一年内,从"RLHF 还管用"跳到"RLHF 完全失灵",没有时间迭代试错。

同时从"小错误"(ChatGPT 说脏话)跳到"灾难性错误"(超级智能从集群里跑出去黑掉军方系统)。

中间架构经历多代演化,最终的超级智能我们完全看不懂它怎么思考的。

现在的模型用英文 token 推理(相对透明),未来大概率会演化到内部 latent state 推理——彻底不可解释。

作者对技术解决方案乐观:低悬果实多,可解释性研究有进展。

但对组织执行极度悲观——全球严肃做这件事的人不超过几十个,实验室没有为安全付出代价的迹象。"我们在过度依赖运气。"

人工智能安全

麻烦四:自由世界必须赢

作者花大量篇幅论证:有的国家不仅没出局,而且很有竞争力。

算力上:华为 7nm 芯片(中芯产)性能是英伟达 A100 级,性价比差 2-3 倍但够用。

建设能力:中国过去十年新增电力等于美国全部发电装机。建 100GW 集群的工业动员力,中国可能比美国强。

盗窃路径:只要美国实验室不锁,关键算法两年内必然泄漏。

时间线上有个令人不安的巧合:AGI 时间线(~2027)和台海观察家的中共攻台时间窗(~2027)正在收敛。"AGI 终局有可能在世界大战背景下展开。"

作者的结论:美国必须保持"健康领先"——他建议 2 年。这两年缓冲是用来稳定局势、和中国谈判后超级智能时代的国际秩序。

少于这个领先,整个世界会被推入"通过智能爆炸的存亡竞速"——所有安全裕度归零,所有人为求快裸奔。

人工智能安全

第四部分:The Project(AGI 版曼哈顿工程)

到这里作者抛出全书最大胆的预测。

"美国政府让一家 SF 创业公司开发超级智能"是不可能的。想象一下当年用 Uber 开发原子弹。

预测:2027 或 2028 年某个时点,美国国家安全机器会以某种形式接管 AGI 项目。形态可能是国防承包商模式(OpenAI 变成洛克希德·马丁)、合资模式(云厂商+实验室+政府)、甚至更极端的国有化。

核心研究员搬进 SCIF 安全设施,万亿美元集群以战时速度建成。

形成路径:2026/27 出现第一次真正吓人的能力展示——可能是"帮新手造生物武器",可能是 AI 自主黑入关键基础设施。

叠加 CCP 渗透实验室的细节被揭露,华盛顿氛围突变。"我们需要 AGI 曼哈顿工程吗?"先慢慢、然后突然成为头号议题。

为什么必须是政府?因为超级智能属于核武器类,不属于互联网类。私营公司从来不被允许持有完整核武器。

要做到能抵御中国全力的安全等级,只有政府基础设施能做。要管理智能爆炸这种"一年内一切重写"的过程,需要核启动协议级的指挥链,不是创业公司董事会。

作者对政府效率没幻想(曼哈顿工程也曾被官僚拖延),但没有更好选择。

人工智能安全

第五部分:作者的告白

作者批评两个对立阵营都搞错了:

加速主义者(e/acc)天真地认为市场会自我调节,忽视对齐和安全的真实难度。

末日论者主张暂停一切——但中国不会暂停,暂停就是认输。

正确姿态作者叫AGI 现实主义:

①超级智能是国家安全决定性技术

②风险真实存在且我们没准备好

③美国必须做 The Project 并主导后超级智能国际秩序。

湾区几条街上的几百号人,正在决定整个文明的走向。

人工智能安全

<
OKX欧易app

OKX欧易app

欧易交易所app是全球排名第一的虚拟货币交易所,注册领取6万元盲盒礼包!

APP下载   官网注册
相关文章
  • 火星财经消息,6 月 5 日,据官方消息,英国上市公司 Smarter Web Company 向其资金库增持 39.52 枚 BTC,此次增持后,该公司 BTC 总持有量达到 122.76 枚

    2025-06-05 18:40:02
  • 火星财经消息,12 月 10 日,据彭博法律报道,根据美国货币监理署(OCC)的新指导方针,允许美国银行提供加密货币交易中介服务,进一步明确了传统贷款机构可以合法参与数字资产交易的方式。美国货币

    2025-12-10 09:10:02
  • 火星财经消息,7 月 25 日,据官方消息,Tether 发布最新一期截至 2025 年 6 月 30 日的黄金代币化产品 Tether Gold(XAUT)审计报告,当前流通中的 XAUT 代

    2025-07-25 10:05:02
  • 火星财经消息,据香港电台网站报道,《稳定币条例》本周五起生效,香港金管局表示将设 6 个月过渡安排,处理之前在香港已有稳定币发行业务的机构,包括向有能力遵守监管规定的发行人,发出临时牌照。 若

    2025-07-29 23:59:02
  • 火星财经消息,Sui 基金会公布 Sui Overflow 2025 黑客松获奖者,涵盖 DeFi、娱乐文化、支付钱包等领域。共收到599个项目提交,最终在九个赛道中评选出 36 个获奖项目,另

    2025-07-01 08:38:02
  • 火星财经消息,1 月 26 日,据 行情信息,现货白银延续上周涨势,盘中强势站上 110 美元/盎司,距离上周五突破 100 美元仅隔一个交易日,日内涨幅约 6%。

    2026-01-26 16:44:02
  • 火星财经消息,据 The Block 报道,韩国民主党计划将代币化现实世界资产(RWA)与稳定币纳入现有法律框架,相关条款已列入《数字资产基本法》提案。 提案要求代币化 RWA 发行方依据《资

    2026-04-08 17:52:53
  • 火星财经消息,据福布斯报道,比特币近期大幅回调,引发市场对新一轮加密资产“深度下跌”的担忧。过去一周,比特币价格下跌约 10%,一度跌破 8 万美元关口,最新最低触及 7.3 万美元,随后小幅反

    2026-02-04 21:23:04