从 Harness Engineering 看 AI 时代的人类生态位
OpenAI 最近发表了一篇叫 Harness Engineering 的文章,记录了他们 “从零构建并交付一个软件产品内测版,代码行数过百万,没有一行人工手写” 的实验。
他们提炼出的核心原则简单到令人警觉:“Humans steer. Agents execute.” —— 人类掌舵,智能体执行。
工程师不再写代码,而是设计环境、定义约束、构建反馈循环。架构规范被编码成代码检查工具和结构测试,智能体在边界内自主运作。遇到需要判断的节点,才向上移交给人类。纪律不再体现在代码里,而是体现在脚手架里。
这个模式非常优雅,也非常成功。但读完之后有一个问题一直甩不掉:
如果我们把同样的逻辑从写代码扩展到思考本身,用 AI 来辅助人类的认知和创造过程,这个模式还成立吗?
成立,但不完全。
因为代码和思考之间有一个根本差异:写代码时你知道什么是 “对的”,思考时你往往不知道。
Harness Engineering 解决的是一个收敛问题:人类定义审美,系统忠实执行。整套机制的核心逻辑是 —— 我们知道什么是好的,现在让智能体持续地、大规模地做到。在这个框架里,AI 并非创造(Creation),只是在生成(Generation)。
关于 AI 能不能真正创造,最常见的论证是萨特式的:l’existence précède l’essence,存在先于本质。创造需要主体性,AI 没有主体性,所以 AI 只能生成,不能创造。
然而,这个论证有一个漏洞。
一个严重抑郁的人在半意识状态下画出的画,一首梦中写下的诗,一段集体即兴中没有任何单一作者的音乐 —— 这些有清晰的主体性吗?很难说有。但我们不会否认它们是创造。艺术史几乎都是存在张力的产物,而不是清晰主体决策的产物。
所以主体性可能不是关键变量。关键变量是 具身经验(embodied experience):有没有一副身体,在时间中存在过,承受过什么。
人创造的东西之所以能击中另一个人,不是因为背后有一个 “主体” 在做决策,而是因为那个作品里压缩了活过的痕迹 —— 身体的记忆、创伤的质感、欲望的方向。梦中写诗的人,他的梦来自他活过的全部经验,他的身体、创伤、欲望。集体即兴中的每个参与者也是如此。
AI 没有活过。它处理过海量的语言,但处理不等于经历。生成不需要经历,它只负责输出最高概率、最高奖励的结果就好。
但创造需要。
创造是在不确定性中做出选择,而这种能力来自于你曾经选错过、承受过后果、并带着那个后果继续活下去。创造意味着对后果负责、对价值负责。而负责的前提是你承受得起后果。
那么,价值本身呢?
萨特在 L’existentialisme est un humanisme(《存在主义是一种人道主义》)中写道:
“La valeur n’est pas autre chose que ce sens que vous choisissez” —— 价值无非是你所选择的那个意义。
AI 本身并不存在内源性的价值体系,它只有形式化的奖励函数(Reward),这是我们嵌入的外部优化目标。那么,人类的生态位就在这里:谁来定义价值?
价值本身是流动的。
这一点必须诚实面对 —— “人类是价值的源头” 这个命题的根基不是磐石,而是流沙。人类历史上每一次价值体系的重大转变 —— 宗教改革、启蒙运动、民权运动 —— 都伴随着剧烈的社会冲突,并且需要几十年甚至几个世纪才能沉淀为新的共识。这是人类社会自我修复的自然带宽。
AI 只是放大器。假如价值并非恒定,放大的将是冲突。
但这里有一个反直觉的推论。如果价值是固定的、可公理化的,那反而可以写进代码,交给 AI 执行,这正是 Harness Engineering 所做的。恰恰因为价值是流动的,人类的角色才不可替代。
固定的价值需要的是执行力,流动的价值需要的是自我质疑的能力。你得能意识到自己原来相信的东西可能过时了、可能错了,然后在不确定中重新选择。
真正有价值的思考,往往发生在你意识到自己原来的判断可能是错的那个瞬间。
这种自我质疑能不能被系统化?Harness Engineering “中央设界,局部放权” 的原则在代码工程中被验证了。但把这个模式搬到认知协作,就会撞上一个悖论。一致性和自由本身是有张力的。
任何认知协作架构(无论你叫它 AI 助手、认知脚手架、还是第二大脑)本质上都是结构,结构就是约束。你试图用系统来 “支持” 人的自由思考,但系统本身就在塑造思考的方向。这其实是试图把存在主义嵌入工程结构。矛盾从一开始就内置了。
因为真正的演化,不是越来越一致,而是在关键时刻允许断裂。
更具体地说:如果你想设计一个系统来 “允许认知断裂”,在关键时刻打破用户的思维惯性,为认知搭建通往更高阶思考的脚手架,你会面临一个逻辑困境。断裂一旦被设计,它就不再是真正的断裂,而是被允许的偏离,仍然在预设的约束空间内。真正的存在主义式自由恰恰是无法被架构化的。
这个悖论不可消解。但它不是你需要解决的缺陷,而是你需要内化的特性。
它意味着任何认知协作架构都只能做到 “创造断裂更容易发生的条件”,而不能 “设计断裂本身”。这和教育很像:好的教育不是设计学生在哪个时刻顿悟,而是创造一个足够丰富和有张力的环境,让顿悟有可能自发涌现。系统能把脚手架搭到某个临界点,但跨过临界点的那一步,必须是人自己迈出的,且不可预测。
Harness Engineering 需要的系统能力是 忠实执行(镜像认知,舒适、高效)。而认知层面真正需要的系统能力是 诚实地制造不适(为认知搭建脚手架,走向不适和冲突,引导更高阶思考)。前者让你做得更快,后者让你想得更深。
方向是:构建一个可演化的认知协作结构,在其中人类始终保有价值定义权和最终决策权。
最后,对自己写下的所有论点做一次诚实的审计。
“AI 没有活过”。这个判断建立在我们对意识和经验的不完全理解之上。我们无法确定大规模语言模型在处理信息时内部发生的事情是否构成某种 “经验” 的雏形。我倾向于认为不是,但 “倾向于认为” 不是证明。
所以这篇文章的力量不应该来自对人类独特性的宣称,而应该来自对不确定性的诚实:
我们不确定 AI 有没有经验,但我们确定人类有。在不确定性消解之前,价值判断的最终权重应该留在人这边。
这是一个实用主义论证,不是形而上学论证。它不需要证明 AI “永远不能” 创造,只需要指出,在不确定性尚未消解的阶段,把创造的权重交给确定具备这些能力的一方,是更审慎的选择。
L’homme est condamné à être libre —— 人是被判定为自由的。自由不是被守住的,是被不断选择的。人在 AI 时代的位置,不靠宣称来维持,靠的是在每一次人机协作中,主动行使价值判断。守是被动的,行使是主动的。
但这里还有一个我没有答案的问题。人类在历史上重新协商价值的过程往往是血腥的,战争、革命、社会撕裂,需要几十年甚至几个世纪。AI 作为放大器介入这个过程,放大的速度和规模可能远超人类社会自我修复的带宽。
人类协商价值的速度,跟得上 AI 放大冲突的速度吗?
我们没有完整的答案。但这恰恰是我们正在构建的东西所围绕的核心问题:一个让人类始终具备协商、判断、选择能力的认知架构,即使系统的规模已经超出任何个体独自承载的范围。
在价值加速漂移、系统能力指数增长的时代,站得住比站得高更重要。