作者:极客老友2026 年 3 月 7 日,当我看到 Caitlin Kalinowski 辞职的消息时,第一反应不是震惊,而是——「终于有人用行动说话了」。Kalinowski 是 OpenAI 的硬件与机器人工程负责人,2024 年 11 月才刚刚加入,不到一年半就选择离开。她的理由直接而沉重——对 OpenAI 与美国国防部签署合同后可能引发的国内监控和自主武器应用,感到无法接受。这不是一次普通的人才流失。这是一个亲手参与构建 AI 躯体的人,用辞职告诉世界:她不愿意为自己造出的东西,负责它可能会做出的事。要理解 Kalinowski 的离开,必须先回到大约一周前发生的事。2 月 28 日,Sam Altman 宣布 OpenAI 与美国国防部达成协议,允许五角大楼在其分类网络中使用 OpenAI 的 AI 模型。消息一出,舆论炸锅。有意思的是,这份合同的「参照物」是友商 Anthropic。就在此前不久,Anthropic 拒绝了五角大楼提出的类似合作,坚持要求在合同中写入更严格的伦理护栏,结果国防部长 Pete Hegseth 在 X 上直接点名怒批,称 Anthropic 的行为是「傲慢与背叛的大师课」,并呼应特朗普政府下令停止与 Anthropic 的合作。OpenAI随后接手了这笔生意。用户的反应相当激烈。2 月 28 日当天,ChatGPT 的卸载量较前一天暴增 295%,#QuitGPT 运动迅速席卷社交媒体,数字抵制的支持者在三天内超过 250 万。Claude 趁势超越 ChatGPT 成为美国日均下载量第一,登顶 Apple App Store 免费应用榜首。迫于压力,Altman 在 3 月 3 日公开承认自己「不应该仓促推出这份合同」,称「这只是看起来机会主义和草率」,并宣布修订合同措辞,明确「AI 系统不应被故意用于对美国人员和公民的国内监控」。但这个「故意」二字,本身就是一个漏洞。电子前沿基金会的律师一针见血地指出,情报和执法机构经常依赖「偶然」或「商业购买」的数据来规避更强的隐私保护——加一个「故意」,并不等于真正的限制。Kalinowski 的辞职,正是在这个背景下发生的。01 她看见的,比我们想象的更具体在大多数人还在讨论「OpenAI 是不是在向政府妥协」的时候,Kalinowski 其实面对的是一个更具体、更残酷的问题——她的团队,正在造机器人。硬件与机器人工程,不是写代码、调参数的抽象工作。这是在给 AI 装上手、装上脚、装上眼睛。当 OpenAI与国防部的合作从「模型使用」,延伸向未来可能的「具身 AI 军事应用」,Kalinowski 的工作性质就变了。自主武器领域的研究者们早就在警告这一天的到来。现有的美国国防部政策,并不要求自主武器在使用武力前必须经过人工审批。换句话说,OpenAI 签下的那份合同,在技术上并没有阻止其模型,成为「让 GPT 决定杀死某人」的系统的一部分。这不是危言耸听。乔治敦大学政府采购法讲师 Jessica Tillipman 分析 OpenAI 修订后的合同时,明确指出合同措辞「没有给 OpenAI 一个类似 Anthropic 式的自由来禁止合法的政府使用」,它只是声明五角大楼不能用 OpenAI 技术违反「现有法律和政策」——但现有法律在自主武器的监管上本身就存在巨大空白。牛津大学的治理专家也有类似判断,认为 OpenAI 的协议「不太可能弥补」AI 驱动的国内监控和自主武器系统在治理层面留下的结构性漏洞。Kalinowski 的离开,是她个人对这个判断的回应。02 OpenAI 内部,正在发生什么Kalinowski 不是第一个走的人,也大概率不是最后一个。有数据显示,OpenAI伦理团队和 AI 安全团队的离职率已经高达 37%,而大多数人给出的离职原因,都是「与公司价值观不符」或「无法接受 AI 用于军事用途」。研究科学家 Aidan McLaughlin 在内部发文写道,「我个人认为这笔交易不值得」。值得注意的是,这一波离职潮发生的时间节点——恰好是 OpenAI正在快速扩张商业版图的阶段。就在国防合同风波前后,公司宣布与 AWS 将现有的 380 亿美元协议扩展 1000 亿美元,期限八年;同时重新调整了对外披露的支出目标,预计到 2030 年总收益将超过 2800 亿美元。商业加速,安全团队持续出走。这个剪刀差,是理解 OpenAI 当下处境最重要的坐标轴。一家公司的价值观,最终体现在它留住了什么人、留不住什么人。当那些最关注「这项技术会被怎么用」的人开始陆续离开,剩下的组织结构会滑向哪个方向,并不难推断。Anthropic 在这场博弈里选择了另一条路——拒绝合同,承受国防部的怒火,但赢得了大量用户的信任。那段时间 Claude 的下载量逆势上升,某种程度上证明,「有原则的拒绝」在商业上并不一定是输家策略。但 Anthropic 也付出了代价——它被政府踢出局,至少暂时如此。这是真正的困境所在:没有一种选择是完美的。拒绝,意味着可能失去影响力,甚至被排除在规则制定之外。接受,意味着用自己的技术,为自己无法完全控制的行为背书。Kalinowski 的答案是第三条路——离开。这是她能做的最诚实的事。03 硅谷的灵魂之战,刚刚开始如果把视角拉远一点,这件事的意义远超过一个人的辞职。AI 与军事的结合,是整个行业迟早要面对的选择题。五角大楼有预算、有需求、有技术整合能力,它不会停止向 AI 公司抛出橄榄枝。而 AI 公司——无论是追求 AGI 的 OpenAI、强调安全的 Anthropic,还是其他玩家——迟早都要在这道题前给出自己的答案。Altman 的策略,是试图在接受商业现实的同时,通过合同措辞来划定底线。但正如多位法律和治理专家所指出的,那些措辞更像是公关层面的保护,而非技术层面的硬约束。更根本的问题是,当 AI 模型被部署进分类网络,当它开始参与军事决策,外部世界根本没有能力验证,那些「保证」是否真的在执行。透明度的缺失,本身就是最大的风险。Kalinowski 在 OpenAI 待了不到一年半,却在这个节点选择离开。她没有公开发表长篇声明,没有指名道姓地批评任何人,只是用行动划出了自己的边界。某种意义上,这比任何一篇政策文章都更有力量。AI 硬件和机器人工程,原本是硅谷最令人兴奋的前沿领域之一。Kalinowski 走的时候,她带走的不只是一份简历,还有一个问题,留给所有还留在这个行业里的人——你为自己造的东西,愿意负责到哪一步?
Thank you for reading this post, don't forget to subscribe!