谷歌重返军事AI:一份争议协议背后的技术伦理困境

2018年的画面至今历历在目。数千名谷歌工程师联名抗议,迫使公司退出Maven项目——那个将AI用于无人机瞄准的军方合同。八年后的今天,谷歌却与美国国防部签署了一份新的机密AI合作协议,允许五角大楼在合法政府用途中使用其人工智能技术。谷歌重返军事AI:一份争议协议背后的技术伦理困境 IT技术

这不是简单的政策转向。从技术视角审视这份协议,几个关键细节值得深挖。

权限边界:比OpenAI更宽的准入条款

知情人士透露,谷歌协议给予五角大楼的权限超过OpenAI今年2月敲定的合作框架。OpenAI保留了安全防护体系的自主决策权,谷歌则被要求配合调整AI安全设置与内容过滤机制。谷歌公共部门发言人辩称,日常也会为企业客户定制修改过滤规则,暗示这不过是常规操作。但军事场景的过滤标准与商业客户的需求,本质上是两个截然不同的技术命题。

约束条款的致命缺陷

协议中写着“若无完善的人工监督与管控,该人工智能系统不得、也不应被用于国内大规模监控或自主武器相关用途”。法律专家查理·布洛克一针见血:这种措辞不具备任何法律约束力。它只代表双方不认可此类行为,却无法将其界定为合同违约。合同同时补充条款,明确谷歌无权干预美国政府的合法作战决策。

这意味着,“禁止”的边界实际上由五角大楼自行定义。

人工监督的定义权归属

法律研究员阿莫斯·托指出,协议中的“适当人工监督”并不强制要求在目标识别到武器发射的全过程都有人工介入。五角大楼只需在系统整体部署规则层面保留一定人工参与即可。这意味着高度自动化的致命打击流程在技术上完全可行,只要最终决策环节“有人签字”。

600名谷歌员工的联名抗议信提出了一个核心诉求:拒绝承接机密项目是杜绝技术滥用的唯一途径。这个观点在技术伦理层面站得住脚——一旦进入机密领域,外部监督的有效性将大幅削弱。

行业联盟背后的AI军备竞赛

谷歌并非孤例。埃隆·马斯克的xAI、OpenAI已先后与五角大楼达成类似合作。众多顶尖AI实验室、科技巨头与云服务商组建行业联盟,为国家安全提供AI服务与技术基础设施。这条路的终点,是AI军事化应用的全面合法化。

对于技术从业者而言,这是一个无法回避的伦理选择时刻。