谁在决定谁可以死? ──当人工智能逼近审判的位置
Image-Description

蒲正宁(中华基督教网络发展协会副秘书长)

2026年初,一场原本属于科技产业与国防系统之间的合约谈判,逐渐演变成一场公开的冲突。美国人工智慧公司Anthropic的创办人达里欧阿莫戴(Dario Amodei),在与美国国防部的合作谈判中,拒绝让公司旗下的人工智能模型被用于两种用途:一是大规模监控本国人民,另一是完全由机器自行决定攻击目标的致命武器系统。

一项引发各界瞩目的武器谈判
美国国防部方面则要求移除这些限制,主张只要用途符合法律,就应当被允许。当谈判最终破裂,美国政府将该公司列为「供应链风险」,排除其参与部分军事体系,而公司也随后提起诉讼。

这场争议迅速引发广泛讨论,不只是因为它涉及尖端科技,更因为它让一个长期存在却不容易被看见的问题浮上台面:当人工智能逐渐成为国家安全与战争决策的一部分,究竟由谁决定它可以做到什么程度。

这场冲突之所以引人注目,在于其中没有简单的善恶对立。阿莫戴并不反对人工智能参与战场,他甚至主张民主国家需要这些技术,以维持防卫能力。然而,在支持合作的同时,他
仍坚持两条界线,认为某些用途一旦跨越,就可能带来难以收拾的后果。

另一方面,美国政府也提出自身的顾虑:如果企业能透过技术限制军事用途,国家安全是否会受到私人价值观的左右。当双方各自提出理由时,问题已经不只是技术层面的可行与否,而逐渐转向更深的层次──控制权究竟掌握在谁手中,责任又将由谁承担。

行动转化为演算 人的责任可以外包?
若把视角再向后拉,这场争议其实触碰到一个正在形成的转折。所谓「完全自主致命武器」,指的是系统能自行辨识目标、评估威胁,并决定何时攻击。在这样的架构中,工程师负责撰写程序,军官负责启动系统,决策者依赖资料分析,每一个人都只接触到流程的一部分。这种分工本身并不陌生,但是当决策被拆解为许多步骤时,人与结果之间的距离也逐渐拉开。人做的,只剩按下一个按键、启动一个系统。

当责任被分散,人很容易在心理上相信自己只是完成工作的一环,而没有真正做出夺去生命的决定。然而,生命仍然可能在那个流程之中消失,而没有人清楚感到自己曾经站在那个关键的位置。

过去的战争,即使在最远距离的情况下,也仍然存在一个清楚的动作与责任的连结。有人瞄准,有人扣下扳机,那个行动本身就是一个明确的选择。但当行动转化为资料与演算,人与后果之间的连结变得抽象。荧幕上的标记不再是一个具体的人,而是一个可能的威胁,一个需要处理的目标。这样的转变,未必立即造成错误,但长期下来,可能逐渐改变人如何看待生命。当生命不再以人的面貌出现,而以资料的形式呈现,人也可能慢慢失去对生命重量的感受。

每一个决定都需要在神面前交帐
在信仰的视角中,审判并不是一个普通的行为。圣经提醒,设立律法和施行审判的,只有一位。当人开始相信自己能预先界定谁是威胁,甚至在尚未发生具体行动之前就作出致命决定,人所扮演的角色,逐渐逼近一个原本不属于自己的位置。这并不意味着所有判断都是错误的,而是意在提醒,任何涉及生命的决定,都需要面对一个更高的责任。

另一个容易被忽略的问题,是责任的形状正在改变。当人依赖系统作出决定,很容易相信结果是客观的,好像只要系统没有出错,就不需要再追问背后的选择。然而,信仰提醒人,每一个决定都需要在神面前交帐。即使行动透过机器、计算机系统完成,选择仍然属于人。系统可以计算,但无法承担责任;资料可以提供建议,但无法面对审判。若人逐渐习惯把判断交出去,也可能在不知不觉中,把原本属于自己的责任一同交出去。

科技的发展,往往带着一种令人着迷的力量,使人相信能力的提升必然带来更好的结果。然而,历史多次显示,真正需要警惕的,往往不是技术本身,而是人如何理解自己的界线。当权力与效率结合,人内心的恐惧、偏见或野心,都可能透过技术被放大,或者以更隐蔽的形式延续。

人工智能或许正站在类似的门口。未来某一天,人可能真的会站在一个荧幕前,看见一个名字被标记为威胁。那时真正的问题,未必是系统是否精准,而是人是否仍然记得,那个名字代表的是一个生命,而不是一组可以被消除的资料。未来需要回答的,或许不是技术能做到什么,而是人是否仍然记得,有些位置本来不属于人。