为什么 Anthropic公司CEO认为AI还不能用来打仗?

张开发
2026/4/21 10:57:41 15 分钟阅读

分享文章

为什么 Anthropic公司CEO认为AI还不能用来打仗?
Dario AmodeiAnthropic公司CEO认为AI还不能用来打仗主要基于以下两个核心原因1. AI系统不够可靠无法安全用于完全自主武器Amodei明确指出当前的前沿AI系统远不够可靠无法用于完全自主的武器系统即由AI而非人类做出最终打击决策的武器。他在CBS采访中解释跟AI打过交道的人都明白这东西有它本质上的不可预测性这个问题纯技术层面到现在也没有解决。他在Anthropic官方声明中进一步阐述今天前沿AI系统根本无法可靠地支持完全自主武器。我们不会明知故犯地提供可能让美军战士和平民处于危险中的产品。2. 缺乏适当的监管和问责机制除了技术可靠性问题Amodei还强调了监管缺失的风险。他举例说明如果一支由数千万架无人机组成的军队全部由AI控制没有人类士兵在现场决定打谁不打谁很容易看出这里面问责有问题。权力集中到那个程度是行不通的。他明确表示没有适当的监督完全自主武器无法像训练有素的专业军人那样行使关键判断。背景与五角大楼的冲突2026年初美国国防部要求Anthropic允许其Claude模型用于所有合法用途包括完全自主武器和可能的大规模监控。Amodei拒绝妥协坚持上述两条红线导致五角大楼威胁将其列为供应链风险企业。国防部长Pete Hegseth甚至公开表态我们不会使用不允许打仗的AI模型。Amodei的立场并非完全反对AI用于国防——他支持将AI用于合法的外国情报和反情报任务甚至认为部分自主武器如乌克兰使用的那些对保卫民主至关重要。他的核心担忧仅限于完全自主武器和大规模国内监控这两个特定领域。

更多文章