美国人工智能公司Anthropic与美国政府因AI军事应用伦理问题矛盾激化,最终被罕见列入"国家安全供应链风险"名单 核心事件:美国首例本土企业被列入国防供应链风险。据外媒3月6日报道,美国人工智能初创公司Anthropic已被美国国防部正式列为"国家安全供应链风险"。多家媒体证实,这是美国首次有本土企业被列入此类名单,标志着该公司与美国特朗普政府之间围绕人工智能军事应用界限的矛盾全面公开化。 矛盾焦点:AI伦理红线与"合法用途"之争。Anthropic CEO达里奥·阿莫迪在3月5日的声明中确认了此事,并表示公司"别无选择",只能在法庭上对这一认定提出挑战。此次风波的根源在于Anthropic对其AI模型"Claude"的使用限制。 Anthropic方面坚持要求美国国防部明确承诺,不会将Claude技术用于"完全自主的武器系统"以及"针对美国国民的大规模监控"。然而,特朗普政府对此表示拒绝,主张军方应有权限将AI用于"所有合法的用途",双方谈判由此破裂。 后续影响:供应链排他性与竞争对手的"截胡"。此次认定具有实际的排他性效力。按照规定,所有与美国国防部有业务往来的企业,必须证明自己没有使用Anthropic的产品。这实际上切断了Anthropic参与国防项目的渠道。 戏剧性的是,在Anthropic被"拉黑"仅数小时后,其竞争对手OpenAI便宣布与五角大楼达成合作协议。OpenAI CEO萨姆·奥特曼声称,国防部同意尊重其技术安全限制,并认为将Anthropic列入黑名单是"极其可怕的先例"。 复杂现实:美军行动中仍在使用Claude。尽管美国政府已宣布封杀,但多家媒体报道称,美军在实际军事行动中对该模型仍存在高度依赖。据披露,今年1月美军突袭委内瑞拉的军事行动中,就使用了Claude处理敏感情报。而在2月28日美以对伊朗发动的军事打击中,尽管特朗普已宣布封杀令,美军仍在继续使用Claude进行情报评估、目标识别与战斗情景模拟。 分析指出,这一方面反映出AI工具在美军行动中扎根之深,另一方面也凸显了在AI军事应用伦理问题上,商业公司的安全底线与国家对"算法战力"的渴求之间,存在着难以调和的矛盾。
