美国 AI 创业公司 Anthropic 曾自诩为顶级 AI 研究实验室中最注重安全的公司,2023 年承诺除非能提前保证有足够安全措施,否则绝不训练 AI 系统,这是其「负责任扩展政策」(RSP)的核心支柱。但最近几个月,该公司决定对 RSP 进行彻底改革,放弃原先承诺。首席科学官称停止训练 AI 模型对任何人都没帮助,在竞争对手快速推进时,单方面承诺不合理。新版政策包括在 AI 安全风险上更透明、在安全方面投入达到或超越对手等,但总体上让 Anthropic 在安全政策上受约束大幅减少。目前,Anthropic 面临激烈竞争,还与美国国防部就 Claude 工具使用方式陷入争执。该公司表示此次调整基于 AI 发展速度和联邦层面缺乏相关法规,旨在在不均衡政策背景下与对手抗衡,仍致力于遵循行业领先的安全标准。