AI 对手发展太快,Anthropic 放弃重要安全承诺
7 小时前

美国 AI 创业公司 Anthropic 曾自诩为顶级 AI 研究实验室中最注重安全的公司,2023 年承诺除非能提前保证有足够安全措施,否则绝不训练 AI 系统,这是其「负责任扩展政策」(RSP)的核心支柱。但最近几个月,该公司决定对 RSP 进行彻底改革,放弃原先承诺。首席科学官称停止训练 AI 模型对任何人都没帮助,在竞争对手快速推进时,单方面承诺不合理。新版政策包括在 AI 安全风险上更透明、在安全方面投入达到或超越对手等,但总体上让 Anthropic 在安全政策上受约束大幅减少。目前,Anthropic 面临激烈竞争,还与美国国防部Claude 工具使用方式陷入争执。该公司表示此次调整基于 AI 发展速度和联邦层面缺乏相关法规,旨在在不均衡政策背景下与对手抗衡,仍致力于遵循行业领先的安全标准。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟