Meta 公司 CEO 马克・扎克伯格曾承诺将通用人工智能(AGI)公开提供给大众,但最新发布的 「前沿人工智能框架」 文件显示,Meta 将在某些情况下限制高性能 AI 系统的发布。文件中明确了两类高风险 AI 系统:「高风险」 系统可能协助实施网络攻击,「关键风险」 系统可能导致灾难性后果,如生物武器扩散。Meta 强调评估系统风险不仅依赖实证测试,还会综合内部与外部研究人员的意见,并由高级别决策者审查。若判定为 「高风险」,系统将限制内部访问权限,直至风险降至中等水平。若为 「关键风险」,则会暂停开发并采取安全措施防止非法获取。此举旨在平衡先进 AI 技术的社会益处与潜在风险,回应外界对公司开放开发策略的批评。Meta 表示,该框架将随人工智能领域的发展不断演变。