科技巨头承诺安全开发 AI 模型:极端风险下会「自拔网线」

2024 年 5 月 22 日

在「人工智能(AI)首尔峰会」上,微软、亚马逊、OpenAI 等科技巨头达成了一项重要的国际协议,旨在确保 AI 的安全开发。该协议要求企业发布安全框架,识别并衡量潜在风险,如 AI 滥用和网络攻击等,并设立「紧急停止开关」以应对极端情况。英国首相苏纳克表示,这是全球领先 AI 公司首次在 AI 安全方面做出相同承诺,将确保透明度和问责制。《布莱奇利宣言》和即将到来的 AI 安全峰会也是推动全球 AI 安全监管的重要步骤。此外,欧盟已批准全球首部 AI 监管法规 ——《人工智能法案》,而英国则倾向于采取较为宽松的「轻触式」监管方式。明天的会议将进一步讨论 AI 安全性和可持续发展等合作方案。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。
科技新闻,每天 3 分钟