科技巨头承诺安全开发 AI 模型:极端风险下会「自拔网线」
2024 年 5 月 22 日
在「人工智能(AI)首尔峰会」上,微软、亚马逊、OpenAI 等科技巨头达成了一项重要的国际协议,旨在确保 AI 的安全开发。该协议要求企业发布安全框架,识别并衡量潜在风险,如 AI 滥用和网络攻击等,并设立「紧急停止开关」以应对极端情况。英国首相苏纳克表示,这是全球领先 AI 公司首次在 AI 安全方面做出相同承诺,将确保透明度和问责制。《布莱奇利宣言》和即将到来的 AI 安全峰会也是推动全球 AI 安全监管的重要步骤。此外,欧盟已批准全球首部 AI 监管法规 ——《人工智能法案》,而英国则倾向于采取较为宽松的「轻触式」监管方式。明天的会议将进一步讨论 AI 安全性和可持续发展等合作方案。
2025-12-02
微软 CEO 承诺加码欧盟 AI 投资 强调数字主权不止基建2025-04-27
AI 诈骗猛增,微软揭示阻止 40 亿美元欺诈的秘密2024-08-24
微软计划在 9 月举办网络安全峰会2024-08-22
微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据2024-08-19
微软更新服务条款:提醒用户谨慎使用 AI 工具2024-05-22
科技巨头承诺安全开发 AI 模型:极端风险下会「自拔网线」2024-05-19
微软因 Bing AI 风险在欧盟面临数十亿美元罚款2024-02-24
微软发布 PyRIT 工具,帮专家和工程师识别生成式 AI 模型风险2023-03-29
微软谷歌等科技巨头裁减 AI 伦理员工引发业界担忧2023-03-14
微软被曝解散整个 AI 风险评估团队查看更多
体验专业版特色功能,拓展更丰富、更全面的相关内容。