OpenAI、DeepMind 安全垫底!权威机构发布 AI 安全指数,呼吁行业紧急整改

AI行业资讯4小时前发布 墨白
4.7K 0 0

非营利组织生命未来研究所(Future of Life Institute)发布《AI 安全指数2025》报告,对 OpenAI、Anthropic、Google DeepMind 等20余家头部企业进行安全评估。结果显示,头部厂商在“生存风险控制”“安全流程披露”两项核心指标上集体不及格,行业平均得分仅为42/100,远低于欧盟《人工智能实践准则》要求。

报告要点

– 风险评估:仅3家企业公开系统性风险识别方法;OpenAI、DeepMind 未披露“超级智能对齐”技术细节

– 安全框架:缺乏跨部门安全官、红队演练记录与第三方审计,被批“承诺多、证据少”

– 生存安全:所有受评公司均未给出“比人类更聪明系统”的明确控制与协调方案,被认定为“结构性弱点”

– 信息透明:信息披露深度、可衡量性平均落后官方准则30个百分点

FLI 倡议

报告呼吁立即设立“AI 安全透明登记簿”,强制企业公开安全方法、评估结果与独立审计;同时建议监管机构对通用人工智能(AGI)项目实施“上市前审批”制度,避免“先发布、后治理”。

行业回应

OpenAI 发言人表示“已收到报告,将在90天内公开更新版安全框架”;Google DeepMind 则称“正与政策团队评估具体建议”。欧盟委员会内部市场专员回应称,2026年《AI 法案》执法将参考该指数,违规企业最高面临全球营业额2% 罚款。

市场影响

分析师指出,安全合规或成为下一代大模型的“隐形门票”,预计2026年起头部厂商将把10%–15% 研发预算投入安全与审计,以换取监管绿灯。

© 版权声明

相关文章