Anthropic、OpenAI 与GoogleDeepMind 继续位居前三

作者:伟德国际victor1946 日期:2026-02-13 浏览: 来源:伟德国际1946官网

  

Anthropic、OpenAI 与GoogleDeepMind 继续位居前三

  由未来生命研究所发布的《AI Safety Index 2025》对全球八家处于能力前沿的人工智能公司进行了系统性评估,覆盖风险评估、现实危害、安全框架、生存性风险、治理与问责以及信息披露六大维度,共计三十余项指标。评估结果显示,行业整体安全治理水平明显滞后于模型能力的跃迁速度,结构性缺口正在扩大。

  从总体排名看,Anthropic、OpenAI 与GoogleDeepMind 继续位居前三,形成显著的第一梯队。其中 Anthropic 在六个维度中均取得最高综合评分,其优势主要来自较高的风险评估透明度、相对成熟的安全框架以及在技术安全研究上的持续投入。但报告也指出,其在最新一轮风险评估中未开展“人类能力放大试验”,且默认使用用户交互数据训练模型,相关安全边界有所弱化。

  第二梯队由 xAI、Z.ai、Meta、DeepSeek 与阿里云构成,与前三名之间存在明显断层。多数公司在风险评估披露、安全框架完整性及治理机制方面仍存在基础性不足,尤其是在举报人保护制度、外部独立评估和量化风险阈值方面。尽管如此,xAI 与 Z.ai 在本轮中披露了更多内部风险评估流程,显示出一定改善迹象。

  在风险评估维度,越来越多企业开展了内部和外部测试,但评审认为测试覆盖的风险类型仍然偏窄,外部评估的独立性与可验证性不足。人类能力放大试验、第三方预部署安全测试和漏洞赏金机制,仍主要集中在少数头部公司,行业整体普及率偏低。

  在生存性风险与长期安全方面,连续两期评估中,没有任何公司在该维度获得高于 D 的评分。尽管部分企业高层开始更频繁地公开讨论灾难性风险,但这些表态尚未转化为可量化的安全目标、清晰的触发阈值或有效的内部监控与控制机制。能力雄心与风险治理之间的落差依旧显著。

  信息披露与公共沟通方面,参与国际自愿性承诺的公司数量有所增加,但在系统提示、行为规范和重大事故报告机制上,公开信息依然有限。报告特别指出,安全框架“已发布但实施情况不明”成为多家公司的共同特征,治理文件与实际操作之间存在脱节。

  一个值得注意的结构性差异在于监管环境。评审认为,中国企业虽然未进入前三,但在内容标识、事故报告等方面受国内强制性监管影响,部分指标的基线表现反而优于依赖自愿披露的西方同行,这在一定程度上缩小了治理透明度的差距。

  综合来看,《AI Safety Index 2025》描绘的是一个安全投入逐步增加、但仍明显跟不上能力扩张的前沿AI产业。趋势层面,随着欧盟AI行为准则、G7广岛进程等国际规范逐步具体化,安全治理的最低标准正在上移。未来的分化关键不再是是否“表态重视安全”,而在于企业能否建立可验证、可审计、具备真实约束力的风险管理体系,否则能力与安全之间的裂缝仍将继续扩大。