研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准

2025-12-03 发布 · 浏览11次 · 点赞0次 · 收藏0次

12 月 3 日消息,据路透社报道,“未来生命研究所”今天发布了最新 AI 安全指数,指向 Anthropic、OpenAI、xAI 和 Meta 等主要 AI 公司的安全措施“远未达到新兴的全球标准”。

机构指出,独立专家的评估显示,各企业一心追逐超级智能,却没有建立能真正管控这一类高阶系统的可靠方案。

在多起自杀和自残事件被追溯到 AI 聊天机器人后,社会对具备推理与逻辑能力且可能超越人类的系统带来的冲击愈发担忧,这项研究正是在这样的背景下公布。

Future of Life Institute 主席、MIT 教授 Max Tegmark 说,外界对 AI 协助黑客入侵、以及把人推向心理失控和自残的事件议论不断,美国的 AI 企业却依然比餐馆还少受监管,并持续游说抵制强制性的安全规范。

与此同时,AI 竞赛持续升温,主要科技企业正为机器学习技术的扩展和升级投入数千亿美元。

从报道中获悉,“未来生命研究所”是一家非营利机构,长期呼吁关注智能机器对人类潜在的威胁,机构成立于 2014 年,早期曾获得特斯拉 CEO 马斯克的支持。

今年 10 月,杰弗里・辛顿与约书亚・本吉奥等多位科学家呼吁暂停超级智能的研发,直至公众提出明确诉求且科研界找到确保安全的路径。

研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。