Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.25.2·
页面加载耗时 0.00 毫秒·物理内存 78.8MB ·虚拟内存 1304.1MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
12 月 3 日消息,据路透社报道,“未来生命研究所”今天发布了最新 AI 安全指数,指向 Anthropic、OpenAI、xAI 和 Meta 等主要 AI 公司的安全措施“远未达到新兴的全球标准”。
机构指出,独立专家的评估显示,各企业一心追逐超级智能,却没有建立能真正管控这一类高阶系统的可靠方案。

在多起自杀和自残事件被追溯到 AI 聊天机器人后,社会对具备推理与逻辑能力且可能超越人类的系统带来的冲击愈发担忧,这项研究正是在这样的背景下公布。
Future of Life Institute 主席、MIT 教授 Max Tegmark 说,外界对 AI 协助黑客入侵、以及把人推向心理失控和自残的事件议论不断,美国的 AI 企业却依然比餐馆还少受监管,并持续游说抵制强制性的安全规范。
与此同时,AI 竞赛持续升温,主要科技企业正为机器学习技术的扩展和升级投入数千亿美元。
从报道中获悉,“未来生命研究所”是一家非营利机构,长期呼吁关注智能机器对人类潜在的威胁,机构成立于 2014 年,早期曾获得特斯拉 CEO 马斯克的支持。
今年 10 月,杰弗里・辛顿与约书亚・本吉奥等多位科学家呼吁暂停超级智能的研发,直至公众提出明确诉求且科研界找到确保安全的路径。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。