研究显示:低质数据可令 AI“大脑退化”,OpenAI 奥尔特曼担心的“死网论”正逐渐成真
10 月 22 日消息,康奈尔大学最新研究指出,大语言模型(LLM)在长期接触低质量网络内容后可能出现类似“大脑退化”(brain rot)的现象,其理解力、推理力及伦理一致性均显著下降。
这一发现令业界再次聚焦“死网论”(Dead Internet Theory)—— 即网络因充斥机器生成或低质内容而逐渐失去人类创造力的假说。
AI 性能受“低质数据”影响显著
研究团队以 Meta 的 Llama 3 和阿里云 Qwen 2.5 为实验对象,通过构建不同质量比例的数据集,测量低质量内容对模型性能的影响。
结果显示,当模型仅以低质量内容进行训练时,其准确率从 74.9% 骤降至 57.2%,长文本理解能力从 84.4% 降至 52.3%。
研究人员还指出,这种“剂量 — 反应效应”(dose-response effect)意味着模型在持续接触低质数据后会出现逐步退化现象,不仅推理链条被简化甚至跳过,生成的回答也更表面化。此外,模型的伦理一致性下降,出现“人格漂移”(personality drift)倾向,更容易输出错误信息。
“死网论”引发科技圈担忧
近几个月,多位科技界人士公开表达了对“死网论”的担忧。Reddit 联合创始人 Alexis Ohanian 表示:“如今互联网上的很大一部分实际上已经‘死了’—— 无论是机器生成的、半 AI 的内容,还是充斥着低质量信息的社交平台。”他呼吁未来的社交网络应能“验证人类真实性”。
OpenAI 首席执行官 Sam Altman 也持类似观点,认为“死网论正在我们眼前发生”,并称现今多数 X(前 Twitter)账号已由 AI 接管运营。
网络内容质量危机正在加剧
亚马逊云科技(AWS)研究团队去年发布的报告指出,目前约有 57% 的网络内容是由人工智能生成或翻译的,这一趋势正影响搜索结果的质量与可靠性。
前 Twitter 首席执行官 Jack Dorsey 亦警告,由于图像生成、深度伪造(deepfake)与视频合成技术的普及,“我们将越来越难分辨真假”,用户必须通过亲身体验来验证信息真伪。
随着 AI 生成内容的快速扩散,互联网正面临内容质量与真实性的双重考验。业内专家提醒,如果人工智能模型与网络生态继续陷入低质量循环,所谓“死网论”终有一天会成为现实。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。