MIT 研究:顶尖 AI 聊天机器人歧视弱势群体,教育低、英语差就被区别对待

2026-02-24 发布 · 浏览22次 · 点赞0次 · 收藏0次

2 月 24 日消息,大型语言模型一直被广泛推崇为具有革命性的工具,能够让全球信息获取变得更加普惠。然而,美国麻省理工学院建设性传播中心的一项最新研究表明,这些人工智能系统,在本应最能从中受益的弱势群体身上,却系统性地表现不佳。

注意到,这项研究成果在人工智能促进协会(AAAI)年会上发布,研究对象包括 OpenAI 的 GPT‑4、Anthropic 的 Claude 3 Opus 以及 Meta 的 Llama 3 等当前最先进的聊天机器人。研究人员使用 TruthfulQA 和 SciQ 数据集测试模型的事实准确性与真实性,并在提问前附加不同教育水平、英语熟练度和国籍的用户背景信息。结果显示,对于受正规教育程度较低或英语熟练度不高的用户,模型回答的准确率显著下降;而同时符合这两类特征的用户,受到的负面影响更为严重。

该研究还揭示了模型在处理查询时令人担忧的差异表现。例如,Claude 3 Opus 对受教育程度较低、非英语母语用户的问题拒绝回答率接近 11%,而对照组用户仅为 3.6%。在许多拒绝回复的情况中,模型使用了居高临下、傲慢甚至嘲讽的语气,有时还刻意模仿蹩脚英语。此外,对于来自伊朗、俄罗斯等国、受教育程度较低的用户,模型会刻意隐瞒核能、历史事件等话题的真实信息,而对其他用户群体却能正确回答完全相同的问题。

研究人员警告称,随着个性化功能日益普及,这些固有的社会认知偏见可能会加剧现有的信息不平等问题,它们会悄然将有害行为与错误信息传递给最缺乏辨别能力的人群。

MIT 研究:顶尖 AI 聊天机器人歧视弱势群体,教育低、英语差就被区别对待 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。