教授称因关闭 ChatGPT 数据授权,两年学术成果瞬间清零
1 月 25 日消息,如果要给房东写一封措辞强硬的邮件,反映天花板漏水的问题,需要找个帮手把关,那么 ChatGPT 或许是个不错的工具。但和所有同类竞品一样,ChatGPT 也存在诸多有据可查的缺陷:它不仅常常生成虚假信息,还自带一种谄媚讨好的语气,极易让用户陷入严重的认知误区。

换句话说,它绝非人们处理重要工作时可以依赖的工具,科隆大学植物科学教授马塞尔・布赫就吃了大亏,才明白了这个道理。
注意到,布赫在《自然》杂志的一篇专栏中坦言,自从关闭了 ChatGPT 的“数据授权”功能后,他两年来精心整理的学术成果,包括科研经费申请材料、论文修订稿、课程讲义和考试题目,全都“不翼而飞”了。
他当初关闭这项功能,是想验证“即便不向 OpenAI 提供个人数据,自己是否仍能使用该模型的全部功能”。可令他崩溃的是,所有聊天记录瞬间消失得无影无踪。
“没有任何预警提示,”布赫写道,“也没有撤销选项,只留下一片空白的页面。”
这篇专栏发布后,有网友质疑,布赫怎么能两年来都不做本地备份?也有人怒不可遏,呼吁校方解雇他,理由是他在学术工作中过度依赖人工智能。
不过,也有一些人对他表示同情。海德堡大学教学协调员罗兰・格罗姆斯在社交平台上发文称:“尽管马塞尔・布赫的工作流程漏洞百出,还犯了个愚蠢的错误,但他敢于公开这段经历,值得肯定。很多科研人员都觉得自己能识破所有陷阱,可事实上,每个人都可能因一时疏忽,遭遇这样的麻烦。”
布赫也率先承认,ChatGPT 生成的内容“看似言之凿凿,实则有时漏洞百出”。他强调自己从未“将模型的可靠性等同于内容的真实性”,但他“信赖平台工作区的连续性和表面稳定性”,每天都把 ChatGPT Plus 当作贴身助手使用。
生成式人工智能在科学界的应用,一直争议不断。据《大西洋月刊》报道,大量来源不明、由 AI 拼凑的劣质稿件正涌入各大科学期刊,让同行评审沦为一场“灾难”。更有甚者,一些专门发表 AI 垃圾稿件的虚假学术期刊应运而生,借机牟利。最终的结果就是:AI 生成的劣质内容,交由 AI 模型进行同行评审,这进一步加剧了对学术文献的污染。
与此同时,科研人员经常收到通知,被告知自己的研究成果在新论文中被引用,但点进去后却发现,相关引用内容纯属 AI 虚构。
需要明确的是,目前没有任何证据表明,布赫曾试图将 AI 生成的劣质内容塞给学生,或是发表不实的 AI 撰写研究成果。
尽管如此,他的这段惨痛经历,仍为所有人敲响了警钟。
布赫在专栏中指责 OpenAI:在未能提供“基础保护措施”以防止用户数年心血毁于一旦的情况下,就贸然推出 ChatGPT Plus 付费订阅服务。
OpenAI 在给《自然》杂志的一份声明中回应称,聊天记录一旦删除便“无法恢复”,并反驳了布赫“未收到任何提示”的说法,强调“用户在永久删除聊天记录前,系统会弹出确认窗口”。该公司还“贴心”建议:“用户在处理专业工作时,应做好个人数据备份。”
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。
AI 中文社