尴尬了,物理论文把 ChatGPT 按钮也复制了进去。
结果不仅通过了两个月同行评审,甚至最终在杂志上公开发表。
而发现这一现象的正是知名打假人法国图卢兹大学副教授 Guillaume Cabanac,曾入选 Nature 年度十大人物。
Nature 最新报道称,这并非个例,甚至只是「冰山一角」。
要说在论文里出现「Regenerate response」还算比较隐晦,还有更离谱更明显的。比如,直接将「作为人工智能语言模型,我……」复制进去。
嗯… 就是说想用就用吧,但用得有点过于随意和不认真了,写个论文咋就跟学生写作业似的。
只是冰山一角
几天前,Physica a 杂志发表了一篇论文,旨在发现复杂数学方程的新解。
结果没想到的是,在论文第三页出现了类似 ChatGPT 按钮上短语「Regenerate Response」。
出版商的同行评审和诚信负责人表示,作者后来向期刊证实,他们使用 ChatGPT 来帮助起草手稿。而在此之前,论文 5 月提交、修改版又于 7 月提交以及后续的排版均未发现这样的异常情况。
目前出版商已经决定撤回这一论文,理由是作者提交时没有声明他们使用该工具,这一行为违反了他们的道德政策。
事实上,这并非唯一案例。自 pubpeer 不完全统计,4 个月以来就有十几篇含有「Regenerate Response」或「As an AI language model, I …」的文章。
以「As an AI language model, I …」为例,搜索就有 8 个结果,最新一次是在三天前发现的。
对此这也给同行评审员带来更严峻的考验,一来他们通常没有时间去彻底检查;二来看门人的数量跟不上。
不过也有一些特定的方法,比如 ChatGPT 在内的大模型会擅长吐出虚假文献。Retraction Watch 就曾爆出一篇由 AI 撰写的千足虫预印本,因为含有虚假引用而被撤回,随后又被重新上线。
可以用,声明即可
事实上,这并非意味着研究者们不能用 ChatGPT 以及其他大模型工具协助撰写稿件。
Elsevier 和 Springer Nature 在内的许多出版商都表示:可以用,声明即可。
此前,就有来自田纳西大学健康科学中心的放射科医生 Som Biswas,在 4 个月内使用 ChatGPT 写了 16 篇论文,并在 4 个不同的期刊上发表了 5 篇。
当他第一次提交论文时,就跟编辑坦言:你看到的所有内容都是 AI 写的。
结果就在几天后,这篇论文通过同行评审,并在杂志 Radiology 上发表。
于是在这之后一发不可收拾,写的论文也并不局限于放射学专业,包括教育、农业、法律等。于一部分人而言,以 ChatGPT 为代表的大模型着实提高了他们的生产效率。
对于 ChatGPT 辅助写论文,你怎么看待呢?是否已经在用它写论文了?
参考链接:
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
Ai图文合成 2024-12-16
艾迈斯欧司朗 2024-12-16
上海钢泽合金 2024-12-16
化工365 2024-12-16
Patentics专利检索 2024-12-16