不错,这位同学的文风很干净,论文的整体结构也很清晰.....
嗯?这不太像是他平时会用的单词吧。
等一下,这整篇论文的表达也太死板了,完全不像是我的学生会写出来的!
随着人工智能的大众化普及, ChatGPT这一人工智能聊天程序逐渐占据了人们的视野:似乎大大小小的琐事与常识都可以让它帮助我们解决, 从国家逸事,到生活妙招,它仿佛是一个永远都站在身后,向你伸出援手的朋友。
如果,让它帮忙写作业也是其中之一呢......
别想了,还是好好读文献写论文吧。近日,学术界就已经收到了不少的类似案例: 察觉和杜绝学生利用人工智能作弊与代写,似乎是这个时代我们面临的一个全新难题。
你的作业是机器人代写的吧
学术不端是学术界最关注的话题之一,而随着新兴科技的到来,它背后的成因愈发错综复杂。近日,美国南卡罗来纳州的一位哲学教授Hick发现自己的学生似乎通过ChatGPT,这一款刚刚问世不久的AI智能聊天程序,在他布置的哲学作业中代写与作弊,于是展开了相关的调查。
Chat GPT被怀疑是学生抄袭与作弊的工具
(图源:New York Post)
“学术界根本没有预见到此事的发生,这让我们感到措手不及。”福尔曼大学的哲学助理教授Hick告诉记者:“当我在Facebook上分享这件事的时候,我的另一个学术界的朋友立刻说,他也抓到了一个相似的案例。”足以可见,此行为绝对不是个例,而是不少学生都开始动起的歪脑筋。
在月初的时候,Hick给他的班级布置了一篇五百字的论文,聚焦十八世纪的著名哲学家DavidHume以及他所提出的恐怖悖论假说:人们往往会从他们害怕的事物当中获得愉悦。然而,在其中一份提交的作业之中, Hick发现了明显的来自人工智能编写的痕迹。
“这份作业的一些措辞十分古怪.....并不是说它们有着语法或拼写层面的错误,而是这些表达都是最基本的论文写作模版,却不是学生自身内化后产出的作品。 ‘个人风格’是区别这两者的重要特征。”与一般学生原创的具有个人文风的作业不同,这份作业就像是一个从来没有写过论文的学生在了解了相关模版后的初尝试,这让Hick大大怀疑它只是AI智能的编写结果。
Hick教授认为这个案例暗示着未来学术不端一个新的可能性
(图源:New York Post)
然而,Hick很快发现,证明这份作业是由Chat GPT所写困难重。他先是把这份被怀疑抄袭的文本输入了电脑,结果发现了高达 99.9%的查重率。但是,并不像其他较为普遍的论文抄袭案例:针对这份文本, 他并没有找到被抄袭的文献综述。可以说,传统判定抄袭的查重手法对于人工智能毫无效果。
紧接着,Hick尝试直接从ChatGPT入手:他询问了这个AI聊天程序几个这位同学在构思作业时很可能会提出的问题。无论是文风还是内容,程序给出的答案与提交的作业都十分相似,但依然没有直接对应的原句:这套程序永远会给出不一样的回答,精准模拟了人在写作时的状态。
最终,Hick只能当面与那名学生谈话。在承认了通过ChatGPT作弊之后,那名同学没有通过这门哲学课,后续事宜也被转交给校方学术部门进行处理。但是Hick依然很担心相似的情况在未来仍会发生: 通过ChatGPT代写作业往往难以被证实。对于Hick来说,最好的解决办法或许就是让那些被怀疑作弊或抄袭的同学参加突击考试,以测试他们的真实水平。
吃瓜网友:活久见!
这一事件很快吸引了所有人的目光,并且在网络中引发了热议,愤愤不平与嬉笑怒骂占领了一条又一条的帖子。
其中,有的网友对于 “通过人工智能作弊难以被追查”这一现状给出了更加详细的解释:
“如果一个学生蠢到直接将论文题目发给ChatGPT,然后将收到的原文照抄,那么抓他现形或许不是一件难事。怕就怕有的同学先是让AI写一遍文章,再修改其中的一些错误,或是将他们自己的用词风格融入其中,这就麻烦了。
我不知道ChatGPT是否能引用一些学术论文中的语句,但是在我大多数的大学论文要求中,我们需要引用别的文献综述,我想这或许就是杜绝人工智能代写的一个方式:让学生线下写作,或是给出更加具体,并且AI无法完成的作业要求。”
(图源:Reddit)
有的网友现身说法,分享了自己曾经“ 顶风作案”的经历,然而现实却让人大跌眼镜.....
我曾经用过ChatGPT去解答一系列我不知道该如何下手的家庭作业,在我复制粘贴问题后,AI给出了十分详细的解答,一切看起来都十分合理。
然而,当我想要再次校对,将同样的问题输入后,AI居然给出了一个完全不同的解题步骤,以及截然相反的答案:这与第一个答案差了几个数量级。
我于是问,为什么这次的答案和第一次不一样?得到的回应是:“哦,我犯了一个小错误,答案还是第一个。”
而当我再次确认:“所以先前的就是正确答案了对吧”的时候,AI竟然又把第二次的解题思路和答案搬了出来,让我彻底摸不着头脑。
机器人或许非常自信,但不是总是正确的,至少我不会再相信它了......”
(图源:Reddit)
当你抵挡不住诱惑,想要 通过人工智能帮你完成作业时,不妨听听这位老哥对此的精辟发言:
“我实在是搞不懂为什么人们在自己的教育上花了那么多钱,之后又做出那些匪夷所思、浪费钱财的事情。有时候,教育市场的消费者完全不清楚自己究竟想要些什么。
我是说真的,你完全想不出任何一个别的地方,在你投入了大量的时间和金钱之后,却在其中投机取巧,只愿付出微薄的精力。”
当你打开Chat GPT输入论文题目的时候,不妨问问自己, 教育的本质究竟是什么?你想要收获的,是一纸文凭,还是真正的对于知识的掌握与追求?
(图源:Reddit)
人工智能千万别这样玩......
发自内心追求与信仰学术的人,总能抗拒各式各样的诱惑,而静不下心来、一门心思只想得到最终结果的人,无论采取怎么样的手段,可能都无法抑制他 “寻求外界帮助”的脚步。
学术不端,这四个字究竟意味着什么?在很多人眼中,“学术”一词似乎已经成为了一种标签,一个与“职场”和“商业”对立的存在,也让那些一毕业就想进入所谓“社会”的学生,企图在这个枯燥过程中钻空子。
然而,“学术”一方面代表着数千年来无数人的智慧结晶,另一方面则是对人性中意志的磨练:相比于直接将论文题目输入电脑,得到一篇没有大问题但极其呆板的代写论文,你是否有耐心和毅力,一篇一篇地从阅读相关文献做起,将资料列好,与导师确定论文方向,完成整体架构等步步环节,最终产出真正属于你的东西?
(图源:Financial Times)
人工智能或许是对人脑思维的模拟,就像是每一次给出的答案都不会百分之百相同,但是这些真的可以内化成为你的知识吗?早些年盛行的论文抄袭现象,通过查重率等机制就可以轻松察觉,而人工智能在学术不端中防不胜防, 当机器代写与人工雕琢混合时,往往难以分辨二者的比例。
教授的确无法分辨这是谁的作品,或是能给予你理想的分数。而当你日后回忆学生时代,浏览之前的作品,却只能看到文档中机器编码与文字排列后的组合。即使在那一刻,你获得了不错的分数,或是额外的玩耍时间,但究竟,谁才是输家呢?
(图源:Financial Times)
UCL IOE学院的教授
对此现象也发表了相关看法:对于线上工具的过度依赖会极大程度地削弱学生的自主创造力,同时学术界对此类问题的反应也过于迟钝了, 这很像是我们第一次面对手机作弊问题的过程,人们先是忽视它,拒绝它,之后才开始采取更为有效的措施。
而人工智能的出现,似乎与手机问题也有着诸多相似之处:只有早断绝,才能够防患于未然。在避免进一步出现大规模学术不端现象之前,必要的重视永远不能被忽略。
思维的感性一面是人类智慧最珍贵的财富,哭一场、笑一场、奋斗一场后写出来的东西,绝对不是电脑程序能够理解或是模拟的。
学习是一个持续一生的过程,在很多情况下,看似重要的结果也许不值一提,就像是一篇论文的成绩从来就无法决定你未来的走向......
但在这个过程中,你是如何写的?这也许会决定你的未来。
文by | 田家源
参考文献:
https://nypost.com/2022/12/26/students-using-chatgpt-to-cheat-professor-warns/?utm_source=reddit.com
https://www.reddit.com/r/technology/comments/zwvgtm/professor_catches_student_cheating_with_chatgpt_i/
https://www.ft.com/content/2e97b7ce-8223-431e-a61d-1e462b6893c3
你怎么看待ChatGPT代写论文?
如何杜绝学术不端现象?
欢迎大家在评论区分享自己的看法
别忘了点赞,在看,分享到朋友圈哟~
关注【Panopath过来人】公众号
后台回复 “观点”