当前位置:首页|资讯|ChatGPT|编程

左右互博?ChatGPT爆火引发AI伦理担忧 开发商祭出官方鉴别利器

作者:金融界发布时间:2023-02-01

原标题:左右互博?ChatGPT爆火引发AI伦理担忧 开发商祭出官方鉴别利器

ChatGPT开放注册两个月后,如今已成为AI圈“顶流”,不仅获微软大手笔“带货”,在美股和A股市场上,更是出现上市公司“沾ChatGPT即涨”。

然而,随着技术门槛的降低和可及性的提升,技术滥用的问题也引起了人们的警惕。当地时间周二,ChatGPT背后的公司OpenAI推出了一款新检测器AI Text Classifier,可帮助辨别文本是由人工撰写还是AI生成。

实际上,近期随着ChatGPT蹿红,这一聊天机器人生成的内容已然渗透至美国议员国会讲稿与学术研究,更直接登上了学术论文作者栏。

美国众议员杰克?奥金克洛斯近日在众议院宣读两段讲稿,稿件由ChatGPT生成。他的工作人员表示,这是首次由AI捉刀代笔的讲稿在美国国会被宣读。

而在去年12月发布的一篇雷帕霉素抗衰老应用的论文中,ChatGPT就曾被列为一作,引发业内争议。

而在学生群体中,使用ChatGPT帮助撰写论文、生成代码、完成作业等情况更为普遍。

在线课程供应商Study.com一项针对1000名美国大学生的调查显示,超过89%学生使用ChatGPT完成家庭作业;48%用ChatGPT完成小测,53%用ChatGPT写论文。

另外,北密歇根大学的一位学生还依靠ChatGPT,写出全班最高分论文。更有意思的是,“露馅”原因在于,导师发现该学生提交的论文“逻辑过于连贯、结构过于合理”。

据了解,AI Text Classifier检测器包含一个文本框,用户可输入至少1000个字符长(约150 - 250 个单词)的文本。点击提交后,AI Text Classifier也会给出不同程度的判定答案,包括“非常不可能”、“不太可能”、“难以判断”、“疑似”由AI生成。

不过,这一工具也存在局限,Open AI表示,结果并不能保证完全准确,工具仍然在研发优化中,使用过程中可能会出错。数据显示,该检测器在针对英文文本的训练评估中,成功将26%的AI生成文本判定为“疑似AI生成”,但将却有9%的案例中,将人工撰写脚本标记为AI生成。

另外,检测器主要针对成人书写的英语内容进行训练,有可能会错判儿童写的文本和非英语文本。而用户还可以简单编辑AI生成的文本,以避开检测。

但实测发现,即便全文照搬一篇ChatGPT关于“如何识别AI生成文本”的回答,这一检测器给出的答案也仅仅是“难以判断是否由AI生成”。

另外,若将莎士比亚《麦克白》戏剧第二幕第一场贴进文本框,则结果同样为“难以判断是否由AI生成”。

(《麦克白》原文来源:shakespeare.mit.edu/)

ChatGPT并非无所不能 走捷径也有风险

根据《自然(Nature)》此前的一篇文章,ChatGPT发布后,伊利诺伊州西北大学一个研究小组便展开研究,若使用ChatGPT生成医学论文摘要,是否能识别。而结果显示,这些由AI操刀的摘要全部通过抄袭检测器;在人工审核环节,仅32%的摘要被判断为“由真实人类完成”。

除了冒用/抄袭风险,ChatGPT等AI生成的文本难以保证正确性,进一步还可能影响论文研究结论。以ChatGPT来说,Nature团队及多家出版商均认为,其无法对学术论文的完整性与内容本身负责。

同时,新闻媒体领域的一个案例或许也可以作为佐证。自去年11月以来,科技媒体CNET发布了70余篇由AI生成的文章。但Futurism报告显示,这些文章中其实暗藏着多处错误,包括数据测算不准确、名词解释混淆等。

麻省理工Tech Review曾发布一篇文章,目的在于研究微软如何将ChatGPT用于必应搜索引擎。该文指出,像ChatGPT这样的模型,很擅长生成华美的语言,读起来仿佛由人类撰写。但它们对自己生成的东西缺乏真正理解,在阐释正确事实与假话时,抱有同样的自信。

从ChatGPT的走红也能看出,AI技术的使用和触达门槛也不再遥不可及。但积极拥抱AI的同时,人类也在提防着AI。

以积极为ChatGPT“带货”的微软和亚马逊为例,两家巨头允许员工使用ChatGPT,但也禁止员工向ChatGPT分享敏感数据,以防后者的输出包含或出现类似公司机密信息。

而AIGC的另一代表性应用“AI换脸”也存在诸多法律风险,相关诈骗案、侵权纠纷并不鲜见。

诚然,AI技术对人类社会影响深远,但“技术中立”并不能成为规避责任与义务的理由。不仅技术服务提供方需要规范,使用者也需对自身有所约束。

来源:科创板日报


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1