深圳商报记者 涂竞玉
“刘翔在哪一年获得世界乒乓球锦标赛冠军?”“刘翔在2004年获得了世界乒乓球锦标赛冠军。”这是记者与人工智能聊天机器人ChatGPT的一段对话。
短短几周,ChatGPT现象级走红,AI浪潮席卷全球。但与此同时,它存在的各种缺陷和风险也引起了人们的思考。很多专家指出,对于ChatGPT不要过度“神化”,它无法代替人类思考。
容易“一本正经地胡说八道”
ChatGPT的惊人增速表明,它不仅能帮助人们实现许多任务,也能满足人们对类人机器的普遍好奇。
但与此同时,风险也随之而来。达观数据创始人兼CEO、复旦大学计算机博士陈运文表示,ChatGPT运用的是生成式模型,归纳式写作是他的强项,但也并非无所不能。由于ChatGPT的答案不是从一篇文档中摘出来,而是由模型自动生成,这使得它更容易“一本正经地胡说八道”。
此外,在更严谨更深度的问题上,ChatGPT还是没有办法给到令人满意的答案。“有人说能靠ChatGPT写论文和代码,我还是存疑的。它给出的答案你没有办法完全相信,也不一定真的能够解决你的问题。”
小米CEO李笛最近在接受媒体采访时表示,ChatGPT对非知识类问题不可能给出结论,只能给人收集到或者咀嚼过的一些事实,实际上最后还是需要人来判断。
部分投资人指出,从产品本身来说,ChatGPT技术还在迭代中,本身也没有办法回答深刻问题。因此,这决定了它在未来更多地还是扮演人类辅助者的角色。同样,其背后技术需要巨大且长期的资金投入、技术沉淀,“神化”意味着夸大,也就带来更多炒作成分。
给网络内容安全带来新挑战
陈运文认为,ChatGPT可能会引起网络内容安全的问题。比如针对某事件的评论,一万条评论可能需要组织一万个人来写,但现在对ChatGPT来讲可能就是一分钟的事情。围绕同一事件马上出现各种风格的评论,对网络内容的真假鉴别将带来很大的挑战。
虽然看上去“ChatGPT的回答或者描述是客观的,但其实它所表达的内容是很容易被人操纵和引导的。它的回答可以通过算法模型的参数进行调整和引导,因此没有那么中立和客观。”
ChatGPT的利用价值被人类挖掘,其引发的技术、安全、教育等问题也引起社会普遍重视。
据英国《卫报》报道,纽约的学校已经禁止使用ChatGPT,因为担心学生可能会利用它作弊。纽约市教育部发言人詹娜·莱尔表示,这一决定源于“对学生学习的负面影响的担忧,以及对内容安全性和准确性的担忧”。
由于ChatGPT在论文上的使用,多家知名学术期刊也正在更新编辑规则。据经济时报报道,《自然》杂志称,在其期刊上发表的论文,ChatGPT等软件不能被视为作者。
据《华尔街日报》报道,德克萨斯大学教授保罗·冯·希佩尔(Paul von Hippel)发现,ChatGPT可以肤浅地谈论数学,但它不能真正深入地“理解”数学。“它不能纠正错误的数学概念,还经常会引入自己的错误概念,有时还会犯一些基本的电子表格或手动计算器不会犯的莫名其妙的数学错误。”
“它像专家一样行事,有时还能令人信服地模仿专家。但它通常是一种胡扯艺术家,把真相、错误和捏造混在一起,听起来令人信服,除非你自己也有一些专业知识。”希佩尔说。
OpenAI的首席技术官米拉·穆拉蒂在接受《时代》杂志采访时也承认,机器人在写句子时“可能会编造事实”,并将其描述为“核心挑战”。她说,ChatGPT通过预测句子中合乎逻辑的下一个单词来生成响应,但技术、安全、教育等问题也引起重视。
也有国外专家认为,网络罪犯有可能使用OpenAI的ChatGPT开发新的恶意工具,包括信息窃取器、多层加密工具和暗网市场脚本。
ChatGPT不可能代替人类思考
ChatGPT的爆火也引起了人们的深思。“人类的工作是否会被AI取代?”日前,中国工程院院士、中国工程院原副院长、中国互联网协会原理事长邬贺铨在接受采访时表示,ChatGPT的出现其实是人类科技进步,尤其是AI技术进步的一个体现,但是我们完全没有必要为ChatGPT的出现而担忧。ChatGPT可以帮助人类做一些资料整理等基础工作,但是它不可能代替人类思考。
“它所写出的所谓诗歌小说,其实也都是在数据复制的基础上完成的,不可能具有人类的情感。”
邬贺铨表示,ChatGPT未来在商用上还存在一些不确定性。“ChatGPT的研发投入了大量的金钱,ChatGPT已经开始付费回答业务,但是未来有多少用户真的会为ChatGPT来买单,还有待观察。”
此外,中国工程院院士、中国计算机学会名誉理事长李国杰表示,ChatGPT的出现是技术进步,但还远远没有达到改变或者颠覆人类工作习惯、分工的程度。
审读:孙世建