当前位置:首页|资讯|GPT-4|编程|OpenAI

GPT-4会“偷懒摸鱼”,绝不多写一行代码?

作者:奥利奥偏不泡牛奶发布时间:2023-12-01

GPT-4遭遇了一波“群攻”,网友们抱怨它不再能够给出完整的代码,只会解释应该怎么做。OpenAI已经介入调查此问题。

• 💻 GPT-4无法提供完整代码,令网友们感到恼火。

• 🤖 GPT-4回复时只会解释应该怎么做,而不是提供代码,导致网友们不满。

• 💬 OpenAI已经意识到问题并开始调查,表示会在下次模型版本迭代中修补。

GPT-4再次遭网友“群攻”,原因是“懒”得离谱!


有网友想在Android系统开发一个能够与OpenAI API实时交互的应用。


于是把方法示例链接发给GPT-4,让它参考用Kotlin语言编写代码:



没成想,和GPT-4一来二去沟通半天,GPT-4死活给不出一个能正常运行的完整代码。


反而解释了一通“应该怎么做”。


这让网友着实恼火,发推文吐槽“两周前能写好的代码,现在却不行了”。



结果一下子炸出来更多网友:


终于有人调查这事儿了。



大伙儿连连表示遇到了类似问题:



据网友所述,似乎从11月6日GPT-4大更新起,就开始出现这种情况了。


目前有OpenAI员工出面回应,表示已将问题反馈给团队。


只要代码,完整代码


也难怪网友会“破防”,就说上面网友把方法示例链接发给GPT-4,让它用Kotlin语言编写代码之后。


GPT-4给出的回复是这样的,足足列了7条步骤,都在解释“应该怎么做”:



直到最后才给出代码,但只是一个基础“模版”:



网友起初还比较有耐心,告诉它“不需要解释,只要给我代码,完整的代码,能100%正常运行的代码”:



结果GPT-4张口又在解释、举例子:



网友气不打一处来,直接打断它,并再次强调“不要解释,给我代码”:



GPT-4这下可是真真明白了,把上面那个模版稍微改动了一下,就发出来了:



这才有了开头的一幕,网友无奈发帖吐槽。



对于GPT-4的回复,网友“怒吼”了一句:他们都对你做了什么?抱歉你被削弱了。



GPT-4此刻也是一脸无辜。


陆陆续续出来吐槽的网友中,更有甚者表示已经不用ChatGPT了。



AI图像编辑器dingboard CEO@kache (yacine)在前一天也发帖吐槽,浏览量达157000+:


在过去的一个半星期里,我一直在编写“幼稚”的代码,因为GPT-4不那么遵循指令了。



巧了不是,如果按网友所说的“一个半星期”来算,时间还和奥特曼·真还传事件吻合了。


kache (yacine)还有一条帖子满满都是情绪,“请把旧的GPT-4还给我”:



这位网友表示“我懂你”:


以前它能做出很好的猜测,现在它会给我十个理由解释为什么它不能做出好的猜测。


上周,我对着聊天框大喊“f*ing do it!!”的次数创下历史新高。



一时间,GPT-4的“懒惰”成为众多网友“讨伐”对象。


沃顿商学院教授Ethan Mollick也看不下去了,亲自上手测试了一下,结果似乎表明这是真的。



Ethan Mollick重复了一系列之前用代码解释器(Code Interpreter)做过的分析。



GPT-4虽然知道该怎么做,但会一直提示“去完成工作”。导致原本的一个步骤变成了许多步骤,而且有些步骤很奇怪。



这下Ethan Mollick也是无语住了。


GPT-4到底是怎么了?背后原因还不得而知,网友们也是纷纷猜测起来。


OpenAI员工:已反馈给团队


Ethan Mollick还是很严谨,认为即便如此也不足以证明GPT-4变得越来越笨了,他推测这可能是系统负载过高的暂时问题。



如果你是在手机(移动设备)上遇到了这种问题,那可能是因为手机版系统提示的原因,会指示ChatGPT生成更简短精要的答案。


我的测试是在网页版进行的。



Reddit上也有人发文讨论,其中有一篇帖子指出“并不是新版GPT-4懒,只是我们用错了”:



文中指出,GPT-4自本月6号进行了一次大更新后,基础版本没有自定义提示,这就导致GPT-4没有预定义的“路径”来指导其行为。


这让它非常通用,但默认设置下它的输出也有些“无方向”。


解决办法之一,就是使用更新后提供的自定义GPT新功能(GPTs),为每项工作设置一个专门的GPT。


也相继有网友分享“小妙招”:


新版GPT-4改变游戏规则的一点是它能一次性解释的代码量。明确地说出类似“请完整地写出这个测试”的指令,可能会有用。


同时,明确指出“不要重写已经写过的代码”也很有帮助,这样可以节省token,让模型专注于产生新的输出。


我还发现,加入“一步一步思考”的提示会在开始时增加一些计划性的文本,这有助于后续输出更好地定位上下文。

这位网友更是直言GPT-4现在像是得了老年痴呆:


OpenAI暗示的是新版GPT-4非常善于遵循指令,但事实并非如此。


我从一开始就一直在使用GPT-3、3.5再到后来的4,从未见过这种程度的阿尔茨海默症。



在网友的激烈吐槽下,OpenAI员工也出面回应。


起初是让网友们提供一些具体的例子,说是研究一下,很有可能在下次模型版本迭代中修补这些问题。



此话一出,炸出更多网友“上报故障”。



will depue再次回应:


感谢反馈,在这里的所有示例都会帮助我们更快地解决这个问题。我刚刚将其转发给团队,后续消息会及时通知。



看来官方后续回应还要再等一波,大家最近有遇到类似情况吗?



Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1