你的猜测是对的,大模型在变笨!最近几个月一直都有关于OpenAI的两个传说,其一是ChatGPT的流量开始下滑,其二是GPT4“变笨”了。前者已经被证明是真的,根据数据公司SimilarWeb的...【查看原文】
Tech Weekly丨GPT-4 变笨了吗? 本周,许多人关注的重点不再是 GPT-4 变得更强了,而是它好像变笨了。源头是科技新闻社区 Hacker News 上的一篇帖子,现在 “P
GPT-4
晚点LatePost 2023-06-02
自发布以来,曾被认为是世界上最强大的GPT-4也经历了多场「信任危机」。大模型变懒、变笨,具体是指模型在新任务上的零样本性能变差。尽管上述原因听起来很有趣,但问题到底怎么解决呢?由于生物神经网具有强大的泛化能力,学习不同的任务可以进一步提高系统的性能,因为从一项任务中获得的知识有助于改善整个学习过程本身,这就是所谓的「元学习」。
AppSo 2024-01-02
大模型天花板GPT-4,它是不是……变笨了?先是少数用户提出质疑,随后大量网友表示自己也注意到了,还贴出不少证据。有人反馈,把GPT-4的3小时25条对话额度一口气用完了,都没
GPT-4编程
2023-06-02
有网友找到了GPT-4变“笨”的又一证据。他质疑:OpenAI会缓存历史回复,让GPT-4直接复述以前生成过的答案。最明显的例子就是讲笑话。证据显示,即使他将模型的temperature值调高,GPT-4仍重复同一个“科学家与原子”的回答。就是那个“为什么科学家不信任原子?因为万物都是由它们编造/构造(make up)出来的”的冷笑话。发现者表示:这说明GPT-4不仅使用缓存,还是聚类查询而非精准匹配某个提问。但并不是所有人都同意以上发现能够证明OpenAI真的就是在用缓存回复。他们的理由是作者采用的案例恰好是讲笑话。在6月,两个德国学者测试发现,让ChatGPT随便讲个笑话,1008次结果中有90%的情况下都是同样25个笑话的变体。
GPT-4ChatGPTOpenAI
2023-11-03
有网友一口气用完 3 小时 25 条消息额度,也没有解决问题
凯莉彭 2023-07-27
一番操作猛如虎,最后只挣0.5
锌刻度 2024-12-26
从事网红孵化生意的资深从业者程文强在做网红孵化的几年里,经常听到这样的故事:谁家因为签约了某个网红,流量暴增;谁又因为错过了某个达人惋惜不已。
36氪的朋友们 2024-12-26
《中国餐饮供应链指南2024》解析餐饮设备用品及数字化工具发展。
红餐智库 2024-12-26
中国是否会在不同领域出现更多大型和超大型的半导体集团?
半导体产业纵横 2024-12-26
为什么大家都误会了「提示词」?
极客公园 2024-12-26
新一年要做什么方向
游戏新知 2024-12-26
2024年大模型融资火热,全球超4000亿。
智东西 2024-12-26
没那么简单,就能找到,辞退的理由
瞎说职场 2024-12-26
独立游戏面临资金、曝光、市场竞争挑战。
手游矩阵 2024-12-26
人之所以为人,是因为人能在头脑中凭空想象出不存在的东西。
腾讯研究院 2024-12-26
Copyright © 2025 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1