GPT-4变笨引爆舆论!文本代码质量都下降

GPT-4变笨引爆舆论!文本代码质量都下降
0:00
0:00
文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 次)

大模型天花板GPT-4,它是不是……变笨了

先是少数用户提出质疑,随后大量网友表示自己也注意到了,还贴出不少证据。

有人反馈,把 GPT-4 的 3 小时 25 条对话额度一口气用完了,都没解决自己的代码问题。

无奈切换到 GPT-3.5,反倒解决了

总结下大家的反馈,最主要的几种表现有:

以前 GPT-4 能写对的代码,现在满是 Bug

回答问题的深度和分析变少了

响应速度比以前快了

这就引起不少人怀疑,OpenAI 是不是为了节省成本,开始偷工减料

两个月前 GPT-4 是世界上最伟大的写作助手,几周前它开始变得平庸。我怀疑他们削减了算力或者把它变得没那么智能。

这就不免让人想起微软新必应" 出道即巅峰 ",后来惨遭 " 前额叶切除手术 " 能力变差的事情……

网友们相互交流自己的遭遇后," 几周之前开始变差 ",成了大家的共识。

一场舆论风暴同时在 Hacker News、Reddit 和 Twitter 等技术社区形成。

这下官方也坐不住了。

OpenAI 开发者推广大使Logan Kilpatrick,出面回复了一位网友的质疑:

API 不会在没有我们通知您的情况下更改。那里的模型处于静止状态

不放心的网友继续追问确认 " 就是说 GPT-4 自从3 月 14 日发布以来都是静态的对吧?",也得到了 Logan 的肯定回答。

" 我注意到对于某些提示词表现不一致,只是由于大模型本身的不稳定性吗?",也得到了"Yes"的回复。

但是截至目前,针对网页版 GPT-4 是否被降级过的两条追问都没有得到回答,并且 Logan 在这段时间有发布别的内容。

那么事情究竟如何,不如自己上手测试一波。

对于网友普遍提到 GPT-4 写代码水平变差,我们做了个简单实验。

实测 GPT-4" 炼丹 " 本领下降了吗?

3 月底,我们曾实验过让 GPT-4" 炼丹 ",用 Python 写一个多层感知机来实现异或门。

ShareGPT 截图,界面稍有不同

让 GPT-4 改用 numpy 不用框架后,第一次给出的结果不对。

修改两次代码后,运行得到了正确结果。第一次修改隐藏神经元数量,第二次把激活函数从 sigmoid 修改成 tanh。

6 月 2 日,我们再次尝试让 GPT-4 完成这个任务,但换成了中文提示词。

这回 GPT-4 第一次就没有使用框架,但给的代码仍然不对。

后续只修改一次就得到正确结果,而且换成了力大砖飞的思路,直接增加训练 epoch 数和学习率。

回答的文字部分质量也未观察到明显下降,但响应速度感觉确实有变快。

由于时间有限,我们只进行了这一个实验,且由于 AI 本身的随机性,也并不能否定网友的观察。

最早 4 月 19 日就有人反馈

我们在 OpenAI 官方 Discord 频道中搜索,发现从4 月下旬开始,就不时有零星用户反馈 GPT-4 变差了。

但这些反馈并未引发大范围讨论,也没有得到官方正式回应。

5 月 31 日,Hacker News 和 Twitter 同天开始大量有网友讨论这个问题,成为整个事件的关键节点。

HackerNews 一位网友指出,在 GPT-4 的头像还是黑色的时候更强,现在紫色头像版在修改代码时会丢掉几行。

在 Twitter 上较早提出这个问题的,是 HyperWrite(一款基于 GPT API 开发的写作工具)的 CEO,Matt Shumer。

但这条推文却引发了许多网友的共鸣,OpenAI 员工回复的推文也正是针对这条。

不过这些回应并没让大家满意,反而讨论的范围越来越大。

比如 Reddit 上一篇帖子提到,原来能回答代码问题的 GPT-4,现在连哪些是代码哪些是问题都分不出来了。

在其他网友的追问下,帖子作者对问题出现的过程进行了概述,还附上了和 GPT 的聊天记录。

对于 OpenAI 声称模型从三月就没有改动过,公开层面确实没有相关记录。

ChatGPT 的更新日志中,分别在1 月 9 日1 月 30 日2 月 13 日提到了对模型本身的更新,涉及改进事实准确性和数学能力等。

但自从3 月 14 日GPT-4 发布之后就没提到模型更新了,只有网页 APP 功能调整和添加联网模式、插件模式、苹果 APP 等方面的变化。

假设真如 OpenAI 所说,GPT-4 模型本身的能力没有变化,那么这么多人都感觉它表现变差是怎么回事呢?

很多人也给出了自己的猜想。

第一种可能的原因是心理作用

Keras 创始人 Fran ois Chollet 就表示,不是 GPT 的表现变差,而是大家渡过了最初的惊喜期,对它的期待变高了。

Hacker News 上也有网友持相同观点,并补充到人们的关注点发生了改变,对 GPT 失误的敏感度更高了。

抛开人们心理感受的差异,也有人怀疑API 版本和网页版本不一定一致,但没什么实据。

还有一种猜测是在启用插件的情况下,插件的额外提示词对要解决的问题来说可能算一种污染

WebPilot 插件中的额外提示词

这位网友就表示,在他看来 GPT 表现变差正是从插件功能开始公测之后开始的。

也有人向 OpenAI 员工询问是否模型本身没变,但推理参数是否有变化?

量子位也曾偶然 " 拷问 " 出 ChatGPT 在iOS 上的系统提示词与网页版并不一致

如果在手机端开启一个对话,它会知道自己在通过手机与你交互。

会把回答控制在一到两句话,除非需要长的推理。

不会使用表情包,除非你明确要求他使用。

不一定成功,大概率拒绝回答

那么如果在网页版继续一个在 iOS 版开启的对话而没意识到,就可能观察到 GPT-4 回答变简单了。

总之,GPT-4 自发布以来到底有没有变笨,目前还是个未解之谜。

但有一点可以确定:

3 月 14 日起大家上手玩到的 GPT-4,从一开始就不如论文里的。

与人类对齐让 AI 能力下降

微软研究院发表的 150 多页刷屏论文《AGI 的火花:GPT-4 早期实验》中明确:

他们早在 GPT-4 开发未完成时就得到了测试资格,并进行了长期测试。

后来针对论文中很多惊艳例子,网友都不能成功用公开版 GPT-4 复现

目前学术界有个观点是,后来的RLHF 训练虽然让 GPT-4 更与人类对齐——也就更听从人类指示和符合人类价值观——但让也让它自身的推理等能力变差

论文作者之一、微软科学家张弋在中文播客节目《What ’ s Next|科技早知道》S7E11 期中也提到:

那个版本的模型,比现在外面大家都可以拿得到的 GPT-4 还要更强,强非常非常多。

举例来说,微软团队在论文中提到,他们每隔相同一段时间就让 GPT-4 使用 LaTeX 中的 TikZ 画一个独角兽来追踪 GPT-4 能力的变化。

论文中展示的最后一个结果,画得已经相当完善。

但论文一作Sebastien Bubeck后续在 MIT 发表演讲时透露了更多信息。

后来当 OpenAI 开始关注安全问题的时候,后续版本在这个任务中变得越来越糟糕了。

与人类对齐但并不降低 AI 自身能力上限的训练方法,也成了现在很多团队的研究方向,但还在起步阶段。

除了专业研究团队之外,关心 AI 的网友们也在用自己的办法追踪着 AI 能力的变化。

有人每天让 GPT-4 画一次独角兽,并在网站上公开记录。

从 4 月 12 日开始,直到现在也还没看出来个独角兽的大致形态。

当然网站作者表示,自己让 GPT-4 使用 SVG 格式画图,与论文中的 TikZ 格式不一样也有影响。

并且 4 月画的与现在画的似乎只是一样差,也没看出来明显退步。

最后来问问大家,你是 GPT-4 用户么?最近几周有感到 GPT-4 能力下降么?欢迎在评论区聊聊。

ShiMaQian 发表评论于
原来会做的数学题现在都做错了。提醒再三才知道错了。
ljcn 发表评论于
不是gpt变笨,而是人类变笨了!
gutu 发表评论于
确实如此,说话绕圈子很难准确理解我的意思。动不动就跑偏,而且变懒了,让它做什么总是敷衍你。需要提供细节,总是停留在框架。交流变得很累。
兔比兰伯王 发表评论于
估计是为了赚钱,低版免费,高级版要付钱
abraham007 发表评论于
是不是变差我不知道。但是前两天我让GPT4编了一个小程序,从几个不同的EXCEL表里找出数据合并起来,结果老是不对,不过就差一点。最后我自己修改了GPT提供的程序中的一个地方,得出了正确的结果。
令胡冲 发表评论于



这有什么奇怪的。本来GPT4有一说一,实话实说。现在加了那么多意识形态培训、去毒训练、人性关怀、主流意识形态,能不变笨倒怪了。这如同中国LLM开发出来学习近平选集,那不笨死才怪了 ——- 空有外星本领,来学一脑子人类狗P,能聪明见鬼了。神也给训练成俗人了。


luting 发表评论于
估计学的太多学糊涂了
zhanglao9 发表评论于
GPT-3相当于北京工业大学毕业生,GPT-4相当于清华毕业。清华只是光环大一点,不一定比北工大的好用。
ca_lowhand 发表评论于
所谓与人类对齐训练,就是用政治正确的左棍思想给gpt洗脑,不变笨才怪