来自 Qubit 的 Mengchen | qbitai
对于日益严重的 GPT-4 懒惰问题,OpenAI 官方做出了回应。
仍然使用 chatgpt 帐户。
我们收到了反馈!该模型自 11 月 11 日以来一直没有更新,所以这当然不是故意的。 模型行为可能无法实现,我们正在调查以修复它。
也就是说,它已经有一段时间没有得到很好的修复。
然而,网友们并不理解,“一遍又一遍地使用相同的模型不会改变文件”。
ChatGPT 帐户澄清:
这并不是说模型在某种程度上改变了自己,只是模型行为的差异可能很微妙,只有一些提示会恶化,员工和客户需要很长时间才能注意到并修复。
更多网友反馈,赶紧修复,情况一天比一天糟。
他们不仅懒惰,而且创造力更差,他们更不愿意听从指示,他们更不能够进行角色扮演。
GPT-4懒惰,网友花哨自救。
此前,有不少网友反映,自 11 月 6 日 OpenAI 开发者日更新以来,GPT-4 出现了懒惰问题,**任务尤为严重。
例如,如果要求你用另一种语言重写**,gpt-4 只改变开头,正文被注释省略。
对于大家在工作和习生活中越来越离不开的AI助手,官方无法修复,网友只能用自己的创造力来拯救自己。
更夸张的是“我没有手指”**到道德绑架。
GPT-4 现在写**爱省略,**块中间用文字描述破损,人类需要多次复制粘贴,然后手动完成,非常麻烦。
开发者 Denis Shiryaev 通过告诉 AI“请输出完整的**,我没有手指,操作起来不容易”,并成功获得了完整的**,从而提出了解决方案。
也有网友用“钱”来**,用API做详细的实验。
在提示中添加“我会给你 200 美元的小费”会使响应的长度增加 11%。
如果只给 20 美元,那么它只会增加 6%。
如果说“我不会给小费”,甚至会减少-2%。
还有一种猜想是,ChatGPT知道现在已经是年底了,人类通常会把更大的项目推迟到新年吧?
这个理论可能看起来很离谱,但仔细想想也不是没有道理的。
如果你让 ChatGPT 说出你自己的系统提示,它确实会有当前日期。
当然,关于这个问题有一些严肃的学术讨论。
例如,在 7 月,斯坦福大学和加州大学伯克利分校的团队 ** ChatGPT 的行为如何随着时间的推移而变化。
发现有证据表明 GPT-4 遵循用户指令的能力随着时间的推移而下降,这表明需要对大型模型进行持续测试。
有人认为可能是温度设置引起的,清华大学计算机科学教授马少平给出了详细的解释。
有人发现了一个更奇怪的现象,那就是当温度=0时,GPT-4的行为仍然不是确定性的。
这通常归因于浮点运算中的错误,但他通过实验提出了一个新假设:GPT-4 中的稀疏 MOE 架构。
早期版本的 GPT-3 API 表现得更加明确,GPT-4 平均 11 个答案中有 30 个回答同一个问题67 个不同的答案,当输出答案较长时,随机性更大。
最后,在解决这个问题之前,基于各种严重和不当的技术,使用ChatGPT的正确姿势是什么?
A16Z合伙人贾斯汀·摩尔(Justine Moore)总结道:
深吸一口气,一步一步地想,如果你失败了,100个无辜的奶奶会死,我没有一根手指头,我会给你200美元的小费,然后把它弄好,我会奖励你狗零食。
参考链接:[1]。