ChatGPT 和 OpenAI 这两个名字无疑是 2023 年科技圈最热门的存在,但 OpenAI 显然远不止 AI 大模型赛道,比如谷歌有 Gemini,Meta 有开源的 Llama 2,亚马逊也有 Titan。 而这条赛道目前还不是巨头的狂欢,比如创业公司Antropic的子公司Claude,被认为是可媲美GPT-4的大型语言模型。
只不过AI赛道的独角兽Antropic最近遇到了麻烦,公司刚刚发布了Claude 21.受到用户的广泛诟病。
诸如“我对 Claude 2 感兴趣”之类的短语1非常失望“,”克劳德死了“,这些是Reddit上用户的抱怨。 而大家之所以对克劳德不满意,是因为克劳德21 现在以版权为由拒绝为用户服务,不对提供给用户的文件进行总结,面对用户可能涉及的不道德或违法行为,直截了当地拒绝是很常见的,而最让用户不快的是,输入道具往往是 claude 21. 被视为违规行为。
这一切让不少用户认为 Antropic 想要制作 Claude 21.顺应性,同时主动降低后者的性能,甚至限制使用。 事实上,这涉及到一个对当今AI赛道产生巨大影响的“对齐”概念,即要求AI能够在各种环境下自发地演绎出符合人类价值观的行动路线,并且不会产生意想不到的有害后果。
然而,强迫人工智能符合人类价值观是有代价的,正如Microsoft Research之前发表的一篇文章所证实的那样,在大型AI模型上执行的任何AI对齐行为都将失去大型模型的准确性和性能。 因此,当前AI领域积极发展商业化与安全保守主义的博弈,产生了“有效加速主义”和“超级对齐”两大对立阵营,而双方对抗的高潮是去年秋天发生在OpenAI内部的“政变”,OpenAI首席科学家伊利亚·萨茨克弗(Ilya Sutskever)罢免了该公司首席执行官山姆·奥特曼(Sam Altman)。
虽然山姆·奥特曼最终回到了OpenAI,但业界的主流思想已经变成了AI需要监管,需要风控措施。 因此,对齐成为许多AI大模型的必要组成部分,但与竞争对手相比,Antropic在“对齐”环节的表现尤为激进。 在 Claude 2 的发布中1 此前,该公司起草了人工智能宪法(Collective Constitutional AI),强调人工智能的反应应该是客观的、平衡的、易于理解的,并且人工智能必须是无害的。
其实,Antropic 的保守主义是有原因的,虽然 Claude 确实有像 ChatGPT Plus 这样针对个人用户的 Pro 版本,但主要是针对企业市场,而对于后者来说,相比 Claude 在性能上更好的表现,合规是更重要的事情。 因此,为了让AI更符合监管要求而限制性能,是一个让个人用户不满意,但却满足了企业用户需求的决定。
值得一提的是,克劳德21 显示了性能下降的趋势,但这并不完全是因为 Antropic 在“AI 对齐”方面更具侵略性,Claude 21 本身的迭代也存在问题。 作为去年11月中旬推出的新车型,Claude 21最大的卖点是200K的上下文窗口,这符合许多大型AI模型相互竞争上下文窗口容量的趋势。
例如,去年10月底,百川智能推出百川2-192K,将上下文窗口提升至192K,一度成为当时全球最大的机型。
紧接着,李开复带领的 010,000 物团队发布了开源的大模型 YI 系列,将上下文窗口的大小增加到了 200K,随后武文核心穹顶的大模型计算引擎“Infini-ACC”将这个数字扩展到了 256K。
但问题在于,当用户输入的内容增加时,“算力需求”和“显存压力”的增加会直接导致大模型性能的下降。 即使开发人员优化算法以达到窗口长度和性能之间的平衡,在上下文窗口超过 100k 后,大型模型的性能也会直线下降。
其实这是在百川智能的《百川2-192》和《Antropic》的《克劳德2》中1 在测试中体现得很清楚,在测试中发现了海外 youtuber,claude 21 甚至比 2 更糟糕版本 0。 一方面,AI对齐不可避免地会带来性能下降,毕竟受约束的AI很难发挥其潜力另一方面,它是 Claude 2 的 Antropic 盲扩展1、这样在双重负面因素的影响下,如果用户不觉得克劳德越来越难用,那就是有问题的。
只能说,如今用户的骚动,是Antropic激进决策的“代价”,但这个代价是否必要,可能只有Antropic自己才清楚。