今年以来,随着ChatGPT等人工智能(AI)大型语言模型的快速崛起,“超级AI是否会悄然到来”的问题引发了研究者的广泛讨论。 如果超级人工智能真的“悄然出现”,如何提前预测或及时给人类预警?近日,世界权威期刊《自然》发表了相关研究的学术研究**。
目前,随着训练规模的不断扩大,已发布的AI大语言模型已经获得了许多新的“能力”,比如最近在美国南加州开设的“CaliExpress by Flippy”餐厅,由AI机器人厨师负责,也有AI“化学家”发明了可以自己制作扑热息痛和阿司匹林的研究人员。 对于这样的现象,一些研究结果表明,人工智能中可能存在一种“涌现”现象,即:人工智能模型以一种突然且不可避免的方式获得智能。
然而,最近的一项研究对此提出了质疑,认为所谓的“涌现”可能是由于系统的测试方式而产生的人类产品,并指出提高AI智能的过程实际上是一个更渐进的过程。
Mozilla研究人工智能审计的计算机科学家黛博拉·拉杰(Deborah Raj)表示,这项研究很好地驳斥了“魔术出现”的想法,提供了基于指标的、可靠和可靠的评估。
该研究于上周在新奥尔良举行的Neurips机器学习会议上发表。 大型语言模型通常使用大量文本或其他信息进行训练,以根据接下来发生的事情生成真正的答案。 即使没有明确的培训,他们也可以进行语言翻译、数学问题解决、诗歌写作或编写计算机**。 当然,模型越大,其性能往往越好。
然而,也有许多人担心,这些工具最终会实现通用人工智能(AGI),在大多数任务中超越人类,最终取代人类成为世界的主人。
针对这一现象,研究人员从多个角度验证了“涌现论”。 在一种方法中,科学家们比较了 OpenAI 开发的 GPT-3 模型在四位数数字加法任务中以四种不同大小的性能。 在绝对精度方面,第三维和第四维模型之间的性能差异可以从接近 0% 到接近 100% 不等。 但是,如果考虑到正确的数字数量,趋势就不会那么极端。 研究人员还发现,这种差异可以通过给模型更多的测试问题来缓解,而较小的模型有时会给出正确的答案。
此外,研究人员还观察了谷歌的lamda语言模型在几项任务上的表现。 那些表现出明显智力飞跃的任务,例如识别讽刺或翻译谚语,通常是多项选择题,正确或错误答案的分数离散。 然而,当研究人员查看模型对每个答案(连续测量)的概率时,出现的迹象消失了。
与此同时,研究人员也转向了计算机视觉领域,在这个领域,很少有人声称人工智能存在“新兴”现象。 他们训练模型来压缩和重建图像,只需设置严格的正确性阈值即可诱导明显的“涌现”。
根据美国加利福尼亚州帕洛阿尔托斯坦福大学的计算机科学家、该研究的合著者Sanmi Koyejo的说法,鉴于某些系统表现出突然的“相变”,人们接受新兴想法并非没有道理。 他强调,这项研究并没有完全排除大型语言模型中“出现”的可能性,更不用说未来更先进的系统了。 但他补充说,迄今为止的科学研究强烈表明,语言模型的大多数方面确实是可能的。
总体而言,尽管目前大型语言模型的性能有所提高,但对“超级人工智能”迫在眉睫的担忧似乎被夸大了,或者现在讨论这个问题可能还为时过早。
欢迎点赞、评论、**收藏,感谢您的支持!
优质作者名单