温 陈根
随着大型AI模型在各行各业的应用和AI技术的不断迭代,关于AI是否威胁人类的讨论越来越多。
事实上,过去有很多这样的讨论,甚至从AI技术诞生以来,就有人担心AI有朝一日会不会取代人类,或者威胁到人类的生存。
只不过,在今天,AI大模型的爆炸式增长,让这个问题突然从抽象的讨论变成了非常具体的讨论。 我们必须考虑如何为即将到来的人工智能时代做好准备我们必须面对这样一个问题:如果人工智能的性能达到甚至超过人类的水平,我们人类应该怎么做,以及人工智能在未来的某一天是否真的有意识,以及当时如何解决人与机器之间的冲突。
面对这些问题,还有一个概念也被让人回想起来,那就是“价值对齐”。 这不是一个新概念,但它在今天似乎特别重要。 那么,究竟什么是价值对齐呢?谁与谁的价值保持一致?以及如何对齐?
简单来说,价值对齐其实就是将AI的价值观与我们人类的价值观对齐,而将AI的价值观与我们人类的价值观对齐的核心目的,就是为了安全。
你可以想象如果它没有对齐会发生什么。
例如,哲学家、牛津大学人类未来研究所所长尼克·博斯特罗姆(Nick Bostrom)曾提出过一个经典案例。 也就是说,如果有一台强大的超级智能机器,我们人类就给它下了一个任务,那就是“尽可能多地制作回形针”。是的,这个具有强大功能的超级智能机器肆无忌惮地制作回形针,把地球上的人和事变成制作回形针的材料最终摧毁现在整个世界
这个故事其实早在古希腊神话中就发生了。 据说有一位名叫迈达斯的国王偶然救了酒神,于是酒神答应要实现他的一个愿望,迈达斯非常喜欢,于是许愿,希望能把石头变成金子。 结果,迈达斯真的得到了他想要的东西,他碰到的一切立刻变成了黄金,但很快他就发现这是一场灾难,他喝的水变成了**,他吃的食物变成了**。
你有没有从这两个故事中发现一个问题,不管是超级智能机器还是迈达斯,都是为了自己的目的,最后,超级智能机器完成了回形针任务,迈达斯也把一块小石头变成了金子,但结果却是非常惨淡的。 因为在这个过程中,他们缺乏某些原则。
这就是为什么今天重新强调价值一致性的概念。 人工智能根本没有与人类相同的生命价值概念。 在这种情况下,人工智能的能力越强,威胁的可能性就越大,破坏性也就越大。
因为如果我们不将人工智能与人类价值观“保持一致”,我们可能会在不经意间给出与我们完全相反的人工智能目标。 例如,为了尽快找到治愈癌症的方法,人工智能可能会选择将整个人类作为豚鼠进行实验。 为了解决海洋酸化问题,它可能会耗尽大气中的所有氧气。 这实际上,是的是系统优化的一个常见功能:可以将目标中未包含的变量设置为极值,以帮助优化该目标
去年11月,韩国庆尚省一家机器人公司的一名维修工人被蔬菜分拣机器人压死,原因是机器人将他抱起来,挤压他一盒需要加工的蔬菜,导致他的脸部和胸部严重受伤。 然后他被送往医院,在那里他因伤势过重而死亡。
此外,没有价值对齐的大型AI模型还可能输出包含种族或性别歧视的内容,帮助网络黑客生成**或其他用于进行网络攻击、电信欺诈、试图说服或帮助有自杀念头的用户结束生命等内容。
好消息是,不同的 AI 团队正在采用不同的方法来推动 AI 的价值一致性。 OpenAI 和 Google 的 DeepMind 都有专注于解决价值一致性问题的团队。 除此之外,还有许多第三方监督机构、标准组织和**组织也将价值一致性视为重要目标。 可以说,如果没有价值对齐,我们就不会真正信任AI,人机协作的AI时代也就不可能实现。