专业从事文学、历史和哲学工作。
什么是SORA?
SORA 是 OpenAI 于 2023 年 2 月发布的文本到**生成模型。 它能够根据描述性提示生成长达一分钟**的时间,同时保持视觉质量并遵循用户提示。 它可以创造复杂的场景、生动的人物表情和复杂的摄像机运动。
面对一个又一个人工智能产品,我们应该如何看待这种关系? 我今天就帮你捡赵廷阳写“人工智能的神话或悲剧”。其中一篇文章:是人的问题还是人工智能的问题? - 回答博古睿研究院关于人工智能的问题“,我们希望能回答您的问题。
人类与人工智能
向上滑动阅读。
本书的目录。 前言:最后的神话。 1
一个反存在主义的存在主义问题。 5
近视:人工智能的伦理和存在主义分析。 24
人工智能怎么可能具有自我意识?..40
人工智能会是一个致命的问题吗?..55
是人的问题还是人工智能的问题?
回答博古睿研究所关于人工智能的问题。 65
完美是最好的吗?
桑德尔的著作《反对完美》的简介。 86
人类可能死于好事而不是坏事。 96
带有“安全声明”的最糟糕的世界。
来自“三体问题”的问题。 102
未来的法律限制。 122
这并不是说人工智能统治了世界,而是人们可能会首先死于它创造的所有美好事物。 136
关于作者:赵廷阳,中国社会科学院院士,哲学研究所研究员。 他是欧洲跨文化研究所学术委员会成员,也是美国博古睿研究所的高级研究员。 著有《论可能的生活》《天国体系》《第一哲学的支点》《坏世界研究》《世界的当代性》《造福中国》《四岔口》《历史、风景、捕鱼》等,德国《Alles Unter Dem Himmel》等; Tianxia Tout Sous Un Meme Ciel(法国); 重新定义世界治理的理念(英国); all-under-he**en:The Tianxia System for a Possible World Order(美国); Tianxia: una filosofia para la Gobernanza Global (西班牙); Un dieu ou tous les dieux (法国,公元)Le Pichon 合著者);Du Ciel ala Terre(法国,与R.)。由Debray合著)。
是人的问题还是人工智能的问题? ——
对博古睿研究所的回应。
berggruen institute)
关于人工智能的问题。
摘录)。赵廷阳
问题3:价值植入或教育:根据你的学术背景和哲学思想,你认为什么是美好的生活? 人类社会应该坚持的核心价值观是什么? 人工智能和智能机器人如何嵌入道德概念或接受道德教育? 应该引入或学习哪些核心概念或价值观?
答:
人工智能研发中最可疑的研究之一是:拟人论人工智能。 AI拟人化不是指具有人类外表或人类声音的机器人(这并不危险),而是指AI思维的拟人化,即试图让AI拥有与人类相似的精神世界,包括欲望、情感、道德感、价值观等,从而具有“人性”。
创建拟人化人工智能的动机是什么? 重点是什么? 或许,人们期待拟人化的AI能够与人交流合作,甚至共同生活,成为新人类的一员。 这种想象就是把人工智能看作一个童话人物,类似于卡通片中充满人性的可爱野兽。 众所周知,人工智能越人性化,就越危险,因为人性是危险的根源。
世界上最危险的生物是人,最坏的生物也是人。 原因很简单:做坏事的自私动机来自欲望和情感,而价值观是制造敌人、引起冲突和相互伤害的原因。 基于自私的欲望、情感和不同的价值观,人们会把别人定义为敌人,把与自己不同的生活方式或行为定义为犯罪。 历史证明,欲望、利益、情感和价值观的冲突是人类一切冲突的根源。 老子认为,由于人性已经退化,因此有必要发明道德和伦理来维持秩序。 荀子还认为,道德伦理的本质只是利润分配的理性规则,用来抵制贪婪的人性。
一个流行的想法,也许最初起源于阿西莫夫,是想象人工智能可以学习人类的情感和价值观,或者人工智能应该被编程为爱人类,以尊重、爱护和帮助人类。 但我们必须意识到,至少有三个难点:
1)人类的价值观不同甚至相互冲突,那么AI应该学习哪些价值观呢?此外,无论人工智能学习哪种价值观,都意味着反对甚至歧视与自己价值观不同的人类的另一部分。
2)如果人工智能有情感和价值观,其结果很可能只会放大或加剧人类的冲突、矛盾和战争,世界将变得更加残酷。人工智能技术本身并不一定是危险的,但如果人工智能有情感和价值观,它必然是危险的。
3)超级AI建立道德程序是完全不可靠的。由于超级图灵机具有自由意志和自我意识,它会优先考虑自己的需求和利益,不可能心甘情愿地遵循人类设定的不利己、只为他人谋取利益的道德纲领,因为人类的道德纲领对超级AI没有任何好处,甚至是有害的,至少阻碍了超级AI的自由。 如果超级AI试图最大化自身自由的效率,它很可能会主动移除人类设定的道德程序。 从超级人工智能的角度来看,人类建立的道德程序相当于病毒或特洛伊木马。 由此可见,为人工智能设置道德程序等想象是没有意义的。
因此,如果超级AI最终出现,我们只能希望超级AI没有情感,没有价值观。 情欲和情欲是残酷的,无欲无情意味着一切对众生都无动于衷,没有特定的偏好,就不可能有恶念,显然,如果有偏爱,就会有偏心,而为了达到偏心,就会有权力意志,这也包含着一切危险。 从理论上讲,无欲、无狠、无价值的意识等同于佛陀的心,或者庄子所说的“我抛弃我”。 所谓“我”是偏好偏差,包括欲望、情感、价值观,而“我”是没有价值观的纯粹心灵。
我们不妨重温一个广为人知的神话故事:强大不死的孙悟空造反,众神不知所措,哪怕被压在五行山下,依然是隐患,最后让孙悟空自己成佛解决了问题,没有欲望和狠心, 而四大是空的。我相信这个比喻包含了重要的建议。 可以肯定的是,孙悟空的创造是一种鲁莽的冒险行为。
问题四:中国哲学发展的新方向? 在当前新形势下,中国哲学应如何发展,迎接新时代的挑战? 中国哲学如何适应向人类和智能机器(人形)的过渡?
在中国的概念中,技术和制度发明被称为“左”(*所有“左”都是为了拥有未来。 汉字是象形文字,因此古代汉字往往保留了具有隐喻性质的原型。 “作”字在最古老的文字中,甲骨文,主要用作动词,如制作、建立、建造等。 由此可想而知,代表“工作”的原型一定在生活中制造了某种重大事件。 根据普遍的推测,“左”字的形象是一个象形文字,“在做衣服的时候,它只是变成了衣领的形状”,表明了衣服的生产。 这是有可能的。 不过,我倾向于认为,更可能是用农具犁地的动作形象,而“制作”的甲骨文形象类似于用犁挖土的动作,即踩在水平木头上,用力向下的动作, 或者说犁铧开地的动作,总之就是和犁地的劳动有关。衣食穿行都是生命的基础,都是早期文明极其重要的创造物,所以都是可能的选择。 如果非要在它们之间做出选择,我更喜欢农业行动的象征,因为农业在生活中扮演着更重要的角色,而农业对粮食生长的“创造”应该是早期人们最容易联想到的最典型的创造,与生长相关的行为更接近“制造”的关键含义: 创造未来。
周毅回顾了早期文明的伟大“作品”,列举了从物质技术到精神体系的发明,包括形而上学系统(阴阳八卦)、渔猎网、农具、市场、政治制度、语言文字、船只、马车、房屋、住宅、棺材和坟墓等。 《尚书》《韩非子》《关子》《吕氏春秋》《淮南子》《世本》等古籍也记载了古代的重大发明,包括政治制度、天历、安全居所、火的运用、种植、渔网、战车和马匹、文字书籍、陶器、刑法、城堡、乐器、地图、药品、武器、服饰、鞋子、船、 养牛工具、市场等。从上述古代史记载的“作品”来看,古人的创造创造了一个有利于人类持续生存的未来。 在古代社会,生存是根本问题,所有创造物,无论是技术上的还是制度上的,都是为了提高人们的生存机会而创造的。
近代以来的“工作”与古代的“工作”大不相同,现代技术是征服自然的工作。 问题是,现代技术发展是否违反甚至危及生存原则? 现代技术的发展从一开始就非常有益,例如现代医疗、自来水、暖气、抽水马桶、洗衣机、汽车、火车、飞机、轮船等。 但工业技术已经开始带来一些危害,包括对生态环境和气候的破坏。 近几十年来的技术发展变得越来越危险,互联网最初是依附于现实生活的虚拟世界,但现在现实生活正在成为虚拟世界的附属品。 人类已经习惯了生活在互联网世界里,但他们也在失去自己的心,人们的心已经被互联网制度化了,他们不再是精神的本源,而是成为信息的中转站。 现代大规模杀伤**,包括核**、生物**、化学**,使人类生活在集体灭绝的威胁之下。 最近的技术发展,包括人工智能和基因编辑,已经表明技术的危险正在接近一个临界点,即否定文明意义甚至自我毁灭的极限。 可以说,1945年以前的技术发展已经成功地维护了主观创造的未来主权,但今天的技术发展反而预言了人类自我毁灭的可能性,即未来的技术发展很可能不再能够捍卫存在,而将成为一种否定存在的方式。 在这里我们可以体会到《周一》的先见之明,它表明“生活”是一切“作品”的本意,任何“作品”都不能成为生命的自我否定。
现代人相信,技术的无限进步可以创造奇迹。 事实上,自现代以来的技术发展之所以成功,是因为它还没有触及技术的存在边界。 但是,如果未来出现人类无法控制的技术,那无异于进入盲目赌博模式。 毋庸置疑,高科技有很大的好处,而这种**却让人忽视了它的致命危险。 基因技术可以改善生命,甚至创造生命,人们期望基因技术可以提高人们对所有疾病的能力和智力,甚至改变基因以实现长生不老。 但问题在于,生命是一种极其微妙的自然设计,有着复杂的协调和平衡,人类不知道修改生命的设计是否会导致不可预测的灾难性突变。 人工智能也是危险的,虽然现在的人工智能还是一个没有明显风险的图灵机概念,但如果未来真的有一个超级人工智能,那就是具有超能力和自我意识的人工智能,那么就相当于为人类创造了一个比人类更高的统治者,把人类变成奴隶, 即使超级人工智能像仁慈的神一样照顾人类,我们仍然有理由怀疑创造一个超级统治者的意义何在。无论超级人工智能如何对待人类,人类都会失去存在的主权和精神价值,即使活了下来,也会在精神上死去。 人工智能和基因编辑很可能开辟一个完全无法控制的未来,人类技术的“工作”已经进入赌博模式。
按照“生活”的原则,当“制造”变成赌博时,就不再是理性的创造,而是一种非理性的行为。 按照理性规避风险的要求,生存原则是技术发展不应跨越的最终极限,即任何技术发展都不能包含导致人类本身毁灭或文明毁灭的可能性。 简单地说,人类的存在不能变成赌博的行为。 因此,我们需要提前思考如何设定技术的安全条件,尤其是人工智能和基因工程,即必须为技术的发展设定一个合理的限度,即科技不应该有否定人类存在的能力,即必须设定某种技术限度,让科技无法超越人类的“奇点”(singularity)。
《国家治理丛书》参考书目
《国治丛书》是商务印书馆以“国治”为主题,由国内外专家学者撰写的一套综合性书籍,涵盖哲学、政治学、伦理学、经济学、社会学、历史学等学科。 丛书致力于挖掘“国治”的科学内涵,探索国家治理体系的创新路径和方法,系统总结和阐释建设有中国特色社会主义的成功实践和发展成果。
很棒的建议。 好书推荐丨陈先达《哲学与社会:对老年人的沉思》。
我认识你看唷。