近日,马斯克正式向旧金山高等法院提起诉讼,称OpenAI近期与科技巨头Microsoft的关系,损害了该公司致力于公共、开源通用人工智能的初衷。 “OpenAI已经转变为全球最大的科技公司Microsoft事实上的闭源子公司,”马斯克说。 在新的董事会领导下,它不仅仅是在发展,而是在实际上完善AGI,以最大化Microsoft的利润,而不是为了人类的利益。
马斯克在诉讼中说奥特曼OpenAI违背了人工智能研究公司成立时达成的协议,该协议旨在为人类的利益而不是利润开发技术。 马斯克声称,OpenAI最近与科技巨头Microsoft的关系破坏了该公司致力于公共开源通用人工智能(AGI)的最初目标。
法庭文件显示,马斯克对OpenAI提起诉讼,包括违约、违反信托义务和不公平的商业行为,并要求该公司恢复开源。 马斯克还要求法院发布禁令,禁止OpenAI、其总裁格雷戈里·布罗克曼(Gregory Brockman)和阿尔特曼(Altman)(该案的共同被告)以及Microsoft从该公司的通用人工智能技术中获利。
事实上,在 2012 年,埃隆·马斯克 (Elon Musk) 遇到了营利性人工智能公司 DeepMind 的联合创始人德米斯·哈萨比斯 (Demis Hassabis)。 大约在这个时候,马斯克和哈萨比斯在SpaceX位于加利福尼亚州霍桑的工厂会面,并讨论了社会面临的最大威胁。 在这次对话中,哈萨比斯强调了人工智能进步可能对社会构成的潜在危险。
在与哈萨比斯的这次对话之后,马斯克越来越担心人工智能成为超级智能、超越人类智能并威胁人类的潜力。 事实上,马斯克并不是唯一一个对Deepmind正在进行的人工智能研究以及人工智能的危险感到恐惧的人。 据报道,在与哈萨比斯和Deepmind的投资者会面后,一位投资者评论说,他能对人类做的最好的事情就是当场射杀哈萨比斯。
马斯克从他圈子里的人开始,比如当时谷歌的母公司Alphabet, Inc.首席执行官拉里·佩奇(Larry Page)讨论了人工智能和Deepmind。 马斯克经常在与佩奇的谈话中提到人工智能的危险,但令马斯克震惊的是,佩奇并不担心。 例如,在2013年,马斯克与佩奇热情地谈论了人工智能的危险。 他警告说,除非采取安全措施,否则“人工智能系统可能会取代人类,使我们的物种变得无关紧要,甚至灭绝。 佩奇回应说,这只是“进化的下一阶段”,并声称马斯克是一个“物种主义者”——即偏爱人类而不是智能机器。 马斯克回应说:“是的,我支持人类。 ”
到2013年底,马斯克非常担心谷歌收购Deepmind的计划。 当时,DeepMind是业内最先进的人工智能公司之一。 因此,马斯克深感担忧的是,Deepmind的人工智能技术将落入一个如此轻视其权力的人手中,并可能将其设计和能力隐藏在一扇闭门造车的背后。
为了防止这项强大的技术落入谷歌手中,马斯克和PayPal的联合创始人卢克·诺塞克(Luke Nosek)试图筹集资金收购Deepmind。 这一努力在长达一个小时的电话中达到高潮,马斯克和诺斯克做了最后的努力,试图说服哈萨比斯不要将Deepmind出售给谷歌。 马斯克告诉哈萨比斯:“人工智能的未来不应该由拉里(佩奇)控制。 ”
马斯克和诺斯克的努力没有成功。 2014 年 1 月,有报道称 Deepmind 将被谷歌收购。 然而,这并没有阻止马斯克继续确保人工智能的安全发展和实践。
在谷歌收购Deepmind之后,马斯克开始“主持自己的一系列晚宴讨论,**对抗谷歌和促进人工智能安全的方法”。 马斯克还与美国的巴拉克·奥巴马(Barack Obama)进行了接触,讨论了人工智能和人工智能安全问题。 2015年,马斯克和奥巴马会面,解释了人工智能的危险,并倡导监管。 马斯克认为,奥巴马了解人工智能的危险,但监管从未实现。
尽管遭遇了这些挫折,马斯克仍继续倡导安全的人工智能实践。 2015年,马斯克似乎找到了一个理解他对人工智能的担忧以及他希望将第一个AGI排除在谷歌这样的私营公司之外的人:被告山姆·奥特曼(Sam Altman)。
当时,Altman 是硅谷创业加速器 Y Combinator 的总裁。 在此之前,Altman参与了各种创业企业。
阿尔特曼似乎和马斯克一样对人工智能感到担忧。 在 2014 年的一篇回溯性公开博客文章中,Altman 声称,如果 AGI 被制造出来,“这将是有史以来最大的技术发展。 Altman指出,许多公司正在朝着实现AGI的方向发展,但他承认,“优秀的公司对此非常保密。 ”
2015 年 2 月 25 日,阿尔特曼还表达了他对“超人机器智能”发展的担忧,他认为这“可能是对人类继续生存的最大威胁”,并强调“作为一个被编程为生存和繁殖的人类,我觉得我们应该与之抗争。 此外,阿尔特曼还批评了那些认为“超人机器智能”危险但又认为它“永远不会发生或肯定很遥远”的人,指责他们“思维松懈,危险”。 ”
事实上,早在2015年初,阿尔特曼就称赞监管是确保人工智能安全创造的一种手段,并建议拥有“一群非常聪明的人,拥有大量资源”的团体可能会以某种方式涉及“美国公司”,并且将是最有可能首先实现“超人类机器智能”的团体。
当月晚些时候,阿尔特曼联系了马斯克,询问他是否有兴趣起草一封致美国的公开信来讨论人工智能。 两人开始准备信件,并联系技术和人工智能领域有影响力的人签名。 很快,整个行业都听说了这封信的传闻。
例如,2015年4月,哈萨比斯联系马斯克说,他从多个**那里听说,马斯克正在起草一封给**的信,呼吁对人工智能进行监管。 马斯克向哈萨比斯捍卫了人工智能监管的想法,他说:“如果做得好,从长远来看,这可能会加速人工智能的发展。 如果没有监管监督提供的公众安心,人工智能研究很可能在人工智能造成巨大危害后被禁止,因为它对公共安全构成威胁。 ”
在哈萨比斯就这封公开信与马斯克联系五天后,哈萨比斯宣布了谷歌 Deepmind 人工智能伦理委员会的第一次会议,谷歌和 DeepMind 在两年前谷歌收购 Deepmind 时承诺了这一点。 马斯克被邀请成为委员会成员,并提议在加利福尼亚州霍桑的SpaceX举行第一次会议。 马斯克在第一次会议后明显感觉到,这个委员会并不是一个认真的努力,而是试图放慢人工智能监管的前沿。
这封公开信后来于 2015 年 10 月 28 日发表,并得到了包括马斯克、斯蒂芬霍金和史蒂夫沃兹尼亚克在内的 11,000 多人的签名。
2015 年 5 月 25 日,山姆·奥特曼 (Sam Altman) 向埃隆·马斯克 (Elon Musk) 发送了一封电子邮件,表达了他对是否有可能阻止人类开发人工智能的想法。 阿尔特曼认为答案几乎肯定是否定的。 如果人工智能的发展是不可避免的,那么最好让谷歌以外的一些组织先让它发生。 阿尔特曼有一个想法:让 Y Combinator 在人工智能领域启动一个“曼哈顿计划”(这个名字可能非常贴切)。 他建议,该技术可以以非营利组织的形式在全球范围内使用,如果项目成功,相关人员可以由类似的初创公司支付报酬。 显然,他们将遵守并积极支持所有法规。 马斯克回应说,这“非常值得一谈”。
经过进一步的交流,2015年6月24日,阿尔特曼向马斯克发送了关于这个新的“人工智能实验室”的详细建议。 “我们的任务将是创造第一个通用人工智能,并将其用于个人赋权——也就是说,未来的分布式版本看起来是最安全的。 更一般地说,安全应该是一流的要求。 “该技术将归**社会所有,并用于'造福全世界'。 “他建议从7-10人的团队开始,然后从那里扩展。 他还提出了一个治理结构。 马斯克回应说:“在所有方面都达成一致。 ”
此后不久,阿尔特曼开始招募其他人来帮助开发这个项目。 值得注意的是,阿尔特曼向格雷戈里·布罗克曼寻求帮助。 2015年11月,阿尔特曼通过电子邮件将布罗克曼与马斯克联系起来。 关于这个项目,布罗克曼告诉马斯克,“我希望我们作为一个中立的团体进入这个领域,寻求广泛的合作,并将对话转移到人类的胜利上,而不是任何特定的团体或公司的胜利。 (我认为这是使自己成为领先研究机构的最佳方式。 马斯克对一个中立的人工智能研究团队专注于人类利益而不是任何特定个人或团体的可能性持乐观态度,他告诉布罗克曼,他将投入资金。
马斯克想出了新实验室的名字,反映了它成立的协议:“开放人工智能研究所”,简称“OpenAI”。
在组建协议原则的指导下,马斯克与阿尔特曼和布罗克曼联手正式启动并推进该项目。 在公开宣布之前,马斯克积极参与了该项目。 例如,马斯克就员工薪酬方案向布罗克曼提供建议,分享他在薪酬和留住人才方面的策略。
十二月 8, 2015, OpenAI, Inc成立证书已提交给特拉华州国务卿。 该证书以书面形式记录了成立协议:“公司是一家非营利性公司,仅根据 1986 年《国内税收法典》第 501(c)(3) 条(经修订)或《美国国内税收法典》的任何未来同等规定,为慈善和/或教育目的而组织。 该公司的具体目的是为人工智能相关技术的研发和分销提供资金。 由此产生的技术将使公众受益,公司将寻求在适用的情况下为公众的利益开源该技术。 ”
openai, inc.它于2015年12月11日向公众公布。 在公告中,马斯克和阿尔特曼被任命为联合主席,布罗克曼被任命为首席技术官。 公告强调,OpenAI旨在“造福人类”,其研究“不受财务义务的约束”:“OpenAI是一家非营利性人工智能研究公司。 我们的目标是以最有可能造福全人类的方式推进数字智能,而不受产生财务回报需求的限制。 由于我们的研究不受财务义务的约束,我们可以更好地关注对人类的积极影响。 ”
早在 2023 年 6 月初,麻省理工学院的物理学家和人工智能专家 Max Tegmark 在接受瑞典国家广播公司 SVT 采访时表示,人工智能有 50% 的可能性会消灭人类,我们不知道它会如何或何时发生,因为机器将“比我们聪明得多”。
据报道,Tegmark教授是最近发表的一份22字声明的签署人之一,该声明警告人工智能(AI)带来的人类灭绝风险。
“减轻人工智能带来的灭绝风险应该是全球优先事项,与流行病和核战争等其他社会规模的风险一起,”声明中写道。 ”
在接受瑞典国家广播公司SVT采访时,泰格马克教授说,历史表明,人类是地球上最聪明的物种,对渡渡鸟等“较小”物种的死亡负有责任。
他警告说,如果人工智能变得比人类更聪明,同样的命运很容易降临到我们身上。
更重要的是,他说,我们不知道我们什么时候会死在人工智能的手中,因为一个不那么聪明的物种没有办法知道。
人工智能可用于创建自主**或可以杀死人的机器人。
据悉,一些世界顶尖科学家认为,在不久的将来,人工智能可能会被用来创造自主**或机器人,无论是否有人为干预,都可以杀死人。
或许,对于开创OpenAI的马斯克来说,AI现在已经关闭,未来可能会给人类带来灾难性的后果,而起诉OpenAI会让人工智能的发展更加可控。