封闭基础模型的支持者担心开源大型语言模型技术可能会落入坏人之手,而 Linux 将是 AI 领域的 Jim Zemlin这种“模糊”的观点在开发者大会上被否定了。
翻译自 Open Models: Not Stymied Yet,作者:Alex Williams 是 The New Stack 的创始人和出版商。 他是一位资深的技术记者,曾在 TechCrunch、Siliconangle 和现在的 ReadWrite 工作过。 亚历克斯自 1980 年代后期以来一直是一名记者,最初在。 san jose, calif.——Linux 协会执行董事 Jim Zemlin 在该组织在这里举行的首届 AI 大会上根据 DEV 会议的主题演讲,封闭基础模型的论点源于对开源大型语言模型 (LLM) 技术在坏人手中可能变得过于危险的模糊担忧。 “不幸的是,今天我们开始看到一种趋势,从生成式人工智能的开放性转向更封闭的基础模型,这些模型只能通过API访问,”Zemlin在他的主题演讲中说。 “我发现这些论点相当模糊和没有说服力。 “背景是来自欧盟的关于第一个人工智能法规的新闻。 开源 LLM 是豁免的。 这让人松了一口气,因为该法律的原始版本将对底层模型(包括开源模型)进行严格监管。 在反对之后,欧盟取消了严格的限制,并采取了更加谨慎的态度。 全文保密。 其他监管机构将密切关注该法律以获得指导,这带来了一些希望,即各个国家可能会注意到并认识到为什么开源LLM是比关闭开放式创新更安全的方法。
开源法学硕士 Mistral 在听到这个消息后迅速行动起来。 Mistral 是一群由 OpenAI 和 Google 技术人员组成的组织,在欧盟消息传出后立即发布了其开源 LLM。 更令人兴奋的是,该公司还筹集了 415亿美元。 具有讽刺意味的是,生成式人工智能大型语言模型技术的许多发展都源于开源技术。 开源软件使构建基本模型和机器习模型成为可能。 LLM 技术是通过 PyTorch、Python 包、开放数据集和学术研究等社区的努力实现的。
泽姆林说,更多的危险来自于关闭开放式创新。 对开放性的限制往往只使一小部分在职者受益。
恶意行为者将无视禁令。 开源有助于改善隐私和创造一个更安全的世界。 这与LLM有什么关系?开源 LLM 或开源模型是透明的,因此人们可以发现漏洞、查看参数等。
这种透明度是专有 LLM 所不具备的。
你知道,大型语言模型的一个奇怪的事情是,我们并不真正知道它们实际上是如何工作的,“Zemlin说。 “我不知道它们实际上是如何工作的。 很难获得第二个属性,即信任,对吧?我们怎么知道幻觉何时发生?我们如何知道数据来自哪里?
企业计划投资生成式人工智能。 泽姆林说,阻碍他们的是安全性。 他引用了Linux协会的最新研究。
几乎与我们交谈过的每个人都表示,构建生成式人工智能工具和基础模型的技术应该是开放的,并由他们可以长期信任的中立组织管理,尤其是对于这样的基础技术"泽姆林说。
透明度使企业中的人们在业务决策和结果方面充满信心。
但是开源LLM真的对人类构成如此大的威胁吗?对于人类来说,这不是。 大型科技公司呢?嗯,这取决于你如何定义开源。