作者: Mark Collier 丨OpenInfra**首席运营官。
OpenInfra 托管的项目包括用于云计算的 OpenStack、用于边缘计算的 StarlingX、用于持续集成和持续交付 CI CD 的 Zuul,以及用于安全容器的 Kata Containers,目前需求量很大。
在 187 个国家/地区的 100,000 多名成员的支持下,OpenInfra 专注于开源基础设施。 展望2024年,想要对未来技术方向做出决策,就无法回避飞速发展的人工智能领域,在本文中,Mark将提出人工智能领域的五大热门话题**。
1.AI模型将变得更小、更高效
新的大型语言模型 (LLM) 将通过压缩技术提高内存效率,允许复杂模型在性能受限的硬件上运行复杂的模型,同时将损耗降至最低。 我们已经看到像混合萌稀疏模型和Microsoft的PHI-2这样的技术使这种情况成为现实。 特别是在推理方面,这些构建 LLM 的新方法可以在越来越小的硬件上运行,例如笔记本电脑、iPhone 或 Android 硬件设备。 这种能力将扩大人工智能的使用范围,使各种规模的企业更容易采用人工智能战略。
2.全球合作帮助开源 AI 赶上 GPT4
开源 AI 将赶上并超越 GPT4 和 GPT4V,后者是目前最先进的技术,但尚未开放。 对开源 AI 模型的投资正在增加,每天都有新版本发布。 来自世界各地的研究人员正在测试这些模型并相互学习。 法国的Mistral(筹集了4亿美元)和中国的Zero One Everything(01.)。AI)公司是利用开放获取的众多公司中的两家。最重要的是,这些企业愿意听取社区的反馈,并消除限制,使这些技术越来越开放。
为此,我参与了由开源促进会(OSI)领导的一项重要工作,以起草“开源AI”的定义。 人工智能涉及的不仅仅是资源**,这意味着它不符合我们对传统意义上的开源的定义,也不符合 OSI 支持的开源的定义。 随着开源模型的不断改进,这将变得非常重要。
3.为用户提供开源 AI 访问权限的托管人将更具竞争力
托管开源 AI 模型的途径有很多,各种初创公司的迅速出现证明了这一点,不仅降低了成本,而且还找到了越来越有效的方法来托管模型。 有了足够的GPU,用户可以在笔记本电脑或台式机上本地运行AI模型,但服务器端的竞争会更加激烈,从而降低处理这些模型的成本。
4.软件的进步将加剧对人工智能硬件的竞争
英伟达凭借其CUDA架构和软件堆栈,主导着AI训练和运行模型的关键组件,然而,在2024年,AMD和其他公司有望推出更好的硬件产品,以及改进的支持软件,例如AMD对PyTorch支持和CUDA替代品的投资,AI硬件的竞争将加剧,英伟达的行业领导地位也将受到挑战。
5.人工智能将迎来娱乐领域的突破
ChatGPT 是用户数最快突破 1 亿的消费类在线产品,其易于使用的聊天界面将自然语言处理 (NLP) 和 LLM 技术带到了全球视野。 就我个人而言,我认为同样有影响力的事情也会发生在娱乐领域。 预计在 2024 年,我们将看到一部完全由 AI 生成的短片或剧集在影院上映或在主流**平台上上映。
毋庸置疑,随着系统变得更加智能,变革的步伐正在加快,这种势头将在 2024 年继续下去。 个人、组织、组织都会受到创新加速的影响,在这个瞬息万变的时代,引起共鸣的问题是:我们如何才能共同跟上这股前所未有的AI发展浪潮?
关于作者
马克·科利(Mark Collie)参与了许多颠覆性的技术变革,从戴尔的第一个GPU,到MusicMatch的数字*****转型,以及雅虎的第一个流媒体***点播服务。 2010 年,在云计算的早期先驱 Rackspace 工作期间,Mark 与 NASA 和全球其他 25 个组织共同创立了开源云计算项目 OpenStack。 2012 年,Mark 与他人共同创立了 OpenStack,并担任了十多年的首席运营官,管理着有史以来增长最快的开源项目之一。 2020年,OpenStack将正式演进为OpenInfra。 现在,Mark正在帮助扩展协会的使命,将OpenStack社区积累的独特开放协作方法带到云基础设施市场中的更多开源项目中,包括Kata Containers,Zuul CI CD平台和StarlingX分布式计算平台。
关于开源基础设施:OpenInfra致力于构建多元化的开源社区,并促进开源基础设施软件在生产中的使用。 在全球 187 个国家和地区的 110,000 多名社区成员的支持下,OpenInfra** 托管开源项目,并在人工智能、容器云原生应用、边缘计算和数据中心云等领域开展社区实践。 欢迎来到 OpenInfra!