2024年,AI PC无疑将成为消费市场最受关注的焦点,而端侧大模型和生成式AI的热度将持续上升。 随着越来越多的AI PC新品发布,PC行业正在迎来一场新的革命。
而英伟达在这场革命中是不可或缺的。 今天,NVIDIA 在 CES 2024 上发布了 GeForce RTX 40 Super 系列,并正式宣布了优化的软件、库和工具。
英伟达的新软硬件产品不仅将为游戏玩家带来全新的AI游戏体验,还将推动生成式AI在设备端的采用。
RTX 40 Super系列发布,英伟达加入AI PC主战场
AI PC是指具有软硬件一体化混合智能学习和推理能力的计算机。
不过,目前业界对AI PC的定义还比较模糊,以西南**的研究报告为例,它将AI PC定义为:在架构设计方面,AI PC最重要的是嵌入AI芯片,形成“CPU+GPU+NPU”的异构解决方案。
不过,英伟达仍然可以在不使用 NPU 的情况下让 PC 表现良好,并表示:“例如,当宏碁、华硕、戴尔、惠普、联想和微星等合作伙伴发布新的 RTX AI 笔记本电脑时,RTX AI 笔记本电脑的性能可以比使用 NPU 快 20-60 倍。 ”
然而,无论 AI PC 如何定义,在这股浪潮中,产品性能才是王道,拥有创建和运行生成式 AI 的生态系统才是标准。 这也可以在其 **RTX 40 Super 系列中看到。
Leifeng.com 了解到,在此版本中具有最高性能的 GeForce RTX 4080 Super 在 AI 工作负载方面比 RTX 3080 Ti 生成 ** 更快5 倍,生成图像的速度比 RTX 1 Ti 快 3080 倍7次。 Super GPU 的 Tensor Core 可提供多达 836 个 AI Tops。
新发布的 GeForce RTX 4070 Ti Super 拥有更多内核、16GB 显存和 256 位显存位宽。 1.比RTX 3070 Ti更快开启 DLSS 2 时,比 RTX 3070 Ti 快 6 倍、快 3070 倍5次。 另一方面,RTX 4070 Super 的核心数比 RTX 4070 多 20%,使其能够超越 RTX 3090,功耗仅为 RTX 3090 的一小部分,而借助 DLSS 3,其性能领先优势将扩大到 15次。
基于强大的 AI 性能,NVIDIA 的 GeForce GPU 将为包括游戏玩家在内的用户带来全新的 AI 体验。
游戏玩家的全新体验和AI在设备端的全面普及
英伟达推出了 NVIDIA Ace(**Atar Cloud Engine)微服务,该微服务使用生成式 AI 使游戏 NPC 更加逼真,旨在增强用户与游戏 NPC 之间的交互。 具体来说,用户用自然语言与游戏NPC对话后,NPC没有预设的回复,但大模型生成NPC的反应、回复内容、声音、口型、举止等。 它背后的大模型可以在云端或PC上运行。
与此同时,Nvidia 发布了 NVIDIA RTX Remix,这是一个用于创建经典游戏的 RTX 重制版的平台。 测试版将于本月底发布,提供生成式 AI 工具,可将经典游戏中的基本纹理转换为物理精确的 4K 高精度材质。
在帧率提升方面,NVIDIA DLSS 3 支持帧生成技术,该技术使用 AI 将帧率提高到原生渲染的 4 倍,据了解,该技术已用于已发布的 14 款新 RTX 游戏中的十几款,包括“地平线:西之绝境 (Horizon Forbidden Westine)”、“PAX DEI”和“龙之信条 2 (Dragon's Dogma 2)”。
AI开发者还可以充分利用端侧强大的AI能力,让生成式AI无处不在。
NVIDIA 将于本月底推出 NVIDIA AI Workbench 工具包,允许开发者在 PC 或工作站上快速创建、测试和定制预训练的生成式 AI 模型和 LLM,项目可以扩展到数据中心、公有云或 NVIDIA DGX Cloud 等,然后返回 PC 或工作站上的本地 RTX 系统进行推理和轻量级定制。 该工具还简化了对 Hugging Face、GitHub 和 NVIDIA NGC 等流行存储库的访问。
NVIDIA AI 基础模型和端点取得了新的进展,包括 RTX 加速的 AI 模型和软件开发套件。 Nvidia 已与惠普合作,将其集成到 HP AI Studio 中,这是一个集成的数据科学平台,可简化 AI 模型的开发。 这将使用户能够轻松地在 PC 和云中搜索、导入和部署优化的模型。 而且,一旦您为 PC 用例构建了 AI 模型,开发人员就可以使用 NVIDIA TensorRT 对其进行优化,以充分利用 RTX GPU 的 Tensor Core。
NVIDIA 通过适用于 Windows 的 TensorRT-LLM 将 TensorRT 扩展到基于文本的应用程序,现在在最新更新中,Phi-2 被添加到不断增长的 PC 预优化模型列表中,与其他后端相比,推理速度提高了 5 倍; 另一方面,TensorRT 扩展更新版本的发布将 Stable Diffusion XL (SDXL) Turbo 和 LCM 的性能提高了 60%。
英伟达还宣布了一项专为 AI 爱好者设计的技术演示 - Chat with RTX。 据了解,这项服务可能会在月底作为开源参考项目发布,供用户通过"检索增强生成 (RAG)。"将您的 PC LLM 连接到您自己的数据。 该演示由 Tensorrt-LLM 加速,允许用户快速与自己的笔记、文档和其他内容进行交互。