软件和云没有移动,硬件,尤其是SEMI,都在崛起。 NVDA +4%、AMD +5%、MRVL +8%、西部数据 +8%、博通 +7%(Oppenheimer、BOFA 上调目标价)、台积电 +4%、美光 +5%、超味 +14%(包含在指数中)。。除了PMI数据和美国国债,美联储今天还提到了人工智能"ai could improve labor outcomes, reduce inequality”
感受来自卖方的热情:
这些都是反光板,不得不提一下海通国际的Jeff在10天前印出来的,原来市场确实在寻找AI追赶的玩法
归根结底,新订单的增长速度远快于业绩确认的速度(交货速度),导致今天的积压(订单在手)已经是35次。 上个季度GPU交付周期的收入确认延迟,这是上个季度的担忧,现在对H100交付周期有利
最重要的是,该公司还向台积电AMD学习,出来提升行业TAM到 2027 年,AI 服务器将达到 1520 亿美元(之前为 1240 亿美元)。。2027年,几颗卫星开始踏上脚步。 也有负面因素,PC市场疲软,传统服务器价格压力大,复苏要到下半年才会出现,整体毛利率(成本上升和AI稀释)也面临压力。 不过,看市场基本选择看透,他们都在寻找滞后者,而已知的传统弱点似乎基本是价格入股。 便宜的估值+股息又增加了20%......
花旗在业绩发布会后也发来了回电,要点如下:
指引:2025财年(24CY)的指引好于预期,预计全年将大幅增长,对服务器、传统服务器**的人工智能发展势头持乐观态度,下半年个人电脑和存储将复苏。
服务器:积压订单中GPU组合(H100、H200、Mi300X)及其交货时间组合的差异将导致AI服务器各季度的收入确认不均衡(H100确认加速,新产品确认估计受到交付的限制)。 H200 和 MI300X 在 29 亿美元的订单积压中正在增加。 管理层希望在第一季度出货尽可能多的H100H100 的交货时间从第三季度的 39 周下降。
毛利率:预计2025年度毛利率将下降这是由于存储组合比例的下降、大宗商品成本的增加、竞争加剧(PC、传统服务器)以及预期出货更多的AI服务器(AI服务器将稀释毛利率)。
此外,NTAP(U.S. Net Deposit)的表现超出预期,其实BEAT并不大,但股价却是+18%,因为还提到了AI。NTAP在财报会议上重点放在 NVIDIA 的 DGX POD 中的“多个”项目上。
除了AMD传递的小笑话,往下看1)。年初至今,英伟达65%,AMD35%,可能正在追逐; 2)80亿是否被默许还不确定,但如果推理真的要引爆,那么潮水就会涨,太阳就会照耀。
简而言之,市场现在正在追逐人工智能,或者更确切地说寻找“AI新目标”的热情极高。MS做了一个AI**坐标系,横轴AI营收占%,纵轴是25年的PE倍数。 当然,如果你静态地看,越东南越好。 如果你动态地看,每个人都会向右走,谁能保持在趋势线下方,谁就是最好的交易。 事实上,这个坐标系的潜台词是,AI的占比越高,市场追逐的就越多,这将带来更高的估值溢价。 那些低于趋势线并远离趋势线的都是“潜在股票”。
目标不够? MS给出了另一张图表,IDC中每家公司的AI收入占比:
上周末,The Wire 对 Jensen 的采访在网上疯传,但其中一个细节被修改了(来自读者 Dai 的提醒),而且很微妙。 在原文中,Jensen说:“如果我必须猜测,NVIDIA今天的业务可能是70%的推理和30%的训练。 在那之后,它似乎被 PR 修改了:
70%的词是结论性的,再考虑上下文,不像是口误,更像是泄密。 公示也是合理的,毕竟和财务报告披露相差太大。 而且DAI分析很合理,全年40%,如果年初很低,年底达到70%也是合理的。
ASIC的市场份额已经是纯ASIC公司第一,即使与MTK、**GO、MRVL相比,也只输给**GO; 来自最大客户(亚马逊)的PO继续上升,并且与之前相比上调,并且对这种新芯片的生命周期和需求比之前预期的要大。 客户给出了新5nm产品的预测"too good to be true"
国内良率为50-60%,而海外为85%(但国内是中试线,做成量产线后良率会大大提高); 中国有两个派系,一个是大家都知道的xxxx,一个是h+xx+xx(特意把星球放进去)。 项目定义是3,可能要到26年才能生产出产品它也可能比这更早
我从未见过任何技术像人工智能一样快速发展目前人工智能的增长速度接近每六个月增长十倍(我了解计算量)。。这就是为什么英伟达的市值如此之大,他们拥有最好的人工智能芯片,其市值可能更高人工智能芯片热潮将比过去任何一次淘金热都要大。我认为我们真的处于有史以来最大的技术革命的边缘。
我们非常接近完全自动驾驶; 乘用车的平均使用时间约为每周10小时,但如果实施自动驾驶,每周可以使用50至60小时,这意味着乘用车的实用性将增加五倍。
他最近在日本的一次会议上说,有人告诉他,生产AI芯片需要10个晶圆厂,“他们说的不是晶圆,而是晶圆厂”,张忠谋认为10个晶圆厂太惊人了实际需求可能在几万片硅片到10座晶圆厂之间,比较合理(但这个范围也很大,也就是在几万片晶圆之间,参考英伟达2024年的需求也可能超过10万片晶圆)。
为什么缩放定律是第一原则? 你只需要找到一个满足两个标准的结构:它足够通用,并且它是可扩展的。 一般的目的是你把所有的问题都放到这个框架里来建模,但规模是,只要你投入足够的计算能力,它就可以变得更好。 这是我在谷歌学到的想法:如果可以用更低的东西来解释,就不应该在顶部过度雕刻。 我同意一个重要的句子:如果你能用规模来解决一个问题,就不要用新的算法来解决它。 新算法的最大价值在于如何使其具有可扩展性。 当你把自己从雕刻中解脱出来时,你可以看到更多。
长篇大论是登月的第一步因为本质足够,所以是新的电脑内存。在过去的几十年里,旧计算机的内存增加了几个数量级,新计算机也会发生同样的事情。 它解决了当今的很多问题。例如,现在多模态架构需要分词器,但当您有很长的无损压缩上下文时,就不需要分词器了你可以把原来的。 此外,它是将新的计算范式转变为更普遍的基础。 旧电脑可以代表一切,一切都可以数字化。 但是今天的新计算机并不好,没有足够的上下文,它们没有那么通用。 要成为一个通用的世界模型,你需要一个很长的背景。 其次,它可以个性化。 AI的核心价值是个性化交互,价值立足点是个性化AGI将比上一代推荐引擎更加个性化。 但个性化过程不是通过微调完成的,而是关于支持长上下文的。 你与机器的所有历史都是一个上下文,一个定义个性化过程的上下文,它无法复制,这是一个更直接的对话,对话会产生信息。
将定律缩放到最后并发现它根本不起作用的概率几乎为零。 该模型仍有很大的扩展空间一方面,窗户本身的改进还有很长的路要走,会有几个数量级。另一方面,在这个窗口中可以实现推理能力、忠实性(对原始信息的忠实性)和遵循指令(遵循指令的能力)。如果这两个维度都继续改进,可以做很多事情。 也许可以遵循几万字的指令,指令本身会定义许多代理(代理),这是高度个性化的。
人工智能不是我在未来一两年内发现的 PMF,而是未来十到二十年世界将如何变化——这是两种不同的思维方式
开源开发的方式与过去不同过去,每个人都可以为开源做出贡献,但现在开源本身仍然是中心化的。开源的许多贡献可能还没有经过计算能力的验证。 闭源中将有人才和资本的聚集最后,关闭源头一定更好,这是一种整合(市场的整合)。 如果我今天有一个领先的模型和开源,那可能是不合理的。 相反,落后者可能会这样做,或者开源小模型,搅动局面,反正不开源就一文不值。
来自 GPT-35到GPT-4,解锁很多应用; 从 GPT-4 到 GPT-45 到 GPT-5,很有可能会有更多应用程序继续被解锁,甚至呈指数级增长。 所谓的“场景摩尔定律”就是你可以使用的场景数量随着时间的推移呈指数级增长。 我们需要提升模型能力,同时寻找更多的场景,这需要这样的平衡。 这是一个螺旋。
可以理解为,压缩有两种不同的类型。 一种是压缩原始世界,这就是**模型正在做的事情。 二是压缩人为生成的行为,因为人类产生的行为要经过人脑,而人脑是世界上唯一能产生智能的东西。 你可以思考**模型正在执行第一种类型,文本模型正在执行第二种类型当然,**模型在一定程度上也包括了第二种类型。 它最终可能是一个混合体,以建立一个世界模型。
硅谷一直有一种争论:一个模型统治所有或多个专用的较小模型(一个通用模型用于处理各种任务,或多个专门的较小模型用于处理特定任务)。,我认为是前者。
完)本文作者:Jason,**信息平等,原标题:《AI硬件飙升之夜》**华尔街新闻,欢迎**APP查看更多。