靴子即将落地。如果美元跌太多的话,长期套利交易的解除可能又会冒头,进而成文压制股市的力量: 下周两大主题,通胀和英伟达 重点物价数据包括美国的PCE(个人消费支出)通胀率、欧洲的8月初步CPI(消费者价格指数),以及东京的CPI。主要经济体还将发布消费者信心指数和经济活动指标。在企业财报方面,重点将集中在周三美股盘后的英伟达(Nvidia)财报上。 周五发布的PCE这美联储9月18日下次决议前的最后一份PCE物价数据。经济学家预计核心PCE通胀月环比增长将保持在+0.2%,个人收入和消费分别增长+0.2%和+0.3%与6月份持平,也就是说市场预期通胀还将保持温和增长势头不会进一步下滑,这为可能出现的向下惊喜留出了空间。 英伟达财报前瞻 — — 乌云消散,有望为市场注入强心剂 英伟达的表现不只是AI和科技股,甚至是整个金融市场情绪的晴雨表,NV这边因为需求暂时还不成问题,最关键主题还是关于Blackwell架构推迟的影响,个人在阅读了多份机构相关分析报告后,发现华尔街主流观点认为这个影响不大,分析师们对本次财报大体保持乐观的预期,并且在过去四个季度里NVDA的实际公布结果都超越了市场预期。 最核心的几个市场预期的指标是: 收入 286亿 美元 同比 +110%,环比 +10% EPS 0.63 美元 同比 +133.3%,环比 +5% 数据中心收入 245亿美元 同比+ 137% 环比 +8% 利润率 75.5% 持平Q1 最关心的几个问题是: 1.Blackwell架构推迟了吗 UBS 分析认为,英伟达首批 Blackwell 芯片最多大概延迟 4–6 周出货,预计推迟到 2025 年 1 月底,许多客户改而采购交货时间极短的 H200。台积电已开始投产 Blackwell 芯片,但由于 B100、B200 使用的 CoWoS-L 封装技术较为复杂,存在良率挑战,初步产量低于原定计划,而 H100、H200 采用 CoWoS-S 技术。 但是,这款新产品本来就没被纳入到近期的业绩预测中: 由于Blackwell最早要到2024年Q4(2025 年 1 季度)才会进入销售预期,且NVIDIA官方仅提供单季度业绩指引,因此推迟对2024年Q2和Q3的业绩影响不大。在最近的SIG GRAPH会议上,NVIDIA并未提到Blackwell GPU的推迟的影响,表明推迟的影响可能不大。 2. 现有产品需求上升了吗 其次,B100/B200 的下降可通过在 2024 年下半年增加 H200/H20 的增长来弥补。 根据HSBC的预测,B100/B200 基板(UBB)的生产已经修正了 44%,尽管交付可能部分推迟到 2025 年上半年,导致 2024 年下半年出货量减少,然而,H200 UBB 订单显著增加,预计在 2024 年第三季度至 2025 年第一季度增长了 57%。 基于此预计,2024 年下半年的 H200 收入为 235 亿美元,这应该足以抵消 B100 和 GB200 相关收入可能造成的 195 亿美元损失 — — 相当于 50 万个 B100 GPU 或 150 亿美元的隐含收入损失,以及额外的配套设施(NVL 36)收入损失 45 亿美元。我们还看到来自强劲 H20 GPU 势头的潜在上行空间,这主要面向中国市场,2024 年下半年可能出货 70 万个单位或隐含收入 63 亿美元。 此外,台积电 CoWoS 产能的阶跃式增加也可能从供应侧支持收入的增长。 客户这边,美国的超大规模科技企业占据了NVIDIA数据中心收入的50%以上,他们最近的评论表明,NVIDIA的需求前景还将持续增加。高盛的预测模型显示,全球云计算资本支出的同比增长将分别在2024和2025年达到60%和12%,高于之前的预测(分别为48%和9%)。但也可以看出今年是增长大年,明年不可能维持一样的增长水平: 下面总结了超大科技企业最近关于AI资本支出的评论,显示这些公司对2024年及2025年资本支出增长预期: Alphabet: 预计将在2024年剩余时间内每季度花费120亿或更多的资本支出,总支出可能达到120亿到135亿美元。 Microsoft: 预计2025年的资本支出将高于2024年,以满足其AI和云产品的增长需求。 预计资本支出将按季度递增,以满足当前超出微软容量的云计算和AI需求。 特别是在Azure云服务的AI方面的容量限制预计将持续到2025财年上半年。 Meta: 将其2024年资本支出预期从之前的350亿至400亿美元提高到370亿至400亿美元。 预计在2025年将显著增加资本支出,因为公司计划投资以支持其AI研究和产品开发工作。 Amazon: 预计2025年下半年的资本支出将更高。 资本支出的主要部分将用于支持公司生成式AI和非生成式AI工作负载不断增长的需求。 3. 动能放缓的程度 除了大企业的支出增长在明年会放缓,NV这边业绩增速也将进一步放缓。 市场共识预期2025财年收入是 1056 亿美元,对比去年是609亿美元,增速由去年的126%放缓至73%。官方guidance Q2收入是280亿美元,市场预计会更乐观一些,但本季业绩增速将从2x%的增速区间进一步放缓至1x%的增速区间: 需要注意的是,人工智能市场参与者越来越多:AMD的 MI300X 芯片据称在某些方面优于 Nvidia。Cerebras 已经推出整片晶圆架构的芯片,显著降低了互连和网络成本以及功耗。此外,包括谷歌、亚马逊和微软在内的主要大科技公司都在开发自己的人工智能芯片。这些都可能在未来减少对 Nvidia 产品的依赖。 不过这一担忧目前还没有足够的案例支撑其发酵,华尔街依旧预计英伟达将在数据中心芯片中保持主导地位: 4.关注中国 在即将发布的财报展望中,NVIDIA在中国的需求趋势也将成为关注的重点,特别是市场预期H20需求增加的情况下。重点关注财报电话会议中以下信息: 自H20推出以来,客户兴趣的变化情况。 公司在面对国内竞对(主要是华为)时的竞争力。 B20(Blackwell缩水版)在2025年推出的时间安排。 5.产品线的变化 由于TSMC 芯片封装(CoWoS-L 与传统 CoWoS-S)和基于 ARM 的 Grace CPU(与传统 x86 CPU 相比)方面面临前所未有的生产复杂性,减少高带宽内存堆栈的数量,以降低封装复杂性(允许使用传统的 CoWoS-S 而不是 CoWoS-L)是可能的,例如新的NVIDIA产品B200A和GB200A Ultra可能使用旧的CoWoS-S封装,新产品在技术规格和冷却方式上的改变使得NVDA在市场上难以维持之前的高定价能力: 技术规格:新的A系列与标准版B100和B200 GPU相比性能有所降低。较低的性能意味着市场对这些新产品的价格预期也会降低。因此,B200A的平均销售价格(ASP)预计将在25,000至30,000美元之间,而之前的B100和B200 GPU的ASP则在35,000至40,000美元之间。这种规格和性能的降低直接导致了定价能力的下降。 冷却方式:预计即将推出的GB200A Ultra NVL36机架解决方案将采用空气冷却,而不是复杂的液体冷却系统。与之前的GB200 NVL36和NVL72机架相比,这种改变可能会导致更低的综合收入。 这可能对业绩产生不确定的影响,一方面可能对收入是好事,另一方面可能降低NVDA的定价权,因为相当于自己的产品线互相竞争。 6.股价波动 由于Blackwell推迟、AI叙事略遭挑战,以及整体市场回调,英伟达一度从最高点下跌30%,但投资者逢低猛买,导致股价又反弹了30%,目前市值3.18万亿美元排名全球第二,距离历史最高价只有7%的差距 NVDA当前的估值水平基本位于过去三年中值水平,不高不低 NVDA和竞争对手对比下市盈率绝对不低,已经达到了47.6倍,但是由于仍然保持了较高的增长预期,所以所谓的PEG ratio 也就是市盈率除以增长率的结果仍然在同行里属于最低的水平之一: 7.牛熊假设 AI的叙事在前两个月遭遇了一些挑战,主要是从对企业营收方面贡献可能不高的角度出发的。如果基于此悲观假设,也就是与AI的投资热潮是一次性的,则NVIDIA的数据中心业务可能迅速恢复到2023年之前的趋势水平。 即假设数据中心收入在2025年下滑至690亿美元,比当前水平低38%,比基线预期低55%,作为“最悲观”情景的假设。然后以2025 数据中心收入增长达到100%作为最乐观假设。 高盛在此牛熊场景下做出的股价变化预测是: 基于当前股价124.58美元,基线预期股价135美元,Bull #1 和 Bull #2分别涨41%,89%,Bear #1Bear #2分别跌61%和26%。也就是在当前价位水平上,NVDA的潜在回报仍然小于风险。 8.综述:趋势放缓,但保持乐观 NVDA的估值目前处于中性区间,业绩依旧令人满意,但是市场最FOMO的时候已经过去,业绩增速已经进入下行通道,NVDA价格显然难以复现当年10–100的涨幅。 最大风险是AI叙事被证伪,但只要这件事不再继续发酵,关于NVDA业绩的利空更多只是情绪波动。其它利空更多来自宏观上的利率和地缘政治不确定性。比如美国商务部将于10月份对半导体出口限制进行年度评估,可能会禁止已经削弱了性能的“特供版”H20芯片的出口,甚至影响 “阉割版” B20的获取难度。 市场上的不确定性可能会带来一些股价波动,估值倍数也有收缩的可能,但目前阶段仍然可以保持乐观,因为问题主要集中在供应链,而非需求,些供应链问题是可以解决的,不会从根本上破坏NVIDIA的长期增长势头,这家公司在未来几年内依然具有吸引力,例如最近短短几天就出现了30%的反弹可见市场抄底的热情。 尤其是,AI需求的前景可能仍在早期,例如Meta对其下一代Llama 4大型语言模型的计算量预计将比Llama 3.1高出10倍,表明长期AI 计算芯片的需求前景可能超出我们的预期。 来源:金色财经lg...