们在这两个方面取得的进展感到兴奋。 在智能眼镜方面,EssilorLuxottica 是一家出色的合作伙伴。我们现在正在开发第二代雷朋 Meta 眼镜。它们表现良好,比我们预期的要好,我们预计它们会比第一代有显著增长,所以这是一个非常积极的惊喜。我认为部分原因是它能够很好地与我们看到人工智能革命相契合,并提供各种新功能。所以这很棒。 但 EssilorLuxottica 是一家很棒的公司,拥有许多不同的产品,我们希望能够与其合作,继续打造新一代眼镜,深化 AI 产品,使其越来越好。我认为接下来还有很长的路要走。与我们目前的想法相比,它的表现相当不错,我认为要成为真正领先的消费电子产品,它需要达到的水平还为时过早,但所有迹象都是好的。 操作员 您的下一个问题来自花旗银行的 Ron Josey。请继续。 太好了。感谢您回答这个问题。马克,我想回到对开源和 Llama 3 的评论。我完全理解 Meta 不提供公共云,所以我想听听您对 Llama 3 产品愿景的看法。这意味着可能向其他公司提供其中一些产品,用于客户服务或呼叫中心产品或其他垂直市场。您如何看待开源和 Llama 3.1 可以为其他人提供更好的企业服务?谢谢。 马克·扎克伯格 因此,Llama 是基础模型,人们可以将其塑造成各种不同的产品。因此,无论是我们自己的 Meta AI,还是 AI Studio,还是业务代理,还是雷朋眼镜中的助手,所有这些不同的东西基本上都是用 Llama 构建的产品。同样,任何开发人员都可以使用它来构建各种不同的东西。 就像我之前说的,我认为开源对我们如此有价值的原因是,我们希望确保我们拥有领先的基础设施,为我们正在构建的消费者和企业体验提供支持。但基础设施不仅仅是我们可以单独构建的软件。它实际上是一个生态系统,拥有许多不同的功能,其他开发人员和人员正在将其添加到组合中,无论是将模型提炼为自定义模型所需大小的新工具,还是更好地微调事物或使推理更有效的方法,还是我们尚未想到的所有其他方法,硅片公司正在进行的硅片优化,等等。这是一个生态系统。 所以我们不能自己做所有的事情。如果我们构建了 Llama 并将其保留在我们自己的公司内,那么我们构建的所有产品实际上都不会像最终产品那样有价值。这就是围绕这一点制定的商业策略。这就是为什么我们觉得我们不一定需要构建云并直接销售它,这样它才能成为我们真正积极的商业策略。我们正在做的工作之一就是与 AWS 密切合作,我认为,他们为这次发布做了大量工作。 当然,Databricks、Nvidia 等其他公司,以及微软的 Azure 和 Google Cloud 等其他大公司,都支持这项技术。我们希望开发人员能够在任何地方使用它。我认为这是 Llama 等开源模型的优势之一——它不会让您被锁定在提供该模型的某个云中,无论是微软的 OpenAI 还是谷歌的 Gemini,您都可以随处使用它,我们希望鼓励这种做法。所以我对此感到非常兴奋。 我们最关注的企业和商业应用除了优化广告客户体验(如我之前评论中提到的)之外,还有业务代理部分。我认为,正如我之前所说,业务代理具有巨大的潜力。我认为,如今几乎每个企业都有一个电子邮件地址。他们有一个网站。他们有社交媒体账户。我认为,在未来,他们将至少拥有一个(如果不是多个)业务代理,可以处理各种事务,从与人们互动以帮助购买商品到帮助支持他们所做的销售,如果他们遇到产品问题,如果他们需要与您联系,他们可以为您提供帮助。 我们已经看到,在劳动力成本低的国家,人们通过消息传递与企业互动的效果很好。但问题是,在很多国家,让一个人回答每个人的问题的成本相当高。我认为这是人工智能非常适合做的事情。当我们能够让使用我们平台的数亿企业轻松地提取他们的所有信息和目录、历史记录和他们分享的所有内容,并快速建立代理时,我认为这将是一件非常棒的事情。 因此,我们可以将 Llama 与我们在业务团队中开展的大量定制工作结合起来,并将其与生态系统其他部分为使 Llama 变得更好而进行的所有其他投资结合起来。我认为这将产生巨大的影响,但这只是其中一个领域。我的意思是,这实际上涉及到我们正在开发的所有不同产品,包括消费者和企业产品。所以这有很多令人兴奋的东西。 肯尼思·多雷尔 克里斯塔,我们还有时间问最后一个问题。 操作员 谢谢。这个问题将由巴克莱的 Ross Sandler 提出。请继续。 Ross Sandler 太好了。马克,周一你接受 Jensen 采访时,你说过类似这样的话:如果有一天扩张停止了,你还有五年的产品工作要做。那么除了代理或人工智能助手之外,你在五年路线图中还考虑或关注人工智能的哪些其他领域?第二个问题可能是对容量问题的又一次尝试。 你们说 Llama 3.1 是在 16,000 台 H100 上进行训练的。你们还说到年底将有 600,000 台可用。所以即使我们为 Llama 4 增加到 160,000 台 GPU,我们也有足够的额外容量用于推理和未来产品。我想你们是如何在训练、推理和未来事物之间建模出整个资本支出路线图的?就这些。非常感谢。 马克·扎克伯格 我可以先回答第一个问题,然后让 Susan 回答第二个问题。这是一个有趣的问题。这有点假设,因为我的意思是,我确实认为,如果假设没有未来的基础模型,那么行业将会带来大量的产品创新,而这需要时间。但与此同时,未来的基础模型将会很棒,并释放新的功能,我们正在围绕这些模型规划我们的产品。 因此,我并没有假设未来没有创新,而是在规划我们的产品路线图。相反,我们根据我认为对我刚刚列出的路线图来说最重要的功能来规划 Llama 4、Llama 5 及以后的产品,以便拥有 Meta AI 等产品所需的广泛实用性,让企业、创作者和个人可以建立他们想要的任何类型的 AI 代理,让这种实时、多模式眼镜随身携带,这对你所做的所有事情将越来越有用。 我想这与我期望 Susan 接下来要谈论的内容相吻合。我们已经有大量的用例,比如人们希望发现内容并与朋友互动,以及企业接触人们,所有这些都在随着技术的进步而变得更好。所以,我想我的观点是,在技术普及和产品在该领域得到充分探索之间存在一定的滞后。我只是认为,这是我的说法,我认为这是一个非常令人兴奋的领域,在未来很长一段时间内,将会有大量创新。我将让 Susan 尝试一下 GPU 等数字。 苏珊 谢谢。我们显然正在建设大量产能,马克在谈到我们需要培训前几代和下一代 Llama 时也提到了这一点。我们正在这样做——这推动了我们谈到的 2025 年资本支出的大幅增长。我们现在还不能分享长期前景。 当我们考虑正在建设的任何新数据中心项目时,我们会考虑在数据中心的整个生命周期内如何使用它。我们会考虑在训练方面将使用的容量,无论 Llama 的后续几代是什么,它都是围绕这一点构建的。但我们也会考虑如何在其生命周期的几年内将其用于我们核心业务中的其他用例,用于我们认为未来可能对推理和基于 AI 的生成产品的需求。 因此,任何单个数据中心的生命周期中都有大量的用例,从一开始的人工智能训练到可能支持人工智能推理,再到用于核心广告和内容排名和推荐,同时也要思考我们可能使用什么样的服务器来支持这些不同类型的用例。 因此,当我们开展任何项目时,我们实际上都在考虑各种潜在用例。我们这样做时确实考虑了长期前景,因为启动数据中心需要很长的准备时间,但我们也认识到,每个数据中心的生命周期中都有多个决策点,需要考虑何时订购服务器、订购哪些服务器以及将它们用于什么用途。这使我们能够灵活地根据我们未来掌握的信息做出最佳决策。 肯尼思·多雷尔 太好了。感谢大家今天加入我们。我们很感谢您抽出时间,期待很快再次与您交谈。 操作员 今天的电话会议到此结束。感谢您的参与,现在可以挂断电话了。 (这份记录可能不是100%的准确率,并且可能包含拼写错误和其他不准确的。提供此记录,没有任何形式的明示或暗示的保证。表达的记录任何意见并不反映老虎的意见)lg...