专题:聚焦美股2024年第三季度财报

  Alphabet(谷歌母公司)今天发布第三季度财报:营收为882.68亿美元,与上年同期的766.93亿美元相比增长15%,不计入汇率变动的影响为同比增长16%;按照美国通用会计准则,净利润为263.01亿美元,与上年同期的196.89亿美元相比增长34%;每股摊薄收益为2.12美元,与上年同期的每股摊薄收益1.55美元相比实现增长。

  财报发布后,Alphabet公司CEO桑达尔·皮查伊(Sundar Pichai),CFO阿纳特·阿什肯纳齐(Anat Ashkenazi)和首席品牌官菲利普·辛德勒(Philipp Schindler)召开了分析师电话会议,回答了相关业务的问题。 

  以下是分析师电话会议回答摘要:

  摩根士丹利分析师Brian Nowak:桑达尔,我的问题分为两部分。第一部分,过去一年多的时间里,公司展示了多种由生成式人工智能技术所支持的搜索产品,这些产品为用户的搜索体验打开了更多的想象空间。能否请管理层重点介绍一两款用户最感兴趣的产品?随着这些产品在未来两到三年内规模的不断扩大,能否为公司带来更持久的搜索业务增长?

  第二部分,管理层认为产品的不断创新,以及在向公司二三十亿用户的推广过程中,主要的限制因素有哪些?

  桑达尔·皮查伊:这个问题问得非常好。我愿意将过去的称为一个极不平凡的创新之年。我在前面的发言中提到了画圈搜索(Circle to Search)给你,以及具有视频搜索功能的Lens,其每月搜索请求量已经接近200亿次,当然还有人工智能概览(AI overviews)功能。通过搜索功能的不断演进,我们一直在拓展搜索服务的可能性,我们非常高兴看到用户能够适应这些变化,并利用这些新功能提出更多查询请求,回访也更加频繁,我们看到来自这方面的业务不断出现增长。

  虽然已经有超过10亿用户使用了我们的AI overviews功能,但还有很多创新正在积极进行之中,所以我预计公司的搜索业务,包括搜索产品和生成式人工智能技术,将在明年继续显著发展。这是我们的机会所在,这一功能强大的新技术正处于早期阶段,有了它,我们可以为用户提供更多服务,同时我们也始终将各类服务建立在质量、信任和用户体验的基础之上。现有的10亿用户规模不是我们发展的终点,我也没有看到什么向上发展的限制因素。

  显然,我们确实存在诸如延迟、单次查询成本等问题,但是大家也看到了,我们在过去的18个月里在这些领域都已经取得了实质性的进展,我们将继续推出更多产品并不断完善。展望未来12个月,我认为搜索将继续发展,并将处于创新的前沿。

  摩根大通分析师Doug Anmuth:可否请桑达尔或者阿纳特谈一下谷歌自有张量处理单元(TPU)所带动的基础设施优势和资本支出效率增加?相比于竞争对手和其他处于市场领先地位的云服务提供商,研发和使用自己的TPU对公司未来的资本支出有何影响?

  桑达尔·皮查伊:我来回答这个问题的第一部分,在这方面,我认为我们处于比较有利的位置,因为在人工智能基础设施方面,我们有一套全面完整的解决方案,公司拥有所有领先的人工智能加速器,包括在图形处理器(GPU)、TPU以及中央处理器(CPU)方面,我们都有投入。我们同英伟达有很好的合作关系,我们对能够成为首批大规模使用GB200超级计算模块而感到振奋。

  在TPU方面,我们已经发展到第六代了,我不久前同团队一起研究了未来的发展路线图,大家都对其前瞻性感到无比激动,希望通过对未来的提前规划,不断打造出更为优化的架构。我们不仅在谷歌内部拥有一流的效率,在通过云服务提供给用户时也是如此,从公司人工智能基础设施以及通用人工智能服务的增长中就得到了体现。我们的布局非常好,也会继续在这方面不断执行公司的路线。

  阿纳特·阿什肯纳齐:我来详细说明一下公司的资本投资情况,我们在本季度的资本支出是130亿美元,主要分为两类。一类是我们的技术基础设施,这占据了130亿美元的大部分,剩下的是用于诸如设施、资产和公司其他领域的支出。在技术基础设施(TI)方面,我们对服务器有投资,包括TPU和GPU,第二类是数据中心和网络设备。

  本季度,约60%的技术基础设施投资用于服务器,约40%用于数据中心和网络设备。公司内部和面向客户的服务中都提供GPU和TPU,我们可以根据客户需求和内部需求来进行相应的选择。展望下一季度以及明年,正如我在前面的发言中所提到的,我们第四季度的投资同第三季度大致相同,约130亿美元,而2025年的投资会增加,在下一季度的财报电话会议上我们会详细说明,可能不会像今年出现的那种同比大幅增长,但会有一定幅度的增长。

  桑达尔·皮查伊:关于TPU的内容,我还要补充一点,如果投资者注意到公司对外提供的闪存定价,我认为与具有相同功能的其他型号产品相比,我们的定价可以说非常具有吸引力,公司所提供的架构可以很好地创造和提升效率,我们在内部使用时也是如此,搜索模型的能力持续不断提升,我们已经能够针对底层架构对它们进行真正的优化,这也是我们看到效率提升的地方。

  (持续更新中。。。)