Marvell的AI数据中心战略,定制芯片将加速增长,定制加速器钱景光明!

发布于: 雪球转发:0回复:0喜欢:0

内容导读

本文是美国的TECH FUND对Marvell在人工智能浪潮带来的市场红利中的业务布局的分析,内容十分详实精彩,智能小巨人科技进行了编译,Enjoy~

内容目录

Marvell收入的1/3将来自AI市场,定制芯片成为收入增长的加速器

AI数据中心计算市场,将以32%复合增长率增长

人工智能收入贡献将达1/3,定制芯片成为收入增长的加速器

定制加速器有利可图,Marvell拥有诸多优势

Marvell判断,定制加速器将从通用加速器中占据份额

科技巨头的定制芯片需求,每四年一个周期

定制加速器有利可图,Marvell拥有诸多优势

计算结构市场的增长吸引力与Marvell的业务布局

计算结构市场的增长吸引力

互联市场与Marvell的新产品布局

可插拔光学器件与共封装光学器件,以及向硅光子学的转变

数据中心互联(DCI)市场持续增长

云交换机向高级节点转移

华尔街调高Marvell评级,短期估值较高,具备长期投资吸引力

关于我

智能小巨人科技是诞生于“AI数字化革命+全面注册制”背景下的精品咨询公司;核心产品服务:企业战略智库、科技战略咨询、资本品牌解决方案、创始人品牌打造等。

大模型与AI商业的共识与非共识

智能小巨人科技业务介绍

目前我们的实名社群矩阵已覆盖5000+高知人群,欢迎添加小智的企业微信,发送姓名、职务信息后为您匹配垂直社群!

为促进AI领域优秀创业团队与早期投资团队之间的顺畅链接,智能小巨人科技每个月均与知名投资机构联合举办项目推介闭门活动,欢迎AI早期优秀项目添加小智的企业微信,参与闭门路演!

入群/项目推介3部曲:

第1步:扫描二维码加小智企微

第2步:发送您的姓名、职务信息

第3步:匹配社群或登记路演项目

本文由智能小巨人科技编译,转载请按以下格式注明来源:

来源 | 王铮Silvia(ID:silviawz2023)

原文 | TECH FUND科技基金

Marvell收入的1/3将来自AI市场

定制芯片成为收入增长的加速器

AI数据中心计算市场

将以32%复合增长率增长

Marvell对数据中心加速计算的展望与台积电预测的高增长率大致相似。

尽管市场主要担忧的是,在目前前所未有的人工智能(AI)资本支出投资浪潮中,AI半导体需求在不久的将来可能会遇到增长放缓的情况——但台积电预计其人工智能收入将在未来几年继续增长,并在未来五年内以 50% 的复合年增长率增长。

相比之下,Marvell估计AI数据中心计算市场将以32%的复合年增长率增长,如下图中的蓝色框所示。

但公司首席执行官确实提出了一个警告,即实际增长率可能会高于这个数字。因此,以下基本上应该被视为 Marvell 的基本情况:

人工智能收入贡献将达1/3

定制芯片成为收入增长的加速器

这是 Marvell 的 CEO 在讨论数据中心加速计算的前景:

“我最近参加了一次会议,麦肯锡分享了他们的信念,即这些人工智能创新每年将释放约4.4万亿美元的经济价值。

此外,从许多行业对话中收集到的见解表明,预测更加雄心勃勃。那么这个资本支出有意义吗?答案是肯定的,它将通过生产力和效率的大幅提高来筹集资金。我们都可以就规模争论不休,但我们确实知道那里有一个数万亿美元的机会。

因此,在这种背景下,如果你看一下未来10年将要发生的技术投资周期,那么部署的资本支出是很有意义的。

我们已经开始看到这个人工智能周期对Marvell收入的好处。

去年,我们的人工智能相关收入超过5.5亿美元,约占公司总收入的10%。这几乎是上一年的三倍,上一年约占收入的3%。

而且去年的5.5亿美元几乎全部是连接性收入,包括光学和一些交换业务,今年这项业务的收入将几乎翻倍。

然后,如果你采用定制芯片,我们预计今年的AI收入将再次翻三倍,超过15亿美元,其中大约2/3是连接性收入,1/3是定制计算收入。

因此,根据市场普遍估计,人工智能将接近Marvell今年总收入的30%。而且这个数字还将继续增长,我们认为明年25亿美元是一个坚实的基础,如果市场增长更快,还有上行空间。”

因此,我们可能会看到这样一种情况,即人工智能收入将在未来几年开始为公司的收入贡献约三分之一,而定制芯片将成为人工智能收入增长的加速器:

定制加速器有利可图

Marvell拥有诸多优势

Marvell判断

定制加速器将从通用加速器中占据份额

基本上,目前所有的AI训练都是在Nvidia GPU上进行的,而且在可预见的未来,这种情况很可能仍然如此。

然而,人工智能推理市场将变得更大,并且由于这里部署的GPU集群要小得多,因此在英伟达极其全面的软件和硬件生态系统上运行所有内容的需求将减少。这为在自定义加速器上运行更多工作负载打开了大门,这是占主导地位的超大规模企业所热衷的,因为这降低了他们的成本。Nvidia 的 GPU 不仅非常昂贵,而且用途广泛,因此,如果您可以部署更窄的加速器,您将在制造和能源消耗方面获得成本效益。

我们之前曾推测,人工智能和半导体生态系统的创新放缓会增加这种情况发生的可能性。只要这些领域的创新步伐很快,英伟达就处于非常有利的地位,因为他们拥有高达 100 亿美元的年度研发预算,再加上必要的专业知识和专业知识,可以迅速采取行动并抓住创新的机会。这基本上是该公司在过去十年中一直在做的事情,而且这种情况还在加速,该公司现在正朝着一年的GPU节奏迈进。

然而,如果我们看到所有这些领域的创新节奏都有所放缓,这为目前落后的竞争对手提供了一个开始缩小差距的机会。

Marvell的观点是,定制加速器将逐渐从英伟达的通用加速器中占据份额,这听起来当然是一个合理的基本情况。总体而言,该公司认为定制加速器可以以 45% 的复合年增长率增长。

请注意,尽管有一些份额损失,但英伟达的通用加速器应该仍然是一个极具吸引力的增长市场,下图中的浅蓝色框:

科技巨头的定制芯片需求

每四年一个周期

这是Marvell的CEO对数据中心定制芯片的看法:

“大型云公司的架构完全不同。他们实际上设计和构建了自己的个人数据中心,并针对自己的应用程序优化了特定领域的基础设施。

因此,如今每个超大规模数据中心都在构建或计划为其部分工作负载构建自己的计算芯片。

我们战略性地与每一位客户接触,现在所有这些客户都有大量的设计活动。出于不同的性能原因,其中一些应用程序具有多个 SKU。

这种类型的业务本质上也是多代的,所以当你在处理当前版本时,你通常也在处理下一个版本。

这不仅仅是一个客户的一个人工智能芯片,而是每 4 年一次,这就是节奏。

我们之前已经分享过,我们为两个不同的客户赢得了两个sockets。

第一个socket是为一家总部位于美国的超大规模企业提供的AI训练加速器。其客户使用这款芯片和他们的AI集群,而且它的增长速度非常快。我们计划明年推出AI推理加速器。因此,考虑到所有这些,我们现在对这个特定项目有多年的可见性,我们预计收入在下一代也将持续。

第二个客户设计是为第二家美国超大规模企业提供的ARM CPU。这将被部署在他们的通用云计算平台以及他们内部的AI基础设施中。而且我们已经为AI赢得了第三家总部位于美国的超大规模客户。这是一个AI加速器,目前正在设计中,客户希望在2026年投入生产。”

请注意,他谈到了四年的节奏,毫无疑问,随着投资的增加,他们将能够加快速度,但英伟达的节奏是一年。基本上,英伟达将利用台积电的所有工艺技术和封装改进,并成为第一个这样做的人。

同时,他们将优化加速器设计以运行最新的人工智能算法,优化运行加速器的软件,并优化他们的整个人工智能数据中心生态系统,从链路到交换机、光学器件、冷却等。如前所述,世界上没有多少人能够与之竞争。

Marvell 开发的第一款 AI 训练和推理加速器是为 Amazon 开发的。显然,这是一个非常有吸引力的客户,因为AWS仍然是最大的公共云。

据推测,新客户是 Meta,不用说,这也是一个规模庞大的玩家,并且目前正在将自己定位为LLM(大型语言模型)竞赛中的领先者之一,拥有Llama-3模型。

定制加速器有利可图

Marvell拥有诸多优势

先进的半导体设计对投资者来说是一个有吸引力的行业,因为它具有很高的进入壁垒。

为了开发领先的芯片,研发支出总额可能超过10亿美元。例如,英伟达花费了100亿美元来开发整个新的Blackwell平台。

如今,最先进的 GPU 不仅需要 2000 亿个晶体管,而且由于面积限制,不可能将它们放置在单个芯片上。解决方案是极高带宽的晶粒对晶粒 (D2D) 互连,使系统认为两个连接的晶粒实际上是一个芯片。

由于 LLM 的高内存要求,我们同样需要一种高带宽和低延迟的内存访问解决方案,这是通过将 HBM DRAM 堆栈放置在同一系统中,围绕核心加速器来实现的。

最后,您需要最先进的 SerDes 和 I/O 来处理进出 GPU 模块的数据流。即使您可以完成所有这些操作,也只提供了一个 GPU,但客户需要整个数据中心集群。

很明显,必须在台积电最先进的工艺技术上设计所有这些,只有有限数量的参与者能够在这个行业竞争。

Marvell 拥有 18 亿美元的相当大的研发预算,您可以使用它来设计上述芯片,尽管根本不是 Nvidia Blackwell 平台。

然而,在定制芯片领域,这样的数量就足够了,首席执行官还强调了许多其他优势,这将使较小的参与者难以与Marvell竞争:

我们的客户希望知道他们的主要合作伙伴有足够的研发规模和对这个市场的长期承诺。

这种伙伴关系的好处是多方面的。作为其研发团队的延伸部分,我们正在与客户携手合作,共同构建他们的下一代数据中心。

通过在定制计算方面占据战略地位,我们对下一代架构需求有了独特的见解。不仅适用于自定义计算,还适用于所有连接、更高层交换以及我们客户对下一代 AI 架构的整体规划。因此,这让 Marvell 在竞争中具有显著优势。

现在让我告诉你我们如何投资以赢得这个市场。

首先,您需要拥有大量的 IP 和技术能力,您需要使用领先的工艺节点进行操作。在5纳米和3纳米产品组合取得成功的基础上,我们现在正在积极投资2纳米产品组合。

我们的SerDes技术是世界一流的,这就是为什么今天每个超大规模数据中心运营商都依赖它的原因。它超越了IP,我们拥有一流的封装技术、电光技术、模拟能力,我们专注于满足客户对低功耗设计、无缝互操作性等的需求。”

总体而言,定制加速器对 Marvell 来说应该是一项有利可图的业务。

关键的风险可能是,随着超大规模企业随着时间的推移积累专业知识和专业知识,他们可能会选择完全在内部进行半设计活动。

苹果和华为是两个来自非半导体背景的公司的例子,随着时间的推移,他们能够建立世界级的半导体设计团队。

计算结构市场的增长吸引力

Marvell的业务布局

计算结构市场的增长吸引力

Marvell还专注于在数据中心移动数据,另外两个关键市场,即数据中心交换和互连,同样有望实现有吸引力的两位数复合年增长率:

几周前,博通Broadcom)很好地解释了人工智能服务器中的半导体数量是如何爆炸式增长的,以及为什么PCIe互连这些半导体是一个如此有吸引力的增长市场:

上述市场也称为计算结构,即连接服务器内各种芯片的高速网络。

尽管 Marvell 在 SerDes 领域很活跃,SerDes 负责处理芯片的数据输入和输出,但 Marvell 的优势尤其体现在服务器后端网络、前端网络和数据中心间网络方面。

互联市场与

Marvell的新产品布局

这是该公司的云光学主管,解释了各种互连市场:

“关于网络有很多混淆:后端网络、前端网络、计算结构和 DCI(数据中心互连)。这是 AI 服务器。您内部有几个加速器与非常高的带宽结构连接在一起,这通常称为计算结构。它们的速度非常快,但距离很短,而且超过铜。现在,这已经被扩展到机架内部。

你如何将我谈到的这个人工智能服务器连接到数据中心网络中的1000台服务器?这就是我们所说的后端网络。协议是 InfiniBand 或光纤以太网。这就是 Marvell 的用武之地,我们是该领域的领导者。铜缆成本低廉,但光纤是唯一可以为您提供连接整个数据中心数百、数千和数万台服务器所需的带宽和覆盖范围的技术。

接下来是如何让数据进出 AI 服务器?您通过前端网络。这是您在 AI 服务器中看到 CPU 的位置。通常,可能有一个或两个 CPU,每个 CPU 都有自己的 NIC 卡和自己的光模块。前端网络始终是光纤以太网,而 Marvell 在这方面发挥着非常重要的作用。

数据如何进出数据中心?您需要另一个 DCI 网络,这些 100 公里的链路将数据中心连接到该地区的数据中心。Marvell 在 DCI 领域处于领先地位。”

下面提供了所讨论内容的示意图。

网络接口卡 (NIC) 处理前端网络和服务器之间的数据流。当数据从 NIC 到达时,CPU 会控制哪些数据应流向哪个 GPU 以执行加速。

因此,AI 上下文中的 CPU 是一个非常先进的控制器,矩阵和其他数学运算的大量负载由 GPU 负责。现代人工智能算法基本上是线性代数与一些演算相结合,以推导的形式优化模型权重。

随后,PCIe 交换机管理服务器内 GPU 之间的通信,或者,可以通过后端网络进行通信,NIC 将数据传输到另一台服务器:

前端和后端网络都使用光纤,而不是用于较小距离的铜缆。

下图说明了光信号如何在可插拔光学模块内转换为数字信号:

这些 DSP(数字信号处理器)还具有从诊断到遥测的智能功能,以便及早检测其中一个链路是否有故障风险。如果其中一个下降,人工智能训练中所有未保存的重量都将丢失。因此,持续监控整个系统是否能够保持正常运行至关重要。Marvell 还提供软件,以便客户可以自定义这些构建块以优化其特定网络。

与 AI 服务器内的 PCIe 连接数量类似,AI 数据中心内的光互连数量也在快速增长。

这是 Marvell 的云光学主管,讨论了光互连的数量将如何以比 AI 数据中心加速器数量更快的速度增长:

“GPT 3 在 1,000 个集群上使用大约 2,000 个光学互连进行训练。GPT 4 在一个 25k 集群上进行了训练,该集群需要大约 75k 个光互连。

模型将越来越大。我们看到一个 100k 的集群即将推出,这可能需要 5 层交换,所以可能需要 500k 的光互连。所以比例从2:1变为3:1和5:1。在未来,它甚至可能是 10:1。

在人工智能中,光互连的增长速度将快于加速器的增长速度。对于训练,您需要可以动手的最大集群,但世界上很少有这样的集群。

对于推理,集群较小,但您需要在全球范围内部署大量集群才能真正将 AI 货币化。因此,net-net,两者都将驱动大量的光互连。”

与英伟达类似,Marvell正在以更快的速度开发下一代互连。这是公司连接主管对他们新产品的描述:

“今天,我们已经为多个客户提供了1.6太比特解决方案的资格认证,我们预计将在今年年底前投入生产。

我们已经与客户密切合作,在未来几年内实现 3.2 太比特 PAM,并正在与客户进行研发,以开发 6.4 太比特的未来技术。有些人提出了一些提供边际效益的解决方案,向后看。客户根本没有时间对这些产品进行资格认证,如果他们在未来一两年内不转向下一代产品,那么未来 6 个月节省的一小部分 TCO 将被抹去。

我们还可以利用我们开发的PAM IP,为Marvell打开一个全新的市场。

在这里,我们可以讨论用于有源电缆的 DSP。现在我们已经谈了很多关于光学器件的问题,但是在数据中心内很短的范围内,把它想象成机架上的几米到几米,你仍然在使用铜。

传统网络中的几个例子,你把你的网卡放在机架的顶部,ToR互连是3到4米,这些都是无源铜,所以里面没有半导体成分。在 50 GB 时,信号从一端到达另一端,没有错误,没有问题。但现在你把速度翻了一番,达到每条车道 100 吉比特,随着速度的提高,物理定律,损耗也在增加。

这里还有另一个向量,随着这些数据中心密度的增长,我们的客户希望在机架中安装越来越多的互连,从而显着增加这些机架的密度。所以现在我们需要使用更细的电缆,电缆越细,损耗就越大。

当您从 50 GB 增加到 100 GB 时,您现在需要向其添加电子设备。您需要使其成为有源电缆,本质上是这些铜互连,其中有 DSP。

Marvell 在这里使用了与光学端相同的 PAM IP。现在,AEC 已经存在了几年,但它们一直用于利基应用。当您达到每通道 100 Gb 时,用例将激增。

我们的 Marvell DSP 技术正在多个终端客户获得认证并投入生产,我们预计这些基于 PAM DSP 的 AEC 将为 Marvell 再带来 10 亿美元的 TAM。”

可插拔光学器件与共封装光学器件

以及向硅光子学的转变

因此,尽管Marvell进入AEC DSP听起来很有希望,但与此同时,Broadcom一直在忙于破坏Marvell在光纤DSP领域的强势地位。

这是Broadcom在其AI活动上高速链路部门负责人的讲话:

“Peregrine 是我们领先的 5 纳米和 100 GB SerDes,我们在这里做了一些非常独特的事情。我们构建了光学器件的原生功能,因此您不需要 DSP 或重定时器,您实际上可以直接从 SerDes 本身驱动光学器件,从而实现非常具有破坏性的用例,例如 CPO(共封装光学器件)。

因此,这个SerDes在Broadcom将要构建的每个产品中都可用,它可能是交换机,路由器,XPU,NIC,..”

Broadcom 的可插拔光学器件与共封装光学器件的说明:

与此同时,Marvell正在通过推出下一代硅光子模块,在可插拔光学器件上加倍投入。

这是Marvell的云光学主管,解释了这些新的SiPho可插拔设备:

“硅光子学是光学的集成电路,就这么简单。

自 64 年前集成电路发明以来,电子技术已经非常发达,但光学器件几乎仍在使用零件。所有的魔力,如何调制数据,都发生在硅光子芯片本身内部。高速调制器、激光器、高速探测器和所有其他操纵光的功能都在硅片内部,因此硅光子可以随体积缩放。更低的成本、更少的激光器和高集成度意味着更高的可靠性和更好的扩展性。当然,您仍然需要 DSP 来完成芯片组。我们相信,从历史上看,当技术得到发展时,集成将永远获胜。

现在这是一项非常热门的技术。两周前,当我们在OFC时,每个人都声称他们有硅光子学。但实际上,很少有公司能够批量出货硅光子学。在过去的 10 年里,Marvell 一直在 DCI 网络中将数据中心连接到数据中心。因此,现在随着人工智能推动了对高带宽和扩展的大量需求,现在是时候将硅光子学引入数据中心并彻底改变光互连的格局了。”

SiPho 芯片如何融入新光模块的图示:

以及 SiPho 技术如何大幅减少模块内部的组件数量并用一个芯片取而代之:

这是Marvell云光学负责人继续介绍硅光子学i.e. 3D SiPho模块的下一步发展:

“两周前,Marvell对3D SiPho引擎进行了现场演示,让很多人感到惊讶。它是一种硅光子,由 32 个发射和接收通道组成,每个通道的功率为 200 G,因此这是第一个被证明的 6.4 Tb 硅光子。

随着带宽的增加,成本会迅速下降,因为成本是按每比特成本计算的。因此,当您将带宽加倍时,芯片不会加倍。

最直接的用例是将 3D SiPho 引擎放入可插拔模块中。我们的客户喜欢可插拔,可插拔光学器件是当今行业规模的推动力。使用当今的分立解决方案,您可以塞进一个小模块的最大光通道数约为 8 个通道。但是使用我们的 3D SiPho 引擎方法,如果我们把模具做得更小,你甚至可以放置 64 个通道。

硅光子学的扩展将使可插拔光学器件在未来许多年内能够扩展。2028 年的互连 TAM 为 111 亿美元,而硅光子学,我们在此基础上再投入 30 亿美元。”

数据中心互联(DCI)市场持续增长

现在,我们进入了Marvell互连产品组合的最后一部分,即DCI市场,在这里,我们得到的不是光学互连,而是更复杂的相干互连。

光学基本上是打开和关闭灯,创建数字 1 和 0,即数字处理器的语言。相干公司超越了这一点,它操纵光的振幅、相位和偏振来编码更多的信息。Marvell 在这里收购了 Inphi,以确立领导地位。

这是 Marvell 连接主管对市场的讨论:

“Inphi 是第一个在可插拔光模块内实现相干 DCI 链路的公司。在此之前,都是这些大型运输箱。我们首先以 100 gig 创建了这个市场,然后我们将其扩展到 400 gig。

在过去的一年里,随着人工智能继续扩大对带宽的需求,这推动了显着的增长。去年,我们还率先宣布了800千兆位模块。我们看到这些解决方案在两个向量上有很大的增长。

首先,当前市场持续增长,随着全球数据中心数量的持续增长,这种情况正在发生。目前,我们今天运送的产品只能达到 120 公里的范围。对于更长的距离,从数百公里到1000公里,客户使用这些大箱子,这些箱子需要大量的电力,而且成本很高。

Marvell已经能够提出一项新技术,即概率星座整形(PCS),使这些可插拔模块的覆盖范围从100公里扩展到1000公里。我们的客户将拆除这些网络盒,并用可插拔芯片取而代之,这为 Marvell 开辟了另一个价值 10 亿美元的市场。

其次,想想这些集群,它们今天是建筑物内数千或数万个 GPU。随着这些 GPU 增长到数十万个 GPU,要创建一个扁平且低延迟的网络,您需要拥有一个更大的数据中心大楼,或者您必须将其分解为同一园区内的多个建筑物,使其看起来像一个数据中心。因此,这些更大的集群所需的距离从不到2公里增加到10到20公里。”

将 Marvell 的所有互连技术整合在一起,该公司预计其产品组合的 TAM 将以 27% 的复合年增长率增长:

云交换机向高级节点转移

云交换机也正在向高级节点转移,Marvell的最新交换机采用5nm技术制造。为了增强其能力,Marvell 于 21 年收购了 Innovium,将 Teralynx 产品组合引入公司。这是最新发布的Teralynx 10交换机:

该公司是该领域实力较强的参与者之一,与领导者博通(Broadcom)和英伟达(Nvidia)一起,后者更早地推出了51Tb交换机。

此外,思科也一直在通过其Silicon One产品线进入交换芯片领域。商用硅或ASIC硅随后入到Arista 等公司制造的交换设备中。

这是 Marvell 这项业务负责人的讲话:

“在许多云数据中心中,所有计算都通过高带宽交换机的结构化网络进行连接。

这些交换机使用行业标准协议,特别是以太网来定义物理层和链路层,以及 IP 路由来引导这些数据包通过网络。现在,这种通用方法有点类似于互联网本身。但这是一个非常好的方法,因为它使客户能够构建几乎任何规模的网络。

他们可以建立网络,混合和匹配不同世代的产品,这样他们就可以在某些情况下真正逐步构建。它使他们能够使用来自不同设备和不同半导体制造商的组件来构建网络,以便他们能够构建特定于其应用需求的架构。这使得云在过去 20 年中能够非常迅速地创新、增长和发展。

过去,互联网应用程序将基于分解为微服务的软件,这些微服务将适合单个处理器及其内存的限制。但是,对于人工智能,您需要将工作负载分布在多个元素之间,然后依靠网络使这些处理器的行为像单个组件一样。

这显然需要具有更高容量和可预测延迟的网络,因为应用程序性能与网络性能直接相关。因此,首先在前端网络中,如果我们要注册该结构,我们将看到与通用处理器相比,为每个加速处理器分配的端口数量可能是其 2 到 3 倍,我们预计该比例将随着每一代新一代更快的 AI 设备而增长。

现在,在后端网络中,集群中的AI元素有一个完全不同的专用交换结构。无论你谈论的是以太网还是InfiniBand,它都代表了一个新的总可用市场,它的增长曲线与我们过去在云中看到的增长曲线完全不同。

让我们来看看开关内部。如果你拿起盒子打开它,你可能会发现里面有一个单芯片、多太比特分组交换机,带有片上数据包缓冲器、片上路由表、片上仪器和遥测。基本上,云运营商路由、观察和响应网络上发生的流量模式所需的所有事情。

现在在过去的10年里,很多公司都试图进入云数据中心网络交换市场,但很多都失败了。这是因为整个行业中只有少数团队拥有构建此类产品的专业知识。就目前而言,Marvell是为数不多的几家拥有长期提供开关芯片路线图所需的团队和技术组合的公司之一。”

华尔街调高Marvell评级

短期估值较高,具备长期投资吸引力

在新冠疫情半导体繁荣之后,每股收益预期实际上继续下降,然而,由于预期即将到来的强劲上行周期,市场已经开始将股票重新评级为44倍的远期市盈率:

事实上,华尔街预计在未来的上升周期中,年收入增长将在20%到30%之间,这将使PE在27年初达到19倍的更具吸引力的估值,同时FCF收益率为5%。

请注意,该公司虽然有较高的销售、一般和行政费用(SBC),在过去十二个月中为6.1亿美元,占今年预期收益的48%,但与当前市值相比,其在1.1%的比例下是可控的。

相比之下,人工智能领域最佳的纯游戏玩家,即英伟达,其交易的远期市盈率仅为31倍。

显然,如果你在寻找数据中心网络方面的投资机会,Marvell和Broadcom将是一些最优质的选择,我怀疑长期投资者在这些公司中将继续表现良好。

尽管英伟达也开始在网络领域积累了相当多的曝光度。如果你在寻找人工智能领域的纯游戏玩家,在我看来,英伟达仍然是最佳选择,除了它们在AI数据中心基础设施方面的曝光外,该公司还有潜力成为更具盈利性的AI应用市场的一个主要参与者,例如自动驾驶或人形机器人市场。

参考资料:

网页链接

科技产业观察

让Kimi组织了一场AI大咖论坛、做了一份AI搜索行业研究,只想说:“真香”!

万字长文详解英伟达股价2年7倍四部曲!最新的投资故事如何演绎?下一个万亿还有哪些投资故事?

AI商业观察:拥抱AI的中国速度!

AI视频生成模型集体“狂飙”,创作边际成本会降到零?生成式AI“数据智能”如何演进?

深度复盘华为发展五大阶段的战略历程启示录与DSTE实战体系!

华为如何“五看”市场?!一篇文章读懂市场洞察必须的产业思维+产品思维!

END