发布于: 雪球转发:0回复:0喜欢:0

AI板块再出利好—— 最快模型横空出世!·

从走势来看,AI、AIGC和Sora等概念板块连续几天大幅上涨(去年和今年春节前后都在推AI方面的概念板块),今明两天多少会出现分化和调整。但是从中长期来说,仍具备较大投资价值。等小幅回调后,可考虑一下。

► 澎湃新闻:AI芯片公司Groq 近日宣布,其大模型每秒输出近500个token,实现了极低的延迟,成为全球最快的大模型。这个速度可以秒杀ChatGPT-3.5,后者每秒生成速度仅为40个token。Groq的处理器名为LPU(语言处理单元),是一种新型的端到端处理单元系统,可以为具备序列组件的计算密集型应用(比如LLM)提供极快的推理速度。Groq还在LPU上运行了最新锐的开源模型Mixtral,模型在不到一秒的时间内回复了包含数百个单词的事实性的、引用的答案。

平安证券:GPU主要用于图形渲染,而LPU的架构旨在为AI计算提供确定性的性能。LPU的架构不同于GPU使用的SIMD(单指令、多数据)模型,而是采用更精简的方法,消除了对复杂调度硬件的需求。这种设计允许有效利用每个时钟周期,确保一致的延迟和吞吐量。能源效率是LPU相对于GPU的另一个值得注意的优势。通过减少与管理多个线程相关的开销并避免核心利用率不足,LPU可以提供更多的每瓦计算量,将其定位为更环保的替代方案。在A100和H100相对紧缺的时代,LPU或许会成为大模型开发商的新选择。

► 上证报:据Groq披露,一张LPU配备一块SRAM,内存是230MB。支持运行一个AI模型,要配置约256张LPU,这需要4个满载的服务器机架。一张LPU卡销售超过2万美元。可是,同样的AI模型采用GPU运行,只需要1个H200,相当于1/4个服务器机架密度。简单计算,256*2万美元=512万美元。一张H100价格不超过4万美元。采用SRAM可比采用GPU贵多了,增加几十倍以上成本。存储界人士表示,为了提升10倍的速度,增加大几十倍成本,该路径短期内不具备大规模使用的可能性,也就不能颠覆GPU了。

► 国投证券:作为核心题材的存储器受益于AI时代大发展,存储复苏也利好整个板块。主流市场的存储厂商自2023年三季度以来迎来业绩拐点,受益于AI服务器需求激增,高带宽存储芯片HBM受到热捧,成为存储芯片行业发展的重要增量。据Trend Force预计,今年一季度DRAM合约价季涨幅约13%至18%,NAND Flash为18%至23%,全年维持上涨趋势,到2024年底,DRAM和NAND Flash的价格将上涨约60%,持续看好整个板块产业趋势,相关公司的业绩有望暴增。