庄总,我就知道你还会回来的。本来我还在为庄总上周清仓$中远海控(SH601919)$ 而懊恼,要是今早清仓,在抄底,那简直无敌了。可惜,正如庄总所说,差了点运气。
对于庄总犀利独到的眼光,我十分佩服,不过在下也有一点看法,一点浅薄妄言,全当抛砖引玉了。
海狗如果利用船来发电,而且可以完全无视枯水期这类因素,那海狗不应该按电力板块估值,而是要按通用人工智能板块来估值。
目前人工智能模型的发展速度非常快,后来者,比如:Anthropic的Claude Opus、Mistral Large版、谷歌的Gemma和Meta在4月18日刚刚发布的Llama 3模型。这些模型追赶GPT-4的速度都很快。看起来跟随着要赶上了,但其实要赶上难度非常大。
因为算力的尽头是电力!
GPT-4这个档次的大模型训练,需要的硬件大约是一个2-3万块GPU满负荷持续计算三四个月。那么继续竞争,下一代GPT-5所需要的GPU大约就是10-15万块GPU满负荷工作三四个月的硬件情况。能耗费得起这笔巨资的企业,数量就不是很多。就算这笔钱花得起,也势必会卡在能源上。
我们算一下,H100的峰值功耗700瓦,15万块H100就是1亿瓦。而这套系统里还包括存储设备、水冷设备、操作系统等等的电力消耗。可能大家不知道,一个大型数据中心冷却系统的能量消耗就占总能源消耗的40%。所以,最终为这套训练GPT-5/6而准备的硬件供电,至少得按1.5亿瓦的功耗去准备,电力行业通用的说法就是15万千瓦的功耗。
一个公司就算有钱、有技术、有人才,弄到了15万张H100或者GB200,等它架设好了一测试,马上就会出问题。因为它测试所在的那座城市一下就全城跳闸停电了。
咱们国家对水电站的装机容量是这么划分的:25万千瓦以上的算大型水电站。25万千瓦装机容量的水电站输出15万千瓦的功耗,这是一个典型的应用。
所以,下一代大语言模型训练对应的用电负荷,对世界上任何城市都是很沉重的负担。想训练出下一代GPT-5/6,不只是搞定软硬件和人才就可以的,还得想法搞定供电系统。
试想,如果海狗有了这样的发电实力,那岂不是全球算力看中国,中国算力靠海狗!
放眼望去,这样的公司哪里去找?前无古人后无来者啊?海狗的存在就犹如庄总在雪球的存在,都是不可复制的辉煌。
最后,恭喜庄总抄到大底,也感谢庄总为我们分享自己独到的洞见力。
世界靠海狗,投资靠庄总!