发布于: Android转发:13回复:244喜欢:40
所有大佬都说电力才是真正的瓶颈。。

精彩讨论

山行04-25 21:33

来嘛

陈达美股投资04-25 18:34

懂了,猛干长江电力和宁德时代

张小丰04-25 18:45

你低估了AI电力需求,行业已经在规划超级计算集群了,需要一个核电站的电力单独供应一个数据中心,注意是一个数据中心可以消耗一整个核电站。。。。。。到这个地步就是完全的电力瓶颈,因为建新的核电站需要的审核流程太长。

张小丰04-26 08:45

我以前也觉得电力是瓶颈是不是有点夸张?直到我发现几年以后一个超大数据中心都需要一个核电站来单独供电。比如微软的“星门stargate”计划,未来几年要建成的超巨型数据中心并且已经和一个核电站签好了。。。你想想,一个企业的一个数据中心都需要1个核电站专供,那么多家企业都会建多个数据中心,这么短时间内边际多出如此多的电力需求,这不是瓶颈是什么?对电力的需求是超快速指数级增长,但电力的扩张不可能这么快。几年以后就会进入电力瓶颈期。

张小丰04-25 21:52

你这个理解已经过时了。实际上现在情况是把一个数据中心当成一个巨型GPU。而这里面能效进步的空间巨大。我举个实际的例子,GB200和H100工艺都是TSMC的4nm,没有变化的。但GB200的能效提升了4倍。 所以你从这个角度来看,data center as gpu看成一个输出算力的整体,目前是处在能效飞速提升的阶段,而不是瓶颈。

全部讨论

04-25 19:46

我不懂随便说哈,不做线性外推,而是Think out of box一下:有没有可能像马斯克说的,明年AI就比任何人都聪明,五年内比所有人加起来都聪明。
然后这个AI就找出了可以高效学习和推理,同时像人类大脑一样低功耗的解决方案呢,或者这个AI搞定了可控核聚变和室温超导呢

04-25 18:39

谁能给我个量化数值描述一下AI到底多耗电?

嗯,使用的人越多,算力分配就不足,而算力不够,AI就不够聪明。但算力又非常费电。看到一个帖子,说微软的工程师抱怨在最新版GPT训练集群项目中带宽严重不足,大大限制了性能,但如果将算力集中的话,当地电网又无法支持部署超过10万片H100 GPU,否则电网会瘫痪。

很明显指向金盘和伊戈尔啊

利好华润电力…

04-25 21:40

建议AI服务器搬到中国来,电管够

核聚变,高温超导……

04-25 20:51

你让他们把服务器放中国来试试,只要电费利润给足,我们能供应他们一万年

04-25 20:07

投入要考虑产出效益的,不可能永无止境的投入?随便拍脑袋吧

04-25 21:20

到时候把居民电价提高2倍,工行业电价提高5倍,充电站电价提高10倍。就不缺电了