来嘛
你低估了AI电力需求,行业已经在规划超级计算集群了,需要一个核电站的电力单独供应一个数据中心,注意是一个数据中心可以消耗一整个核电站。。。。。。到这个地步就是完全的电力瓶颈,因为建新的核电站需要的审核流程太长。
我以前也觉得电力是瓶颈是不是有点夸张?直到我发现几年以后一个超大数据中心都需要一个核电站来单独供电。比如微软的“星门stargate”计划,未来几年要建成的超巨型数据中心并且已经和一个核电站签好了。。。你想想,一个企业的一个数据中心都需要1个核电站专供,那么多家企业都会建多个数据中心,这么短时间内边际多出如此多的电力需求,这不是瓶颈是什么?对电力的需求是超快速指数级增长,但电力的扩张不可能这么快。几年以后就会进入电力瓶颈期。
你这个理解已经过时了。实际上现在情况是把一个数据中心当成一个巨型GPU。而这里面能效进步的空间巨大。我举个实际的例子,GB200和H100工艺都是TSMC的4nm,没有变化的。但GB200的能效提升了4倍。 所以你从这个角度来看,data center as gpu看成一个输出算力的整体,目前是处在能效飞速提升的阶段,而不是瓶颈。
化石能源,水电都是有限的,核聚变30年内也是遥遥无期。看来唯一的解决方案就是需要把太阳能光伏板的【产能】再提高10倍,风机产能扩大【5倍】,才能应付未来的AI瓶颈
1999年的时候所有人都说互联网带宽才是最大的瓶颈
像引入$特斯拉(TSLA)$ 一样引入国外AI企业啊,中国电管够,又稳又便宜,还可以提供超级大市场可供AI各个应用场景的快速迭代!