Wallstreetcn
2024.03.27 00:43

News

近日一条推特引发市场讨论,博主发帖表示,和微软工程师聊了聊 GPT-6 训练集群项目,他们表示很烦,因为要在不同地区的 GPU 之间配置无限带宽级链接。

博主:那为什么不将 H100 集群放在同一个地区呢?
微软工程师:我们试过,但是不能将 10 万个 H100 放在一个地区,这样可能会把电网搞崩。

这个说法也印证了马斯克此前担忧,他曾经表示随着 AI 继续发展,现在面临的问题是算力短缺,未来就将面临电力紧缺。