甲骨文AI集群配备131072万块NVIDIA B200 GPU:恐怖算力24万亿亿次

快科技9月12日消息,甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIA Blackwell GPU。

它一共使用了多达131072万块B200 GPU加速卡,FP8浮点、INT8整数峰值性能高达2.4 ZFlops,也就是24万亿亿次每秒。

它的基本节点是NVIDIA GB200 NVL72液冷机柜,每一个内置72块GPU加速卡,不同机柜之间通过129.6TB/s带宽的NVLink总线进行互联。

无论加速卡的数量,还是峰值性能,都超过了马斯克。

不过它目前还只是纸面宣布,甲骨文称NVIDIA要到明年上半年才会批量供货Blackwell GPU,而这个庞大集群何时上线还没有准确的时间。

第二套集群配备了16384块NVIDIA H100,FP8/INT8峰值性能65 PFlops(6.5亿亿次每秒),带宽吞吐总量13Pbps。

第三道集群则是65536块NVIDIA H200,FP8/INT8峰值性能260 EFlops(2.6万亿亿次每秒),带宽吞吐总量52Pbps,今年晚些时候上线。

WideLabs、Zoom等企业已经开始采用甲骨文的新集群服务。

免责声明:本文章由会员“极目新闻”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系