谷歌公布新一代AI超算 称比英伟达A100更快、更节能

谷歌公布新一代AI超算称比英伟达A100更快、更节能目前,谷歌TPU已经进入第四代。谷歌公司在周二发布了一篇科学论文,详细介绍了如何利用自己开发的定制光开关将4000多个芯片连接成一个超级计算机。对于构建AI超级计算机的公司来说,改善这些连接已经成为竞争的关键点,因为所谓的大规模语言模型正在不断增大,已无法在单个芯片上存储,而这些模型正驱动着谷歌的Bard或OpenAI的ChatGPT等技术。这类模型必须分布在成千上万的芯片之间,然后这些芯片要在数周或更长时间内协同工作来训练模型。谷歌的PaLM模型,是迄今为止公开披露的最大语言模型,它通过分布在两台4000芯片的超级计算机上进行了50天的训练。谷歌表示,其超级计算机可以轻松地动态重新配置芯片之间的连接,有助于避免故障并进行性能优化。“电路交换使得我们能够轻松避开故障组件,”谷歌高级研究员NormJouppi和谷歌杰出工程师DavidPatterson在一篇关于该系统的博客文章中写道。“这种灵活性甚至使我们能够改变超级计算机互联网络的拓扑结构,以加速ML(机器学习)模型的性能。”虽然谷歌直到现在才公开其超级计算机的详细信息,但它自2020年以来就已经在俄克拉荷马州梅斯县的数据中心内运行。谷歌表示,初创公司Midjourney使用该系统来训练其模型,该模型在输入几个词的文本后可以生成新的图像。谷歌在论文中表示,与相同规模的系统相比,它的超级计算机比基于英伟达A100芯片的系统更快1.7倍,更节能1.9倍。据了解,A100芯片早于第四代TPU面市。谷歌表示,它没有将第四代TPU与英伟达当前旗舰H100芯片进行比较,因为H100是在谷歌这款芯片应用后上市的,并且采用了更新的技术。谷歌暗示正在研发一款新的TPU,将与英伟达H100竞争,但没有提供详细信息。Jouppi告诉媒体,谷歌有“充足的未来芯片储备”。...PC版:https://www.cnbeta.com.tw/articles/soft/1353045.htm手机版:https://m.cnbeta.com.tw/view/1353045.htm

相关推荐

封面图片

谷歌首次公布AI超级计算机技术细节 希望摆脱英伟达芯片依赖

谷歌首次公布AI超级计算机技术细节希望摆脱英伟达芯片依赖谷歌研究人员当地时间4月4日在线发表一篇论文,首次公布了用于训练人工智能模型的超级计算机的技术细节,并宣称该系统比英伟达的超算系统更快且功耗更低。谷歌新发表的这篇题为《TPUv4:用于机器学习的光学可重构超级计算机,硬件支持嵌入》的文章介绍了谷歌自己设计的定制TPU芯片。谷歌目前90%以上的人工智能训练工作都使用这些芯片。PC版:https://www.cnbeta.com.tw/articles/soft/1353147.htm手机版:https://m.cnbeta.com.tw/view/1353147.htm

封面图片

Google 称其 TPU 超算比英伟达 A100 更快更环保

Google本周二在预印本平台arXiv上发表论文,介绍了它的第四代TPU(TensorProcessingUnit)处理器。TPU是Google专用于训练AI的定制处理器,每个TPUv4包含两个TensorCores(TC),每个TC包含四个128x128矩阵乘法单元(MXU)和一个矢量处理单元(VPU),使用128条通道(每通道16ALU)和一个16MB的矢量存储器(VMEM)。Google自己的测试显示,它的TPUv4相对于英伟达的A100更快更环保(能耗更低)。A100是英伟达上一代的数据中心GPU,它最新一代的产品是H100,Google研究人员没有对比TPUv4和H100,因为H100是在TPUv4之后推出的。与英伟达的产品不同的是,GoogleTPU不对外销售,公开TPUv4的一个目的可能是为了宣传该公司的云端TPU服务。()()频道:@TestFlightCN

封面图片

谷歌公布其训练 PaLM 模型的超级计算机细节

谷歌公布其训练PaLM模型的超级计算机细节谷歌的PaLM模型是迄今为止其公开披露的最大的语言模型,谷歌通过将其分割到由4,000个芯片组成的两台超级计算机上,历时50天训练而成。此外,Midjourney也使用该系统来训练其模型。谷歌称,对于同等规模的系统,采用这些芯片比基于英伟达A100芯片的系统快1.7倍,省电1.9倍。但谷歌没有与英伟达目前的旗舰产品H100芯片进行比较,因为H100是在谷歌的芯片之后上市的,而且是用更新的技术制造的。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

华为高管:升腾人工智能算力性能已超过英伟达A100

华为高管:升腾人工智能算力性能已超过英伟达A100近期举行的2024世界半导体大会暨南京国际半导体博览会的一场分论坛上,江苏鲲鹏·升腾生态创新中心首席运营官王陶透露,升腾集群是国内唯一已完成训练千亿参数大模型的技术路线,性能已经超过了英伟达A100。王陶表示,中国大模型里面,有近50%选择了升腾技术路线。与英伟达A100相比,升腾人工智能芯片在训练效率层面最高是英伟达的1.1倍。尤其在训练MetaLlama、BloomGPT等模型方面,升腾人工智能算力训练效率大大优于英伟达A100,甚至10倍领先其他国产友商。——

封面图片

谷歌、Meta、微软将是新一代AI显卡 NVIDIA GH200 的首批用户

谷歌、Meta、微软将是新一代AI显卡NVIDIAGH200的首批用户在COMPUTEX2023上,专为AI打造的 DGXGH200超级计算机,通过NVLink互连技术使256个GH200超级芯片可以作为单个GPU执行,这提供了1exaflop的性能和144TB的共享内存。可量产的DGXGH200与500强超算第一名的Frontier相比只落后0.1exaflop算力,与2020年发布的DGXA100相比多了近500倍内存。GH200超级芯片通过使用NVLink-C2C技术将基于Arm的GraceCPU与H100GPU组合在同一封装,从而消除了对传统CPU到GPUPCIe连接的需求。与最新的PCIe技术相比,这将GPU和CPU之间的带宽提高了7倍,将互连功耗降低了5倍以上,并为单卡提供了600GB内存。——频道:@TestFlightCN

封面图片

英伟达发布新一代数据中心超级芯片

英伟达发布新一代数据中心超级芯片在周二的主题演讲中,黄仁勋介绍了下一代DGXGH200GraceHopper超级芯片,专为OpenAI的ChatGPT等大内存生成性人工智能模型设计,以扩展全球的数据中心。在发布会前的新闻发布会上,英伟达的超大规模和高性能计算部门主管IanBuck告诉记者,GH200比该公司的H100数据中心系统容纳了更多的内存和更大的带宽。GH200采用了英伟达的HopperGPU架构,并将其与ArmLtd.的GraceCPU架构结合起来。该芯片拥有141GB的HBM3内存,以及每秒5TB的带宽。GH200可以在NVLink的双GH200系统中叠加使用,使内存增加3.5倍,带宽增加两倍。这两种产品都将在2024年第二季度上市,但英伟达没有透露定价。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人