英伟达预告2026年推出下一代Rubin GPU架构,包括HBM4显存和Vera CPU

英伟达预告2026年推出下一代RubinGPU架构,包括HBM4显存和VeraCPU在2024年台北电脑展上,英伟达CEO黄仁勋宣布了下一代RubinGPU架构的预告,计划于2026年推出。英伟达致力于数据中心规模的GPU发展,遵循一年一更新的节奏,并使用统一架构覆盖整个产品线。2024年,Blackwell芯片已开始生产;2025年,将推出BlackwellUltra产品;2026年,推出Rubin产品;2027年,推出RubinUltra产品。RubinGPU架构的主要特点包括8SHBM4显存、VeraCPU、NVLink6Switch(速率达3600Gbps,是NVLink5的两倍)以及CX9SuperNIC和X1600IB/EthernetSwitch。RubinUltraGPU预计将在2027年推出,配备12SHBM4显存。黄仁勋确认所有预告产品都在积极开发中,展示了英伟达在高性能计算和网络技术方面的持续创新和发展。关注频道@ZaiHuaPd频道爆料@ZaiHuabot

相关推荐

封面图片

英伟达首次宣布下一代 GPU 架构 “Rubin”

英伟达首次宣布下一代GPU架构“Rubin”6月2日晚间,英伟达创始人兼首席执行官黄仁勋在台北国际电脑展(COMPUTEX)开幕前发表主题演讲。黄仁勋分享了新半导体技术路线图,该路线图将每年更新。他首次宣布了Rubin平台,它将配备新GPU、基于Arm的新CPU—Vera,以及采用NVLink6、CX9SuperNIC和X1600、并融合InfiniBand/以太网交换机的高级网络平台。Rubin将作为Blackwell的下一代平台。黄仁勋透露,将于2026推出的Rubin平台采用HBM4高带宽内存产品。

封面图片

SK hynix宣布2026年量产HBM4 为下一代AI GPU做准备

SKhynix宣布2026年量产HBM4为下一代AIGPU做准备随着人工智能在市场上的应用迅速增加,我们在迈向未来的过程中需要更强的计算能力,值得注意的是,HBM在人工智能计算如何定位自己的现代生活中发挥了至关重要的作用,因为它是制造人工智能加速器的关键部件。SKhynix副总裁KimChun-hwan在2024年韩国半导体展(SEMICONKorea2024)上发表主题演讲时透露,该公司打算在2026年之前开始量产HBM4,并声称这将推动人工智能市场的巨大增长。他认为,除了早日实现下一代产品过渡之外,重要的是要认识到HBM行业面临着巨大的需求;因此,创造一种既能无缝供应又具有创新性的解决方案更为重要。Kim认为,到2025年,HBM市场预计将增长高达40%,并已提前定位,以充分利用这一市场。关于对HBM4的期待,Trendforce分享的路线图预计,首批HBM4样品的每个堆栈容量将高达36GB,而完整规格预计将在2024-2025年下半年左右由JEDEC发布。首批客户样品和可用性预计将于2026年推出,因此距离我们看到新的高带宽内存人工智能解决方案的实际应用还有很长的时间。目前还不确定哪种类型的人工智能产品将采用新工艺,因此我们暂时无法做出任何预测。随着SKhynix的加入,HBM市场的竞争似乎会变得更加激烈,哪家公司会崛起并登上王者宝座,让我们拭目以待。...PC版:https://www.cnbeta.com.tw/articles/soft/1415875.htm手机版:https://m.cnbeta.com.tw/view/1415875.htm

封面图片

英伟达预告下一代RubinGPU架构:HBM4显存、VeraCPU,2026年推出-IT之家https://www.ithome

封面图片

英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存

英伟达和AMD的下一代人工智能GPU将主要搭配HBM3内存关于HBM3内存,有一个普通的细节不为很多人所知。正如TrendForce所强调的那样,HBM3将以不同的形式出现。据报道,低端HBM3将以5.6至6.4Gbps的速度运行,而高端变体将超过8Gbps。高端变体将被称为"HBM3P、HBM3A、HBM3+和HBM3Gen2"。机构预计,HBM行业的市场份额必将大幅上升,而SK海力士则处于领先地位。预计未来的人工智能GPU,如AMDMI300InstinctGPU和英伟达的H100,都将采用下一代HBM3工艺,而SKHynix在这方面占据了先机,因为它已经进入了制造阶段,并收到了英伟达本身的样品请求。美光(Micron)最近也宣布了其未来的HBM4内存设计计划,但预计要到2026年才会实现,因此即将推出的代号为"GB100"的英伟达BlackwellGPU很可能会采用速度更快的HBM3变体,时间大约在2024-2025年之间。采用第五代工艺技术(10纳米)的HBM3E内存预计将于2024年上半年开始量产,三星/SK海力士预计都将加紧生产。SKhynix率先推出12层HBM3内存,每层24GB容量,向客户提供样品三星和美光(Micron)等竞争对手也在加足马力,有多篇报道都围绕着这两家公司。据说,三星建议英伟达通过其部门负责晶圆和内存的采购。与此同时,据报道美光已与台积电合作,成为英伟达人工智能GPU的内存供应商。在之前的报道中,我们根据TrendForce披露的数据讨论了人工智能产业的前景。据预测,从2023年到2027年,人工智能服务器出货量预计将增长15.4%,复合年增长率(CAGR)预计为12.2%。出货量的大幅增长最终将导致公司之间的竞争加剧,最终推动创新。...PC版:https://www.cnbeta.com.tw/articles/soft/1374607.htm手机版:https://m.cnbeta.com.tw/view/1374607.htm

封面图片

RTX 50 系显卡 2025 年到来,英伟达下一代芯片架构 Ada Lovelace Next 路线图公布

RTX50系显卡2025年到来,英伟达下一代芯片架构AdaLovelaceNext路线图公布https://www.ithome.com/0/702/353.htm下一代游戏架构“AdaLovelaceNext”计划于2025年登场,预计用于RTX50系列。据外媒videocard报道,英伟达预计将在2025年前发布更多RTX40系的中期改款“Ti”型号

封面图片

NVIDIA Blackwell B100 GPU将搭配SK Hynix HBM3e显存 预计于2024年Q2推出

NVIDIABlackwellB100GPU将搭配SKHynixHBM3e显存预计于2024年Q2推出英伟达计划在明年第二季度左右发布的下一代人工智能旗舰图形处理器(GPU)B100中包含了HBM3E。市场预测,与英伟达目前最高规格的GPUH100相比,B100将成为更强大的AI规则改变者。该产品主要应用于人工智能云和超级计算领域。英伟达占据了90%以上的AIGPU市场份额。英伟达原计划在明年第四季度发布B100,但据说由于需求快速增长,已将发布日期提前到第二季度末。随着B100发布日期的提前,SKHynix也开始忙碌起来。由于原本预计在第二季度初进行的质量测试日程被推迟到了第一季度,我们正集中精力提高产量。预计质量测试的数量最早将于1月份移交给NVIDIA。报道称,英伟达独家选择SKHynix的HBM3e内存,是因为其具有较高的量产质量。这些芯片将于明年初交给英伟达,以便该公司开始最后的鉴定测试。至于采用新DRAM的产品,据说英伟达的下一代旗舰GPUB100"Blackwell"将采用这种内存。据悉,B100原计划于2024年第四季度推出,但英伟达现在将提前于2024年第二季度推出该芯片。同样,还有消息称英伟达从2023年6月就开始开发BlackwellB100GPU,并在8月份从SKHynix收到了HBM3e内存的初始样品。据悉,这一变化的原因是AIGPU需求激增,需要更强大的AI解决方案。英伟达的AmpereA100和HopperH100GPU已经占据了AIGPU市场90%以上的份额,而BlackwellB100将进一步巩固绿色团队在AI领域无可争议的领导地位。该消息来源还引用了半导体行业内一位消息人士的话,称没有HBM3E,B100是不可能顺利实现批量销售的。半导体行业的一位官员说:"没有HBM3E,英伟达不可能销售B100。"他还补充说:"一旦质量达标,签约只是时间问题。"最近的一份投资者路线图证实,英伟达将BlackwellB100GPU定位在2024年推出。甚至B100的后续产品X100GPU也被提到将于2025年推出。这表明英伟达在加快人工智能GPU的步伐,并希望在未来几年保持领先地位。...PC版:https://www.cnbeta.com.tw/articles/soft/1390049.htm手机版:https://m.cnbeta.com.tw/view/1390049.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人