网传美国芯片厂商 AMD、英伟达相继收到总部通知,对中国区客户断供高端 GPU 芯片,暂时不清楚信息真假。

网传美国芯片厂商AMD、英伟达相继收到总部通知,对中国区客户断供高端GPU芯片,暂时不清楚信息真假。据了解,AMD告知其收到总部紧急通知:一是暂停对中国区所有数据中心GPU卡MI100和MI200发货;二是统计中国区Ml100已发货量;三是统计中国区MI200已发货客户清单和发货明细。群友:真,有通知转升腾了AMD向路透社证实,已收到美国政府通知,禁止向中国出口用于人工智能的MI250芯片。频道投稿:@zaihuabot交流群组:@zaihuachat花花优券:@zaihuatb

相关推荐

封面图片

[无可靠信源真假自辨]

[无可靠信源真假自辨]传美国或对中国断供数据中心GPU芯片据消息,美国芯片厂商AMD、英伟达相继收到总部通知,对中国区客户断供高端GPU芯片。AMD告知其收到总部紧急通知:1、暂停对中国区所有数据中心GPU卡MI100和MI200发货;2、统计中国区MI100已发货量。统计中国区MI200已发货客户清单和发货明细;3、AMD分析可能是美国政府要限制对中国区高性能GPU卡销售,尤其是针对中国HPC的双精度高性能卡。NVIDIA中国区已收到总部要求:1、暂停对中国区所有客户所有代理商的数据中心GPU卡A100和H100的发货,其它GPU卡不受影响;2、各服务器OEM的现有库存A100GPU卡,目前i可以对各自的行业客户继续交付,NVIDIA中国区目前也没有对EM发任何通知;3、NVIDIA总部还在分析美国政府的政策要求,预计还需要2~3天才会有对中国区客户与合作伙伴的沟通口径。对此,媒体联系AMD中国区相关人士,对方表示否认;英伟达则未予置评。——

封面图片

传美国将对中国断供高端GPU:AMD及NVIDIA已暂停供货

传美国将对中国断供高端GPU:AMD及NVIDIA已暂停供货日前,网传美国芯片厂商AMD、英伟达相继收到总部通知,对中国区客户断供高端GPU芯片。网传AMD收到总部紧急通知:1.暂停对中国区所有数据中心GPU卡MI100和MI200发货;2.统计中国区Ml100已发货量;3.统计中国区MI200已发货客户清单和发货明细AMD分析可能是美国政府要限制对中国区高性能GPU卡销售,尤其是针对中国HPC的双精度高性能卡。网传NVIDIA相关消息:1.NVIDIA中国区已收到总部要求:暂停对中国区所有客户所有代理商的数据中心GPU卡A100和H100的发货,其它GPU卡不受影响;2.各服务器OEM的现有库存A100GPU卡,目前可以对各自的行业客户继续交付,NVIDIA中国区目前也没有对OEM发任何Letter;3.NVIDIA总部还在分析美国政府的政策要求,预计还需要2~3天才会有对中国区客户与合作伙伴的沟通口径”。据了解,随着GPU自身在并行处理和通用计算的优势,逐步拓展了其在服务器、汽车、矿机、人工智能、边缘计算等领域的衍生需求。AMD及NVIDIA对中国大陆断供面向数据中心的高端GPU计算卡,将对于中国大陆的云计算产业及人工智能产业发展带来极为不利的影响。注:英伟达股价周三在盘后交易中下跌,或受此影响。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

美国 政府限制 NVIDIA、AMD 向中国和俄罗斯出口高端 GPU 芯片,可能影响 AI 等技术发展

美国政府限制NVIDIA、AMD向中国和俄罗斯出口高端GPU芯片,可能影响AI等技术发展NVIDIA已暂停数据中心GPU卡A100和H100对中国区的发货,其它GPU卡不受影响。AMD方面已暂停所有数据中心GPU卡MI100和MI200对中国区的发货;向中国出口MI250芯片同样被限制。http://www.icsmart.cn/55878/https://amp.dw.com/zh/a-62987820https://investor.nvidia.com/financial-info/sec-filings/sec-filings-details/default.aspx?FilingId=16057737

封面图片

挑战英伟达,AMD 即将推出 AI 芯片 MI300X

挑战英伟达,AMD即将推出AI芯片MI300X当地时间周二,AMD宣布,该公司即将推出的最先进的人工智能GPUMI300X将于今年晚些时候开始向部分客户发货。GPU是OpenAI等公司用来搭建ChatGPT等尖端人工智能程序的芯片。虽然AMD未披露价格,但此举可能会给英伟达GPU带来价格压力,如后者的H100,其价格能够达到3万美元以上。()频道:@TestFlightCN

封面图片

强攻AI叫板英伟达 AMD突围算力芯片大战

强攻AI叫板英伟达AMD突围算力芯片大战但如今,英伟达或已无法高枕无忧。近日,AMD在美国旧金山举办的“数据中心和人工智能技术首映式”活动上,正式发布MI300系列在内的一系列AI和数据中心相关技术产品,其中包括直接对标英伟达旗舰产品H100的MI300X,以及全球首款针对AI和HPC的加速处理器(APU)MI300A。这意味着AMD将在人工智能领域与英伟达“正面刚”。在业界看来,硬刚英伟达,AMD无疑在获取客户,数据和库、硬件加速和生态建设等方面面临重要挑战,以及在当前的行业发展和竞争格局下,其尚未公布的定价将成为战略重点。但在旺盛的市场需求和科技巨头多元布局战略下,AMDMI300X凭借性能优势以及系列相关建构升级,势必将成为AI市场的有力竞争者,以及英伟达高端GPU的重要替代产品。硬刚竞品力创新机随着AI浪潮席卷全球,AMD已将发展人工智能列为核心战略,在技术创新高地保持强力攻势,并于近日推出了新一代AI芯片、数据中心CPU以及预告将推出全新DPU芯片。显然,其中最受瞩目的莫过于用于训练大模型的AI芯片InstinctMI300X,直接对标英伟高端GPUH100。至于另一款同期发布的MI300A,号称全球首款针对AI和HPC的APU,以及业界首款“CPU+GPU+HBM显存”一体化的数据中心芯片。一些分析机构和行业人士研判认为,MI300X性能强大,是对标英伟达高端加速卡的有力竞品。相较H100,MI300X在晶体管数量和显存容量上亦大幅领先。而MI300A凭借CPU+GPU的能力,产品组合性能更高、同时具有成本优势。另外,在收购赛灵思之后,AMD在加速卡领域的定制化服务大幅领先英伟达,能够协助云厂商在特定算法模块上进行训练。随着下游应用端的高速发展,使得微软、Google、Meta等众多海外巨头争相增加算力储备,算力芯片需求高度旺盛之下,英伟达一家独大的市场格局或将迎来转变。但有所遗憾的是,AMD股价在发布会活动过程中转而走低,收跌3.61%。而同行英伟达则收涨3.90%,市值再次收于1万亿美元关口上方。在投资人眼里,AMD的所谓“超级芯片”MI300X似乎仍然难以撼动英伟达的根基。其中,TIRIASResearch首席分析师KevinKrewell表示:“我认为,没有(大客户)表示将使用MI300X或MI300A,这可能会让华尔街感到失望。他们希望AMD宣布已经在某些设计方面取代了英伟达。”目前,AMD公布的客户仅有开源大模型独角兽HuggingFace,以及更早之前透露的劳伦斯利弗莫尔国家实验室。虽然两者与对大模型和数据中心芯片有更大需求的科技巨头不在一个数量级,但在AMD的发布会上值得注意的是,亚马逊旗下云计算部门AWS、甲骨文云、Meta、微软Azure的高管均来到现场。其参会动机一定程度上不言而明。此后,由于传出亚马逊正在考虑使用MI300人工智能芯片,AMD股价随即上涨约1%。InsiderIntelligence分析师JacobBourne表示:“亚马逊正在考虑AMD的MI300,这一事实表明科技公司有意使其AI开发硬件多样化,这可能会为其他芯片制造商创造新的机会。”美国科技类评论家BillyDuberstein也指出,潜在客户对MI300非常感兴趣,正在强烈要求寻找英伟达的替代产品。鉴于目前英伟达H100的服务器价格高昂,数据中心运营商希望看到有一个第三方竞争对手,这有助于降低AI芯片的价格。因此,这对AMD而言是一个巨大的优势,对英伟达来说则是一个挑战。这能为每个市场参与者带来良好的盈利能力。尚有软肋定价是“金”从产品性能来看,AMDMI300X已在业界力拔头筹,包括支持达192GB的HBM3内存(是英伟达H100的2.4倍),HBM内存带宽达5.2TB/s(是英伟达H100的1.6倍),InfinityFabric总线带宽为896GB/s,晶体管数量达到1530亿个,远高英伟达H100的800亿个。但AMD并没有公布这款GPU的价格,使得“双雄”竞争增加了悬念。AMDMI300处理器业界分析称,AMD并没有透露新款AI芯片的具体售价,但想要有显著的成本优势可能不太现实,因为高密度的HBM价格昂贵。即便MI300X的内存达到了192GB,但这也不是显著优势,因为英伟达也拥有相同内存规格的产品。对此,Cambrian-AIResearchLLC创始人兼首席分析师KarlFreund也在福布斯网站上发文表示,虽然MI300X芯片提供了192GB内存,但英伟达在这一点上将很快迎头赶上,甚至在相同的时间框架内可能实现反超,所以这并不是一个很大的优势。而且MI300X的售价将会十分高昂,与英伟达的H100相比不会有明显的成本优势。另据晚点LatePost援引一位AI从业者的话报道称,他所在的公司曾接触一家非英伟达GPU厂商,对方的芯片和服务报价比英伟达更低,也承诺提供更及时的服务。但他们判断使用其它GPU的整体训练和开发成本会高于英伟达,还得承担结果的不确定性和花更多时间。“虽然A100价格贵,但其实用起来是最便宜的。”他说,对有意抓住大模型机会的大型科技公司和头部创业公司来说,钱往往不是问题,时间才是更宝贵的资源。不难猜测,这家非“英伟达GPU厂商”是AMD的可能性极高。由此,在AI浪潮下,争市场还是保盈利,将成为MI300X届时定价的战略重点。但除了价格,AMD势必也面临其它各类挑战。KarlFreund认为,虽然AMD新推出的MI300X芯片激起了市场各方的巨大兴趣,但与英伟达的H100芯片相比面临的一些挑战包括,英伟达的H100现在已开始全面出货,而且到目前为止仍拥有AI行业最大的软件和研究人员生态系统。然而,AMD尚未披露任何基准测试,也还没有上市(预计今年第四季度量产)。另外,训练和运行大语言模型(LLM)时的性能取决于系统设计和GPU,MI300X正式推出时才能看到一些详细比较。至于真正关键的地方,KarlFreund指出,MI300X并不具备H100所拥有的TransformerEngine(一个用于在英伟达GPU上加速Transformer模型的库)。基于此,H100可以将大模型的性能提高两倍。如果用几千个(英伟达的)GPU来训练一个新模型需要一年的时间,那么用AMD的硬件来训练可能需要再等2-3年,或者投入3倍的GPU来解决问题。可即便如此,市场也不愿意英伟达以高溢价垄断市场。美国投行TDCowen在一份报告中指出,“随着市场寻找人工智能市场领军企业英伟达的替代品,AMD成为日益明显的选择。”仅凭这一点,就足以让科技巨头保持对这家公司的高度兴趣。正因如此,资本市场对于AMD给予更多积极的预期。部分行业分析预测,AMD2024年AI相关营收有望达到4亿美元,最高甚至可能达到12亿美元——是此前预期的12倍之多。生态大战前程可期毋庸置疑,与英伟达的H100相比,MI300X也面临着多种挑战和一定劣势。华泰证券表示,AMD对英伟达市场份额的挑战并非能一蹴而就。一方面,英伟达GPU芯片的算力壁垒以及AI训练端的深入布局一时难以撼动,另一方面,AMD的软件生态也限制其与客户系统的融合及渗透应用场景。可以说,英伟达的领先地位不仅来自于其芯片,还来自于十多年来为人工智能研究人员提供的软件工具。MoorInsights&Strategy分析师AnshelSag称:“即使AMD在硬件性能方面具有竞争力,但人们仍然不相信其软件解决方案能与英伟达竞争。”进一步来看,软件生态也被多位行业人士视为英伟达铜墙铁壁一般的护城河。据悉,英伟达于2007年发布CUDA生态系统。通过使用CUDA,开发者可以将英伟达的GPU用于通用的计算处理,而非仅限于图形处理。CUDA提供了一个直观的编程接口,允许开发者更容易使用C,C++,Python,以及其他一些语言来编写并行代码。2023年,CUDA的开发者已达400万,包括Adobe等大型企业客户。而用户越多构成的生态粘性就越大。相比之下,AMD在2016年推出了ROCm,目标是建立可替代英伟达CUDA的生态。在发布M...PC版:https://www.cnbeta.com.tw/articles/soft/1365759.htm手机版:https://m.cnbeta.com.tw/view/1365759.htm

封面图片

AMD专利揭示未来RDNA架构的独特"多芯片"GPU方法

AMD专利揭示未来RDNA架构的独特"多芯片"GPU方法AMD是在多芯片设计方面经验丰富的半导体公司之一,因为他们的InstinctMI200AI加速器系列率先采用了MCM设计,在单个封装上堆叠了多个芯片,如GPC(图形处理内核)、HBM堆栈和I/O芯片。该公司还率先在其最新的RDNA3架构上采用了MCM解决方案,如Navi31。然而,凭借这项新专利,AMD希望将这一理念转化为主流的"RDNA"架构,具体方法如下。该专利描述了芯片组利用的三种不同"模式",其区别在于如何分配资源并进行管理。该专利揭示了三种不同的模式,第一种是"单GPU"模式,这与现代GPU的功能非常相似。所有板载芯片将作为一个统一的处理单元,在协作环境中共享资源。第二种模式被称为"独立模式",在这种模式下,单个芯片将独立运行,通过专用的前端芯片负责为其相关的着色器引擎芯片调度任务。第三种模式是最有前景的,被称为"混合模式",在这种模式下,芯片既可以独立运行,也可以共存。它充分利用了统一处理和独立处理的优势,提供了可扩展性和高效的资源利用率。该专利没有透露AMD采用MCM设计的细节,因此我们无法评论AMD是否会决定采用专利中提到的想法。不过,从总体上讲,多芯片配置虽然可以提高性能和可扩展性,但生产起来却要复杂得多,需要高端设备和工艺,最终也会增加成本。以下是该专利对多芯片方法的描述:通过将GPU分成多个GPU芯片,处理系统可根据运行模式灵活、经济地配置活动GPU物理资源的数量。此外,可配置数量的GPU芯片被组装到单个GPU中,这样就可以使用少量的分带组装出具有不同数量GPU芯片的多个不同GPU,并且可以用实现不同技术世代的GPU芯片构建多芯片GPU。目前,AMD在消费级市场还没有合适的多GPU芯片解决方案。Navi31GPU在很大程度上仍是采用单GCD的单片设计,但承载无限缓存和内存控制器的MCD已被移至芯片组封装。随着下一代RDNA架构的推出,我们可以预见AMD将更加注重多芯片封装,多个GCD将拥有各自专用的着色器引擎块。AMD曾计划在RDNA4系列中采用Navi4X/Navi4C这样的GPU,但据说该计划已被取消,转而采用更主流的单片封装。...PC版:https://www.cnbeta.com.tw/articles/soft/1434814.htm手机版:https://m.cnbeta.com.tw/view/1434814.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人