AMD“终极武器”今夜来袭 微软或将登台助阵

AMD“终极武器”今夜来袭微软或将登台助阵投行Wedbush的分析师在近日发布的研报中表示,在本次活动中,AMD会将MI300的产品性能与英伟达的H100进行比较,尤其是内存和带宽方面。Wedbush还认为,微软或将参与AMD本次活动,因为微软已经宣布将AMD的新芯片应用在Azure云计算业务中。综合多家外媒报道,除了微软以外,亚马逊、甲骨文(Oracle)、IBM等多家科技巨头也在考虑AMD的产品。郭明𫓹在近期发布的市场简报中指出,AMD的最大客户是微软,出货量占比超过50%,其次是亚马逊。另外Meta和Google两家公司目前正在测试AMD的产品,预计Meta有极高概率会成为AMD的客户。另外,科技媒体Wccftech表示,AdvancingAI是一场聚焦于人工智能的活动,因此主流消费级产品不太可能会在本次活动上亮相,但有关人工智能的消费级应用和数据中心业务相关信息有望在本次活动上发布。MI300市场表现将如何?目前,多名分析师看好AMDMI300系列产品的市场表现。Jefferies的分析师表明,随着MI300的推出,AMD将与英伟达一起成为科技公司的“首选”。美银也在最新报告中写道,AMD的产品对行业巨头、普通企业、OEM以及AI初创公司都具有良好的吸引力。从出货量来看,郭明𫓹预计,以MI300A为主,AMD明年AI芯片的出货量约为英伟达(基于CoWoS)的10%。如果微软与AMD的合作进展顺利,AMD获得Meta和Google的订单,预计2025年AMD的AI芯片出货量达到英伟达(基于CoWoS)的30%。台湾电子时报在今日报道中指出,预计AMD的MI300明年出货量将达30万至40万颗,最大客户为微软、Google。苏姿丰此前亦明确指出,已有多家超大规模云服务商承诺将部署MI300芯片产品,数据中心GPU产品将在第四季度为AMD带来4亿美元的收入,预计2024年收入将超过20亿美元。MI300将是公司创立以来最快实现10亿美元销售额的产品。从性能来看,对比竞品,MI300有足够的竞争力。据AMD今年6月公布的数据,专为大语言模型优化的产品MI300X,其内存达到了192GB,内存带宽为5.2TB/s,InfinityFabric带宽为896GB/s,晶体管达到1530亿个。另外,MI300X提供的HBM(高带宽内存)密度是英伟达H100的2.4倍,HBM带宽是H100的1.6倍。据悉,英伟达H100的内存容量为80GB,带宽为3.35TB/s。但该公司的产品也在不断迭代,近期英伟达的最新AI芯片H200已经发布。H200的算力与H100基本相当,其内存容量达到了141GB,带宽为4.8TB/s。不过,软件生态的壁垒仍然是AMD需要面对的挑战之一。Cambrian-AIResearchLLC的首席分析师KarlFreund指出,AMD的软件生态没有英伟达那么完善。训练和运行AI大模型不仅仅取决于GPU性能,系统设计也尤为重要。苏姿丰曾表示,“我们希望成为这个(人工智能)市场的重要参与者。”她提到,AMD正致力于在AI软件套件方面进行改进。...PC版:https://www.cnbeta.com.tw/articles/soft/1402493.htm手机版:https://m.cnbeta.com.tw/view/1402493.htm

相关推荐

封面图片

AMD 的 CEO Lisa Su

AMD的CEOLisaSu:公司发布MI300X加速器,这是性能最高的芯片。新款芯片拥有超过1500亿单位的晶体管。新款芯片内存是英伟达H100产品的2.4倍,内存带宽是H100的1.6倍。新款芯片在(大语言模型)训练方面的性能等同于英伟达H100。相比英伟达竞品,MI300运行AI模型的速度更快,最多可以高出60%。预计人工智能(AI)加速器市场的规模到2027年将达到4000亿美元(该公司8月预计为1500亿美元)。预计AI芯片市场将迅猛扩张。

封面图片

AMD 正式发布 MI300 加速器,性能较英伟达 H100 芯片提高 60%

AMD正式发布MI300加速器,性能较英伟达H100芯片提高60%在美国加州圣何塞举行的AI特别活动中,AMD宣布正式推出其旗舰AIGPU加速器MI300X,并称其性能比英伟达的H100芯片提高了60%。据AMD介绍,新芯片为性能最高的芯片,拥有超过1500亿个晶体管。与英伟达H100芯片相比,AMD新芯片的内存为其2.4倍,内存带宽为其1.6倍,训练性能与H100芯片相当,在运行AI模型方面则比英伟达快得多。——、

封面图片

AMD 推出 MI300X 加速器,将 2027 年 AI 加速器市场规模预期上调将近两倍

AMD推出MI300X加速器,将2027年AI加速器市场规模预期上调将近两倍AMD公司CEOLisaSu:公司发布MI300X加速器,这是性能最高的芯片。新款芯片拥有超过1500亿单位的晶体管。新款芯片内存是英伟达H100产品的2.4倍,内存贷款是H100的1.6倍。新款芯片在(大语言模型)训练方面的性能等同于英伟达H100。相比英伟达竞品,MI300运行AI模型的速度更快。预计人工智能(AI)加速器市场的规模到2027年将达到4000亿美元(该公司8月预计为1500亿美元)。预计AI芯片市场将迅猛扩张。

封面图片

AMD推出MI300X加速器 较英伟达H100最多提升60% 猛增市场规模预期

AMD推出MI300X加速器较英伟达H100最多提升60%猛增市场规模预期周三,AMD发布备受瞩目的全新MI300系列AI芯片,包括MI300A和MI300X芯片,瞄准这一英伟达主导的市场。此类芯片比传统计算机处理器更擅长处理人工智能训练所涉及的大型数据集。本次新品发布是AMD公司长达50年历史上最重要的一次之一,有望挑战英伟达在炙手可热的人工智能加速器市场上的地位。AMD发布的新款芯片拥有超过1500亿个晶体管。MI300X加速器支持高达192GB的HBM3存储器。MI300X内存是英伟达H100产品的2.4倍,内存带宽是H100的1.6倍,进一步提升了性能。MI300X新款芯片较英伟达的H100性能最多可以提升60%。在与H100(Llama270B版本)的一对一比较中,MI300X性能提高了高达20%。在与H100(FlashAttention2版本)的一对一比较中,性能提高了高达20%。在与H100(Llama270B版本)的8对8服务器比较中,性能提高了高达40%。在与H100(Bloom176B)的8对8服务器比较中,性能提高了高达60%。AMD公司CEOLisaSu表示,新款芯片在训练人工智能软件的能力方面与H100相当,在推理方面,也即软件投入实际使用后运行该软件的过程,要比竞品好得多。伴随着人工智能的火爆,市场对高端芯片需求量极大。这令芯片制造商们瞄准这一利润丰厚的市场,加快推出高品质的AI芯片。虽然整个AI芯片市场竞争相当激烈,AMD在周三对未来市场规模给出了大胆惊人的预测,认为AI芯片市场将迅猛扩张。具体来说,预计人工智能(AI)芯片市场的规模到2027年将达到超过4000亿美元,这较其8月时预计的1500亿美元上调将近两倍,凸显人们对人工智能硬件的期望正在快速变化。AMD越来越有信心其MI300系列能够赢得一些科技巨头的青睐,这可能会让这些公司花费数十亿美元的支出,投向AMD的产品。AMD表示,微软、甲骨文和Meta等都是其客户。同日消息显示,微软将评估对AMD的AI加速器产品的需求,评估采用该新品的可行性。Meta公司将在数据中心采用AMD新推的MI300X芯片产品。甲骨文表示,公司将在云服务中采用AMD的新款芯片。此前市场预计AMD的MI300系列在2024年的出货约为30~40万颗,最大客户为微软、Google,若非受限台积电CoWoS产能短缺及英伟达早已预订逾四成产能,AMD出货有望再上修。AMD推出MI300X加速器消息发布后,英伟达股价下跌1.5%。今年英伟达股价暴涨,使其市值超过1万亿美元,但最大的问题是,它还能独享加速器市场多久。AMD看到了属于自己的机会:大型语言模型需要大量计算机内存,而这正是AMD认为自己的优势所在。为了巩固市场主导地位,英伟达也正在开发自己的下一代芯片。H100将于明年上半年被H200取代,后者于上个月推出,能够提供新型高速内存,在Llama2上的推理速度比H100快一倍。此外,英伟达将在今年晚些时候推出全新的处理器架构。...PC版:https://www.cnbeta.com.tw/articles/soft/1402609.htm手机版:https://m.cnbeta.com.tw/view/1402609.htm

封面图片

AMD 演示数据中心 APU MI300

AMD演示数据中心APUMI300在CES2023上,AMD演示了一个庞然大物:专为数据中心设计的APUMI300。AMD此前的APU产品主要是针对消费级,如笔记本电脑和游戏机。MI300是第一款数据中心/HPC级APU产品,有1460亿个晶体管,是AMD至今构建的最大最复杂芯片——相比下英特尔XeonMaxGPU有1000亿晶体管,英伟达GH100GPU有800亿晶体管。MI300包含了24个Zen4CPU核心,未披露数量的CDNA3架构CU,以及128GBHBM3内存。MI300在4个6纳米小芯片(chiplets)之上堆了9个5纳米小芯片。相比MI250X,MI300的AI训练性能是其8倍以上,产品将在今年下半年上市。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

强攻AI叫板英伟达 AMD突围算力芯片大战

强攻AI叫板英伟达AMD突围算力芯片大战但如今,英伟达或已无法高枕无忧。近日,AMD在美国旧金山举办的“数据中心和人工智能技术首映式”活动上,正式发布MI300系列在内的一系列AI和数据中心相关技术产品,其中包括直接对标英伟达旗舰产品H100的MI300X,以及全球首款针对AI和HPC的加速处理器(APU)MI300A。这意味着AMD将在人工智能领域与英伟达“正面刚”。在业界看来,硬刚英伟达,AMD无疑在获取客户,数据和库、硬件加速和生态建设等方面面临重要挑战,以及在当前的行业发展和竞争格局下,其尚未公布的定价将成为战略重点。但在旺盛的市场需求和科技巨头多元布局战略下,AMDMI300X凭借性能优势以及系列相关建构升级,势必将成为AI市场的有力竞争者,以及英伟达高端GPU的重要替代产品。硬刚竞品力创新机随着AI浪潮席卷全球,AMD已将发展人工智能列为核心战略,在技术创新高地保持强力攻势,并于近日推出了新一代AI芯片、数据中心CPU以及预告将推出全新DPU芯片。显然,其中最受瞩目的莫过于用于训练大模型的AI芯片InstinctMI300X,直接对标英伟高端GPUH100。至于另一款同期发布的MI300A,号称全球首款针对AI和HPC的APU,以及业界首款“CPU+GPU+HBM显存”一体化的数据中心芯片。一些分析机构和行业人士研判认为,MI300X性能强大,是对标英伟达高端加速卡的有力竞品。相较H100,MI300X在晶体管数量和显存容量上亦大幅领先。而MI300A凭借CPU+GPU的能力,产品组合性能更高、同时具有成本优势。另外,在收购赛灵思之后,AMD在加速卡领域的定制化服务大幅领先英伟达,能够协助云厂商在特定算法模块上进行训练。随着下游应用端的高速发展,使得微软、Google、Meta等众多海外巨头争相增加算力储备,算力芯片需求高度旺盛之下,英伟达一家独大的市场格局或将迎来转变。但有所遗憾的是,AMD股价在发布会活动过程中转而走低,收跌3.61%。而同行英伟达则收涨3.90%,市值再次收于1万亿美元关口上方。在投资人眼里,AMD的所谓“超级芯片”MI300X似乎仍然难以撼动英伟达的根基。其中,TIRIASResearch首席分析师KevinKrewell表示:“我认为,没有(大客户)表示将使用MI300X或MI300A,这可能会让华尔街感到失望。他们希望AMD宣布已经在某些设计方面取代了英伟达。”目前,AMD公布的客户仅有开源大模型独角兽HuggingFace,以及更早之前透露的劳伦斯利弗莫尔国家实验室。虽然两者与对大模型和数据中心芯片有更大需求的科技巨头不在一个数量级,但在AMD的发布会上值得注意的是,亚马逊旗下云计算部门AWS、甲骨文云、Meta、微软Azure的高管均来到现场。其参会动机一定程度上不言而明。此后,由于传出亚马逊正在考虑使用MI300人工智能芯片,AMD股价随即上涨约1%。InsiderIntelligence分析师JacobBourne表示:“亚马逊正在考虑AMD的MI300,这一事实表明科技公司有意使其AI开发硬件多样化,这可能会为其他芯片制造商创造新的机会。”美国科技类评论家BillyDuberstein也指出,潜在客户对MI300非常感兴趣,正在强烈要求寻找英伟达的替代产品。鉴于目前英伟达H100的服务器价格高昂,数据中心运营商希望看到有一个第三方竞争对手,这有助于降低AI芯片的价格。因此,这对AMD而言是一个巨大的优势,对英伟达来说则是一个挑战。这能为每个市场参与者带来良好的盈利能力。尚有软肋定价是“金”从产品性能来看,AMDMI300X已在业界力拔头筹,包括支持达192GB的HBM3内存(是英伟达H100的2.4倍),HBM内存带宽达5.2TB/s(是英伟达H100的1.6倍),InfinityFabric总线带宽为896GB/s,晶体管数量达到1530亿个,远高英伟达H100的800亿个。但AMD并没有公布这款GPU的价格,使得“双雄”竞争增加了悬念。AMDMI300处理器业界分析称,AMD并没有透露新款AI芯片的具体售价,但想要有显著的成本优势可能不太现实,因为高密度的HBM价格昂贵。即便MI300X的内存达到了192GB,但这也不是显著优势,因为英伟达也拥有相同内存规格的产品。对此,Cambrian-AIResearchLLC创始人兼首席分析师KarlFreund也在福布斯网站上发文表示,虽然MI300X芯片提供了192GB内存,但英伟达在这一点上将很快迎头赶上,甚至在相同的时间框架内可能实现反超,所以这并不是一个很大的优势。而且MI300X的售价将会十分高昂,与英伟达的H100相比不会有明显的成本优势。另据晚点LatePost援引一位AI从业者的话报道称,他所在的公司曾接触一家非英伟达GPU厂商,对方的芯片和服务报价比英伟达更低,也承诺提供更及时的服务。但他们判断使用其它GPU的整体训练和开发成本会高于英伟达,还得承担结果的不确定性和花更多时间。“虽然A100价格贵,但其实用起来是最便宜的。”他说,对有意抓住大模型机会的大型科技公司和头部创业公司来说,钱往往不是问题,时间才是更宝贵的资源。不难猜测,这家非“英伟达GPU厂商”是AMD的可能性极高。由此,在AI浪潮下,争市场还是保盈利,将成为MI300X届时定价的战略重点。但除了价格,AMD势必也面临其它各类挑战。KarlFreund认为,虽然AMD新推出的MI300X芯片激起了市场各方的巨大兴趣,但与英伟达的H100芯片相比面临的一些挑战包括,英伟达的H100现在已开始全面出货,而且到目前为止仍拥有AI行业最大的软件和研究人员生态系统。然而,AMD尚未披露任何基准测试,也还没有上市(预计今年第四季度量产)。另外,训练和运行大语言模型(LLM)时的性能取决于系统设计和GPU,MI300X正式推出时才能看到一些详细比较。至于真正关键的地方,KarlFreund指出,MI300X并不具备H100所拥有的TransformerEngine(一个用于在英伟达GPU上加速Transformer模型的库)。基于此,H100可以将大模型的性能提高两倍。如果用几千个(英伟达的)GPU来训练一个新模型需要一年的时间,那么用AMD的硬件来训练可能需要再等2-3年,或者投入3倍的GPU来解决问题。可即便如此,市场也不愿意英伟达以高溢价垄断市场。美国投行TDCowen在一份报告中指出,“随着市场寻找人工智能市场领军企业英伟达的替代品,AMD成为日益明显的选择。”仅凭这一点,就足以让科技巨头保持对这家公司的高度兴趣。正因如此,资本市场对于AMD给予更多积极的预期。部分行业分析预测,AMD2024年AI相关营收有望达到4亿美元,最高甚至可能达到12亿美元——是此前预期的12倍之多。生态大战前程可期毋庸置疑,与英伟达的H100相比,MI300X也面临着多种挑战和一定劣势。华泰证券表示,AMD对英伟达市场份额的挑战并非能一蹴而就。一方面,英伟达GPU芯片的算力壁垒以及AI训练端的深入布局一时难以撼动,另一方面,AMD的软件生态也限制其与客户系统的融合及渗透应用场景。可以说,英伟达的领先地位不仅来自于其芯片,还来自于十多年来为人工智能研究人员提供的软件工具。MoorInsights&Strategy分析师AnshelSag称:“即使AMD在硬件性能方面具有竞争力,但人们仍然不相信其软件解决方案能与英伟达竞争。”进一步来看,软件生态也被多位行业人士视为英伟达铜墙铁壁一般的护城河。据悉,英伟达于2007年发布CUDA生态系统。通过使用CUDA,开发者可以将英伟达的GPU用于通用的计算处理,而非仅限于图形处理。CUDA提供了一个直观的编程接口,允许开发者更容易使用C,C++,Python,以及其他一些语言来编写并行代码。2023年,CUDA的开发者已达400万,包括Adobe等大型企业客户。而用户越多构成的生态粘性就越大。相比之下,AMD在2016年推出了ROCm,目标是建立可替代英伟达CUDA的生态。在发布M...PC版:https://www.cnbeta.com.tw/articles/soft/1365759.htm手机版:https://m.cnbeta.com.tw/view/1365759.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人