学术论文显示NVIDIA H100 AI GPU依然存在于中国研究人员之手

学术论文显示NVIDIAH100AIGPU依然存在于中国研究人员之手美国的新政策千方百计阻止向中国等一系列国家进行"技术转让",就在不久前,拜登政府还对人工智能GPU的出口实施了严厉的监管,以防止中国人工智能基础设施的快速发展。然而,尽管采取了这些策略,据报道,美国政府可能会发现自己的贸易政策存在漏洞,因为《每日电讯报》披露,据报道,中国科学院的研究人员在多项实验中使用了英伟达的H100人工智能GPU,这表明新法规可能不会有太大效果。四篇发表在"开放获取"科学网站ArXiv上的学术论文披露了这一信息,研究内容包括使用人工智能加速器解决复杂的数学和逻辑问题。据说,研究人员能够拿到八张或更少的英伟达H100,这当然不是一个庞大的数字,但它引起了人们对美国法规执行情况的质疑。不过,由于英伟达的HopperGPU在禁令生效前一直在市场上销售,因此目前还不确定参与研究的人员是购买了新的H100,还是对市场上的现有SKU进行了研究。我们无法确定这些GPU最初是如何进入中国市场的,但猜测最大可能是来自中东等美国合规国家的外包。我们曾在中国公司图森未来身上看到过类似的例子,当时美国政府以潜在的技术转让为由,干预了英伟达向该公司销售A100的事宜。由于图森未来从澳大利亚的一家子公司订购GPU,因此绕过了美国商务部的监管。对美国来说,封锁人工智能产业所需的关键组件的访问途径并非易事,即使在大力实施之后,个人或黑名单上的公司也会发现所实施的政策存在某些漏洞,最终给政府造成另一种令人担忧的局面。...PC版:https://www.cnbeta.com.tw/articles/soft/1424140.htm手机版:https://m.cnbeta.com.tw/view/1424140.htm

相关推荐

封面图片

AI热潮可能导致新一轮GPU短缺 但NVIDIA称目前的问题只存在于封装环节

AI热潮可能导致新一轮GPU短缺但NVIDIA称目前的问题只存在于封装环节人工智能公司最近的声明表明,人工智能热潮正在增加对GPU的需求,以至于一些公司报告出现了短缺。NVIDIA声称其供应链并没有完全无法满足需求,只是遇到了一些小问题,这在一定程度上缓解了人们的担忧。微软、OpenAI和其他公司都提到了他们不得不采取的措施,以缓解NVIDIAH100和A100企业GPU的短缺,这些GPU用于人工智能工作负载。微软正在限制对外服务的次数,Quora的首席执行官则表示硬件短缺掩盖了人工智能应用的真正潜力。埃隆-马斯克(ElonMusk)开玩笑说,企业级GPU目前比毒品还难买。英伟达解释说,通常情况下,GPU的制造问题并不涉及主处理单元,而是附加板上的其他组件。在目前的情况下,问题出在封装上,该公司目前采用台积电的3D堆叠基板上芯片(CoWoS)技术来解决这个问题。NVIDIA承诺,2023年下半年的供应量将大大增加。目前还不清楚这种情况会在多大程度上波及消费级GPU市场,但人工智能的蓬勃发展已经导致NVIDIA将部分生产资源从GeForceRTX4090显卡转向H100。虽然人工智能公司的评论暗示,将注意力转向AMD硬件需要时间,但多产黑客乔治-霍兹(GeorgeHotz)的一篇帖子显示,他的公司comma正在为此购买Radeon7900XTX显卡。NVIDIA目前在人工智能领域占据主导地位,但分析表明,AMD未来肯定能在该领域取得重大进展。该公司在人工智能领域的主要优势在于其在集成了人工智能模块的WindowsPCCPU方面的领先地位。今年早些时候,以前使用GPU挖矿的集团开始尝试将其基础设施转向人工智能工作负载,以便在加密货币寒冬之后收回投资。虽然这种转变可能会让一些人收获颇丰,但由于微软、亚马逊网络服务和OpenAI等大公司的竞争,这种转变可能会比挖矿更具挑战性。...PC版:https://www.cnbeta.com.tw/articles/soft/1375373.htm手机版:https://m.cnbeta.com.tw/view/1375373.htm

封面图片

英伟达H100 AI GPU利润率高达1000%

英伟达H100AIGPU利润率高达1000%TaeKim的这一说法带来了许多要考虑的因素,首先是与制造实际GPU相关的成本。这个过程包括很多步骤,从购买到运输和售后服务。所以你可能会说1000%的利润预估在这里是不正确的,但我相信你忽略了一个重要的事实。在之前的报道中,我们已经多次提到,H100的销售远远超过其实际定价,在某些情况下,已达到约7万美元。“利润率”可能没有考虑通胀因素,这意味着实际数字可能要高得多。英伟达正在攫取巨额利润,而“加密货币挖矿”的通胀也远不及人工智能泡沫。我们看到大量投资涌入人工智能领域,其中一个例子是英伟达目标是在2023年交付55万个H100。据预测,到2027年,人工智能销售额将超过3000亿美元,英伟达并没有止步于此。下一代人工智能GPU一经推出,我们就会看到爆炸式的增长,公司的市值也会随之飙升。...PC版:https://www.cnbeta.com.tw/articles/soft/1377863.htm手机版:https://m.cnbeta.com.tw/view/1377863.htm

封面图片

传美国将对中国断供高端GPU:AMD及NVIDIA已暂停供货

传美国将对中国断供高端GPU:AMD及NVIDIA已暂停供货日前,网传美国芯片厂商AMD、英伟达相继收到总部通知,对中国区客户断供高端GPU芯片。网传AMD收到总部紧急通知:1.暂停对中国区所有数据中心GPU卡MI100和MI200发货;2.统计中国区Ml100已发货量;3.统计中国区MI200已发货客户清单和发货明细AMD分析可能是美国政府要限制对中国区高性能GPU卡销售,尤其是针对中国HPC的双精度高性能卡。网传NVIDIA相关消息:1.NVIDIA中国区已收到总部要求:暂停对中国区所有客户所有代理商的数据中心GPU卡A100和H100的发货,其它GPU卡不受影响;2.各服务器OEM的现有库存A100GPU卡,目前可以对各自的行业客户继续交付,NVIDIA中国区目前也没有对OEM发任何Letter;3.NVIDIA总部还在分析美国政府的政策要求,预计还需要2~3天才会有对中国区客户与合作伙伴的沟通口径”。据了解,随着GPU自身在并行处理和通用计算的优势,逐步拓展了其在服务器、汽车、矿机、人工智能、边缘计算等领域的衍生需求。AMD及NVIDIA对中国大陆断供面向数据中心的高端GPU计算卡,将对于中国大陆的云计算产业及人工智能产业发展带来极为不利的影响。注:英伟达股价周三在盘后交易中下跌,或受此影响。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

特斯拉可能拥有多达十余万片英伟达H100 而xAI也拥有大量高性能GPU储备

特斯拉可能拥有多达十余万片英伟达H100而xAI也拥有大量高性能GPU储备X帐户"技术兄弟"最近发布消息称,马克-扎克伯格的Meta公司目前已拥有全球最大的H100GPU“武器库”之一,数量约为35万个。不过,马斯克对该表格中特斯拉和xAI的排名不以为然,他指出:"如果衡量正确的话,特斯拉会排在第二位,X/xAI会排在第三位。"假设其他条件不变,这意味着特斯拉现在拥有3万到35万块英伟达H100GPU。另一方面,xAI现在可能拥有2.6万到3万块英伟达AI计算卡。早在今年1月,埃隆-马斯克(ElonMusk)在确认对特斯拉Dojo超级计算机投资5亿美元(相当于约1万个H100GPU)的同时,还宣布这家电动汽车巨头"今年在英伟达硬件上的花费将超过这个数字",因为"在人工智能领域具有竞争力的赌注目前每年至少有几十亿美元"。在马斯克从DeepMind、OpenAI、Google研究院、微软研究院、特斯拉和多伦多大学聘请人才,从头开始建立自己的人工智能企业时,xAI曾在2023年购买了大约1万台英伟达的GPU。不过,可以合理推断,这些采购很可能与A100GPU有关。此后,从马斯克最新发布的X帖子中可以推断,xAI似乎还积累了大量的H100GPU。当然,考虑到人工智能领域的创新速度,这些H100GPU很快就会过时。早在今年3月,英伟达就发布了GB200GraceBlackwell超级芯片,将一个基于Arms的GraceCPU与两个BlackwellB100GPU结合在一起。该系统可以部署一个包含27万亿个参数的人工智能模型,在执行聊天机器人提供答案等任务时,速度有望提高30倍。...PC版:https://www.cnbeta.com.tw/articles/soft/1426690.htm手机版:https://m.cnbeta.com.tw/view/1426690.htm

封面图片

微软推出 ND H100 v5 虚拟机:采用英伟达 H100 GPU,满足企业 ChatGPT 生成式 AI 需求

微软推出NDH100v5虚拟机:采用英伟达H100GPU,满足企业ChatGPT生成式AI需求微软于今天宣布加强和英伟达的合作,将GPU从此前的A100升级到H100,推出专门针对人工智能开发的全新的虚拟机。微软表示该虚拟机主要面向需要整合或开发人工智能的企业,配置如下:▪8块英伟达H100TensorCoreGPU,通过下一代NVSwitch和NVLink4.0互连▪在非阻塞(non-blocking)的胖树(Fat-Tree)架构网络下,每块GPU的NVIDIAQuantum-2CX7InfiniBand性能可以达到400Gb/s,每台虚拟机可以达到3.2Tb/s。▪通过NVSwitch和NVLink4.0,每台虚拟机内的8个本地GPU之间的对分带宽为3.6TB/s。▪采用英特尔第4代XeonScalable处理器▪使用PCIeGen5连接GPU,每个GPU带宽为64GB/s▪16通道4800MHzDDR5DIMM微软先前在AzureOpenAI服务中宣布了ChatGPT相关服务,而本次虚拟机是该服务的补充,它允许第三方通过Azure访问聊天机器人技术。来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

Nvidia 表示已开发专门用于出口到中国的 H800 芯片,以替代 H100

Nvidia表示已开发专门用于出口到中国的H800芯片,以替代H100旧金山,3月21日(路透社)——主导人工智能(AI)芯片市场的美国半导体设计公司NvidiaCorp表示,已将其旗舰产品修改为可以合法出口到中国的版本.美国监管机构去年制定规则,以国家安全问题为由,禁止英伟达向中国客户出售其两款最先进的芯片,即A100和更新的H100。此类芯片对于开发生成式人工智能技术(如OpenAI的ChatGPT和类似产品)至关重要。路透社在11月报道称,Nvidia设计了一款名为A800的芯片,该芯片降低了A100的某些功能,使A800可以合法出口到中国。周二,该公司表示,它已经开发出类似的H100芯片的中国出口版本。这款名为H800的新芯片被阿里巴巴集团控股有限公司、百度公司和腾讯控股有限公司等中国科技公司的云计算部门使用。——

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人