Arm CEO 示警:美国未来超 20% 电量将被 AI 数据中心消耗

ArmCEO示警:美国未来超20%电量将被AI数据中心消耗当地时间周二,Arm公司CEO雷内・哈斯发出了严厉的警告,他表示人工智能收集的信息越多,他们就越聪明,但他们收集的信息越多,需要的力量就越大。包括OpenAI的ChatGPT在内的AI模型需要大量电力,这可能导致到2030年,AI数据中心将消耗美国20%至25%的电力需求,相比今天的4%大幅增加。他特别强调,类似ChatGPT这样的大语言模型耗电非常严重,这些模型需要“永不满足”的电力才能有效运行。

相关推荐

封面图片

爱尔兰数据中心的用电量超过所有城市家庭的总用电量

爱尔兰数据中心的用电量超过所有城市家庭的总用电量据官方数据显示,爱尔兰能源消耗巨大的数据中心去年消耗的电力比该国所有城镇家庭的总用电量还多。根据中央统计局的数据,该国不断增长的数据中心占用了全国21%的电力,比2022年增加了1/5。这是支持爱尔兰科技中心的数据中心首次用电量超过城镇家庭用电量,去年城镇家庭用电量占电网总用电量的18%。专家担心,数据中心推动的电力需求突然激增可能会导致爱尔兰和整个欧洲的气候目标无法实现。根据爱尔兰国家能源和气候计划,受人工智能领域最新突破的推动,数据处理需求不断增长,可能导致爱尔兰的数据中心在未来三年内消耗全国约31%的电力。去年,爱尔兰50%以上的电力来自化石燃料,风力发电34.6%,光伏1.2%。——

封面图片

华为周跃峰:2026 年全球数据中心耗电量将是去年的 2.3 倍

华为周跃峰:2026年全球数据中心耗电量将是去年的2.3倍5月7日,华为2024创新数据基础设施论坛期间,华为发布全新A系列高性能存储OceanStorA800,官方称可有效提升AI集群可用度30%,带宽达同类产品4倍,IOPS达同类8倍;支持EB级容量扩展,最大支持扩容至4096张算力卡,512个存储控制器;空间能耗密度高达1PB/U,能耗0.7Watt/TB。华为公司副总裁、数据存储产品线总裁周跃峰博士表示,AI大模型集群规模已迈入万卡、十万卡时代,集群规模增加带来更加频繁的故障和训练中断,重复的CheckPoint数据写入、断点续训导致算力资源闲置,集群可用度不足50%。到2026年,全球数据中心的耗电量预计将达到2022年的2.3倍,相当于日本一个国家全年的耗电量,其中数据中心一半以上的电力消耗都将被AI占据。具备极致性能、数据韧性、全新数据范式、高扩展性、绿色节能、数据编织能力的数据存储将是AI时代存储演进方向。

封面图片

美国电力研究所:数据中心用电量将在2030年时翻倍

美国电力研究所:数据中心用电量将在2030年时翻倍数据中心耗电量预计大增美国电力研究所是一家总部设在美国的研究机构,由能源企业和政府机构资助。该研究所的分析称,根据生成式人工智能等技术的普及速度和新数据中心的能源效率推算,到2030年,数据中心行业用电量的年增长率预计在3.7%至15%之间。这意味着,数据中心的用电量2030年时最多可能翻倍。众多能源公司今年的财报电话会议显示,数据中心的高强度计算业务和冷却系统都需要大量电力支撑,一个新的大型数据中心所需的电力相当于为75万户家庭供电所需的电量。该研究所表示,光是早期ChatGPT搜索所需的电力就大约是谷歌搜索的10倍。而且,随着企业越来越多地使用生成式人工智能技术制作电影和音乐,未来数据中心可能需要更多的电力。该研究所表示,“全球有53亿互联网用户,这些AI工具的广泛采用可能会导致电力需求的急剧变化。”该研究所建议提高数据中心的能源效率,增加电网投资。供电压力降越来越大数据中心用电量翻倍可能会给美国国家电网带来压力,并导致电费上涨和更高频次的停电。美国电力研究所表示,截至2023年底,美国数据中心约80%的用电负荷集中在15个州,主要是弗吉尼亚州和得克萨斯州。这样地域分布的不平衡,意味着这些州可能将面临更高的电力短缺风险。除了数据中心以外,在美国政府的政策推动下,美国本土制造业似乎正出现复苏趋势,美国交通行业也在向电气化转型,这些都给美国电力行业带来越来越高的潜在需求压力。...PC版:https://www.cnbeta.com.tw/articles/soft/1432924.htm手机版:https://m.cnbeta.com.tw/view/1432924.htm

封面图片

大摩:数据中心算力成本正在迅速下降

大摩:数据中心算力成本正在迅速下降摩根士丹利在3月24日的AI报告中指出,随着GPU技术的不断进步,例如英伟达从Hopper发展到Blackwell GPU架构,GAI的算力成本正显著降低。展望未来,大摩预测,AI算力成本将迅速下降,AI算力需求将蓬勃增长,预计2024/27全球数据中心电力需求将占到全球的~2%/4%,但电力基础设施可能跟不上这一增长形势。因此,大摩指出,能够满足AI快速增长电力需求的公司将从这一趋势中收益,特别是那些能够减少数据中心供电延迟的电力解决方案提供商。AI算力成本迅速下降大摩指出,随着GPU效率的提高,数据中心算力成本正在迅速下降,以英伟达最新发布的Blackwell为例,只占到hopper能耗的一半,具体来看:数据中心模型显示,使用HopperGPU的数据中心每teraFLOPs(每秒万亿次浮点运算)资本成本为14.26美元,而Blackwell数据中心的成本为7.48美元,这意味着当从HopperGPU升级到BlackwellGPU时,资本成本每teraFLOPs下降约50%。数据中心建设成本方面,Blackwell数据中心的总设施资本成本(包括GPU)为33.49亿美元,而Hopper数据中心的总设施资本成本为35.83亿美元。这些成本是针对假设的100MW 数据中心,并且包括了8个芯片/服务器和70%的服务器利用率。在每兆瓦时电力成本为100美元的假设下,Hopper数据中心的年度电力成本约为每teraFLOPs0.24美元,而Blackwell数据中心的年度电力成本约为每teraFLOPs0.14美元。这种下降主要是由于随着技术进步,GPU在能效方面的改进,使得在相同的电力消耗下能够提供更多的算力。AI算力需求激增给电力基础设施带来挑战与此同时,大摩预测,AI电力需求将迅猛增长,在基准情景下,预计2023-27年全球数据中心电力需求(包括GAI)为430—748太瓦时(TWh),相当于2024/27年全球电力需求的2%—4%。具体来看:在基准情景下(GPU利用率从60%提高到70%),数据中心在2023-27年的总电力容量将为70/122吉瓦。2023-27年GAI电力需求的复合年增长率为~105%,而同期全球数据中心电力需求(包括GAI)的复合年增长率将为~20%。牛市情景下(反映90%的芯片利用率),预计2023-27年全球数据中心电力需求为~446/820太瓦时。而熊市情景下(反映50%的利用率),预计2023-27年数据中心电力需求为~415/677太瓦时。此外,大摩还提到,其减少可再生能源服务占新数据中心电力的百分比,因为数据(如亚马逊/Talen交易)表明不可再生能源将发挥更大的作用。进一步来看,大摩指出,根据对全球数据中心电力需求预测,预计将给电力基础设施带来挑战,包括输电线路容量限制、规划和许可延误以及供应链瓶颈。因此,展望未来,能够满足AI快速增长能源需求的公司,特别是那些能够减少数据中心供电延迟的电力解决方案提供商将受市场欢迎。大摩表示,全球各地数据中心增长有所不同,但相似之处在于,数据中心公司和超大规模公司经常与电力开发公司合作,以最大限度地减少供电延迟,降低成本并减少排放。在美国,我们看到了合作伙伴关系的最初迹象,超大规模企业和核电厂所有者在核电厂建立新的大型数据中心,有利于电力公用事业ConstellationEnergy和独立电力生产商与能源贸易商Vistra等。而且我们还看到了现场发电的可能,这可能有利于许多电力股。在欧洲,到2035年,欧洲国家的数据中心需求将推动电力增长五倍,低估值欧洲电力股将受益,入西班牙私营跨国电力公司Iberdrola,芬兰能源企业Fortum。在东盟,马来西亚、新加坡和泰国电力需求强劲增长。为了最大限度地减少“供电时间”,我们看到数据中心开发商与东盟当地电力公司建立伙伴关系:英伟达和马来西亚杨忠礼集团合作,计划在马来西亚打造价值43亿美元的人工智能数据中心,泰国最大的私人发电公司海湾Gulf和泰国电信AIS开始建设新的泰国数据中心,新加坡电信Singtel、印尼电信公司Telkom于印度尼西亚能源公司MedcoPower就其在印度尼西亚的第一个数据中心项目建立战略合作伙伴关系。...PC版:https://www.cnbeta.com.tw/articles/soft/1425159.htm手机版:https://m.cnbeta.com.tw/view/1425159.htm

封面图片

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水AI狂潮仍在继续,由于不少华尔街大行预计本世纪末美国的生成式人工智能数据中心数量将爆发,各投资机构纷纷投资于“增强美国力量”(PoweringupAmerica)的主题,包括电网公司、铜、金、银和铀等大宗商品,以及人工智能芯片制造商。然而,水消耗的问题却相对而言被忽视了。摩根大通的亚太股票研究部门最近公布题为《深入探讨电力、冷却、电网和ESG影响》(DeepDiveintoPower,Cooling,ElectricGridandESGimplications)的研报,详细阐述了基础设施对人工智能发展的影响。文中专门介绍了人工智能数据中心对电力的消耗。同时,高盛此前也发现,在“下一代AI交易”飙升之际,弗吉尼亚州的商业电力需求大幅怎个假。此外,即使是黑石集团首席执行官史蒂夫·施瓦茨曼(SteveSchwarzman)和贝莱德董事长兼首席执行官拉里·芬克(LarryFink)也纷纷加入电网和AI投资主题,因为未来几年内有很多上行空间——除非AI需求崩溃。值得注意的是,摩根大通的研报在报告结尾部分强调:“尽管数据中心因大量的电力消耗而容易重点关注,但相对而言,数据中心的高耗水基本被忽视了,而这也是数据中心运营的基本特质。”摩根大通引用BluefieldResearch的数据在研报中指出,全球数据中心的总用水量(包括现场冷却和非现场发电)从2017年到2022年每年增长6%。研报说,到2030年,用水量可能会跃升至每天4.5亿加仑。这就相当于,每天大约需要681个奥运会标准的游泳池的淡水,来冷却全球数据中心。研报介绍,数据中心的用水方式与碳排放类似,数据中心的用水也可以分为范围1、范围2和范围3。在这种情况下,范围1指的是用于现场服务器冷却的水,范围2指的是用于发电的场外用水。范围3被认为是服务器制造供应链用水。具体而言,范围2的用水是数据中心与发电相关的间接用水。传统的热电厂(如燃煤电厂、天然气电厂等)加热水以产生蒸汽,蒸汽用于旋转涡轮机发电。水也用于冷却塔中的散热。值得注意的是,当使用热电时,数据中心的范围2用水足迹可能远大于范围1。研报指出:“考虑到范围1和范围2操作所需要的取水量,到2027年,要满足全球AI需求,数据中心相关的取水量可能达到42亿至66亿立方米,超过半个英国的年度总取水量。”研报进一步指出,在水资源稀缺的地区,数据中心的巨大用水需求可能引发竞争加剧,可能会影响水资源的可用性,甚至导致数据中心关闭。“为了消除服务器产生的热量,每天有数百万加仑的水在冷却系统中蒸发,这是数据中心的大部分用水。”...PC版:https://www.cnbeta.com.tw/articles/soft/1432255.htm手机版:https://m.cnbeta.com.tw/view/1432255.htm

封面图片

跟ChatGPT聊10句天要费半斤水?谷歌环境报告:数据中心是费水大户

跟ChatGPT聊10句天要费半斤水?谷歌环境报告:数据中心是费水大户56亿加仑,约等于国内某一线城市全年的用水量,或者是全球每天饮用水的1/4。也有人称,这水量相当于37个高尔夫球场的用水量,大概能装满一个半西湖。这并不是个例。2023年初,由OpenAI打造的ChatGPT火遍全球。要对AI进行大量训练,也就意味着需要更强的算力中心和与之匹配的散热能力。据悉,在单个系统中与AI聊天机器人进行20-50个问题的对话可能会导致其消耗“500毫升瓶装水”,而因ChatGPT在全球拥有数十亿用户,由此累计的总用水量异常巨大。而当初微软训练GPT-3,该公司可能消耗了700,000升水,在此基础上,如果人工智能模型的数据由一个能源使用效率较低的数据中心生成,那么其用水量可能会增加三倍。而对于OpenAI新推出的GPT-4,其用水量可能会较GPT-3版本增加“数倍”。此外,在另一项研究中,研究团队估计通过创建GPT-3聊天模型,他们消耗了1,287兆瓦时的电力,并产生了552吨二氧化碳。对此,教授指出,尽管人工智能为许多人提供了便利,但仍应尽量减少其使用,同时不要忽视它也会对环境造成严重影响。...PC版:https://www.cnbeta.com.tw/articles/soft/1375449.htm手机版:https://m.cnbeta.com.tw/view/1375449.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人