能源黑洞!AI行业的能耗相当于荷兰全国

能源黑洞!AI行业的能耗相当于荷兰全国近期,来自阿姆斯特丹自由大学的一位研究者在著名学术刊物《焦耳》上发表文章指出,在现有部分参数不变的情况下,以英伟达预估交付的GPU数量推算,可知,AI产业能源消耗范围为每年85-134太瓦时(TWh),约为全球年耗电量的0.5%,与荷兰全年用电量相当。值得指出的是,论文作者表示,由于目前AI产业相关公司披露的数据不足,因此该研究得出的结论只是推测性的。作者还表示,如果AI增长速度放缓,其对环境的影响可能会比人们担心的要小。自去年ChatGPT横空出世以来,大型科技公司争相推出由AI驱动的服务。对AI数据中心的需求随之水涨船高。一些数据中心承包商收到的问询从以前的每周一两次变成了几百次。除了耗电,AI数据中心也要消耗大量的水来冷却系统。不过,这项研究未涉及冷却所需的能源,许多大型科技公司都没有披露AI训练和运营过程中的能耗或用水量。微软在其最新的环境报告中透露,2022年,公司用水量同比去年激增了34%,较前几年大幅上涨,相当于超过2500个奥林匹克规格的游泳池水量,外部研究人员认为这与微软的人工智能研究有关。谷歌发布的2023年环境报告同样显示,其2022年消耗的水量高达212亿升,其中有约196亿升的水用于数据中心。不过,虽然能耗很高,但在保护环境这方面,AI也有独特的作用。谷歌和美国航空最近发现,飞行员可以通过一种实验性AI工具来选择飞行高度,从而将飞机产生的烟尘(蒸汽轨迹)数量减少一半。众所周知,烟尘会导致全球变暖。相关文章:跟ChatGPT聊10句天要费半斤水?谷歌环境报告:数据中心是费水大户...PC版:https://www.cnbeta.com.tw/articles/soft/1389575.htm手机版:https://m.cnbeta.com.tw/view/1389575.htm

相关推荐

封面图片

科技巨头被扒下伪环保面具,大力发展 AI 之举加剧能源消耗

科技巨头被扒下伪环保面具,大力发展AI之举加剧能源消耗作为人工智能领域的主要参与者,微软、亚马逊、谷歌以及Facebook母公司Meta等公司都在宣传他们如何通过一些环保项目来抵消日益增加的环境负担。比如微软承诺,位于亚利桑那州的数据中心一年中有一半以上时间都不用水。谷歌最近宣布与人工智能芯片巨头英伟达合作,计划到2030年按公司办公室和数据中心耗水量的120%补充淡水。但事实恰恰相反。投行Cowen最近的一份研究报告估计,运行人工智能的数据中心耗电量可能是传统设施的5倍以上。亚马逊位于弗吉尼亚州北部的庞大数据中心所消耗电力已经超过西雅图的整个电网。谷歌数据中心在2022年消耗了52亿加仑的水,比上一年增长了20%。Meta人工智能模型Llama2运行期间的耗水量也很大。华盛顿大学某研究中心联合主任阿德里安娜・拉塞尔(AdrienneRussell)认为,这些做法可能都是公司的巧妙营销。投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

跟ChatGPT聊10句天要费半斤水?谷歌环境报告:数据中心是费水大户

跟ChatGPT聊10句天要费半斤水?谷歌环境报告:数据中心是费水大户56亿加仑,约等于国内某一线城市全年的用水量,或者是全球每天饮用水的1/4。也有人称,这水量相当于37个高尔夫球场的用水量,大概能装满一个半西湖。这并不是个例。2023年初,由OpenAI打造的ChatGPT火遍全球。要对AI进行大量训练,也就意味着需要更强的算力中心和与之匹配的散热能力。据悉,在单个系统中与AI聊天机器人进行20-50个问题的对话可能会导致其消耗“500毫升瓶装水”,而因ChatGPT在全球拥有数十亿用户,由此累计的总用水量异常巨大。而当初微软训练GPT-3,该公司可能消耗了700,000升水,在此基础上,如果人工智能模型的数据由一个能源使用效率较低的数据中心生成,那么其用水量可能会增加三倍。而对于OpenAI新推出的GPT-4,其用水量可能会较GPT-3版本增加“数倍”。此外,在另一项研究中,研究团队估计通过创建GPT-3聊天模型,他们消耗了1,287兆瓦时的电力,并产生了552吨二氧化碳。对此,教授指出,尽管人工智能为许多人提供了便利,但仍应尽量减少其使用,同时不要忽视它也会对环境造成严重影响。...PC版:https://www.cnbeta.com.tw/articles/soft/1375449.htm手机版:https://m.cnbeta.com.tw/view/1375449.htm

封面图片

研究警告:AI能耗堪比荷兰年用电量

研究警告:AI能耗堪比荷兰年用电量10月10日发表在《焦耳》杂志上的一项研究表明,人工智能(AI)对环境的影响可能比之前认为的要大。研究发现,人工智能每年最终消耗的能源与荷兰、瑞典等国家一样大,甚至更多,可能会破坏全球减少碳排放的努力。研究公司SemiAnalysis表示,OpenAI公司需要3617台英伟达的HGXA100服务器,总共28936个图形处理单元(GPU)来支持ChatGPT,这意味着每天的能源需求就要达到564兆瓦时,这要比训练阶段的能源需求高得多。研究人工智能的学者KateCrawford教授评价道,“所以我们真正看到的是21世纪一个巨大的采掘业”。来源:https://m.cls.cn/detail/1483603投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水

缺电后是缺水?摩根大通:到2030年,数据中心每天将消耗4.5亿加仑的水AI狂潮仍在继续,由于不少华尔街大行预计本世纪末美国的生成式人工智能数据中心数量将爆发,各投资机构纷纷投资于“增强美国力量”(PoweringupAmerica)的主题,包括电网公司、铜、金、银和铀等大宗商品,以及人工智能芯片制造商。然而,水消耗的问题却相对而言被忽视了。摩根大通的亚太股票研究部门最近公布题为《深入探讨电力、冷却、电网和ESG影响》(DeepDiveintoPower,Cooling,ElectricGridandESGimplications)的研报,详细阐述了基础设施对人工智能发展的影响。文中专门介绍了人工智能数据中心对电力的消耗。同时,高盛此前也发现,在“下一代AI交易”飙升之际,弗吉尼亚州的商业电力需求大幅怎个假。此外,即使是黑石集团首席执行官史蒂夫·施瓦茨曼(SteveSchwarzman)和贝莱德董事长兼首席执行官拉里·芬克(LarryFink)也纷纷加入电网和AI投资主题,因为未来几年内有很多上行空间——除非AI需求崩溃。值得注意的是,摩根大通的研报在报告结尾部分强调:“尽管数据中心因大量的电力消耗而容易重点关注,但相对而言,数据中心的高耗水基本被忽视了,而这也是数据中心运营的基本特质。”摩根大通引用BluefieldResearch的数据在研报中指出,全球数据中心的总用水量(包括现场冷却和非现场发电)从2017年到2022年每年增长6%。研报说,到2030年,用水量可能会跃升至每天4.5亿加仑。这就相当于,每天大约需要681个奥运会标准的游泳池的淡水,来冷却全球数据中心。研报介绍,数据中心的用水方式与碳排放类似,数据中心的用水也可以分为范围1、范围2和范围3。在这种情况下,范围1指的是用于现场服务器冷却的水,范围2指的是用于发电的场外用水。范围3被认为是服务器制造供应链用水。具体而言,范围2的用水是数据中心与发电相关的间接用水。传统的热电厂(如燃煤电厂、天然气电厂等)加热水以产生蒸汽,蒸汽用于旋转涡轮机发电。水也用于冷却塔中的散热。值得注意的是,当使用热电时,数据中心的范围2用水足迹可能远大于范围1。研报指出:“考虑到范围1和范围2操作所需要的取水量,到2027年,要满足全球AI需求,数据中心相关的取水量可能达到42亿至66亿立方米,超过半个英国的年度总取水量。”研报进一步指出,在水资源稀缺的地区,数据中心的巨大用水需求可能引发竞争加剧,可能会影响水资源的可用性,甚至导致数据中心关闭。“为了消除服务器产生的热量,每天有数百万加仑的水在冷却系统中蒸发,这是数据中心的大部分用水。”...PC版:https://www.cnbeta.com.tw/articles/soft/1432255.htm手机版:https://m.cnbeta.com.tw/view/1432255.htm

封面图片

ChatGPT背后的AI技术诞生于爱荷华州 用了很多水

ChatGPT背后的AI技术诞生于爱荷华州用了很多水当微软、OpenAI和Google等领先的技术开发商竞相利用生成式人工智能的热潮时,他们也承认,对其人工智能工具日益增长的需求会带来高昂的成本,从昂贵的半导体到增加的耗水量。但他们往往对具体细节秘而不宣。在爱荷华州,很少有人知道这里是OpenAI最先进的大型语言模型GPT-4的诞生地,直到微软的一位高管在一次演讲中说,该模型"实际上是在得梅因西部的玉米地旁开发的"。建立大型语言模型需要分析大量人类撰写文本的模式。所有这些计算都需要耗费大量的电力并产生大量的热量。为了在炎热的天气保持凉爽,数据中心需要抽水--通常是抽到仓库大小的建筑外的冷却塔。微软在其最新的环境报告中披露,从2021年到2022年,其全球耗水量激增了34%(达到近17亿加仑,或超过2500个奥林匹克规格的游泳池),与前几年相比,耗水量急剧增加,外部研究人员认为这与微软的人工智能研究有关。加州大学河滨分校(UniversityofCalifornia,Riverside)的研究员任少磊(ShaoleiRen)说:"可以说大部分耗水量增长都是人工智能造成的,包括它在生成式人工智能方面的大量投资以及与OpenAI的合作。"在即将于今年晚些时候发表的一篇论文中,任少磊的团队估计,每当你向ChatGPT提出5到50个提示或问题时,ChatGPT就会喝掉500毫升的水(接近一个16盎司水瓶的容量)。这个范围因服务器的位置和季节而异。这一估算还包括公司没有测量的间接用水量,例如冷却为数据中心供电的发电厂。"大多数人并不了解ChatGPT的资源使用情况,"任说。"如果你不知道资源的使用情况,那么我们就没有办法帮助你节约资源"。Google同期的用水量增长了20%,任也将其主要归因于人工智能工作。Google的用水量增长并不均衡--在俄勒冈州,Google的用水量保持稳定,该州的用水量引起了公众的关注,而在拉斯维加斯以外的地区,Google的用水量则翻了一番。在爱荷华州,Google的设备对水资源同样饥渴,其理事会布拉夫斯数据中心的饮用水用量比其他任何地方都要多。在回答美联社的提问时,微软在本周的一份声明中表示,它正在投资研究,以测量人工智能的能源和碳足迹,"同时研究如何使大型系统在训练和应用中更加高效"。"我们将继续监控我们的排放量,加快进度,同时增加使用清洁能源为数据中心供电,购买可再生能源,并做出其他努力,以实现我们的可持续发展目标,即到2030年实现负碳排放、正水排放和零浪费。"该公司的声明说。OpenAI周五在自己的声明中也表达了同样的观点,表示正在"认真思考"如何更好地利用计算能力。它说,"我们认识到大型模型的训练可能是能源和水资源密集型的",并努力提高效率。微软于2019年首次向总部位于旧金山的OpenAI投资10亿美元,这距离这家初创公司推出ChatGPT并引发全球对人工智能进步的关注已有两年多时间。作为交易的一部分,这家软件巨头将提供训练人工智能模型所需的计算能力。为了至少完成其中的一部分工作,两家公司将目光投向了爱荷华州的西得梅因(WestDesMoines),这座拥有6.8万人口的城市十多年来一直是微软云计算服务的数据中心聚集地。微软的第四个和第五个数据中心将于今年晚些时候在这里启用。史蒂夫-盖尔(SteveGaer)说:"他们正在以最快的速度建造这些数据中心。"吸引该公司的是该市对建设公共基础设施的承诺,并通过纳税为支持这项投资贡献了一笔"惊人"的资金。他补充说:"但是,你知道,他们对自己在那里的所作所为相当保密。"微软首次表示,它正在为2020年的OpenAI开发世界上最强大的超级计算机之一,当时公司拒绝透露其位置,但将其描述为一个"单一系统",拥有超过285,000个传统半导体内核和10,000个图形处理器--这种芯片已成为人工智能工作负载的关键。专家们表示,在单一地点"预训练"人工智能模型是有意义的,因为大量数据需要在计算内核之间传输。直到5月底,微软总裁布拉德-史密斯(BradSmith)才透露,微软已在爱荷华州建立了"先进的人工智能超级计算数据中心",专门用于让OpenAI训练其第四代模型GPT-4。该模型现在为高级版本的ChatGPT和微软自己的一些产品提供动力,并加速了关于遏制人工智能社会风险的讨论。它是由加利福尼亚州的非凡工程师制造的,但实际上是在爱荷华州制造的。从某种程度上来说,西得梅因是一个相对高效的地方,可以用来训练强大的人工智能系统,尤其是与微软位于亚利桑那州的数据中心相比,后者在相同的计算需求下消耗的水资源要多得多。任少磊说:"因此,如果你要在微软内部开发人工智能模型,那么你应该把训练安排在爱荷华州,而不是亚利桑那州。在培训方面没有任何区别。但在耗水量或能耗方面,差别就大了。"在一年中的大部分时间里,爱荷华州的天气都很凉爽,微软可以利用外部空气来保持超级计算机的正常运行,并将热量排出大楼。只有当温度超过29.3摄氏度(约85华氏度)时,微软才会取水,该公司在一份公开披露的文件中如是说。这仍然会消耗很大的水量,尤其是在夏天。根据西得梅因水厂(WestDesMoinesWaterWorks)的数据,2022年7月,也就是OpenAI称其完成GPT-4培训的前一个月,微软向其爱荷华州数据中心集群泵入了约1150万加仑的水。这约占该地区用水总量的6%,该地区还为该市居民提供饮用水。2022年,西得梅因水厂的一份文件称,如果微软的数据中心项目能够"展示并实施在当前水平上大幅降低高峰用水量的技术",以保护住宅和其他商业用水的供应,那么西得梅因水厂和市政府"会考虑这些项目"。微软周四表示,它正在直接与水务局合作,以解决其反馈的问题。水厂在一份书面声明中表示,微软一直是一个很好的合作伙伴,并一直在与当地官员合作,在满足用水需求的同时减少水足迹。...PC版:https://www.cnbeta.com.tw/articles/soft/1382855.htm手机版:https://m.cnbeta.com.tw/view/1382855.htm

封面图片

AI没抢走工作 可能先抢走你的“农夫山泉”

AI没抢走工作可能先抢走你的“农夫山泉”而且不单单是谷歌,包括微软、亚马逊等等科技巨头,也一个个都是耗水大户。当然整这么多水,肯定不是跑去搞什么 “ 谷歌冰泉 ” “微软山泉有点咸”这类玩意儿了。翻了翻报告,发现罪魁祸首的矛头,一致都指向了数据中心。这些水,大都被用去给数据中心散热了。是的,数据中心散热这件事儿,真的是太耗水了。其实在早些年,不少数据中心散热靠的并不是水,而直接用电,给服务器吹空调。就拿咱们自己为例,像是2021年,全国数据中心总耗电量就高达2166亿度,约占全国总耗电量的2.6% 。这么大一笔的电力支出,要是全用在数据处理和存储上,大家可能还会该省省该花花。但问题就是,有不少电用来做 “ 无用功 ” 了。目前来说,最大头的 “ 无用功 ” 就是散热。因为数据中心全年无休,发热量巨大。为了让仪器能够在合适的环境下正常工作,就得大空调、大电扇嘎嘎上,自然就费电了。据统计,数据中心6成的成本都花在电费上,而电费里的4成多又得靠散热。为了多省点电费,最好的方法就是尽可能地白嫖散热。于是我们就看到,各个企业绞尽脑汁地白嫖散热。首先,大家想的第一个方法就是 “ 哪儿凉快哪儿呆着 ” 。2014年时,腾讯就搁贵州凿出47万平 “ 七星洞 ” 用来当数据中心。2017年,华为在贵安新区造了个云上屯,用来当华为云数据中心。2018年,苹果的iCloud数据也摇身一变成了 “ 云上贵州 ” 。大家集体跑去贵州,一方面是贵州地价便宜、水电资源丰富,电费便宜,像华为建完云上屯后,每年光电费就能省下6个亿。另一方面就是贵州四季如春的环境足够凉快和稳定,很适合养数据中心。比起国内这些往贵州跑,国外的大厂们更狠,Facebook早在2013年就在北极圈外的小镇吕勒奥,建立了自己的数据中心。除了往更凉快的地方去,数据中心本身也在进化。在进化的过程中,数据中心的散热也从很耗电,转变成了更耗水。前面说的,空调冷却系统因为需要大量的电给冷凝剂降温,所以这几年因为太费电逐渐被淘汰了。另一种蒸发冷却系统就流传了开来。相较传统空调来说,蒸发冷却机只靠外界水来降温,不需要用电来降温冷凝剂,所以可以大幅度减少耗电量,但这也会让用水量猛增。不过相对电来说,水总是更便宜的那个,所以大家普遍都开始选蒸发冷却机。除了蒸发冷却机,为了提高散热效率,还有公司直接给数据中心用上了液冷散热。说到液冷散热,大家肯定就不困了,毕竟家里那台4090 带RGB灯带的水冷散热,可不是吃干饭的。但在数据中心里,水冷散热还要更夸张。像阿里在千岛湖的数据中心,设备虽然都泡在特制的冷却液里用于快速散热,但这些液体最终还是需要靠大量湖水来进行冷却。用千岛湖深层水源进行散热。也难怪不少网友调侃自己买的农夫山泉,是阿里云服务器的洗脚水。最绝的当属微软,他们在2018年的时候,就把 “ 北方群岛 ” 服务器扔到了大西洋海底,利用海水潮汐进行水冷散热。这种散热法子,对于水资源本来就充分的地区来说,其实并还算是物尽其用。对一些缺水地区,妥妥是经不起这类折腾的。咱们的内蒙古等地区,之前就指名道姓发文决定 “ 辖区内大数据企业一律禁止使用地下水冷却降温。 ”但在国外,特别是美国的缺水地区,服务器的耗水就整出了不少问题来。大家都知道,最近这几年美国一直闹旱灾,然后几个大厂又在疯狂新建数据中心,其中不少就建在很缺水的亚利桑那州等地方。这些城市缺水所以沙漠多,沙漠多所以风电光电很发达,风电光电发达所以电费便宜。再加上沙漠地区地皮也便宜,在这建数据中心能省不少钱。而且这些地区的政府,为了让这些数据中心来安家,还会签协议优先保证水量供应,几个因素一叠加,事情就麻烦了。比如谷歌在梅萨建立数据中心时,就和当地政府签了一份协议,梅萨镇要 “ 优先 ” 保证谷歌每天能有足够的水进行散热。这对于水资源本来就不富裕梅萨镇来说,已经影响到当地生态系统,甚至人类的生活用水了。类似的还有亚利桑那州政府,因为供水给数据中心,被迫停了城市基建,还被美国联邦政府教训: “ 少用点河水 ” 。在达尔斯城,谷歌3座数据中心的年耗水量,已经将近达到了达尔斯市年总用水量的三分之一,被当地媒体一路追着咬。这些问题越来越多的时候,各个大厂也不得不开始优化自家散热设备,给公众画大饼。像谷歌承诺到2030 年时,无论是东水西调,还是投资海水净化设施,反正要补充自家公司用水量120% 的水。微软则是承诺到2024年,将全球数据中心蒸发冷却系统的用水量减少95% ,到2030 年将实现 “ 水中和( 全球范围内补充的水量将超过其消耗的水量 ) ” 。只不过,他们的承诺完成进展实在堪忧。更要命的是,一些学者发现AI大模型的爆火,让水耗得更多了。按照加州大学副教授ShaoleiRen的说法,谷歌用水量比去年足足多了20% ,巧的是,谷歌这一年算力也长了20% 。所以他们大胆推断,就是因为在AI军备竞赛,会让数据中心耗水更多。也不光是谷歌家 AI 费水,根据美国加州大学河滨分校的一项研究发现,ChatGPT为代表的语言大模型的用水量就是很多。据他们测算,OpenAI光是训练个GPT-3就用掉了70 万升水,更不要说数据量更大的GPT-4。而且除了训练阶段,后续的使用也特别费水,和GPT们随便聊个三五十句,就得消耗一瓶农夫山泉的水。眼下AI热潮仍在继续,大家的AI竞争只会越来越激烈,数据中心的作用只会越来越大。所以,数据中心的散热法子,多半又得来一波大升级了。无论是国内,还是国外的科技大厂们,在建数据中心时,也关注一下水资源等相关的问题。不然在AI抢走人类工作之前,一些地区的水,可能先被AI抢走了。...PC版:https://www.cnbeta.com.tw/articles/soft/1373967.htm手机版:https://m.cnbeta.com.tw/view/1373967.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人