训练出ChatGPT需要消耗多少电力?

训练出ChatGPT需要消耗多少电力?微软、谷歌和ChatGPT制造商OpenAI都要使用云计算,而云计算依赖于全球海量数据中心服务器内数以千计的芯片来训练被称为模型的AI算法,分析数据以帮助这些算法“学习”如何执行任务。ChatGPT的成功促使其他公司竞相推出自己的AI系统和聊天机器人,或者开发使用大型AI模型的产品。与其他形式的计算相比,AI需要使用更多的能源,训练单个模型消耗的电力超过100多个美国家庭1年的用电量。然而,虽然AI行业增长非常快,但却不够透明,以至于没有人确切知道AI的总用电量和碳排放量。碳排放量也可能有很大差异,这取决于提供电力的发电厂类型,靠烧煤或天然气发电供电的数据中心,碳排放量显然高于太阳能或风力发电支持的数据中心。虽然研究人员已经统计了创建单一模型所产生的碳排放量,有些公司也提供了有关他们能源使用的数据,但他们没有对这项技术的总用电量进行总体估计。AI公司HugingFace研究员萨莎·卢西奥尼(SashaLuccioni)写了一篇论文,量化了她旗下公司Bloom的碳排放情况,Bloom是OpenAI模型GPT-3的竞争对手。卢西奥尼还试图根据一组有限的公开数据,对OpenAI聊天机器人ChatGPT的碳排放情况进行评估。提高透明度卢西奥尼等研究人员表示,在AI模型的电力使用和排放方面,需要提高透明度。有了这些信息,政府和公司可能会决定,使用GPT-3或其他大型模型来研究癌症治疗或保护土著语言是否值得。更高的透明度也可能带来更多的审查,加密货币行业可能会提供前车之鉴。根据剑桥比特币电力消耗指数,比特币因其耗电量过大而受到批评,每年的耗电量与阿根廷一样多。这种对电力的贪婪需求促使纽约州通过了一项为期两年的禁令,暂停向以化石燃料发电供电的加密货币采矿商发放许可证。GPT-3是功能单一的通用AI程序,可以生成语言,具有多种不同的用途。2021年发表的一篇研究论文显示,训练GPT-3耗用了1.287吉瓦时电量,大约相当于120个美国家庭1年的用电量。同时,这样的训练产生了502吨碳,相当于110辆美国汽车1年的排放量。而且,这种训练只适用于一个程序,或者说是“模型”。虽然训练AI模型的前期电力成本巨大,但研究人员发现,在某些情况下,这只是模型实际使用所消耗电力的40%左右。此外,AI模型也在变得越来越大。OpenAI的GPT-3使用了1750亿个参数或变量,而其前身仅使用了15亿个参数。OpenAI已经在研究GPT-4,而且必须定期对模型进行再训练,以保持其对时事的了解。卡内基梅隆大学教授艾玛·斯特鲁贝尔(EmmaStrubell)是首批研究AI能源问题的研究人员之一,她说:“如果你不对模型进行再训练,它甚至可能不知道何为新冠肺炎。”另一个相对的衡量标准来自谷歌,研究人员发现,AI训练占该公司总用电量的10%至15%,2021年该公司的总用电量为18.3太瓦时。这意味着,谷歌的AI每年耗电量达2.3太瓦时,大约相当于亚特兰大所有家庭的1年用电量。科技巨头做出净零承诺虽然在许多情况下,AI模型变得越来越大,但AI公司也在不断改进,使其以更高效的方式运行。微软、谷歌和亚马逊等美国最大的云计算公司,都做出了碳减排或净零承诺。谷歌在一份声明中表示,到2030年,该公司将在所有业务中实现净零排放,其目标是完全使用无碳能源运营其办公室和数据中心。谷歌还在使用AI来提高其数据中心的能效,该技术直接控制设施中的冷却系统。OpenAI也列举了该公司为提高ChatGPT应用程序编程接口的效率所做的工作,帮助客户降低了用电量和价格。OpenAI发言人表示:“我们非常认真地承担起阻止和扭转气候变化的责任,我们对如何最大限度地利用我们的计算能力进行了很多思考。OpenAI运行在Azure上,我们与微软团队密切合作,以提高运行大型语言模型的效率并减少碳排放。”微软指出,该公司正在购买可再生能源,并采取其他措施,以实现之前宣布的目标,即到2030年实现净零排放。微软在声明中称:“作为我们创造更可持续性未来承诺的一部分,微软正在投资于研究,以衡量AI的能源使用和碳排放影响,同时致力于提高大型系统在培训和应用方面的效率。”耶路撒冷希伯来大学教授罗伊·施瓦茨(RoySchwartz)与微软的一个团队合作,测量了一个大型AI模型的碳足迹。他表示:“显然,这些公司不愿透露他们使用的是什么模型,以及它排放了多少碳。”有些方法可以让AI更高效地运行。能源咨询公司WoodMackenzie的本·赫兹-沙格尔(BenHertz-Shargel)表示,由于AI训练可以随时进行,开发者或数据中心可以将训练安排在电力更便宜或过剩的时候,从而使它们的运营更加环保。AI公司在电力过剩时训练自己的模型,然后可以在营销中将其当成一大卖点,以此表明他们注重环保。芯片运行耗电量惊人大多数数据中心使用图形处理单元(GPU)来训练AI模型,这些组件是芯片行业制造的最耗电组件之一。摩根士丹利分析师本月早些时候发布的一份报告称,大型模型需要数万个GPU,培训周期从几周到几个月不等。AI领域更大的谜团之一是与所使用芯片相关的碳排放总量。最大的GPU制造商英伟达表示,当涉及到AI任务时,他们的芯片可以更快地完成任务,总体上效率更高。英伟达在声明中表示:“与使用CPU相比,使用GPU来加速AI速度更快,也更高效。对于某些AI工作负载来说,能效通常可以提高20倍,对于生成式人工智能必不可少的大型语言模型,能效则可提高300倍。”卢西奥尼说,虽然英伟达已经披露了与能源相关的直接排放和间接排放数据,但该公司并没有透露更多细节。她认为,当英伟达分享这些信息时,我们可能发现GPU消耗的电量与一个小国用电量差不多,“这可能会让人抓狂”!...PC版:https://www.cnbeta.com.tw/articles/soft/1348809.htm手机版:https://m.cnbeta.com.tw/view/1348809.htm

相关推荐

封面图片

越南电力公司在创纪录的电力需求下寻求更多的节能措施

越南电力公司在创纪录的电力需求下寻求更多的节能措施越南国营电力公司说,该公司正呼吁家庭、办公室和工厂减少用电量,不过预计今年不会出现电力短缺。越南电力集团在一份声明中表示,在周二热浪将用电量提高到创纪录的10亿千瓦时的情况下,该公司呼吁客户继续自愿采取节能措施。越南北部是苹果公司的供应商、三星电子的工厂和其他主要制造商的所在地,去年夏天该省用电量激增,导致大范围停电。该公司表示,如果热浪持续,越南北部的用电量可能会继续上升。不过,该公司的一位官员说,该地区目前没有电力短缺的风险。该公司表示,尽管消费创下纪录,但电力生产商并未满负荷运转。

封面图片

国网浙江电力:春节期间浙江日均工业用电量增长 16.7%

国网浙江电力:春节期间浙江日均工业用电量增长16.7%从国网浙江省电力有限公司获悉,春节假期浙江工业用电量达24.63亿千瓦时,日均用电量3.08亿千瓦时,较去年同期增长16.7%。据介绍,春节期间超过6000家的浙江工业企业日均用电量保持在平时水平(以去年12月日均用电量为基准)的90%以上,主要集中在化学原料和化学制品制造业、电气机械和器材制造业、水生产和供应业等行业。(澎湃)

封面图片

越南电力集团:越南发电及用电量均创新高

越南电力集团:越南发电及用电量均创新高越南电力集团星期五(6月21日)说,在持续的高温天气下,越南的发电量和日用电量均创下新高。路透社报道,越南今年一直在努力提升发电能力和扩大电网容量,以避免重演去年严重的停电事件。越南电力集团在一份声明中说,星期三(19日)越南全国实际发电量达到495.3亿瓦。这高于4月27日创下的476.7亿瓦的纪录。电力集团称,上星期五日用电量达到10.3亿千瓦时,高于5月29日创下的10.09亿千瓦时的纪录。“酷热天气,尤其是北部和中部地区的酷热天气,导致6月中旬用电量增加,当月气温连续几天保持在35摄氏度以上。”电力集团星期五再次呼吁消费者节约用电,不要同时使用多台大型设备,并将空调温度设置在26摄氏度以下。2024年6月21日8:52PM

封面图片

从缺芯到缺电?美国能源巨头警告:AI将令美国电力需求增速大幅飙升

从缺芯到缺电?美国能源巨头警告:AI将令美国电力需求增速大幅飙升美国电力需求将突然飙升美国能源情报署在去年发布的长期年度展望中估计,美国目前电力需求的年增长率不到1%。但据再生能源巨头NextEraEnergy首席执行官约翰•凯彻姆(JohnKetchum)的估计,在人工智能技术的影响下,这一电力需求年增长率将加快至1.8%左右。凯彻姆周一在标普全球能源周会议上表示:“(美国)电力需求多年来一直相对平稳,但突然之间,未来五年的电力需求增速预期将快速提高81%。”由于极端气温和气候变化的影响,美国电网本已紧张不堪,近年来的每年冬天几乎都面临大规模断电风险。而随着AI的持续发展,电力需求的急剧上升,可能会给美国电网带来进一步的压力。AI所需用的电远比想象更多事实上,凯彻姆并非第一个警告AI技术所带来的巨大能源需求的商界名人。在今年初的世界经济论坛上,ChatGPT创建者OpenAI的首席执行官山姆·阿尔特曼就曾坦言:“我们确实需要比我们之前想象的更多的能源…我们仍然没有意识到这项技术(人工智能)的能源需求。”近日,特斯拉CEO马斯克也曾预测,为了满足人工智能和电动汽车的需求,未来几年将出现电力短缺:“人工智能计算的限制是非常可预测的…一年前,短缺的是芯片,神经网络芯片。那么,很容易预测,下一个短缺将是电力基础设施(如变压器)。你得给这些东西提供能量。”在去年9月,波士顿咨询集团曾发布分析报告报告称,到2030年底,仅美国数据中心的用电量预计就将是2022年的三倍。这一增幅主要由AI模型训练和服务更高频的AI查询两项关键需求因素驱动。波士顿咨询集团的报告显示,2022年,数据中心用电量占美国总用电量(约130太瓦时)的2.5%,预计到2030年将增加两倍,达到7.5%(约390太瓦时)。这相当于约4000万个美国家庭的用电量,即全美三分之一家庭的用电量。该集团还预计,生成式人工智能将至少占美国新增用电量的1%。...PC版:https://www.cnbeta.com.tw/articles/soft/1424170.htm手机版:https://m.cnbeta.com.tw/view/1424170.htm

封面图片

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值!

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭网友:挺值!除了OpenAI,Google也“不容小觑”:在Google搜索中应用生成式AI技术,Google每年的耗电量将高达290亿千瓦时,也就是每天约7900万度(?)。而在未来,AI这一“吃电巨兽”的食量还会更惊人。数据统计:到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。有网友看完表示:这是利好光伏和风电?所以AI最后拼的是谁发电多、谁发电成本低?AI要耗多少电?如上数据来自一篇论文《Thegrowingenergyfootprintofartificialintelligence》。作者是荷兰数字经济学家AlexdeVries,他通过英伟达、OpenAI、Google等公开数据进行估算。结果就得出了很多意想不到的结论。首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。SemiAnalysis数据显示,OpenAI需要3617台英伟达HGXA100、共28936个GPU来支持ChatGPT推理。ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。Google报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。因此论文提出未来研究AI用电量时,更应该从全周期角度考量。但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。其次,搜索引擎如果用上AI,耗电量还会更高。Google方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。数据显示,使用一次Google搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。如果要将大模型能力植入到Google搜索中,预计需要512821个HGXA100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。目前Google每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍+。同样的现象在英伟达的财报数据中也可以看到。去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4-134太瓦时。不过AI用电量会一路飙升吗?研究认为也不一定。哪怕像Google这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜索引擎的融合。硬件、软件和电力成本压力下,厂商脚步或许没那么快。硬件生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。以及模型本身的算法和架构也会让AI功耗在一定程度上降低。最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。短期内,在各种资源因素影响下,AI用电量增速会被抑制;但硬件和软件的能效提高,显然也无法抵消长期的电力需求增长。总之,作者认为在AI开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个AI供应链的透明度,从而更好了解这一新兴技术的环境成本。实际上,此前关于AI消耗资源的话题已经多次引发讨论。有研究指出,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。加州大学河滨分校研究表明,问ChatGPT5-50个问题,就可消耗500毫升水。因为AI超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。网友:也要看产出除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。尽管这一数据看起来惊人,但不少网友都表示:我们还是需要比较一下投入产出。知乎网友@段小草就浅算了一下:一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球TOP1的AI产品、服务几亿用户,这还是在浪费能源破坏环境吗?言外之意,如下所说(来自知乎网友@桔了个仔):ChatGPT创造的价值其实远超它的能耗。和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:震惊,只需要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)咳咳,有意思的是,上面的答主@段小草还提到了一篇论文,题为《TheCarbonEmissionsofWritingandlllustratingAreLowerforAlthanforHumans》,讲的是AI在画画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍。这样看来,AI甚至算得上“节能减排的先锋”。(手动狗头)呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。奥特曼:我们需要可控核聚变话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实也是一个值得关注的问题。而这点,奥特曼早就在“担忧”了。在今年1月的一场达沃斯会议中,他就表示:人工智能的未来取决于清洁能源的突破。△图源Digwatch具体而言,他认为:随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)。而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。至于如何提升能源产量,他也直言:需要可控核聚变,或者更便宜的太阳能及存储等等。——说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。他在它身上投资了3.75亿美元,这是他以个人名义投资的最大一笔。除此之外,奥特曼的“爸爸”微软也押注了这家公司。据了解,Helion成立于2013年,目前约150+员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。原报告:https://www.cell.com/joule/abstract/S2542-4351(23)00365-3参考链接:[1]https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_[2]https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3[3]https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai[4]https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy[5]https://www.zhihu.com/question/647926823...PC版:https://www.cnbeta.com.tw/articles/soft/1423220.htm手机版:https://m.cnbeta.com.tw/view/1423220.htm

封面图片

博鳌亚洲论坛报告:预计到 2025 年中国用电量将达到全球三分之一

博鳌亚洲论坛报告:预计到2025年中国用电量将达到全球三分之一3月26日上午,博鳌亚洲论坛正式发布《可持续发展的亚洲与世界》旗舰报告。报告指出,亚洲能源需求和碳排放居全球首位。IEA预测,到2025年,亚洲将消耗全球一半的电量,中国用电量将达到全球的1/3;未来三年,全球电力需求量70%以上的增长将来自中国、印度和东南亚。2022年亚洲电力与供暖系统温室气体排放量已达97.2亿吨,占本地区总排放量的38%,占世界排放量的64%。(北京商报)

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人