ChatGPT 每天耗电超 50 万度,是美国普通家庭 1.7 万多倍

ChatGPT每天耗电超50万度,是美国普通家庭1.7万多倍据《纽约客》杂志报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。如果生成式AI被进一步采用,耗电量可能会更多。荷兰国家银行数据科学家亚历克斯・德弗里斯在一篇论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。(环球市场播报)

相关推荐

封面图片

【ChatGPT日耗电超50万度,是美国普通家庭1.7万多倍】

【ChatGPT日耗电超50万度,是美国普通家庭1.7万多倍】2024年03月10日07点28分老不正经报道,据《纽约客》杂志报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国家庭平均每天使用约29千瓦时电力,也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。如果生成式AI被进一步采用,耗电量可能会更多。荷兰国家银行数据科学家亚历克斯·德弗里斯在一篇论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。

封面图片

ChatGPT每天耗电超50万度 是美国普通家庭1.7万多倍

ChatGPT每天耗电超50万度是美国普通家庭1.7万多倍听起来很多,但如果生成式人工智能被进一步采用,耗电量可能会更多。例如,根据荷兰国家银行(DutchNationalBank)数据科学家亚历克斯·德弗里斯(AlexdeVries)在可持续能源期刊《焦耳》(Joule)上发表的一篇论文中的计算,如果谷歌将生成式A技术整合到每次搜索中,它每年将消耗约290亿千瓦时的电量。据《纽约客》报道,这比肯尼亚、危地马拉和克罗地亚等国一年的用电量还要多。“人工智能是非常耗能的,”德弗里斯说,“每个人工智能服务器的耗电量已经相当于十几个英国家庭的总和。所以这些数字很快就会增加。”然而,估计蓬勃发展的人工智能行业消耗多少电力是很难确定的。据theVerge报道,大型人工智能模型的运行方式存在相当大的差异,而推动人工智能繁荣的大型科技公司并没有完全公开他们的能源使用情况。然而,在他的论文中,德弗里斯提出了一个基于英伟达(Nvidia)公布的数据的粗略计算。这家芯片制造商占据了图形处理器市场约95%的份额。德弗里斯在论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时相当于10亿千瓦时)。“到2027年,人工智能的用电量可能占全球用电量的0.5%,”德弗里斯说,“我认为这是一个相当重要的数字。”...PC版:https://www.cnbeta.com.tw/articles/soft/1423115.htm手机版:https://m.cnbeta.com.tw/view/1423115.htm

封面图片

据美国媒体报道,此前引爆全球人工智能产业浪潮的ChatGPT,每天的耗电量已超过50万千瓦时。据美国《纽约客》杂志报道,美国开放

据美国媒体报道,此前引爆全球人工智能产业浪潮的ChatGPT,每天的耗电量已超过50万千瓦时。据美国《纽约客》杂志报道,美国开放人工智能研究中心(OpenAI)的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。也就是说,ChatGPT每天用电量是美国家庭平均用电量的1.7万多倍。而且如果生成式AI被进一步采用,耗电量可能会更多。分析指出,生成式AI带来的种种创新,都是以处理性能和功耗方面的高昂成本为代价。马斯克曾预测,未来两年内行业将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。(央视财经)

封面图片

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭 网友:挺值!

ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭网友:挺值!除了OpenAI,Google也“不容小觑”:在Google搜索中应用生成式AI技术,Google每年的耗电量将高达290亿千瓦时,也就是每天约7900万度(?)。而在未来,AI这一“吃电巨兽”的食量还会更惊人。数据统计:到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。有网友看完表示:这是利好光伏和风电?所以AI最后拼的是谁发电多、谁发电成本低?AI要耗多少电?如上数据来自一篇论文《Thegrowingenergyfootprintofartificialintelligence》。作者是荷兰数字经济学家AlexdeVries,他通过英伟达、OpenAI、Google等公开数据进行估算。结果就得出了很多意想不到的结论。首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。SemiAnalysis数据显示,OpenAI需要3617台英伟达HGXA100、共28936个GPU来支持ChatGPT推理。ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。Google报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。因此论文提出未来研究AI用电量时,更应该从全周期角度考量。但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。其次,搜索引擎如果用上AI,耗电量还会更高。Google方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。数据显示,使用一次Google搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。如果要将大模型能力植入到Google搜索中,预计需要512821个HGXA100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。目前Google每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时,已经是普通搜索的20倍+。同样的现象在英伟达的财报数据中也可以看到。去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4-134太瓦时。不过AI用电量会一路飙升吗?研究认为也不一定。哪怕像Google这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜索引擎的融合。硬件、软件和电力成本压力下,厂商脚步或许没那么快。硬件生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。以及模型本身的算法和架构也会让AI功耗在一定程度上降低。最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。短期内,在各种资源因素影响下,AI用电量增速会被抑制;但硬件和软件的能效提高,显然也无法抵消长期的电力需求增长。总之,作者认为在AI开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个AI供应链的透明度,从而更好了解这一新兴技术的环境成本。实际上,此前关于AI消耗资源的话题已经多次引发讨论。有研究指出,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。加州大学河滨分校研究表明,问ChatGPT5-50个问题,就可消耗500毫升水。因为AI超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。网友:也要看产出除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。尽管这一数据看起来惊人,但不少网友都表示:我们还是需要比较一下投入产出。知乎网友@段小草就浅算了一下:一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球TOP1的AI产品、服务几亿用户,这还是在浪费能源破坏环境吗?言外之意,如下所说(来自知乎网友@桔了个仔):ChatGPT创造的价值其实远超它的能耗。和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:震惊,只需要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)咳咳,有意思的是,上面的答主@段小草还提到了一篇论文,题为《TheCarbonEmissionsofWritingandlllustratingAreLowerforAlthanforHumans》,讲的是AI在画画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍。这样看来,AI甚至算得上“节能减排的先锋”。(手动狗头)呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。奥特曼:我们需要可控核聚变话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实也是一个值得关注的问题。而这点,奥特曼早就在“担忧”了。在今年1月的一场达沃斯会议中,他就表示:人工智能的未来取决于清洁能源的突破。△图源Digwatch具体而言,他认为:随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)。而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。至于如何提升能源产量,他也直言:需要可控核聚变,或者更便宜的太阳能及存储等等。——说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。他在它身上投资了3.75亿美元,这是他以个人名义投资的最大一笔。除此之外,奥特曼的“爸爸”微软也押注了这家公司。据了解,Helion成立于2013年,目前约150+员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。原报告:https://www.cell.com/joule/abstract/S2542-4351(23)00365-3参考链接:[1]https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_[2]https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3[3]https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai[4]https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy[5]https://www.zhihu.com/question/647926823...PC版:https://www.cnbeta.com.tw/articles/soft/1423220.htm手机版:https://m.cnbeta.com.tw/view/1423220.htm

封面图片

【报告:比特币矿工将75%以上的收入用于电力成本】

【报告:比特币矿工将75%以上的收入用于电力成本】6月1日消息,CryptoMonday发布的报告显示,比特币矿工将75%以上的收入用于飙升的电力成本。CryptoMonday表示:“BTC挖矿是一个非常耗电的过程,单笔BTC交易消耗大约2165千瓦时的电力。这相当于一个典型的美国家庭74天的使用电量,再加上普通家庭支付大约0.14美元/千瓦时,支出的规模就变得很明显了。”根据研究,一个印度家庭平均每天消耗5.7千瓦时的电力,也就是说,一个印度普通家庭需要380天,才能消耗相当于开采一枚比特币所需的电量。有人估计,BTC每年排放近1.14亿吨的二氧化碳,这一数字与捷克共和国相当。其他估计表明,比特币挖矿每年消耗127太瓦时的电力——相当于挪威的年耗电量。

封面图片

4年后ChatGPT等AI耗电量将激增 相当于一个国家年用电量

4年后ChatGPT等AI耗电量将激增相当于一个国家年用电量但是,这些便利并不是没有代价的,而且还是不小的代价。以谷歌为例,其人工智能训练的耗电量占该公司总用电量的10%至15%,也就是每年耗电量在23亿度左右,而这相当于美国一个州首府所有家庭一年的用电量。即使是在训练完成后,这些人工智能也仍然需要大量的计算能力来运行,并因此耗费大量能源,OpenAI每天在ChatGPT上的花费就高达70万美元。国外最新的一项研究表明,假设人们对AI技术的兴趣持续增长,再加上芯片供应充足。那么生成式人工智能(ChatGPT、BingChat等)将会产生巨大的能源消耗,甚至可能超过一些国家的电力需求。该研究指出,在未来几年中,与人工智能相关的能源消耗很可能会显著增加。到2027年,生成式人工智能所消耗的能源可以为荷兰大小的国家提供一年的电力,相当于约85-134太瓦时(TWh)。但是随着技术的不断进步,未来预计会有更加高效、环保的生成式人工智能解决方案,到那时耗电量问题应该会得以解决。相关文章:OpenAI拟进行重大更新以更低成本吸引开发者...PC版:https://www.cnbeta.com.tw/articles/soft/1389455.htm手机版:https://m.cnbeta.com.tw/view/1389455.htm

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人