随着技术的发展,AI大模型在给人类社会带来巨大变革的同时,却也成为能源消耗大户。据美国媒体报道,此前引爆全球人工智能产业浪潮的ChatGPT,每天的耗电量已超过50万千瓦时。
(文章来源:央视财经,ID:cctvyscj)
据美国《纽约客》杂志报道,美国开放人工智能研究中心(OpenAI)的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。相比之下,美国一个家庭平均每天的用电量约为29千瓦时,也就是说,ChatGPT每天用电量是美国家庭平均用电量的1.7万多倍。而且如果生成式AI被进一步采用,耗电量可能会更多。
根据全球数据中心标准组织之一“国际正常运行时间协会”的预测,到2025年,人工智能业务在全球数据中心用电量中的占比,将从2%猛增到10%。而荷兰国家银行数据科学家德弗里斯在一篇论文中估计,到2027年,整个人工智能行业每年将消耗850亿至1340亿千瓦时的电力。届时,人工智能的用电量可能占全球总用电量的0.5%。据他推算,如果谷歌将生成式人工智能技术整合到每次搜索中,每年将消耗约290亿千瓦时的电量。这比肯尼亚、危地马拉和克罗地亚等国一年的用电量还要多。
分析指出,生成式AI带来的种种创新,都是以处理性能和功耗方面的高昂成本为代价。马斯克曾预测,未来两年内行业将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。在他看来,电力短缺可能会造成严重后果,就像芯片短缺一度阻碍科技和汽车行业一样。
我们登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,其原创性以及文中陈述文字和内容未经证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,文章内容仅供参考! 因内容为机器人自动从互联网自动抓取,如您不希望您的作品出现在我们的平台,请和我们联系处理邮箱[email protected],电话:18626060360,谢谢!