据国外媒体报道,ChatGPT为了响应用户请求,每天可能要消耗超过50万千瓦时的电力,大约是美国家庭平均用电量的1.7万多倍。
50万千瓦时是什么概念呢,美国商业用电一度约为0.147美元,约1.06元人民币,相当于一天电费53万元,一年光电费就要花2亿元。
而如果生成式AI进一步发展,耗电量还可能会更多,有研究估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
英伟达CEO黄仁勋在公开演讲中指出,AI未来发展与光伏和储能紧密相连。
AI的尽头是光伏和储能!我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源”,黄仁勋表示。
特斯拉CEO马斯克也提出类似看法,AI在两年内年将由缺硅”变为缺电”,而这可能阻碍AI的发展。
OpenAI的创始人山姆奥特曼也表示:未来AI的技术取决于能源,我们需要更多的光伏和储能。”
[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表本站立场。