划重点
01人工智能(AI)的崛起引发了对高能耗制约其发展的担忧,微软训练GPT-6的工程师们正面临电网崩溃的难题。
02每块H100芯片的峰值功率为700W,10万块芯片的峰值功耗最高可达7000万W,相当于一座小型太阳能或风能发电厂的全部输出。
03除此之外,AI耗电还包括配套设施的能耗,如服务器和冷却设备,给电网带来压力。
04尽管AI耗电量目前远低于数据中心和加密货币,但制约AI发展的不仅是技术本身的能耗,还有配套基础设施的能耗和电网的承载力。
05为应对电网挑战,各国采取措施敦促数据中心实现节能减排,同时推进核电建设以保障能源安全。
以上内容由腾讯混元大模型生成,仅供参考
AI 到底有多费电?
图库版权图片,转载使用可能引发版权纠纷
AI 耗电,冰山一角
图注:2022 年与 2026 年,传统数据中心、加密货币、AI 数据中心的能耗估计值(柱状图从下往上依次展示)。可见,目前 AI 耗电量远低于数据中心和加密货币。图片来源:IEA
冷却能耗,不容忽视
世界各国正在采取措施,敦促数据中心实现节能减排的目标。其中,欧盟要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从 2025 年起能效比不高于 1.3,并将可再生能源使用比例逐年上调,到 2032 年达到 100%。
科技公司用电,节流难开源更难
气候变暖,雪上加霜
参考文献
策划制作
作者丨玛雅蓝 科普创作者
审核丨于旸 腾讯玄武实验室负责人
策划丨徐来 丁崝
责编丨丁崝
审校丨徐来 林林
查看原图 37K