AI算力爆发带来能耗挑战,液冷散热和智能能效管理成为数据中心新刚需。
AI大模型的训练和推理需要消耗巨大的电力资源。据估算,一次GPT-4级别模型的训练耗电量相当于一个小城市数月的用电量。随着AI算力需求的指数级增长,能效管理已成为数据中心行业面临的核心挑战。
传统风冷散热方案已难以满足高密度AI服务器的散热需求。液冷技术(包括冷板式液冷和浸没式液冷)正在快速渗透,预计到2027年,新建AI数据中心的液冷渗透率将超过60%。
在智能能效管理方面,AI驱动的数据中心能源管理系统能够实时优化服务器负载分配、冷却系统运行参数和供电效率,将PUE(能源使用效率)从传统的1.4降至1.15以下。
从投资角度看,液冷设备制造商、精密温控系统供应商和智能能源管理平台是值得重点关注的细分赛道。特别是具备从芯片级到数据中心级全链条散热解决方案能力的企业,有望在这一轮产业升级中获得显著的市场份额增长。
