摘 要:通过对服务器浸没式液冷实验台进行测试,得出了在不同室外侧温度、不同服务器发热功率条件下该实验系统的制冷PUE(能源使用效率)。实验结果表明,该系统制冷PUE值在1.05~1.28之间。室外侧温度为39℃,负载功率为3.773kW,制冷PUE达到最小值1.056。本文得出上海市数据中心全年运行制冷PUE值为1.060。使用浸没式液冷的数据中心其冷却系统能耗仅为使用传统精密空调的10%左右。
根据工信部2019年的数据,截至2017年底,我国在用数据中心的机架总规模增长了33.4%,大型、超大型数据中心的规模增速达到68%[1]。根据国际环保组织绿色和平与华北电力大学发布的报告,2018年中国数据中心总用电量占中国全社会用电量的2.35%,未来5年数据中心总用电量将增长66%[2]。数据中心的电能消耗构成中,冷却系统约占40%。因此,降低冷却系统的能耗是实现数据中心节能减排的关键措施之一。
随着数据中心单机柜发热功率突破20kW,传统精密空调无法解决高功率、局部热点等问题,从而导致冷却系统运行能耗过高甚至出现无法完全散热的情况。浸没式液冷以其换热效率高的特点能够解决上述问题,被越来越广泛地运用。本文将重点介绍浸没式液冷的换热效率及节能潜力。
1.1 浸没式液冷实验台
浸没式液冷分为单相和两相两种类型,单相浸没式液冷中的液体在使用过程中不涉及相变过程,而两相浸没式液冷中的液体会在气态和液态中转变。本研究的对象是两相浸没式液冷,实验搭建了用于测试浸没式液冷换热效率的实验台。主要仪器设备有箱体、加热负载、冷凝盘管、风机、水泵、数据采集装置等。实验台示意图如图1。
实验台箱体及内部实验装置、数据采集装置均放置于室内侧环境舱,风机、水泵放置于室外侧环境舱,室内侧和室外侧环境舱均可用空调系统精确控制其空气参数。室内环境舱中尺寸为0.4m×1m×1.4m的箱体,加热负载位于箱体内中下部,冷凝盘管位于箱体上部。箱体内液体能完全浸没加热元件。箱体正面、右侧面和上表面均有部分区域用透明材料制成,方便实验人员观察箱体内实验情况。
图2所示为3个模拟服务器的加热负载,与服务器相比,负载能提供更稳定的加热量。每个负载能提供0~4kW的热量。负载长100cm,发热圆柱体直径2.5cm,翅片直径5cm。
1.2 浸没式液冷实验方法
风机和水泵位于室外侧,设置风机频率为20Hz,水泵频率为20Hz。设置风机和水泵频率均为20Hz是由于实验配置的风机和水泵容量较大,而频率可调范围为20Hz到50Hz,通过预实验得到20Hz工况已能满足实验稳定运行。实验流程图如图3所示。
1)设置室外侧环境的温度,大约90分钟后温度稳定。
2)设置负载加热功率,等待进口水温、出口水温等参数稳定,大约30分钟后温度稳定。
3)记录数据,包括室内侧温度、室外侧温度、进水温度、出水温度、气体温度、液体温度、风机出风温度、风机功率、水泵功率、负载功率。每5分钟记录一次,共3次。
4)改变负载加热功率值,重复上述2、3步,如图3示粗箭头线。
5)改变室外侧温度,重复上述14步,如图3示细箭头线。
上海市日最高温度大于35℃的炎热天气天数平均每年为7.6天,最高温可达40.2℃。此次室外侧温度共设置了9个区间,分别为10、15、20、25、30、33、36、39、42℃,温度区间包含上海市最不利天气。
图3 实验流程示意图
2.1 实验结果
本实验记录了不同室外侧温度下的风机,水泵功率及负载加热功率。由于风机和水泵均为定频,其功率处在较小的区间内。风机功率稳定在145W,水 泵功率稳定在67W。相同室外侧温度下,负载加热功率由高到低调节,调节范围为0.8~3.8kW。
制冷PUE随负载加热功率的变化如图4,可以看出,制冷PUE值在1.05~1.28之间。制冷PUE定义为:
图4制冷PUE值随加热功率、室外侧温度的变化在不同室外侧温度下,制冷 PUE变化趋势呈现一致性,都是随负载加热功率的上升而降低。图4中制冷PUE最大值为1.270,对应室外侧30℃,负载功率0.895kW。最小值为1.056,对应室外侧39℃,负载功率3.773kW。
图5展示了室外侧温度为42℃时,进口水温、出口水温、气体温度随加热功率的变化。随着负载加热功率的上升,进口水温从42.9℃升高到了44.7℃,升高1.8℃。出口水温从43.9℃升高到52.7℃,升高了8.8℃。而气体温度维持在60.5℃不变。由于本实验台制冷系统的冷却能力较大,冷却水经过制冷系统后,能够被冷却到和室温42℃接近的温度。而加热功率一直在上升,进出口水温温差会和加热功率成比例上升,故出口水温温升更大,进口水温温升较小。气体温度一直维持在沸点温度60.5℃。
图5 室外侧温度42℃时,进口水温、出口水温、气体温度随加热功率的变化
2.2 全年制冷PUE计算
数据中心的能耗主要由IT设备能耗,制冷设备能耗,供配电系统能耗,照 明及其他能耗组成,数据中心PUE的计算如下式:
关于数据中心能耗的构成比例,学者做了大量的调查与研究。虽然研究结果中各部分占比不尽相同,但能耗构成种类及排序基本相同。根据文献[3-7]中数据中心的容量以及能耗构成比例可以得出,使用传统精密空调的数据中心总能耗中,IT设备能耗占比最高,约为56%。其次是制冷系统能耗,约占34%。再其次是供配电系统能耗,约占7%,其中最主要的是UPS设备的能耗,次之是变压器设备的能耗。最后是照明及其他能耗,约占3%。这里的其他能耗主要包括:安防设备,消防设备,电梯,传感器以及数据中心管理系统的能耗等。综合了论文中数据得出,PUE值为1.786,其中制冷PUE值为1.609。使用传统精密空调的数据中心能耗构成如图6所示。
图6 使用传统精密空调的数据中心全年能耗比例
本文得出的是某一室外侧温度、负载加热功率下的制冷PUE,评价数据中心能源利用效率的指标是全年制冷PUE,因此需要用制冷PUE得出全年制冷PUE,具体公式如下:
式中:下标i代表不同的天气区间;PUEi代表在该天气区间下的制冷PUE值;ni代表该天气下的小时数。
采用上海市气象文件,将天气根据温度分为8个级别,与实验数据相对应,分别为10、15、20、25、30、33、36、39℃。对应关系如表2:
由式(3)得到上海地区全年制冷PUE为1.060,远低于论文中使用传统精密空调的数据中心全年制冷PUE-1.609,制冷能耗降低幅度高达90.2%。
3 结论
本文通过对浸没式液冷实验台进行测试,得出以下结论:
1)在不同室外侧温度、相同的发热功率下,制冷PUE值基本相同。
2)制冷PUE变化趋势呈现一致性,都是随负载加热功率的上升而降低。图中制冷PUE最大值为1.270,对应室外侧30℃,负载功率0.895kW时。最小值为1.056,对应室外侧39℃,负载功率3.773kW。
3)上海市使用浸没式液冷的数据中心其全年制冷PUE为1.060,相比于使用传统精密空调的数据中心,其制冷系统能耗降低了90.2%。