|簡體中文

比思論壇

 找回密碼
 按這成為會員
搜索



查看: 153|回復: 0
打印 上一主題 下一主題

“卷”的终点?数据中心进入“液冷时代”

[複製鏈接]

5229

主題

1

好友

1萬

積分

教授

Rank: 8Rank: 8

  • TA的每日心情

    2024-4-17 22:16
  • 簽到天數: 247 天

    [LV.8]以壇為家I

    推廣值
    0
    貢獻值
    1
    金錢
    7461
    威望
    15989
    主題
    5229
    跳轉到指定樓層
    樓主
    發表於 2022-6-11 10:58:49 |只看該作者 |倒序瀏覽

    “PUE能到多少?还能降低吗?”

    每一遇到有数据中心(IDC)项目申报,来自东部沿海某城市的招商局人士张辉(化名)都会把这个问题抛给对方。得到的反馈数字也各不相同,遇到低得多的,张辉会问:“你们是用什么技术手段做到这么‘绿’的?”

    上述“PUE之问”,堪称IDC领域的“时代之问”。

    PUE是数据中心总能耗与IT设备能耗的比值,数值越接近1代表其用能效率越高。2021年7月,工信部发布《新型数据中心发展三年行动计划(2021-2023年)》,指出在能效水平方面,新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区力争降低到1.25以下。

    地方政府每年都会拿到并分配该省能耗总量和强度的指标。数据中心全年昼夜不停地运转,决定了它们“能耗巨兽”的本色。而作为能耗大户,地方发展改革委要凭能耗指标来决定是否建设。因此,数据中心的PUE既是政府和监管部门管理的抓手,也是IDC 各建设者争相“内卷”的重点。

    为了降低PUE,技术提供商都很拼,“卷”得花样百出。

    在位于北极圈附近的瑞典北部,坐落着一个数据中心,这里冬天平均气温差不多零下20度。这座数据中心建在此地最重要的原因就是,为了给机房散热。

    在贵州贵安新区两座山的山体中,“藏”着一处能够容下30万台服务器的数据中心。这座数据中心把机房安装在这里,也是为了降低机房的PUE值。据称,这里的PUE极限测试值可达1.1左右。

    在英国苏格兰奥克尼群岛附近的海底,也架设着一座数据中心,这是首个在海底运行的数据中心。这项海底数据中心项目,被一些人比作数据中心的“登月计划”。

    北极圈、海底、山洞、湖底……在这些地方,的确可以大大提高数据中心的散热效率、降低PUE,然而它们的优点似乎也只剩这点了。

    比如,在这些地方,数据中心的维护成本高昂,一旦出现问题难以及时运维。

    “数据中心建设有个基本要求,那就是普适性。举个例子,数据中心不管是在漠河还是在海南岛建设,应该是一样的。”4月26日,中国电子节能技术协会秘书长吕天文在“2022数据中心液冷技术研讨会”上认为,液冷技术是解决目前数据中心“PUE之问”最佳的技术手段。

    液冷技术有何神通?它能终结“PUE之问”吗?

    “液冷”并非新事物。吕天文介绍称,早在20世纪八九十年代,这项技术就被尝试用于通信设备的基站上;此后,在消费端的游戏主机上,有一些玩家手动DIY过一些“液冷主机”,主要也是帮助散热。他说,有些极客会在液冷主机上放一些五颜六色的灯带,“还挺好看的”。

    但液冷技术的系统发展与规模应用,是在2010年之后。

    云计算服务形态的突飞猛进,催生了数据中心的大规模部署。加之建设方对数据中心技术的追求、用户对绿色数据中心的追捧,液冷技术发展十分迅速。

    相比此前数据中心主流的风冷(空调散热)手段,液冷技术的优点可太多了。

    首先,吕天文介绍说,液冷技术散热效率是风冷的不是数十倍、数百倍,而是数千倍。“为科学起见,我们定义是风冷的1000~3000倍不等,这其中差异是由不同冷却液等引起的。”

    其次,液冷技术的精确制冷效果更好。由于冷却液直接作用于高耗能部件,它所发挥的作用事半功倍。“如果仅看制冷这部分的PUE值,电能利用效率可以低至1.0到1.02。”吕天文说。

    此外,液冷技术还能带给数据中心一个“意外惊喜”:低噪音。

    “空调制冷系统有大量外机,运转起来噪音很大,很容易遭到投诉。”吕天文说,相比之下,液冷型数据中心内外部噪音都很小。

    拥有这些优点的液冷技术,在市场上“吃得很开”。

    液冷技术分为直接式和间接式两种。曙光数创副总裁姚勇介绍说,目前市场上间接式和直接式液冷技术均有部署,间接液冷如冷板式液冷服务器,可以在成本微增的情况下实现效率大幅提高;喷淋式、浸没式的直接液冷方案虽然初期投入较高,但从全生命周期和更高计算密度的角度来看,效果更好。

    中科曙光,是目前正以液冷技术开展数据中心绿色实践的先行者之一。

    我国当前正倡导绿色低碳的生产生活方式,中国力争于2030年前二氧化碳排放达到峰值、2060年前实现碳中和。在此背景下,“东数西算”国家工程也应运而生。在东数西算工程实施进程中,“绿色化”是其中一大显著特点。

    “政策的驱动、技术的成熟、市场的规模应用,标志着数据中心的液冷时代正式到来。”吕天文说。

    “中国液冷”位居第一梯队

    一个时代的到来,有其显著的趋势和特点,“液冷时代”也不例外。

    首先,液冷技术给数据中心带来更高的计算密度。

    “一般来说计算密度是按照机柜功率来衡量的。”吕天文说,近年来单机柜功率达到8千瓦甚至一些高端计算达到20、30千瓦,但曙光提供的数据显示,液冷技术加持的服务器单机柜密度已经超过100千瓦,这无疑将为数据中心未来发展提供强大动力。

    他解释称,单机柜密度越大,占地面积越小,设备管理成本越低,如此一来,原来液冷型数据中心的高成本劣势也会逐渐消弭。

    其次,液冷技术与多种节能技术的融合,可以把数据中心变成一个“能源站”。吕天文介绍,相较于风冷型,液冷数据中心的热量抓取非常简单且损失很少,这样利用热回收技术,可以将余热利用发挥到很高水平。他认为,经过10~15 年的发展,“数据中心就是能源站”。

    “数据中心步入到液冷时代的第三个特点,就是可以支撑更多行业的大规模计算的发展。”吕天文认为,可无差别建设的液冷数据中心,可以为科学实验、金融计算、生物信息、人工智能、自动驾驶等领域的应用提供涓涓不断的算力,“这是IDC下一步需要走的”。

    值得欣慰的是,吕天文认为,液冷时代,中国并没有落在后面。

    “客观地讲,我国在液冷技术方面已经走在世界前列。”吕天文说,通过他与欧美的同行的沟通交流,他认为中国的液冷系统、液冷制冷技术已经超过了许多国家,“位于第一梯队”。

    市场是最好的试金石。以曙光为例,姚勇介绍称,曙光2011年就开始投入液冷技术的研发,迄今已经有11年的技术积累和沉淀。

    2015年,曙光第一批商用的冷板式液冷设备下线。“我们拥有时间最长的应用案例。姚勇说,从2015年至今,他们已经有客户做液冷服务器的第二代的更迭。2018年曙光第一套商用化的浸没液冷的设备开始部署。

    作为新一代数字基建的关键核心技术,曙光浸没式相变液冷技术还曾在2022年第2期《求是》杂志《大力推动我国数字经济健康发展》文章中得到推荐展示。

    随着时间的发展,曙光液冷目前具备了技术先进、部署最多、应用最久、产品成熟、经验丰富等特点。姚勇说,无论是新数据中心建设,还是旧中心改造,曙光的用户从政府机构到医疗金融,数据中心形状各式各样,但核心都是一个:使用液冷技术——“用冷板式液冷、浸没相变液冷等技术,作为数据中心制冷的首选。”


    您需要登錄後才可以回帖 登錄 | 按這成為會員

    重要聲明:本論壇是以即時上載留言的方式運作,比思論壇對所有留言的真實性、完整性及立場等,不負任何法律責任。而一切留言之言論只代表留言者個人意見,並非本網站之立場,讀者及用戶不應信賴內容,並應自行判斷內容之真實性。於有關情形下,讀者及用戶應尋求專業意見(如涉及醫療、法律或投資等問題)。 由於本論壇受到「即時上載留言」運作方式所規限,故不能完全監察所有留言,若讀者及用戶發現有留言出現問題,請聯絡我們比思論壇有權刪除任何留言及拒絕任何人士上載留言 (刪除前或不會作事先警告及通知 ),同時亦有不刪除留言的權利,如有任何爭議,管理員擁有最終的詮釋權。用戶切勿撰寫粗言穢語、誹謗、渲染色情暴力或人身攻擊的言論,敬請自律。本網站保留一切法律權利。

    手機版| 廣告聯繫

    GMT+8, 2024-11-18 16:28 , Processed in 0.012225 second(s), 16 queries , Gzip On, Memcache On.

    Powered by Discuz! X2.5

    © 2001-2012 Comsenz Inc.

    回頂部