水冷技术.pdf

上传人:索**** 文档编号:76196155 上传时间:2023-03-08 格式:PDF 页数:12 大小:1.81MB
返回 下载 相关 举报
水冷技术.pdf_第1页
第1页 / 共12页
水冷技术.pdf_第2页
第2页 / 共12页
点击查看更多>>
资源描述

《水冷技术.pdf》由会员分享,可在线阅读,更多相关《水冷技术.pdf(12页珍藏版)》请在得力文库 - 分享文档赚钱的网站上搜索。

1、水冷-工作原理一套水冷(液冷)散热系统必须具有以下部件:水冷块、循环液、水泵、管道和水箱或换热器。水冷散热系统的组成水冷块是一个内部留有水道的金属块,由铜或铝制成,与 CPU 接触并将吸收CPU 的热量,所以这部分的作用与风冷的散热片的作用是相同的,不同之处就在于水冷块必须留有循环液通过的水道而且是完全密闭的,这样才能保证循环液不外漏而引起电器的短路。循环液的作用与空气类似,但能吸收大量的热量而保持温度不会明显变化,如果液体是水,就是我们大家熟知的水冷系统了。水泵的作用是推动循环液流动,这样吸收了CPU 热量的液体就会从CPU 上的水冷块中流出,而新的低温的循环液将继续吸收CPU 的热量。水管

2、连接水泵、水冷块和水箱,其作用是让循环液在一个密闭的通道中循环流动而不外漏,这样才能让液冷散热系统正常工作。水箱用来存储循环液,回流的循环液在这里释放掉CPU 的热量,低温的循环液重新流入管道,如果 CPU 的发热功率较小,利用水箱内存储的大容量的循环液就能保证循环液温度不会有明显的上升,如果CPU 功率很大,则需要加入换热器来帮助散发CPU 的热量,这里的换热器就是一个类似散热片的东西,循环液将热量传递给具有超大表面积的散热片,散热片上的风扇则将流入空气的热量带走。如果是小型密闭式的液冷系统,则可以省略开放式的水箱让液体在水泵、水冷块和换热器之间往返流动,避免循环液暴露在空气中而变质。水冷-

3、发展历史说到 CPU 水冷那还要追溯到上个世纪,早在1998、1999 年左右台湾就开始流行CPU 水冷散热了,DIY利用自己的条件制作出各式各样的水冷系统,但大多以开放式结构为主,在DIY 看来,当时的CPU 就已经是“发热量巨大”的怪物了。大陆水冷制作相对要晚些,也大多集中在个人的制作水平上,曾经出现像杭州中裕的CoolMax 等数款个人制作并销售的水冷产品,其中CoolMax 水冷已经具备像样的包装和配套件,在宣传上也曾经有过动作,但由于市场响应有限,这些产品犹如过眼云烟,没有多长时间就从市场上彻底消失了。到 2003 年,水冷又开始在大陆市场上活跃起来,其中以正规厂家中的澳柯玛和个人制

4、作中的水冷王为主流,从市场推广和论坛宣传两个方面展开了水冷制作的新篇章。新一代水冷与旧水冷相比原理并没有变化,但制作工艺却大幅度提升,大多注重全密闭式的设计,而且内地与港台个人DIY 作品间的差别也越来越少,这与互联网的推广不无关系,上个世纪的水冷主要集中在少数能上网的发烧友中,随着网络的普及,越来越多的能人异士纷纷出现,行业范围远远跨越了电脑及其相关行业,精通于金属加工的朋友不胜枚举,制作这种水冷散热器更加方便,而且更加美观、实用、可靠,此外,越来越多的喜欢水冷的朋友可以在各个论坛中各抒己见,这样也推动了水冷工艺的进步,显然是互联网促进了水冷产品的进步,同时也为产品的推广奠定了基础。随着显卡

5、技术的快速发展,显卡上的GPU 已经能够发出与CPU 相当的热量,因此水冷已经不再局限在CPU 了,显卡、北桥、硬盘的水冷也不断涌出,彻底让大家进入水冷的新世界。Lumia950/Lumia950 XL全球首创的“水冷散热”模式三星 S7 采用“水冷散热”IBM 水冷技术历史回顾如今 数据中心 越来越追求高能效,降低运维成本和TCO,但是空调 制冷 成本却依旧高居不下,据统计,数据中心大约25%的能耗和碳排放量都是由制冷系统产生,如果能够降低空调制冷成本,数据中心运维成本将得以整体下降。水冷是数据中心散热的一个好办法,在水冷上,IBM 进行了多年研究,其最早的水冷技术可以追溯到1966年,如今

6、,IBM 的背板换热器技术为Power System和 System x用户带来了巨大的好处,能够为数据中心降低超过 50%的空调需求。本文将带您回顾过去几十年中IBM 的水冷技术。1996:IBM开启水冷之旅IBM 首次在计算机上应用水冷要追溯到1966年,当时 IBM 推出了 System/360 Model 91计算机,是当时速度最快、最强大的计算机。它主要为处理科学应用中的高速数据处理而设计,比如太空探索、理论天文学、亚原子物理学和全球气象预报。为了避免计算机过热,IBM 设计了一个专门的水冷系统。1980:芯片 散热IBM 在 1980 年 11 月 12 日发布了 IBM Mode

7、l 3081 Processor Complex主机系统,它包含了两项提高效能的特性,将能耗从68 千瓦降低到23 千瓦,并且内置了水冷技术,直接对芯片散热,效果大大超越了传统的空气散热。1990:8款水冷主机1990年,IBM 推出了 ES/9000家族主机系统,包含8 个型号,330、340、500、580、620、720、820 和 900,全部采用水冷技术。2006:全新水冷方法在 2006年伦敦召开的电源及冷却高峰论坛(Power and Cooling Summit)上,IBM 研究人员展示了用于提高计算机芯片冷却能力的最新结果,这是一种被称作“直接射流冲击”的全新水冷方法,在一个

8、完全封闭的系统中将水直接喷射到芯片背部,再将水吸出。这是一套复杂的架构,采用了多组高达5 万个细小喷嘴和树枝状返回结构。2008:零排放数据中心在 2008年的 CeBIT展会上,IBM 展示了零排放数据中心,并公布正在开发智能的芯片水冷回路。相比传统的空气制冷数据中心,只能水冷回路不仅能降低40%的能耗,同时也能将余热再利用,比如用于家庭取暖。据报告,IBM 首个原型系统已经能够将数据中心运营的四分之三能耗再利用。2008:IBM首个水冷Unix服务器,Power 575在 2008年 4 月,IBM 发布了 Power 575服务器,包含14 个服务器节点,水管穿过机架直接进入服务器,处理

9、器 散热器上包含了水冷铜座。2009:水冷 QPACE超级计算机Green500夺冠2009年 11 月的 Green500榜单上,由IBM 为于利希研究中心、雷根斯堡大学和乌珀塔尔大学建造的三台同样的水冷QPACE 超级计算机夺冠,成为世界上最具能效的超级计算机。2010:IBM热水冷却超级计算机Aquasar2010年 7 月,IBM 为瑞士联邦理工学院建设了同类别首个热水冷却超级计算机Aquasar,标志着一个新的“能源感知”计算时代的到来。这套被称作Aquasar的系统相比同等的空气冷却系统 能够节省 40%能耗,碳排放量降低了85%。2012:第一 台商 业热水冷却计算机SuperM

10、UC2012年 6 月,IBM 表示为德国巴伐利亚科学院的莱布尼茨超级计算中心(LRZ)建设的 SuperMUC超级计算机将采用革命性的温水冷却方式。系统的活动组件,如CPU 和内存,可以直接用最高45 摄氏度的温水进行散热,以削减系统的能耗。2012年及以后:打开自来水在温水和热水散热技术之后,IBM 水冷技术还在继续创新。IBM 在纽约波基普西实验室的研究人员开发出了一项新的技术,可以用自来水 为计算机来散热,这样,数据中心不必再冷却水,直接采用自来水能够节省更多的能源和成本。谷歌数据中心采用水冷技术采用水冷服务器的主要好处是就近带走热量,可以有很高的节能效果,同时大大提高功率密度来缩小服

11、务器的尺寸,减少风扇噪音,以及容易实现热能回收等等好处。基于这些好处,谷歌早在2006 年之前就开始研究此技术,并于2009 年得到其水冷服务器的专利。谷歌水冷服务器专利的主要技术特点是服务器主板两两成对安装在散热片的两个外侧,由散热片内流过温度较低的冷冻水来带走热量。其中高发热的元件,比如 CPU 和南北桥芯片组等靠近散热片内的冷冻水来安装,从而发出的热量被散热片内的冷冻水就近带走;而一些发热量不高的器件,比如内存和硬盘等则直接安装在稍远离三明治散热片中心的位置,部分案例中还有服务器风扇或电源风扇安装在某侧的服务器主板上,用于将内存和硬盘等的热量带走。俄勒冈州达拉斯,进出谷歌数据中心的水管。

12、蓝色管道供应冷水,红色管道送回温水,以进行冷却。图 2 谷歌水冷服务器侧视图如图 2 是谷歌水冷服务器的侧视图,其中中间的三明治结构部分为水冷散热片114,散热片的上下表面分别安装了两个服务器主板112a 和 112b 以及 CPU、内存等发热元件。由铝锭加工压叠压而成的散热片114 的内部有多个如122 这样的冷冻水通孔,用于带走散热片吸收的服务器热量。散热片114 的表面则根据服务器器件的发热程度还专门刻蚀出不同深浅的平台,用于安装发热量不同的器件,比如标识为 116 的 CPU 和标识为 118 的芯片组等高发热量器件,置于靠近冷冻水供水通道的平台,而标识为120 的内存、标识为124

13、网络和标识为130 的低发热量器件则可置于稍远离冷冻水通道的平台,部分设计中标识为126 的服务器风扇等还仍然会用于给服务器表面的器件散热,下面会更为详细介绍。采用水冷服务器来散热有很多好处,比如发热量大的器件可以高效就近在本地很快被散热片冷却,而不像传统服务器发出的热量散发到机房级,需要通过机房级大风扇、冷水机组、大功率水泵等较高能耗的传统制冷方式来实现,还不用额外冷却机房级大空间环境内的空气等。由于采用了就近散热方式,冷冻水就可以不再采用传统的 7/12 度供水,而供水温度可以提升到21 摄氏度以上,基本就不再需要冷水机组了,大大节能还可节省设备投资。同样服务器释放出来的发热量大大减少,气

14、流循环的风扇126 也仅仅可以以较低的速度运转,大大节省服务器风扇的能耗。图 3 是谷歌水冷服务器的俯视图,主板 201 上有 6 个标识为 202 的 CPU 及标识为 206 的芯片组,中间横向虚线部分为多根内存阵列,以及冷通道侧的网络控制器 208 和网络 RJ45 接口 214 等。服务器的进风从右侧进入,流经内存及周边器件,然后被标识为204 的服务器电源吸入,服务器电源的风扇203 既作了电源的散热风扇,同时还兼做了服务器的气流循环风扇,进入服务器的风还可以被导风板205 导入到风扇内,防止冷气流短路直通。图 3 谷歌水冷服务器的俯视图图 4(a)是服务器散热片114 的内部结构图

15、,包括302 和 304 这样的冷冻水通孔,内部流经的冷媒除了普通冷冻水外,还可以是氟化剂、食用油、乙二醇、液氮等等非导电物质。冷冻水从靠近大发热量CPU 侧的 306 口进入,带走大部分热量后,再从小发热量的内存等附近308 口流出。实际应用中,服务器机架内的水泵及阀门等提供冷冻水给到每套服务器,比如机柜内的冷冻水配水竖管(类似供电的配电 PDU),通过快速连接软管(类似于供电的电源线)以及每个服务器接入水阀门(类似于供电的空开)接到每套服务器的散热片内。冷冻水竖管上级还有配水单元及供水阀门(类似于供电的配电柜及上级空开)。图4(b)是散热片的更详细侧视图,可以看到散热片400 表面上有三个

16、不同的散热平台层,用于不同发热量的器件。散热片 400 实际由三层铝锭402、404 和 406 压叠而成,其中中间层的404可以为导热好的金属材料,也可以采用导热不好的塑料材料等,甚至可以不用404层,直接由导热性好的402 和 406 压叠而成。此外 412 作为冷冻水输入口,而 414作为冷冻水流出孔。图 4 散热片俯视图图 5 是两个服务器机柜502a 和 502b 的简化图,两层导轨的两套服务器之间的部分存在一定空隙,用于机柜级气流流通,这个气流循环由每套服务器上安装的风扇来带走。由于服务器上的大部分热量都被散热片内的冷冻水带走,风扇只用于循环内存和硬盘等低发热器件的部分散热气流,因

17、此风扇运行转速很低功耗也很少。每个散热器表面的两个服务器上器件经过精心设计,以至于服务器密集堆叠部署时,相邻两套服务器上的器件也不会互相干涉。比如上一套服务器的底部主板上的器件不会和下一套服务器的顶部主板上的器件发生干涉。同时每套服务器顶部主板上的风扇可以巧妙地同时用于本服务器顶部主板以及上面一套服务器的底部主板上的器件散热,即一套服务器的风扇可以同时用于上下两个服务器主板的散热。此外,如前面所述,这里的服务器风扇可能会单独安装较大的散热风扇,但在谷歌的水冷服务器应用中,因为内存和硬盘等需要的散热功率不大,这些风扇很可能只是服务器电源内的散热风扇。通过这些电源风扇的运转以及导风板设计,将内存、

18、硬盘等器件的热量带走,同时兼做服务器电源的散热,最后再送到热通道内降温。由于采用了双 U 高的大电源风扇,可以得到更大的风量,在降低了风扇转速和风扇能耗的同时,还可以大大降低机房的噪音,提供更好的现场人员工作环境,谷歌的机房也因为冷通道维护环境舒适和机房低噪声大空间等考虑和设计,也于前几年通过了OHS职业健康安全管理体系认证。图 5 谷歌水冷服务器机柜如前面所述,除了被冷冻水带走的热量外,主板上内存硬盘等由电源风扇循环的热量,在热通道内被热通道顶部的制冷盘管重新制冷后,再被机房级的大风扇引导重新循环回服务器的冷通道侧以及现场人员操作通道内,最后被服务器吸入重新开始新一轮循环。通过适当控制机房级

19、热通道内的服务器出风温度以及冷冻水供水温度,或者控制 IT 设备级的水冷服务器进水流量,以及服务器上气流循环的风扇转速,使得整个系统高效运转在最佳节能状态。比如控制服务器的出风温度,将散发出来的热量有效控制在较小的热通道内,得到较高的置顶空调盘管的delta T 温差,温差越大盘管热交换效率就更高。且热气流不会和冷气流混合,就近被冷却盘管散热,风扇的功耗也更低。同时通过盘管顶部的机房级循环大风扇将冷却后的空气重新循环回机房的冷通道内,整个机房环境作为大的冷通道,不仅提供一个凉爽的现场运维人员工作环境,同时还兼作为整个大冷池,用于众多服务器的风扇故障备份。图 6 是机房某个剖面示意图,如前面介绍

20、,整个机房环境是个大的冷通道,用于如下图 515 的工作人员操作空间,兼做服务器的进风侧,实际图6 右侧机柜的右边也是有类似冷通道用于服务器的进风,这里没画出来。两排机柜间的通道516 作为热通道,用于汇集两侧所有服务器发出的热量(当然主要发热部分由服务器内部散热片内的冷冻水带走),热通道顶部安装着标识为514 的置顶盘管,由风扇512和盘管 514 将热通道 516 内的热量制冷后再释放到整个机房大环境冷通道内。虽然下图的 512 风扇没有和 514 盘管放在一起,专门做了个热吊顶510,实际在谷歌的很多案例中 512 风扇会直接安装在514 盘管顶部,不再建设吊顶层来减少工程的复杂度。当然

21、盘管 514 也可以不用直接安装在热通道的顶部,比如安装在机柜底部等,减少盘管漏水或者冷凝水等对服务器的运行风险,总之,可以灵活安装盘管和风扇的位置,满足不同的应用和风险需求。图 6 水冷服务器机房截面图和谷歌的微模块技术一样,谷歌的水冷服务器机房沿用了地板下供水的方案,由于需要保持水冷服务器的水质,因此主要通过板式换热器528 来隔离冷冻水内循环和冷却水外循环。513a 和 513b 是机房级主供回水管路(类似于供电主母排),而 515a 和 515b 为机柜级配水供回水管路(类似于机柜供电PDU),524a 和 524b为到每个服务器的供回水支管(类似于电源线),非常类似供电系统的供电路径设计。其中 524a 和 524b 为快接软管,考虑服务器故障检修和搬迁等经常性维护操作,用于和服务器散热片的快速插接。整个管路上还有很多的阀门用于防止漏水,比如竖管上的球阀527 和支管自动截至阀等。而流到每个服务器的冷冻水流量则由流量计 525a 和温度传感器 525b 来控制,比如当监测到服务器温度偏高的时候,可以加大水流量或者调低冷冻水供水温度等。优势因为减少了风扇的数量,所以也减少了风扇所产生的振动及噪音。散热效果比风冷系统高出许多。劣势水冷散热器所需的用具非常庞大,占用了一定的空间。价钱比风冷系统较高。因为结构比风冷系统复杂,还多加了一级的工质,所以可靠性也较差。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 技术资料 > 技术方案

本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知得利文库网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

工信部备案号:黑ICP备15003705号-8 |  经营许可证:黑B2-20190332号 |   黑公网安备:91230400333293403D

© 2020-2023 www.deliwenku.com 得利文库. All Rights Reserved 黑龙江转换宝科技有限公司 

黑龙江省互联网违法和不良信息举报
举报电话:0468-3380021 邮箱:hgswwxb@163.com