文章目錄[隱藏]
手機(jī)、電腦用久了會(huì)發(fā)熱,高速率數(shù)據(jù)中心的物理設(shè)備在運(yùn)行期間更是會(huì)產(chǎn)生很多熱量。這些難以驅(qū)散的熱量又使室內(nèi)溫度急劇升高,讓物理設(shè)備處于極端不利的高溫環(huán)境,很容易造成機(jī)器故障甚至宕機(jī)的事故。
一個(gè)數(shù)據(jù)中心動(dòng)輒數(shù)千臺(tái)機(jī)器,大量設(shè)備消耗的電能幾乎都變成了廢熱,因此人們積極探索數(shù)據(jù)中心的冷卻系統(tǒng),從傳統(tǒng)的風(fēng)冷、水冷到目前規(guī)劃中的浸沒(méi)液冷,業(yè)界為此絞盡了腦汁。
傳統(tǒng)的制冷系統(tǒng)耗費(fèi)了數(shù)據(jù)中心大約30%的電力,加上高度集中的交換機(jī)、服務(wù)器、光收發(fā)模塊等IT設(shè)備的耗電,每年的數(shù)據(jù)中心會(huì)消耗全球2%的總用電量。小易教你數(shù)據(jù)中心如何才能更高效,更節(jié)能節(jié)省能耗。
自然環(huán)境冷卻
比如, Facebook在瑞典北部靠近北極圈的地方建數(shù)據(jù)中心,利用自然低溫為數(shù)據(jù)中心散熱,降低能耗。
微軟在蘇格蘭奧克尼群島海岸附近建“水下數(shù)據(jù)中心”,利用寒冷的海水散熱。
再比如阿里巴巴在張北的數(shù)據(jù)中心充分利用自然的氣溫低、空氣干凈的優(yōu)勢(shì),大面積采用新風(fēng)自然冷和水側(cè)自然冷卻技術(shù),盡可能用自然冷源為服務(wù)器降溫。
這些都是通過(guò)現(xiàn)實(shí)的寒冷自然環(huán)境進(jìn)行的免費(fèi)冷卻方案,但是有時(shí)我們需要在炎熱的內(nèi)陸進(jìn)行數(shù)據(jù)中心的部署,這時(shí)我們就需要應(yīng)用新的技術(shù)。
我們通常會(huì)采取哪些新的技術(shù)呢?
浸沒(méi)液冷
提到冷卻方式,浸沒(méi)液冷絕對(duì)是最近幾年最受業(yè)界關(guān)注的新型散熱技術(shù),尤其是在SC14全球超級(jí)計(jì)算機(jī)大會(huì)上,來(lái)自國(guó)內(nèi)外的多家服務(wù)器企業(yè)均展示了在浸沒(méi)液冷散熱上的產(chǎn)品,大幅提高了業(yè)界對(duì)液冷的關(guān)注度。
浸沒(méi)液冷技術(shù)里的液體并不是水,而是一種絕緣冷卻液,它的特殊之處在于:完全絕緣且無(wú)腐蝕性,即使浸沒(méi)元器件20年以上,也不會(huì)對(duì)電子元器件產(chǎn)生任何影響。而高效的散熱效率,可使機(jī)房無(wú)需空調(diào)等大型制冷設(shè)備,節(jié)省空間75%以上,與一般機(jī)房風(fēng)冷散熱方式相比,節(jié)約了30%以上的額用電量。
其接近1.0的PUE也可以將有限的電力發(fā)揮出最大的計(jì)算能力,系統(tǒng)完全浸泡在封閉液體換金的設(shè)計(jì)使得計(jì)算部署密度獲得大幅度提升, CPU和GPU計(jì)算部件可長(zhǎng)時(shí)間穩(wěn)定工作在高性能頻率狀態(tài),并幾乎完全免除濕度、灰塵、振動(dòng)的影響,極大優(yōu)化了服務(wù)器運(yùn)行環(huán)境,提升了設(shè)備壽命。
服務(wù)器冷卻方式 | PUE | 噪聲 | 冷卻能力 | 商業(yè)化應(yīng)用 |
---|---|---|---|---|
風(fēng)冷 | 1.6 | 高 | <20kW/機(jī)柜 | 市場(chǎng)成熟 |
冷板式液冷 | 1.2 | 低 | 20~60kW/機(jī)柜 | 已實(shí)現(xiàn)大規(guī)模部署 |
浸沒(méi)式相變液冷 | 1.05 | 低 | 60~200kW/機(jī)柜 | 定制開(kāi)發(fā) |
?幾種制冷方式比較
AI算法控制技術(shù)
除了上表中列出的這些制冷方案外,在過(guò)去幾年中,谷歌一直在測(cè)試一種算法,讓計(jì)算機(jī)自我學(xué)習(xí)如何最好地對(duì)冷卻系統(tǒng)做出調(diào)整,以達(dá)到降低功耗的目的。該AI系統(tǒng)之前就曾向數(shù)據(jù)中心管理員提出過(guò)一些降低冷卻功耗的建議方案,再由管理員來(lái)決定是否采納,事實(shí)證明這些方案能使功耗降低40%。
美國(guó)能源部勞倫斯.伯克利國(guó)家實(shí)驗(yàn)室的研究人員在2016年做了一份報(bào)告指出,2014年美國(guó)所有數(shù)據(jù)中心的總耗電量約為700億千瓦時(shí),約占全國(guó)用電量的1.8%。根據(jù)這份報(bào)告中的數(shù)據(jù),因效率提升而節(jié)約的能源幾乎抵消了由于數(shù)據(jù)中心數(shù)量增加而造成的能源消耗的增加。預(yù)計(jì)到2020年,全美數(shù)據(jù)中心的總能源消耗量將達(dá)到約730億千瓦時(shí)。
數(shù)據(jù)中心能源使用方面的頂級(jí)專家Jonathan Koomey認(rèn)為,利用機(jī)器學(xué)習(xí)來(lái)降低計(jì)算機(jī)芯片的耗能會(huì)有更重大的意義,芯片才是整個(gè)數(shù)據(jù)中心最耗能的部分。他說(shuō):“我更希望看到谷歌和其他大公司應(yīng)用這些工具去優(yōu)化在計(jì)算上用的負(fù)荷,在計(jì)算方面的節(jié)能潛力要比冷卻多數(shù)十倍?!?/p>
減少器件能耗
正如Jonathan Koomey所說(shuō),除去改革冷卻方式,我們更應(yīng)該做的是降低計(jì)算機(jī)芯片等方面的耗能。早期英特爾的CPU功耗約為120瓦左右,現(xiàn)在最新一代Cooper Lake CPU功耗達(dá)到了240瓦;對(duì)于GPU來(lái)說(shuō),英偉達(dá)最新的HGX2 GPU功耗更是達(dá)到了400瓦。
另外隨著數(shù)據(jù)速率的提升,用于交換機(jī)之間互連的光收發(fā)模塊功耗也大幅增加:比如100G QSFP28 PSM4升級(jí)到400G DR4功耗從2.5W急劇增長(zhǎng)到12W甚至以上。單波100G的芯片電驅(qū)動(dòng)、應(yīng)用了DSP信號(hào)處理芯片的高速率模塊以及EML調(diào)制方式的激光器更是大幅提升了400G產(chǎn)品的總耗電量。
解決方式主要從芯片的創(chuàng)新開(kāi)始。改造芯片制造工藝,將芯片尺寸從16nm減少到7nm可大幅減少芯片功耗。著名半導(dǎo)體制造商AMD于去年11月發(fā)布了全球首款7nm數(shù)據(jù)中心CPU“Rome”;著名芯片制造商Macom也展出了首款面向服務(wù)于云數(shù)據(jù)中心應(yīng)用的200G和400G光模塊提供商的完整芯片組解決方案。該方案支持在低于4.5W的總功耗下實(shí)現(xiàn)200G模塊以及在9W功耗下實(shí)現(xiàn)400G模塊,這有助于通過(guò)確保極低延時(shí)的全模擬架構(gòu)來(lái)實(shí)現(xiàn)業(yè)界領(lǐng)先的功率效率。
易飛揚(yáng)通信(Gigalight)在光模塊的研發(fā)上十分重視功耗和性能之間的平衡,比如我們領(lǐng)先于業(yè)界的100G QSFP28 4WDM-40模塊,采用創(chuàng)新的器件集成以及激光器調(diào)制等技術(shù),功耗僅有3.8W, 充分代表了未來(lái)綠色數(shù)據(jù)中心的趨勢(shì)和潮流。我們也通過(guò)硅基集成的方式,研制出了100G QSFP28 PSM4以及100G的相干模塊,都擁有非常好的產(chǎn)品性能。
降低數(shù)據(jù)中心能耗需要不斷的研發(fā)投入以及技術(shù)創(chuàng)新,隨著未來(lái)數(shù)據(jù)流量的爆發(fā),減少能源消耗、提升能耗效率將越來(lái)越重要。作為參與數(shù)據(jù)中心建設(shè)的一員,易飛揚(yáng)(Gigalight)將堅(jiān)持使用最新的產(chǎn)品技術(shù),順應(yīng)時(shí)代潮流,積極研發(fā)生產(chǎn)符合未來(lái)數(shù)據(jù)中心應(yīng)用的光收發(fā)模塊,為實(shí)現(xiàn)未來(lái)低功耗的綠色數(shù)據(jù)中心建設(shè)貢獻(xiàn)力量。