4月21日上午,由中國通信工業(yè)協(xié)會數(shù)據(jù)中心委員會指導(dǎo),中國IDC圈與世紀(jì)互聯(lián)等共同主辦,以“同頻共振”為主題的“2021年中國IDC行業(yè)Discovery大會”在北京盛大開幕?,F(xiàn)場匯集了數(shù)百名來自數(shù)據(jù)中心上下游產(chǎn)業(yè)的專家、學(xué)者以及從業(yè)人士,共同探討、分享數(shù)據(jù)中心的發(fā)展及未來。大會同期在線上多個渠道開通了現(xiàn)場直播,共有數(shù)十萬觀眾觀看了本次大會。
會上,阿里云智能基礎(chǔ)設(shè)施資深專家郭懿群向與會者分享了《阿里云液冷數(shù)據(jù)中心的思考與實踐》。
郭懿群:尊敬的吳部長,尊敬的黃總,陳總大家好,我來自于阿里云技術(shù)設(shè)施,今天帶來阿里云在液冷數(shù)據(jù)中心領(lǐng)域的思考以及實踐。
今天的分享分為以下五個方面,第一關(guān)于節(jié)能減排,能耗方面的國家政策解讀;第二關(guān)于未來算力增長趨勢的介紹;第三政策技術(shù)發(fā)展阿里是如何應(yīng)對這些挑戰(zhàn)的;第四采用液冷的解決方案帶來的實際技術(shù)或者社會效應(yīng)的價值;第五是關(guān)于針對液冷數(shù)據(jù)中心方面的未來展望。
政策解讀方面,2020年的時候,習(xí)主席提出中國在二氧化碳排放,力爭在2030年達(dá)到峰值,在2060年達(dá)到碳中和的目標(biāo)。在2021年2月份,國務(wù)院也頒發(fā)了相關(guān)的指導(dǎo)意見,加快信息服務(wù)業(yè)綠色轉(zhuǎn)型,做好大型數(shù)據(jù)中心綠色建設(shè)和改造。
隨著我國2035年規(guī)劃發(fā)布和2030年碳達(dá)峰和2060年碳中和宏偉目標(biāo)的設(shè)定,在這樣一個指引下,實際上我們目前對于數(shù)據(jù)中心來講提出了更高的挑戰(zhàn),在國家的政策有力的引導(dǎo)之下,在地方政府陸陸續(xù)續(xù)這幾年推出了數(shù)據(jù)中心領(lǐng)域的政策,引導(dǎo)數(shù)據(jù)中心的有序發(fā)展。
上海于2019年1月份明確提出來新建的數(shù)據(jù)中心PUE需要小于1.3,深圳也在2019年4月份提出采用綠色先進數(shù)據(jù)中心的能效,北京2021年也提出了新建、改建數(shù)據(jù)中心PUE要小于1.3的目標(biāo)。
我們可以看到ODCC中國數(shù)據(jù)中心大平臺最新發(fā)布的全國在用的數(shù)據(jù)中心,大型、超大型數(shù)據(jù)中心實測熱力圖。全國在不同區(qū)域,不同自然條件下,對應(yīng)整個PUE的分布不太均衡,差異比較巨大。我們一直在想,有沒有可能我們尋找到一種技術(shù),可以具有一定的普適性,不同的地域、氣象條件下實現(xiàn)比較極致的PUE,這是我們想達(dá)成目標(biāo)。
上述介紹了一下政策方面的趨勢,后面再介紹一下關(guān)于技術(shù)方面的趨勢。分為兩個方面,眾所周知,在摩爾定律不斷放緩之際,我們對高算力的追求還是不斷呈現(xiàn)的,達(dá)成高算力的目標(biāo),一個是整個方向數(shù)據(jù)中心的能力還有芯片的能力,這就牽扯到機柜密度的增加。在通用計算領(lǐng)域,近幾年從200多瓦CPU功耗,未來可能飆升到400多瓦,在GPU通用計算領(lǐng)域,可能會從當(dāng)前400多瓦飆升到800多瓦,芯片能力功耗在不斷增加,服務(wù)器功耗和機柜功耗,未來可能會飆升到40千瓦或者更高的密度。
我們可以看到阿里云針對不同的數(shù)據(jù)中心散熱解決方案,進行了非常深入的研究,針對不同的功率密度我們一有不同的解決方案去應(yīng)對不同的場景。針對上述的一些挑戰(zhàn),技術(shù)和政策上的挑戰(zhàn),阿里云經(jīng)過若干年的探索之后,也是找到了目前看起來比較能夠解決當(dāng)前問題的一個解決方案,就是單相浸沒式液冷的解決方案。風(fēng)冷傳統(tǒng)的解決方案對比液冷的主要差異,實際上風(fēng)冷會有冷塔和冷機、循環(huán)系統(tǒng),末端空調(diào)對IT設(shè)備的散熱,但是如果單相浸沒式液冷,我們可以保留冷塔,但是在數(shù)據(jù)中心可以去除冷機,相應(yīng)的整體系統(tǒng)架構(gòu)會更簡約,整體的運營效率也會更高,這是在IDC這一塊的變化。交換機這塊的變化,可能會去除掉風(fēng)扇這樣的設(shè)備,整體上設(shè)計集成度會更加高。
阿里云在浸沒液冷數(shù)據(jù)中心會分計算子系統(tǒng)、網(wǎng)絡(luò)子系統(tǒng)、存儲子系統(tǒng),還有IDC的散熱子系統(tǒng),監(jiān)控子系統(tǒng),這是整體模塊的組成。
阿里在數(shù)據(jù)中心的發(fā)展可以分為四個大的階段,我們從2015年開始就投入相關(guān)的研究在液冷數(shù)據(jù)中心的基礎(chǔ)研究,2016年首次發(fā)布了液冷的浸沒液冷系統(tǒng),2017年也是完成了集裝箱式浸沒液冷系統(tǒng)的發(fā)布,2018年液冷發(fā)展進入了比較快速的發(fā)展階段,從原來的情況進入到整體規(guī)模化實際部署落地的階段。
兩個主要的案例,2018年的時候,在張北,阿里自建數(shù)據(jù)中心完成了第一個液冷數(shù)據(jù)中心的建設(shè),它的規(guī)??梢赃_(dá)到兩千多個服務(wù)器,支持電商和大數(shù)據(jù)實際的生產(chǎn)服務(wù),支撐后續(xù)“雙十一”的業(yè)務(wù)發(fā)展。
第二個重要的里程碑是我們?nèi)ツ暝谡憬屎妥越〝?shù)據(jù)中心,完成第一棟全液冷樓的建造,當(dāng)年整個液冷數(shù)據(jù)中心也是獲得了ODCC綠色網(wǎng)格共同認(rèn)證的5A級的認(rèn)證。
講到液冷技術(shù)帶來的一些價值,可以說是分技術(shù)價值和社會價值兩部分。技術(shù)價值這一塊,我們看到最大的價值打破了風(fēng)冷對于機柜密度的上限,液冷可以非常輕松的做到100千瓦單機柜。另外系統(tǒng)故障率的下降是非常明顯的,我們經(jīng)過張北的數(shù)據(jù)中心長期的監(jiān)控、對比,同期部署風(fēng)冷數(shù)據(jù)中心,可以發(fā)現(xiàn)在IT部件的故障率上有50%以上的顯著故障率下降。
另外在整個極致的PUE,大家可能都聽說過,液冷PUE可以做到1.1或者1.1以下的極致實現(xiàn)。另外因為液冷對外界的自然條件的依賴相對比較少,所以它可以非常輕松的是現(xiàn)在全球任何氣象區(qū)域的靈活部署,同時獲得非常極致的PUE的部署。
這邊在用的大型數(shù)據(jù)中心PUE要達(dá)到1.55左右,值還是比較高的,整體能耗也是相對比較高的,如果我們未來找到比較好的普適性的解決方案,對于整個社會在數(shù)據(jù)中心能耗上的節(jié)能減排實際上是非常有重要意義的。
再回到液冷數(shù)據(jù)中心我們看到的場景,在傳統(tǒng)互聯(lián)網(wǎng)行業(yè),在高性能計算、人工智能、大數(shù)據(jù)這幾個領(lǐng)域是比較適合我們未來浸沒液冷解決方案的。
展望未來,我們也相信阿里云單相浸沒液冷解決方案可以支撐我們經(jīng)濟體本身發(fā)展的一個比較好的解決方案之一,我們也希望更多的合作伙伴能夠和我們一起并肩前行,共建整個液冷生態(tài),踐行綠色數(shù)據(jù)中心發(fā)展之路。
我們基于這樣一個理念,在2020年1月6日我們聯(lián)合ODCC進行了阿里云浸沒液冷數(shù)據(jù)中心規(guī)范的開源。
未來大家可以看到,創(chuàng)新一直是阿里巴巴與生俱來的基因,我們在數(shù)據(jù)中心領(lǐng)域也在不斷的探索一些新的技術(shù),浸沒液冷實際上在這個領(lǐng)域是一個代表,我們還有很多其他的領(lǐng)域。我們希望代表未來先進生產(chǎn)力的解決方案,通過去年開源的方式與全球共享,也在積極考慮未來我們整體和外部客戶的合作,把這樣的技術(shù)更好的賦能給外部客戶,希望我們共建生態(tài),很好的促進綠色數(shù)據(jù)中心的壯大發(fā)展,我的演講到這里,謝謝各位。