4月21日上午,由中國通信工業協會數據中心委員會指導,中國IDC圈與世紀互聯等共同主辦,以“同頻共振”為主題的“2021年中國IDC行業Discovery大會”在北京盛大開幕?,F場匯集了數百名來自數據中心上下游產業的專家、學者以及從業人士,共同探討、分享數據中心的發展及未來。大會同期在線上多個渠道開通了現場直播,共有數十萬觀眾觀看了本次大會。
會上,阿里云智能基礎設施資深專家郭懿群向與會者分享了《阿里云液冷數據中心的思考與實踐》。
郭懿群:尊敬的吳部長,尊敬的黃總,陳總大家好,我來自于阿里云技術設施,今天帶來阿里云在液冷數據中心領域的思考以及實踐。
今天的分享分為以下五個方面,第一關于節能減排,能耗方面的國家政策解讀;第二關于未來算力增長趨勢的介紹;第三政策技術發展阿里是如何應對這些挑戰的;第四采用液冷的解決方案帶來的實際技術或者社會效應的價值;第五是關于針對液冷數據中心方面的未來展望。
政策解讀方面,2020年的時候,習主席提出中國在二氧化碳排放,力爭在2030年達到峰值,在2060年達到碳中和的目標。在2021年2月份,國務院也頒發了相關的指導意見,加快信息服務業綠色轉型,做好大型數據中心綠色建設和改造。
隨著我國2035年規劃發布和2030年碳達峰和2060年碳中和宏偉目標的設定,在這樣一個指引下,實際上我們目前對于數據中心來講提出了更高的挑戰,在國家的政策有力的引導之下,在地方政府陸陸續續這幾年推出了數據中心領域的政策,引導數據中心的有序發展。
上海于2019年1月份明確提出來新建的數據中心PUE需要小于1.3,深圳也在2019年4月份提出采用綠色先進數據中心的能效,北京2021年也提出了新建、改建數據中心PUE要小于1.3的目標。
我們可以看到ODCC中國數據中心大平臺最新發布的全國在用的數據中心,大型、超大型數據中心實測熱力圖。全國在不同區域,不同自然條件下,對應整個PUE的分布不太均衡,差異比較巨大。我們一直在想,有沒有可能我們尋找到一種技術,可以具有一定的普適性,不同的地域、氣象條件下實現比較極致的PUE,這是我們想達成目標。
上述介紹了一下政策方面的趨勢,后面再介紹一下關于技術方面的趨勢。分為兩個方面,眾所周知,在摩爾定律不斷放緩之際,我們對高算力的追求還是不斷呈現的,達成高算力的目標,一個是整個方向數據中心的能力還有芯片的能力,這就牽扯到機柜密度的增加。在通用計算領域,近幾年從200多瓦CPU功耗,未來可能飆升到400多瓦,在GPU通用計算領域,可能會從當前400多瓦飆升到800多瓦,芯片能力功耗在不斷增加,服務器功耗和機柜功耗,未來可能會飆升到40千瓦或者更高的密度。
我們可以看到阿里云針對不同的數據中心散熱解決方案,進行了非常深入的研究,針對不同的功率密度我們一有不同的解決方案去應對不同的場景。針對上述的一些挑戰,技術和政策上的挑戰,阿里云經過若干年的探索之后,也是找到了目前看起來比較能夠解決當前問題的一個解決方案,就是單相浸沒式液冷的解決方案。風冷傳統的解決方案對比液冷的主要差異,實際上風冷會有冷塔和冷機、循環系統,末端空調對IT設備的散熱,但是如果單相浸沒式液冷,我們可以保留冷塔,但是在數據中心可以去除冷機,相應的整體系統架構會更簡約,整體的運營效率也會更高,這是在IDC這一塊的變化。交換機這塊的變化,可能會去除掉風扇這樣的設備,整體上設計集成度會更加高。
阿里云在浸沒液冷數據中心會分計算子系統、網絡子系統、存儲子系統,還有IDC的散熱子系統,監控子系統,這是整體模塊的組成。
阿里在數據中心的發展可以分為四個大的階段,我們從2015年開始就投入相關的研究在液冷數據中心的基礎研究,2016年首次發布了液冷的浸沒液冷系統,2017年也是完成了集裝箱式浸沒液冷系統的發布,2018年液冷發展進入了比較快速的發展階段,從原來的情況進入到整體規?;瘜嶋H部署落地的階段。
兩個主要的案例,2018年的時候,在張北,阿里自建數據中心完成了第一個液冷數據中心的建設,它的規??梢赃_到兩千多個服務器,支持電商和大數據實際的生產服務,支撐后續“雙十一”的業務發展。
第二個重要的里程碑是我們去年在浙江仁和自建數據中心,完成第一棟全液冷樓的建造,當年整個液冷數據中心也是獲得了ODCC綠色網格共同認證的5A級的認證。
講到液冷技術帶來的一些價值,可以說是分技術價值和社會價值兩部分。技術價值這一塊,我們看到最大的價值打破了風冷對于機柜密度的上限,液冷可以非常輕松的做到100千瓦單機柜。另外系統故障率的下降是非常明顯的,我們經過張北的數據中心長期的監控、對比,同期部署風冷數據中心,可以發現在IT部件的故障率上有50%以上的顯著故障率下降。
另外在整個極致的PUE,大家可能都聽說過,液冷PUE可以做到1.1或者1.1以下的極致實現。另外因為液冷對外界的自然條件的依賴相對比較少,所以它可以非常輕松的是現在全球任何氣象區域的靈活部署,同時獲得非常極致的PUE的部署。
這邊在用的大型數據中心PUE要達到1.55左右,值還是比較高的,整體能耗也是相對比較高的,如果我們未來找到比較好的普適性的解決方案,對于整個社會在數據中心能耗上的節能減排實際上是非常有重要意義的。
再回到液冷數據中心我們看到的場景,在傳統互聯網行業,在高性能計算、人工智能、大數據這幾個領域是比較適合我們未來浸沒液冷解決方案的。
展望未來,我們也相信阿里云單相浸沒液冷解決方案可以支撐我們經濟體本身發展的一個比較好的解決方案之一,我們也希望更多的合作伙伴能夠和我們一起并肩前行,共建整個液冷生態,踐行綠色數據中心發展之路。
我們基于這樣一個理念,在2020年1月6日我們聯合ODCC進行了阿里云浸沒液冷數據中心規范的開源。
未來大家可以看到,創新一直是阿里巴巴與生俱來的基因,我們在數據中心領域也在不斷的探索一些新的技術,浸沒液冷實際上在這個領域是一個代表,我們還有很多其他的領域。我們希望代表未來先進生產力的解決方案,通過去年開源的方式與全球共享,也在積極考慮未來我們整體和外部客戶的合作,把這樣的技術更好的賦能給外部客戶,希望我們共建生態,很好的促進綠色數據中心的壯大發展,我的演講到這里,謝謝各位。