国产黄色视频99,高清无码人妻中出亚洲,制服丝袜综合另类中文字幕,手机无码福利在线观看1000集

掃描關注微信
知識庫 培訓 招聘 項目 政策 | 推薦供應商 企業(yè)培訓證書 | 系統(tǒng)集成/安裝 光伏組件/發(fā)電板 光伏逆變器 光伏支架 光伏應用產品
 
 
 
 
 
當前位置: 首頁 » 資訊 » 市場 » 正文
 
雙碳戰(zhàn)略下,數據中心的“冷”與“熱”
日期:2022-11-07   [復制鏈接]
責任編輯:sy_miaowanying 打印收藏評論(0)[訂閱到郵箱]
在《碟中諜5》中有這樣一個場景:一座位于摩洛哥的數據中心被直接“泡”在了水里,為了讓自己的技術支持班吉·鄧恩通過一個需要步態(tài)識別的走廊,阿湯哥縱身一躍,跳入了漩渦之中,順著水流就被推入了計算機中樞,從而黑掉了安保系統(tǒng)……

這部電影的上映時間是2015年,場景看似科幻,但其實就在同一年,阿里云已經開始進行浸沒式液冷技術的概念驗證。

所謂浸沒式液冷,就是將布滿密密麻麻紅黃色線頭的服務器浸泡在水一樣的液體里,只是這些液體并不是普通的水,而是特殊的絕緣冷卻液,服務器運算中產生的熱量被冷卻液吸收后,再進入外循環(huán)冷卻。

數據中心的能耗大致由通信及網絡設備供電配電系統(tǒng)照明及輔助設備和冷卻系統(tǒng)組成,其中冷卻部分的能耗約占數據中心總能耗的40%左右

以往由于風冷成本低、部署簡單,一直被廣泛使用。但近年來,隨著高密度計算興起,芯片、服務器性能和單機柜功率密度持續(xù)提升,浸沒式液冷開始受到青睞。

以阿里云在杭州的云數據中心為例,作為國內規(guī)模最大的全浸沒液冷集群,整體節(jié)能超70%,年均PUE低至1.09。相比傳統(tǒng)數據中心,每年可以省電7000萬度,相當于西湖周邊所有路燈連續(xù)點亮8年的耗電量。

尤其是今年2月,我國“東數西算”工程正式全面啟動。其中,提出了三個發(fā)展方向:綠色節(jié)能、算力調度、安全可靠。綠色節(jié)能被放在了優(yōu)先位置。

“無論從政策角度、市場需求還是技術成熟度來講,均標志著數據中心進入‘液冷時代’。”中國電子節(jié)能技術協(xié)會秘書長呂天文此前在2022數據中心液冷技術研討會上說道。

數據中心的能耗焦慮

數據中心的概念起源于20世紀50年代末,當時美國航空公司與IBM合作,創(chuàng)建了一個屬于美國Sabre公司的乘客預定系統(tǒng),使其主要商業(yè)領域的這一部分變得自動化。

不過,早期的數據中心還只能靠幾臺大型主機完成本地數據計算,不僅不能做分布式運算,也無法對外提供服務。直到90年代中期,互聯(lián)網出現并對市場產生了巨大影響。隨著公司對互聯(lián)網業(yè)務應用的支撐需求,數據中心作為一種服務模式為大多數公司所接受。

2010年以后,隨著云計算技術的興起,云數據中心又逐漸走進了大家的視線。與之前相比,云數據中心的基礎設備更加規(guī)?;?、標準化和智能化,建設成本更低、承載的業(yè)務更多。

回顧數據中心發(fā)展歷史不難發(fā)現:數據逐漸成為了新型生產要素,對于生產力發(fā)展的重要性在不斷提升。

在我國,自2020年數據中心被納入“新基建”以來,各地數字化相關產業(yè)發(fā)展浪潮愈發(fā)風起云涌。在日前舉辦的世界5G大會Tech-Talk2022前瞻論壇上,國家信息中心信息化和產業(yè)發(fā)展部主任單志廣表示,全國國家數據中心集群建設中,2022年新開工項目25個,投資超過1900億元。

不過,數據中心的繁榮,也帶來了一系列問題,比如需要占用更多的場所、增加能耗等等。在首屆“東數西算”粵港澳大灣區(qū)(廣東)算力產業(yè)大會上,南方科技大學清潔能源研究院院長、澳大利亞國家工程院外籍院士劉科在大會現場表示,飛速增加的數據中心帶來了飛速增加的能源消耗,截至2020年底,中國數據中心耗電量已經突破2000億千瓦時,能耗占全國總用電量的2.7%,預計2022年耗電量將達到2700億千瓦時。

這一能耗量之所以引人關注,可以從一組對比數字看出端倪。截至2020年12月31日24時,三峽電站2020年全年累計生產清潔電能1118億千瓦時。也就是說,2020年數據中心一年的耗電量相當于當年兩個三峽電站的發(fā)電量。

宏觀的能耗數字凸顯了問題的急迫性,而細微的能耗環(huán)節(jié)則讓摸清能耗來源以及尋找解決方案更加有的放矢。

眾所周知,數據中心的載體是一個個IT設備,而所有IT設備的計算能力是由芯片來決定。從目前來看,整個服務器的主流芯片的功耗是不斷增長的,甚至在最近幾年出現了一個斜率相當大的上升。隨著服務器芯片的功率從100W、200W增長到350W、400W,服務器的功耗會有一個翻倍的增長,這就決定單機柜功率密度從最早的4KW、6KW增長到15KW到20KW。

不久前,在2022英特爾中國數據中心合作伙伴技術峰會上,英特爾數據中心平臺技術與架構部中國區(qū)總經理王飛透露,2025年英特爾預計有50億顆CPU核心投入運營。這就意味著,一方面算力的發(fā)展在支撐著數據中心、數據經濟和全球經濟的發(fā)展;但另一方面,這也會給全球經濟的可持續(xù)發(fā)展,以及數據中心的節(jié)能減碳帶來更多挑戰(zhàn)。他介紹說,2030年數字中心將消耗全球3%-6%的電能。

顯然,在這樣的趨勢下,傳統(tǒng)的風冷方式已經無法滿足數據中心的散熱和制冷需求。“目前,風冷技術仍然被大規(guī)模使用。隨著我們對風冷技術的不斷增強,比如說增加它的體積、面積、熱管技術和各種先進技術,以及在數據中心級跟機架級和節(jié)點上做各種優(yōu)化,數據中心的PUE也可以降到1.2左右。 但之后我們也發(fā)現,即使有這么多的優(yōu)化,仍然有高達20%的能耗浪費在數據中心的散熱和維護上面,另外還要加上系統(tǒng)風扇的能耗。這對于減碳目標來說,仍然不夠理想。”王飛說道。

PUE監(jiān)管更加嚴格

一邊是數據中心革新能效的自我驅動,另一邊,隨著雙碳目標的確定,從中央到地方,均將限制高PUE寫入政策,對數據中心的監(jiān)管更加嚴格。

什么是PUE?PUE是數據中心總能耗與IT設備能耗的比值,基準是2,數值越接近1代表其用能效率越高。一般來說,對數據中心的的評價指標主要有三個,分別是PUE(電能利用效率)、可再生能源結構比例以及碳排放量。其中,PUE是主要的政策抓手。

6月,工信部等六部門聯(lián)合印發(fā)《工業(yè)能效提升行動計劃》,該計劃中指出:到2025年,新建大型、超大型數據中心電能利用效率優(yōu)于1.3。

過去數據中心作為地方政府的經濟抓手,廣受歡迎。近幾年,各大一線城市已經紛紛對數據中心的節(jié)能指標做出了嚴格的要求。

北京在《北京市新增產業(yè)的禁止和限制目錄(2018年版)》中明確規(guī)定,全市禁止新建和擴建PUE大于1.4的數據中心。上海在《上海市推進新一代信息基礎設施建設助力提升城市能級和核心競爭力三年行動計劃(2018-2020年)》中指出,新建數據中心PUE要限制在1.3以下。

相比之下,深圳則最為嚴格。在《深圳市發(fā)展和改革委員會關于數據中心節(jié)能審查有關事項的通知》中強調,只有PUE低于1.25的數據中心才可以享受新增能源消費量40%以上的支持。

從地方政府態(tài)度不難看出,GDP產值固然重要,但更重要的還是單位能耗的GDP產值要上升。對于身處其中的企業(yè)來說,既然傳統(tǒng)風冷逐漸無法滿足數據中心散熱需求,那就必須找到一種合適的技術,完成經濟效益和發(fā)展效益的平衡。

浸沒式液冷,突破能耗高墻

早在2015年,正在做云計算以及推廣的阿里云意識到算力的迅速增長對未來的挑戰(zhàn)。這個挑戰(zhàn)不光是芯片本身的散熱問題,同時也有數據中心能耗大幅度增長的問題。

“當時我們就認為未來一定需要找到一種合適的技術,做到充分釋放計算的潛能,同時也可以做到可持續(xù)發(fā)展。”阿里云服務器研發(fā)資深技術專家鐘楊帆在2022英特爾中國數據中心合作伙伴技術峰會說道。

當時,液冷的概念剛剛出現不久。于是,阿里找到英特爾開始共同投入研究液冷技術。“當時也是一個摸索,我們對市面上所有液冷的方向和技術都做了探索和實踐,包括冷板的技術,兩相、單相的技術,也做了一些樣機和試驗。”鐘楊帆說道。

作為技術服務商,英特爾圍繞浸入式液冷所面臨的材料兼容性、電氣信號完整性、芯片散熱特性、服務器系統(tǒng)散熱特性、服務器及機柜結構設計等課題,從處理器定制和服務器系統(tǒng)開發(fā)與優(yōu)化著手,突破芯片功耗墻功耗和冷卻兩大影響算力提升的關鍵問題,使得液冷服務器在阿里云數據中心從實驗逐漸發(fā)展到大規(guī)模部署。且英特爾對液冷技術的研究不僅于CPU,對FPGA等部件在液冷條件下的兼容性驗證也有相關的研究。

2016年,阿里云首發(fā)了浸沒式液冷系統(tǒng)。2017年后不斷擴大規(guī)模,2018年建成首個互聯(lián)網行業(yè)最大規(guī)模浸沒式液冷服務器集群,開啟了浸沒式液冷的正式商用。2020年,阿里云又投產了首個5A級綠色液冷IDC。

從2015年探索開始,至今7年的時間,阿里云為何會從眾多的實驗路線中選定浸沒式液冷路線?

與傳統(tǒng)的風冷服務器相比,液冷技術一方面存在能效上的優(yōu)勢。因為它有更好的熱捕獲能力,對于浸沒式液冷來說,甚至可以達到100%的熱捕獲能力。據鐘楊帆介紹,在液冷技術的加持之下,阿里云的浸沒式液冷數據中心的PUE甚至可以降到1.09左右。而傳統(tǒng)風冷的年均PUE則是1.5,相比之下,能耗下降了34.6%。

另外,隨著整個數據中心能耗的提高,能源或者熱能的回收再利用也成為一個非常重要的話題。對于數據中心來說,在理論上它產生的熱能都可以被回收再利用,如果可以做到比較好的熱能捕獲,就可以回收再利用,甚至銷售由這些熱能轉化的能源,而液冷技術恰恰可以更好地支持熱能的捕獲和回收再利用。

除此之外,由于液冷的熱傳導效率比傳統(tǒng)的風冷要高很多,因此能突破傳統(tǒng)風冷制冷能力的瓶頸,從而讓單機柜功力密度提升了很多。鐘楊帆介紹說,傳統(tǒng)風冷技術下,單機柜一般是10KW左右的散熱能力,但采用全浸沒液冷技術可以做到100KW以上。

再加上浸沒式液冷數據中心在地域上并不“挑剔”,具有更強的普適性,因此布局難度有所降低。在浸沒式液冷技術下,設備處于較低溫度運行,再加上取消風扇后沒有了震動,設備的可靠性進一步提升,噪音進一步減少。阿里云通過實際的運行實驗發(fā)現,浸沒液冷技術能夠讓設備的故障率下降50%。

研發(fā)“無人區(qū)”,標準、成本如何解?

根據MordorIntelligence的報告,2020年全球數據中心浸沒式液冷市場的整體規(guī)模為2.97億美元,預計到2026年將達到7.03億美元,期間復合年增長率為15.27%

數據中心浸沒式液冷技術發(fā)展迅速,優(yōu)勢也顯而易見,能突破散熱瓶頸,實現更優(yōu)能效比,但真正應用的企業(yè)并不多,即使是在數據中心領域有著非常大技術投資的互聯(lián)網巨頭,也沒有真正規(guī)?;瘧眠@項技術。這就意味著浸沒式液冷技術的研發(fā)就像行走在“無人區(qū)”,前面沒有領路人,很多技術方向都是需要摸索,也就不得不面臨技術難度、成本偏高、缺乏標準化,還有腐蝕、漏液等問題。

浸沒式液冷技術的原理是用液體去代替空氣進行換熱,它同傳統(tǒng)的風冷技術相比,革命性的地方不只是散熱方式的變化,還會涉及到整個數據中心的生態(tài),服務器、網絡設備、監(jiān)控乃至數據中心整體設計都將被改變和重新定義。“比如不導電的液體有很多種,哪種液體能夠滿足長期演進和長期使用?RD設備放在液體中是否能夠長期穩(wěn)定工作?甚至如何運維等等。”鐘楊帆說道。

為此,阿里云聯(lián)合了全球數十家合作伙伴,從芯片到服務器整機到機柜再到數據中心等多個供應商。比如芯片的重要合作伙伴是英特爾,其第三代英特尓至強可擴展處理器、以及高性能可編程芯片FPGA等產品都需要在浸沒液冷系統(tǒng)中高效并可靠地運行。通過聯(lián)合供應商聯(lián)合研究開發(fā)驗證,一點點地迭代部署來發(fā)現問題,解決問題,從而實現規(guī)模化部署。

處于行業(yè)初期,供應鏈、生產鏈并不健全導致標準也缺失,比如業(yè)界對液冷材料兼容性、液冷產品材料選型、浸沒液冷機柜和服務器結構、光模塊等均沒有規(guī)范標準。“如果沒有標準,特別是行業(yè)標準,就沒有規(guī)模經濟,就很難降低成本,也就很難做到復用去支持可循環(huán)經濟的產業(yè)鏈的發(fā)展。”王飛說道。

為了推動行業(yè)標準發(fā)展,阿里云先是在去年與中國信通院云計算與大數據研究所、OPPO共同發(fā)起“浸沒液冷智算產業(yè)發(fā)展論壇”,并在今年5月舉辦的第一屆浸沒液冷智算產業(yè)發(fā)展論壇上,發(fā)布了新的浸沒式液冷技術的三大技術標準和兩項白皮書。

英特爾則是發(fā)起成立了綠色數據中心技術創(chuàng)新論壇,集合20家ICT產業(yè)上下游廠商,橫跨多個領域,覆蓋整個數據中心產業(yè)鏈。該論壇的成立,旨在通過技術創(chuàng)新和產業(yè)合作,加速數據中心運營模式的綠色轉型,推動數據中心節(jié)能減排、可持續(xù)發(fā)展,支撐數字基礎設施建設、碳中和計算,實現碳達峰、碳中和的“雙碳”目標。

另外,對新技術的引入、研發(fā)等存在成本。浸沒式液冷系統(tǒng)的部署成本不僅包含液冷設備罐體和冷卻液的價格以及后續(xù)的維護成本,還包括泵換熱器過濾器傳感器等一系列用來滿足液冷系統(tǒng)設計實踐的其它設施的改造和維護成本尤其是對于那些已按照風冷系統(tǒng)建設完成的數據中心來說,改造成本往往是巨大的據了解,當前由于浸沒式比起傳統(tǒng)方式初期投入構建成本高,大約都有幾倍的價差。

為了解決成本高昂的問題,據TomsHardware報道,英特爾持續(xù)研發(fā)浸沒式液冷散熱解決方案,讓數據中心更多地采用浸沒式液冷散熱,同時不需要耗費大量資金設計定制解決方案,這將大幅度降低成本及碳排放。

任何技術在發(fā)展初期,具體發(fā)展道路都是曲折的、迂回的,伴隨著數據中心節(jié)能減碳的需要與高密度數據中心的發(fā)展,政策驅動、巨頭出手,數據中心浸沒式液冷正進入大規(guī)模商用加速道。

原標題:雙碳戰(zhàn)略下,數據中心的“冷”與“熱”
 
相關閱讀: 數據中心
掃描左側二維碼,關注【陽光工匠光伏網】官方微信
投稿熱線:0519-69813790 ;投稿郵箱:edit@21spv.com ;
投稿QQ:76093886 ;投稿微信:yggj2007
來源:鈦媒體app
 
[ 資訊搜索 ]  [ 加入收藏 ] [ 告訴好友 ]  [ 打印本文 ]  [ 關閉窗口 ]

 
 

 
 
 
 
 
 
圖文新聞
 
熱點新聞
 
 
論壇熱帖
 
 
網站首頁 | 關于我們 | 聯(lián)系方式 | 使用協(xié)議 | 版權隱私 | 網站地圖 | 廣告服務| 會員服務 | 企業(yè)名錄 | 網站留言 | RSS訂閱 | 蘇ICP備08005685號
 
  • <nav id="ccc0c"><sup id="ccc0c"></sup></nav>
  • <tfoot id="ccc0c"><dd id="ccc0c"></dd></tfoot>
  • <sup id="ccc0c"><delect id="ccc0c"></delect></sup>
  • 
    
    <nav id="ccc0c"><code id="ccc0c"></code></nav>
    <noscript id="ccc0c"><optgroup id="ccc0c"></optgroup></noscript>
    
    <tfoot id="ccc0c"><dd id="ccc0c"></dd></tfoot>
    <noscript id="ccc0c"></noscript>
  • <sup id="ccc0c"><code id="ccc0c"></code></sup>