一、前言

雲端運算」是一種概念,代表的是利用網路使電腦能夠彼此合作提供網路服務使其應用更加無遠弗屆。而且在實現「概念」的過程中或許會產生出其相對應的「新技術」。所謂「雲端」其實就是泛指「網路」,名稱來自工程師在繪製示意圖時,常以一朵雲來代表「網路」。只要在文獻中把雲端二字改成網路意思還是通就表示兩者所代表的意義相同,因此,「雲端運算」用白話講就是「網路運算」。舉凡運用網路溝通多台電腦的運算工作,或是透過網路連線取得由遠端主機提供的服務等,都可以算是一種「雲端運算」。所以說,「雲端運算」其實不是新技術,更嚴格的說,甚至不能算是「技術」。「雲端運算」是一種概念,代表的是利用網路使電腦能夠彼此合作或使服務更無遠弗屆。而在實現「概念」的過程中,才會產生出相應的「新技術」。「松下問童子,言師採藥去,只在此山中,雲深不知處。」是大家琅琅上口的唐詩,此詩正好可以用來象徵電腦科技的關鍵技術之一,稱之為雲端計算Cloud Computing)。


二、雲端科技的發展

2.1計算機如何移到雲端

過去電腦笨重昂貴又容易損壞,僅應用於軍事用途或學術研究上,一般人根本沒有機會接觸到這種設備,但是短短的50幾年已經進步到幾乎人人家中都有一台個人電腦(PC),神速般的進步促使著電腦應用本質的改變,在現代人們加劇對移動設備的依賴,以往僅僅只是做為溝通工具的行動電話,如今取而代之的智慧型手機可能使人們脫離個人電腦的束縛,再未來或許掀起一波雲端運算革命。

 雲端未來的趨勢  

圖 1、雲端未來的趨勢

2.2雲端運算節能碳紅利高

現代網路無遠皆非、無可倫比的訊息交換速度,使的人們生活大大的改變,但卻帶給地球不好的影響,圖如2所示資料中心超標的排碳量勢必會造成溫室氣體劇烈的增加,在網路離不開人類生活必須共存的前提下,制訂一系列配套措施來降低資訊中心可觀的拍探亮飾非常必要的!

 雲端運算節能碳紅利高  

圖2、雲端運算節能碳紅利高

 

2.3雲端節能哪裡來?

Server伺服器端

典型的雲端運算就是大型資料處理中心(Internet Data Center)因為有大量電力消耗(主要是設備運作和冷氣)以及網路傳輸耗電。依目前資料估算,大型IDC耗能佔全球碳排放大約0.5%,在未來雲端運算深化後,有研究單位預估比重將會佔到2%,這代表了某些大型企業的IDC碳排放甚至會超越大多數的單一西方國家。

Client客戶端

雲端運算的基本概念是將終端運算搬移至伺服器端,原本在個人電腦上的重複資源浪費,將可以得到效率上的改進。例如Facebook宣稱,使用者將照片上傳並以E-mail發送親朋好友的行為模式,大量節約了紙本印刷所產生的碳足跡,對照於興建機房和營運的耗能,碳足跡足足降低了38%。


三、雲端運算對伺服器端的節能效益

3.1機房能耗分級與評比

目前國際間資訊機房最通用之能源評估及設計基準目標,是由Green Grid 協會針對資訊機房能源使用合理化,所訂定之電源使用效率PUE(Power Usage Effectiveness)耗能指標,並可依Green Grid 設計建議,進行規劃以達能源最佳使用率。PUE定義為資訊機房總耗能與IT設備耗能的比值此數值越接近1代表能源使用效率越佳。美國柏克萊國家實驗室(LBNL)針對資訊機房所進行的統計分析,PUE值於2003年平均為1.95,至2005 年平均降為1.63,根據LEED之能源評估必要條件,使用300RT 以上之中央空調冰水主機系統資訊機房,PUE值至少須達1.52 以下方能符合申請LEED 的基本門檻;反觀國內資訊機房PUE平均實際量測結果約為1.9 以上,由此可見資訊機房節能具30%以上節能空間如果能整體整合運用國際技術、設計法及相關規範標準,國內新建資訊機房應可以達到LEED標準為節能減碳追求目標。 (1)

  • PUE能源使用效率(Power Usage Effectiveness,PUE)
  • 用評估該公司的資料中心(機房)的電力損耗究竟有多少是用在IT設備上
  • PUE=(機房總用電量)/(IT設備總用電量)

  • DCIE數據中心基礎架構效率(Data Center Infrastructure Efficiency)
  • DCiE是一個百分比值,它是PUE的倒數,數值越大越好。註:現在PUE的指標有另一種細化表達方式,公式為PUE=1/DCIE=電力負載因數+冷卻負載因數+1(IT負載能耗) 。
  • DCiE=IT設備功耗/數據中心總設備功耗×100

 

等級

dcie

PUE

白金

>0.8

<1.25

黃金

0.7~0.8

1.25~1.43

銀級

0.6~0.7

1.43~1.67

銅級

0.5~0.6

1.67~2

一般

0.4~0.5

2~2.5

不節能

<0.4

>2.5

表1綠色機房效率評估等級

3.2如何提升數據中心設備節能效益?

企業打造綠色低碳數據中心的第二步是進行物理設備的升級改造。一般來說,數據中心的PUE值較高,主要有以下幾點原因:

甲、     現有IT設備能效比低

乙、     冷卻方案設計有待改進

丙、     虛擬化方案只是針對服務器單台進行(應用整合力不夠)

丁、     沒有進行完善的電源管理等

 數據中心的碳排放來源  

圖 3數據中心的碳排放來源

如圖3所示顯然,IT設備和製冷系統是我們在實現數據中心低碳化進程時的重點控制對象。

3.3現有IT設備能效比低

不節能的機房對環境及企業的影響  

圖 4不節能的機房對環境及企業的影響


IDC(國際數據資訊有限公司)市調2011年以後電力的年成本會超過新硬體設備的成本!

在規畫綠色雲端機房時,相信多數人都會在機房的基礎建設上做好節能措施,像是冷熱通道分離、新型空調冷卻系統等等,但別忘了,從處理器節能著手,將可讓機房節能獲得3倍的效益,所以,打造綠色雲端機房的第一步,先從選對綠色處理器著手。

3.4選對綠色處理器,打造綠色雲端機房

AMD近年來一直在宣導處理器省電的重要性,然而相信有不少人會認為:「一顆處理器不過是省下了3、5瓦耗電量,能有甚麼多大的差別嗎?這些再怎麼宣傳不就是老王賣瓜,自賣自誇罷了。」但其實並不然。你知道嗎?不要說是3瓦、5瓦了,處理器只要能省下1瓦的耗電量,意義可就很大了。怎麼說呢?根據機房電力空調專業廠商Emerson深入研究機房用電的報告,機房用電有「遞增效應」。當處理器減少1瓦的電力,則交流、直流電力轉換部分就能省下0.49瓦電力,接著配電盤則可省下0.04瓦電力,UPS不斷電系統也因而省下0.14瓦電力,空調系統也跟著受益,節省了1.07瓦電力,而交換器設備也因此省下0.1瓦電力,這些加總起來,整體省電效果竟然是2.84瓦。也就是說,處理器節省1瓦的耗電量,最終整個系統將能因而受益省下2.84瓦的電力;這也就是AMD為何一直強調處理器省電重要性的用意,因為從處理器這個源頭下手節省耗電。 (2)

 多核心處理器的節能效益  

圖 5多核心處理器的節能效益

 處理器省電的擴大效應  

圖 6 處理器省電的擴大效應

3.5下吹式自然回風空調+冷熱通道

以面對背機櫃排列方式而言,當冷空氣由第一組機櫃前端進入且由機櫃後方排出時,已經進行第一次熱交換,排出的空氣溫度已較地板出風口的冷空氣高很多,此時卻與周圍較低溫空氣混合後進入下一個電腦機櫃,因此第二組電腦機櫃的入風口溫度較原來冷空氣溫度高,導致散熱效果也較差,如圖7所示。

 不當的機櫃擺設方向  

圖 7 不當的機櫃擺設方向

 

若將電腦機櫃的排列方式改變為面對面排列,使冷空氣與熱空氣有各自的行進路徑,冷空氣可直接進入電腦機櫃內進行熱交換,而前後排機櫃也較不會產生散熱不均的問題,如圖8所示,即可避免過度調低空調系統的供風溫度與主機低載運轉問題。

 正確的機櫃擺設方向  

圖 8 正確的機櫃擺設方向

 

一般認為應該將箱型機置放於冷通道前後方,使其供應之冷空氣可以最接近冷通道出口,雖然冷空氣移動至機櫃的距離縮短,但熱空氣回風的路徑可能出現另一種與預期中截然不同的現象,試想將箱型機設置於冷通道兩端或是水平於機櫃排列的兩邊,熱空氣必須由熱通道跨越冷通道才可回到箱型機的回風口,在接近箱型機的區域形成嚴重的冷熱氣流混合情形,如圖9所示。

 空調擺設不當的冷熱通道混流現象  

圖 9 空調擺設不當的混流現象

 

因此,將箱型機排放於熱通道兩端才是最佳的位置,使熱回風直接由熱通道快速進入箱型機內,如下圖10所示,以減少冷熱空氣混合的機率。

 良好的空調位置  

圖 10 良好的空調位置

 

3.6負載平衡

為防止電腦機房內出現地板出風型式之空調系統無法降低的局部熱點,應將高發熱機櫃分散措開置放如圖11、圖12所示,使每一區域的平均發熱情形接近平衡,以利空調降溫時可達電腦機櫃散熱需求。

 集中置放的高耗能設備  

圖 11 集中置放的高耗能設備

 

 分開擺放的高耗能設備  

圖 12 分開擺放的高耗能設備

3.7盲板解決短循環

但機櫃內部空間並不會完全放滿設備,因此會留有些許的空隙孔道,形成機櫃內部熱空氣的短循環,而回流的熱空氣與前端預備進入機櫃的冷空氣混合,產生極力提及要避免的混風問題,在無設備櫃位前端加裝盲板即可得到改善,如圖13所示,使空氣經過機櫃的唯一通道只剩下IT設備本體,排出之熱空氣不會受到機櫃前端的吸引,縱然熱空氣由機櫃閒置空間回流也因有盲板的隔離而無法回到機櫃前端,如此一來,熱空氣短循環或機櫃內部混風問題即迎刃而解。

 利用盲版破壞短循環  

圖 13 利用盲版破壞短循環

3.8夾層天花板自然回風系統

出回風氣流管理(Managing Supply and Return Airflows):使用夾層天花板當作熱回風通道,其結構與高架地板作為冷通道的方式很像,如圖14所示;在兩機櫃之間的冷通道上方加蓋阻隔板,使冷通道徹底與其餘室內空間隔絕,外觀就像是個小通道,部分廠商甚至將通道兩邊封閉,強迫冷空氣必須經過機櫃本身才能脫離冷通道,以此種方式避免冷熱氣流混合的效果非常好,但因封閉的通道外蓋使得內部情形不易察覺,因此若發生火警或危安事件時,危險性相對增高很多

 夾層天花板自然回風示意圖  

圖 14 夾層天花板自然回風示意圖

3.9夾層天花板自然回風系統昇級版

這種方式就是在冷通道上方蓋上一層天花板,而這種天花板是直接蓋在機櫃上頭兒的,就不需要另外的遮蔽物來阻隔冷空氣,比起上一種方法更加安全有效!

 夾層天花板升級版  

圖 15 夾層天花板升級版

 

這樣子的設置如圖16可以觀察到,冷空氣只有進入機櫃一種路徑,而進入機櫃的冷空氣做完熱交換後,直接從機櫃上方排出進入熱通道,彼此間無交集自然就沒有混流的問題產生。

 夾層式完美阻隔冷熱空氣的示意圖  

圖 16 夾層式完美阻隔冷熱空氣的示意圖

3.10煙囪式機櫃(熱通道封閉)

另外,運用一些個別裝置並且結合風道導流的觀念,可將冷空氣有方向性的直接引導至電腦機櫃內部,熱空氣同樣規律的引導回到冷卻主機,電腦機房不再需要多餘的空調供風,所有的冷熱交換行為都在機櫃內進行,如圖17所示。

 煙囪式自然回風系統  

圖 17 煙囪式自然回風系統

3.11空氣引導單元

空氣引導元件分為分配與排除兩種,裝設於機櫃的前端與後端,空氣分配元件主要目的在於強迫地板下的冷空氣透過元件直接進入IT設備的吸入端,空氣排除元件主要目的在於強迫IT設備排出熱空氣,同樣是將熱通道建置於IT設備的排氣端,如圖18、圖19所示,若兩種元件同時都裝設時,電腦機房的冷熱空氣幾乎沒有任何交錯的路徑。

空氣排除單元

18空氣排除單元

空氣分配單元  

19空氣分配單元

 

3.12 In Row RC(水平式空調)

打破傳統- 非下吹式空調InRow RC

  • 將熱交換設備安裝於每排機櫃間
  • 出風及回風距離變短
  • 熱回風直接由機櫃後方吸入熱交換設備
  • 冷風直接送至機櫃前方
  • 冷風通道與熱風通道隔離
  • 冷房效率提升節約能源及電力支出

水平式空調示意圖  

圖 20 水平式空調示意圖

3.13虛擬化方案

以往不管是企業還是教育,電腦需是一機一顆硬碟外加一套商用作業系統,成本提高是必然的結果,可是在現代不只是成本需納入考量,有沒有符合綠能方案更加重要!如果每台電腦都捨棄掉光碟機跟硬碟,再全面改用DRBL的解決方案,勢必可大大降低碳足跡指數。

以往IT架構

圖 21 以往IT架構

修改成DRBL的IT方案  

圖22修改成DRBL的IT方案

現在的電腦效能相當強大,但卻有非常多的電腦平常只有使用不到20%的運算資源,甚至更少。但因為種種需求,又無法降低電腦數量,因此把數台電腦“虛擬化”塞進一台功能較強大的實體主機,榨乾實體主機的運算資源,成了一種受歡迎的方法。

3.14沒有進行完善的電源管理等

  1. 提高輸出功率因素
  2. 降低輸入電流諧波
  3. 先進的ABM(AdvancedBattery Management)間歇式充放電管理電池技術

功率因素=有效功率÷總耗電量(視在功率)的比值。

PFC功率因素校正的好處包含:
1. 節省電費
2. 增加電力系統容量
3. 穩定電流

80 PLUS是針對電腦之電源供應器(Power Supply Unit)所做的規範,目的在於提升地球能源使用效率。80 PLUS所保證的是電源供應器在20%、50%以及滿載100%時有大於80%的轉換效率。換言之,在不同負載程度時僅有20%或更少的電能轉換成廢熱,藉以減少能源使用以及電費。


四、雲端運算對客戶端的節能效益

SAAS-軟體就是服務!

普遍都有一個共識認為「SaaS就是透過網路提供商業應用軟體的一種新興服務模式」。

例如:臥龍吟、fileserve、google翻譯.搜尋、PSN、AppleAppStore。

 

沒有雲端之前

有了雲端之後

以前要拍出底片,再印出相片,才能分享

現在拍出記憶卡,上傳到雲,就可以分享

以前聽音樂一定要買實體媒介的CD

現在聽音樂只需要付費從雲下載到端即可

以前看電影都要去電影院人擠人買票

現在在家上雲端就可以看電影、電視節目

以前要影像處理要買彩盒

現在利用雲端運算,手機也能影像處理

以前要做文書處理就要買光碟,不綠能

現在能上網就能做文書處理

以前要多存檔案就要多買硬碟

現在檔案都可以存在雲上

以前點數卡過多包裝

現在有了雲端數位銷售平台

傳統發票莫名的資源浪費

雲端整合電子發票系統

表 2 雲端應用在客戶端的影響

五、目前的雲端應用政策

5.1貨櫃型電腦資料中心優勢

  • 能源使用效率(PUE)較佳
  • 貨櫃內密閉式空間,冷卻成本大幅降低
  • 擴充彈性高
  • 方便運輸、安裝與卸除
  • 能以不同貨櫃尺寸為出貨單位,支援不同的運算需求

台達電子貨櫃型雲端資料中心

台達電子秉持著「節能、環保、愛地球」的理念,打造超節能貨櫃型雲端資料中心,以ISO標準型9呎6高、 8呎長、20呎寬的貨櫃建置而成,其平滑的流線外型,使運送更方便、移動更容易。

貨櫃型雲端資料中心的與眾不同,在於空間利用與先進節能設備。特殊的雙排設計,將所有機房所需的設備濃縮至20呎貨櫃中,與目前市面上需兩個貨櫃來裝置相同的容量來說,大幅節省了使用空間及成本。另外,所有的內裝設備包括機櫃、空調、以及電源都可以直接拆下、移到傳統機房來使用,對於企業來說使用彈性非常大,也不會浪費太多成本在貨櫃外殼的建置。

台達電子貨櫃型雲端資料中心裝置 480 台伺服器、最高可容納 7,680 個處理器核心、60 Terabyte 主記憶體、以及 2.88 Petabyte的硬碟儲存容量。此容量可儲存十二萬部高畫質藍光電影、一百座國家圖書館藏書容量,並可支援二十萬台虛擬主機。

台達電子貨櫃型雲端資料中心運用公司內部多項先進設備,讓耗能比例降到最低:

  • 擁有多項專利的LED照明,比一般照明更省電;
  • 先進的高壓直流不斷電系統,可直接供應直流電,將能源使用效率發揮至極緻;
  • 特殊設計的水平送風冷卻系統,能避免垂直送風產生的死角,並在有限的空間內,可有效冷卻IT設備產生的熱能。

綜合以上節能技術,台達電子貨櫃型雲端資料中心,可達到超節能效益,電源使用效率僅1.25,遠低於先進國家標準,甚至低於LEED綠色資料中心標準值1.5.

以一般PUE值2.5的傳統資料中心而言,IT設備用電只佔40%,其他設備如冷卻、空調、照明系統的耗能比例則高達60%。PUE值僅1.25的台達電子貨櫃型雲端資料中心,其他設備的耗能僅20%,總電量遠低於傳統資料中心。

另外,台達電子貨櫃型雲端資料中心有許多貼心設計,使機房維護人員更方便及安全使用。首先,高架地板的墊高設計,將所有管線隱藏至下方地板,不只充分利用空間,還讓資料中心看來整齊乾淨;伺服器後方的無電源線設計,使拆裝方便又快速,不會有多條電綫的干擾; All-in-One隨插即用特性,僅需插入電源、水源及網路線即可馬上運作,不管在任何地點、任何環境、或任何地形都可使用,非常適合支援暫時擴廠或新建地點之用。亦可以一個貨櫃為模組,於資料中心內放入多個貨櫃,集合成大群組來使用

台達電子貨櫃型資料中心特色:

  • 安裝方便移動快
  • 隨插即用彈性大
  • 節能減碳降成本
  •  IT設備都齊全
  • 彈性使用不浪費

5.2政府雲

為發展雲端運算產業,中央部會決先建立8朵「政府雲」,最終目標「行動便民」,預計民國100 年陸續上路。

電子化政府、交通(車籍)、防救災、中小企業、健保、教育、貿易、賦稅/優質經貿網路/電子發票服務等服務系統,

未來預計會再擴大至工商服務(工商憑證)、戶政、役政、勞保及數位典藏等領域。例如以教育為例,現在各個縣市

但若政府將資料中心外包(outsourcing)卻又會碰到兩個問題,第一是資料安全和隱私的

問題,例如大家可能不放心賦稅的資料放在廠商的資料中心。第二是這些資料中心並不是坐落於臺灣,亦即我們國家的資料是放在外國領土上的資料中心,基本上可以被外國政府沒收,這也無法接受。所以美國加州政府將其資料放上雲端時,即特別要求外包廠商必須將其資料放在美國領土內的資料中心。


 雲端提供的企業轉型契機?  

圖 23 雲端提供的企業轉型契機?

五、結論:雲端應該是淡綠色的

雖然雲端服務標榜能夠做到能源使用效率,減少使用端機器運作達到節能效果。但這個方面的成效仍然存在著爭議,如果雲端設備不斷擴充,網路設備、軟體遲早必 須配合雲端之間的通訊協定以及規範,舊型機器勢必淘汰,而生產新型設備所造成的資源消耗與汙染,是否合乎綠色能源與環保的宗旨,也許只是將能源消耗轉嫁到其他部份去,實際上代價差異不大甚至是付出更多代價,這些都是雲端節能必須討論的議題之一。目前已有一些可能的改進方法,例如捨棄全盤雲端化,只針對某些服務來提供雲端化,提供生活上的服務或是循序漸進雲端化,不斷評估來減緩對環境產生的影響與衝擊。

六、參考文獻

1. 吳建德. 淺談電腦機房空調環境與節能應用技術上、下. 綠基會通訊. 99年4月.

2. 電信網路機房節能應用技術手冊. 李魁鵬、陳益祥. 編輯地未知 : 經濟部能源局, 2010年.

3. 黃重憲. 淺談雲端運算 (Cloud Computing). 國立台灣大學計算機及資訊網路中心. [線上] 2009年3月20日. [引用日期: 2012年1月6日.] http://www.cc.ntu.edu.tw/chinese/epaper/0008/20090320_8008.htm.

4. 解開雲端機房的綠色祕密. 封面故事. 2011年.

5. 綠能新趨勢專欄─綠色?藍色?雲端運算技術究竟是什麼顏色?. DIGITIMES. [線上] 2011年2月10日. [引用日期: 2012年1月5日.] http://www.digitimes.com.tw/tw/dt/n/shwnws.asp?CnlID=13&Cat=&Cat1=&id=219195.

6. 王宏仁. 小機房用煙囪式機櫃建立封閉熱通道. iThome. [線上] [引用日期: 2012年1月6日.] http://www.ithome.com.tw/itadm/article.php?c=69313&s=7.

7. HungBanks. 冷熱通道隔離搭配外氣交換控制,挑戰超省電機房. 不及格網管 - IT新聞、技術、進修資訊分享中心. [線上] 2011年8月25日. [引用日期: 2012年1月6日.] http://bankshung.blogspot.com/2011/08/blog-post_6043.html.

8. —. 用冷熱通道有效管理機房氣流. 不及格網管 - IT新聞、技術、進修資訊分享中心. [線上] 2011年8月25日. [引用日期: 2012年1月6日.] http://bankshung.blogspot.com/2011/08/blog-post_5154.html.

9. 株式会社エーピーシー・ジャパン. サーバーの集積化に潜む“死角”発熱量の爆発的な増大への対策を. ITpro Special. [線上] [引用日期: 2012年1月6日.] http://itpro.nikkeibp.co.jp/as/apc/first.shtml.

10. 80 PLUS. 維基百科. [線上] 2011年12月14日. http://zh.wikipedia.org/wiki/80_PLUS.

11. 工商時報. 8朵政府雲 民國百年上路. [線上] 2010年4月30日. http://blog.udn.com/t8830209/3992551.

12. 海韻電子. 常見問題與解答 FAQ. [線上] http://www.seasonic.com/support/c_a01.jsp.

13. 伊頓飛瑞先進的綠能UPS技術. 張順安.

14. 張瑞雄. 綠色雲端計算. 研考雙月刊. 第四期, 2010年, 第 34 冊.

15. DCLive IT設施能耗管理解決方案. 德訊官方網站. [線上] http://www.datcent.com/index.php?option=com_content&view=article&id=6&Itemid=63.

文章標籤
創作者介紹

宇若彎彎

周宇若 發表在 痞客邦 PIXNET 留言(0) 人氣()