Go Green Data Center

Go Green Datacenter

August 26, 2008 – Yohanes Dwi Anggoro

Listrik byar pet.. krisis listrik berdampak pada industri dan masyarakat.. Nggak tahu deh penyebab pasokan listrik koq bisa tidak memadai. Ada yang bilang karena maintenance perangkat di PLN. Ada lagi yang bilang karena pasokan bahan bakar dihambat terhambat. Atau jangan2 karena mau pemilu.. tahu kaan kenapa. Pemerintah pun menghimbau penghematan listrik dimana-mana. Beberapa perusahaan juga mencanangkan program hemat energi ini. Apapun penyebabnya, program hemat energi memang layak dilakukan. Bukan untuk siapa siapa melainkan buat kita sendiri juga manfaatnya.

So.. terkait sama hemat energi ini ada bebebapa yang bisa dilakukan oleh IT infrastructure. Beberapa idea pernah ada di tulisan saya tahun lalu. Server consolidation juga bisa jadi salah satu solusinya. Tapi yang sangat signifikan adalah redesign datacenter cooling system. Sebuah paradigma baru mengenai power cooling datacenter.

Dean Nelson, Direktur Global Lab & Datacenter Design Services-nya Sun Microsystem, pernah menjadikan project datacenter yang hemat energi dengan cara datacenter cooling system baru ini untuk mengejar efisiensi utilisasi power.  Seperti apa designnya??.. apa saja product yang dipakai??..

Artikel Dean Nelson tentang efisiensi listrik yang dipakai datacenter yang mereka design bisa dibaca di sini. Parameter efisiensi power diukur dengan terminologi PUE (Power Utilization Effectiveness). Pakem ini digunakan oleh banyak praktisi IT Datacenter.

Sebelum membahas bagaimana cara Dean mendesign datacenter yang hemat energi, sedikit kita ulas dulu tentang PUE ini.

PUE adalah nilai total power yang dipakai untuk seluruh equipment di datacenter dibandingkan dengan power yang digunakan untuk perangkat IT-nya.

PUE = (Total power datacenter) / (Power perangkat IT)

kalau nilai PUE = 2 artinya jumlah power yang digunakan untuk (misal untuk setiap 2 watt) 1 watt listriknya dipakai untuk computing (server, switch, storage, tape library) dan 1 watt listrik untuk keperluan pendukung datacenter lainnya seperti UPS, PAC, lampu, dll. Semakin efisien penggunaan listriknya semakin kecil nilai PUE-nya.

Secara teori nilai PUE bisa dari 1 sampai tidak terhingga. Tapi berdasarkan risetnya Lawrence Berkley National Labs, dari 22 datacenter range PUE-nya antara 1.3 sampai 3. Datacenter kita kira2 berapa nilai efisiensinya yaa?

Okelah.. PUE itu kan standar yang mereka sepakati untuk mengukur efisiensi power di datacenter. Sekarang kita beralih ke yang lebih penting dari sekedar angka PUE yaitu apa yang perlu dilakukan untuk meningkatkan efisiensi power di datacenter. Sekarang kita tengok aja metode2 yang dipakai sama Dean Nelson. Kita pelajari, difilter, dimodifikasi sesuai kondisi dan diimplementasi dong.

Kalau membaca-baca secara sekilas dan melihat demo datacenternya, mereka memperbaiki cooling system di datacenter dengan memodifikasi konsep cooling konvensional. Metode yang digunakan adalah membuat flow udara dingin tersebar di rack2 yang membutuhkan dan menghindari tercampurnya udara dingin dan udara panas.

Berikut beberapa metode cooling datacenter yang digunakanan untuk ruang datacenter
1. Metode yang lama adalah room oriented cooling system. Prinsipnya adalah mendinginkan seluruh ruangan datacenter menggunakan CRAC/PAC yang disebar di pinggir-pinggir ruangan datacenter.

cara ini masih konvensional dan kurang efektif karena udara panas & udara dingin bercampur serta flow udara dingin yang dibutuhkan oleh perangkat kurang tepat. beberapa area bisa sangat dingin, beberapa area lainnya temperaturnya tinggi. Coba lihat gambar di atas, daerah yang perangkat sedikit lebih dingin dan daerah yang lebih padat perangkatnya lebih panas. Akibatnya udara yang hangat bisa kembali masuk ke dalam server. Udara hangat akibat bertemunya udara panas dan dingin juga berdampak pada meningkatnya proses kondensasi sehingga humiditynya jadi lebih lembab.

Metode room oriented ini lebih rumit jika ada keperluan penambahan kapasitas di posisi tertentu, analisa redudancynya juga lebih kompleks. jika salah perhitungan, apabila salah satu CRAC/PAC mati perangkat IT di ruang datacenter bisa overheat.

Secara budget, metode ini juga sering oversizing karena system performance sulit diprediksi dan tidak efektifnya penggunaan udara dingin yang keluar dari CRAC/PAC ke perangkat IT.

2. Cara lain yang sedikit lebih advance adalah row oriented cooling system dengan membuat jalur udara panas dan jalur udara dingin (hot aisle & cold aisle). udara dingin disalurkan di cold aisle (bagian depan rack server), kemudian dihisap oleh server untuk menurunkan heat di dalam server dan udara panasnya dibuang ke belakang rack server kemudian udara panas naik ke atas lalu di hisap oleh CRAK/PAC di tepi2 ruang datacenter.

Perlu diingat bahwa berdasarkan best practice, posisi CRAC/PAC semestinya berada pada jalur hot aisle agar udara panas yang naik bisa dihisap oleh CRAC/PAC tanpa bercampur dengan udara dingin dulu. Dengan cara ini lebih efisien karena udara yang dihisap server untuk mendinginkan suhu processor etc di dalam ruang server adalah udara dingin yang tidak tercampur udara panas.

penggunaan CRAC/PAC di setiap baris ini bisa dibilang modular karena bisa menggunakan CRAC/PAC yang kapasitasnya lebih kecil dan cukup untuk mendinginkan 2 baris rack server saja.

3. Metode datacenter cooling yang lain adalah rack oriented cooling system. Metode ini yang digunakan oleh Dean Nelson karena tingkat efisiensinya paling tinggi. CRAC/PAC tidak lagi disebar di sisi-sisi ruang datacenter tapi sudah disebar di barisan rack servernya. Ilustrasi di bawah ini saya ambil dari salah satu slide presentasi APC di website Altruent system. Jadi di dalam barisan rack-rack server ini di sisipkan cooling system yang mendinginkan udara panas di belakang server dan menghembuskan ke sisi depan server.

Pada APC system row oriented cooling system ini di enhance lagi dengan menutup jalur udara panas (hot contaiment aisle) agar tidak bercampur dengan jalur udara dingin. Semua udara panas di dalam hot contaiment ini akan didinginkan oleh CRAC yang ada di samping rack server.

Meskipun pada ilustrasi di atas server yang di gambarkan adalah blade server, namun di lapangan Dean Nelson mendapati bahwa blade server adalah high density system yang menghasilkan heat sangat tinggi. oleh karena itu Dean melengkapi row oriented cooling ini dengan mengkombinasikan beberapa product.

selain APC InfraStruXure in row RC dengan hot contaimentnya Dean juga menggunakan Liebert XDV cooling system.

In row RC meningkatkan efisiensi cooling power dengan menggunakan power untuk kipas sesuai kebutuhan. alat ini memiliki sensor panas sehingga bisa mendeteksi heat dan dapat menganalisa berapa kecepatan kipas yang dibutuhkan. Hot aisle contaiment membantu menjaga agar udara panas tidak tercampur dengan udara dingin sehingga proses cooling bisa dilakukan tepat sasaran.

Untuk rack-rack yang high density, Dean menggunakan liebert XDV Vertical Top Cooling Module yang diletakkan di atas rack APC InfraStruXure. Liebert XDV ini yang bekerja bersama chiller system untuk medistribusikan udara dingin ke depan rack server dan menghisap udara panas dari belakang rack server untuk diteruskan ke chiller system.

Beberapa cara lain dilakukan untuk membuat power efisiensi. Diantaranya adalah sparycool, Rittal Liquid Cooling Package rack maupun IBM Rear Door Heat eXchanger (khusus untuk IBM Enterprise Racks). Tapi alat ini menggunakan air sebagai media penyalur panas. Penggunaan air sebagai media penyalur panas yang bekerja ala radiator ini memiliki resiko kebocoran maupun kondensasi. Jadi saya rasa tidak perlu dibahas lebih lanjut.

Kembali ke pokok bahasan tentang hemat energi. Jadi, untuk bisa melakukan penghematan energi yang signifikan salah satunya adalah dengan merubah paradigma cooling system ini. Hal ini telah dibuktikan oleh team datacenter design SUN yang dikepalai Dean Nelson. Perubahan paradigma metode cooling ini bukan hanya milik IT infrastructure, tapi juga milik pengelola power dan CRAC/PAC datacenter. Dengan bekerja bersama-sama hal ini pasti bisa kita wujudkan.

1 Comment »

  1. Hallo mas Yohanes Dwi anggoro..
    Apa kabar??🙂


RSS Feed for this entry

Tinggalkan Balasan

Isikan data di bawah atau klik salah satu ikon untuk log in:

Logo WordPress.com

You are commenting using your WordPress.com account. Logout / Ubah )

Gambar Twitter

You are commenting using your Twitter account. Logout / Ubah )

Foto Facebook

You are commenting using your Facebook account. Logout / Ubah )

Foto Google+

You are commenting using your Google+ account. Logout / Ubah )

Connecting to %s

%d blogger menyukai ini: