Pusat Data Mengonsumsi Lebih Banyak Daya Daripada Yang Diperkirakan Siapapun. Industri Berlomba untuk Mengejar Ketertinggalan.

2026-04-29 - Tinggalkan aku pesan

Selama bertahun-tahun, kisah tentangpusat datakonsumsi energi mengikuti tren yang dapat diprediksi. Digitalisasi memang sedang berkembang, namun peningkatan efisiensi dari server yang lebih baik, virtualisasi, dan konsolidasi cloud membuat total penggunaan listrik tetap datar. Permintaan listrik pusat data global berkisar sekitar 1 persen dari total konsumsi listrik — sekitar 200 terawatt-jam per tahun — selama lebih dari satu dekade.

Era itu sudah berakhir.

Konvergensi AI generatif, penambangan mata uang kripto, komputasi edge, dan pertumbuhan eksponensial perangkat yang terhubung telah mematahkan kurva efisiensi lama. Perkiraan industri saat ini menunjukkan permintaan listrik pusat data tumbuh pada tingkat tahunan yang belum pernah terjadi sebelumnya sejak awal tahun 2000an. Di beberapa wilayah – Irlandia, Virginia Utara, Singapura – pusat data sudah menyumbang 15 hingga 25 persen dari total konsumsi listrik, sehingga memaksa regulator untuk memberlakukan moratorium pembangunan baru.

Dengan latar belakang ini, pilihan infrastruktur yang dulunya tampak seperti detail teknis — arsitektur pendingin, topologi distribusi daya, perencanaan kepadatan rak — telah menjadi keputusan direksi. Biaya energi tidak lagi menjadi item baris. Hal ini merupakan hambatan terhadap pertumbuhan.


Metrik Sederhana yang Mengubah Segalanya

Efektivitas Penggunaan Daya, atau PUE, telah menjadi metrik efisiensi standar industri pusat data selama hampir dua dekade. Rasionya sederhana: total daya fasilitas dibagi dengan daya peralatan TI.

PUE sebesar 2,0 berarti bahwa untuk setiap watt yang memberi daya pada server dan penyimpanan, satu watt lainnya digunakan untuk pendinginan, penerangan, kehilangan konversi daya, dan overhead lainnya. PUE sebesar 1,2 berarti overhead hanya mengkonsumsi 0,2 watt per watt IT.

Industri ini telah menerima tingkatan berdasarkan PUE secara luas:

Tingkat PUE DCiE Apa artinya
Platinum <1,25 >0,80 Efisiensi kelas dunia, biasanya memerlukan pendinginan gratis atau pendinginan cair
Emas 1,25 – 1,43 0,70 – 0,80 Sangat efisien, dapat dicapai dengan desain modern di iklim sedang
Perak 1,43 – 1,67 0,60 – 0,70 Dapat diterima untuk fasilitas yang lebih tua atau iklim yang lebih hangat
Perunggu 1,67 – 2,00 0,50 – 0,60 Khas untuk pusat data lama tanpa retrofit besar
Adil 2,00 – 2,50 0,40 – 0,50 Efisiensi buruk, biaya pengoperasian tinggi
Miskin >2,50 <0,40 Inefisiensi yang kritis, kemungkinan besar memerlukan perhatian segera

Masalahnya adalah banyak organisasi yang sebenarnya tidak mengetahui PUE-nya. Mereka memperkirakan. Mereka menebak. Atau mereka hanya mengukur pada meteran utilitas utama dan menanggung sisanya.

Survei industri pada tahun 2023 menemukan bahwa hampir 40 persen operator pusat data tidak pernah mengukur PUE di tingkat rak. Di antara mereka yang melakukan hal tersebut, selisih antara PUE yang dilaporkan dan aktual rata-rata sebesar 0,3 poin — cukup untuk memindahkan fasilitas dari Emas ke Perak tanpa ada yang menyadarinya.

Ke Mana Kekuatan Sebenarnya Pergi

Memahami mengapa PUE sangat bervariasi dimulai dengan melihat ke mana daya meninggalkan pusat data.

Pada fasilitas berpendingin udara dengan PUE sekitar 1,8, rinciannya kira-kira seperti ini:

  • Peralatan IT (server, penyimpanan, jaringan): 55-60 persen
  • Pendinginan (unit CRAC/CRAH, chiller, pompa, pendingin kering): 30-35 persen
  • Distribusi tenaga listrik (UPS, trafo, rugi-rugi PDU): 5-8 persen
  • Penerangan dan beban fasilitas lainnya: 2-4 persen

Beban pendinginan merupakan variabel terbesar. Sebuah fasilitas di iklim sedang yang menggunakan udara luar untuk pendinginan gratis mungkin hanya menghabiskan 15 persen daya non-IT untuk pendinginan. Fasilitas yang sama di iklim tropis dengan pendinginan mekanis sepanjang tahun mungkin menghabiskan biaya 40 persen.

Inilah sebabnya penyedia kolokasi mengiklankan PUE di tingkat fasilitas namun menyampaikan PUE pada meteran pelanggan — jumlah yang berbeda, implikasi yang berbeda. Pelanggan membayar semuanya.

Pergeseran Dari Infrastruktur Tradisional ke Skala Cloud

Manajemen pusat data tradisional mengasumsikan lingkungan yang relatif statis. Rak terisi selama berbulan-bulan atau bertahun-tahun. Pendinginan bisa disesuaikan secara perlahan. Distribusi listrik terlalu besar sejak hari pertama.

Era cloud mengubah asumsi tersebut. Rak sekarang terisi dalam beberapa hari. Beban kerja berpindah antar server secara otomatis. Kluster AI dengan kepadatan tinggi mungkin menggunakan daya tiga kali lipat dibandingkan rak komputasi serba guna yang berdekatan.

Perubahan-perubahan ini memaksa pemikiran ulang mengenai pengelolaan infrastruktur. Ada tiga tren yang menonjol.

Pertama, kepadatan meningkat secara tidak merata.Rak server standar satu dekade lalu menghasilkan daya 5-8 kilowatt. Saat ini, rak serba guna menghasilkan 10-15 kilowatt. Rak pelatihan komputasi dan AI berperforma tinggi secara rutin melebihi 30 kilowatt per rak. Beberapa melebihi 50 kilowatt.

Hal ini menciptakan tantangan manajemen termal yang sulit diatasi oleh pendingin udara. Pada 20 kilowatt per rak, pendinginan udara tetap efektif dengan penahanan yang tepat. Pada 30 kilowatt, itu menjadi marjinal. Pada 40 kilowatt ke atas, pendinginan cair berubah dari opsional menjadi perlu.

Kedua, perencanaan kapasitas sudah bersifat prediktif.Metode lama – membeli kapasitas lebih besar dari yang dibutuhkan dan membiarkannya menganggur – tidak lagi berfungsi dalam skala besar. Kapasitas menganggur menimbulkan biaya modal dan biaya pemeliharaan berkelanjutan.

Sistem manajemen infrastruktur modern menggunakan data historis dan perkiraan beban kerja untuk memprediksi kapan daya, pendinginan, atau ruang rak akan habis. Sistem terbaik dapat merekomendasikan apakah akan mengkonfigurasi ulang kapasitas yang ada atau memesan perangkat keras baru, beberapa hari atau minggu sebelum kendala menjadi kritis.

Ketiga, persyaratan visibilitas memiliki exempuk.Pusat data tradisional mungkin melacak daya pada tingkat PDU. Fasilitas modern memerlukan visibilitas di tingkat rak, terkadang di tingkat server, dan semakin meningkat di tingkat beban kerja — mengetahui mesin virtual atau container mana yang menggerakkan daya yang dikonsumsi.

Lapisan DCIM: Fungsi Sebenarnya

Infrastruktur Pusat DataPerangkat lunak manajemen (DCIM) telah ada selama lebih dari satu dekade, namun penerapannya masih belum merata. Kurang dari separuh pusat data perusahaan telah menerapkan sistem DCIM lengkap. Banyak yang hanya menggunakan sebagian kecil dari kemampuannya.

Sistem DCIM yang diterapkan dengan benar akan melakukan empat hal:

Manajemen aset.Setiap server, switch, PDU, dan unit pendingin dilacak dalam database manajemen konfigurasi (CMDB). Lokasi, peringkat daya, koneksi jaringan, riwayat pemeliharaan — semuanya. Ini terdengar mendasar, namun banyak organisasi masih melacak aset dalam spreadsheet yang membutuhkan waktu berbulan-bulan setelah pembaruan.

Pemantauan waktu nyata.Penarikan daya pada tingkat PDU atau rak, suhu dan kelembapan pada titik suplai dan pengembalian, status sistem pendingin, kesehatan baterai UPS. Alarm terpicu ketika parameter menyimpang dari setpoint. Tujuannya adalah untuk mendeteksi masalah sebelum menyebabkan downtime.

Perencanaan kapasitas.Sistem mengetahui berapa banyak daya dan kapasitas pendinginan yang tersedia, berapa banyak yang digunakan, dan berapa banyak yang dicadangkan untuk penerapan di masa depan. Hal ini dapat memodelkan dampak penambahan rak kepadatan tinggi baru atau penghentian serangkaian server lama.

Visualisasi.Kembaran digital dari pusat data — rak demi rak, ubin demi ubin — menunjukkan kondisi saat ini dan memungkinkan operator melakukan simulasi perubahan. Menambahkan beban 10 kilowatt ke baris ketiga, kolom empat: apakah itu melebihi kapasitas pendinginan? Sistem menjawab sebelum ada yang memindahkan peralatan.

Matematika Efisiensi yang Sebenarnya Berhasil

Mengurangi konsumsi energi pusat data bukanlah hal yang misterius. Metodenya dipahami dengan baik. Tantangannya adalah disiplin implementasi.

Naikkan suhu udara pasokan.Sebagian besar pusat data beroperasi dalam suhu dingin — 18 hingga 20 derajat Celcius saat unit pendingin kembali — karena itulah yang selalu dilakukan operator. Pedoman ASHRAE sekarang merekomendasikan 24 hingga 27 derajat. Setiap kenaikan derajat mengurangi energi pendinginan sekitar 4 persen. Menjalankan pada suhu 26 derajat, bukan 20 derajat, menghemat 20-25 persen daya pendinginan.

Hilangkan pencampuran udara panas dan dingin.Penahan lorong panas, penahan lorong dingin, atau saluran pembuangan vertikal memaksa udara pendingin mengalir ke tempat yang dibutuhkan, bukan melalui siklus pendek melalui bagian depan rak. Penahanan saja biasanya mengurangi energi pendinginan sebesar 15-25 persen.

Gunakan penggerak berkecepatan variabel.Kipas dan pompa berkecepatan konstan membuang energi pada beban parsial. Penggerak kecepatan variabel menyesuaikan aliran udara dan aliran air dengan permintaan sebenarnya. Periode pengembalian retrofit biasanya 1-3 tahun.

Mengoptimalkan pengoperasian UPS.Sebagian besar sistem UPS beroperasi dalam mode konversi ganda secara terus-menerus — mengubah AC ke DC dan kembali ke AC bahkan ketika listrik bersih. Sistem UPS modern dapat beralih ke mode ramah lingkungan ketika kualitas daya memungkinkan, sehingga mencapai efisiensi 99 persen, bukan 94-96 persen. Imbalannya adalah waktu transfer yang singkat ke baterai jika listrik mati. Untuk beban TI dengan pasokan listrik yang dirancang untuk transfer tersebut, risikonya minimal.

Mengadopsi distribusi tegangan tinggi.Mendistribusikan daya pada 415V, bukan 208V, mengurangi kerugian distribusi sekitar 25 persen. Hal ini memerlukan PDU dan catu daya server yang kompatibel, namun banyak perangkat modern yang mendukungnya.

Seperti Apa Efisiensi di Dunia Nyata

Perusahaan Shangyu CPSY, sebuah perusahaan teknologi tinggi dengan fokus pada infrastruktur pusat data, melaporkan PUE sebesar 1,3 untuk solusi pusat data modularnya. Hal ini menempatkan perusahaan pada tingkatan Emas, menuju Platinum.

Penghematan energi sebesar 25 persen yang diklaim dibandingkan dengan desain konvensional disebabkan oleh berbagai faktor. Sistem UPS modular dengan efisiensi 97,4 persen pada tingkat sistem mengurangi kerugian distribusi sebesar 15-20 persen. Pendingin udara presisi dengan kompresor berkecepatan variabel dan kipas EC menyesuaikan keluaran pendinginan agar sesuai dengan beban panas aktual, bukan bekerja pada kapasitas tetap. Dan tata letak fisiknya — penahan lorong panas, jarak rak yang optimal, lantai yang ditinggikan dengan ubin berlubang berukuran tepat — mengatasi pengelolaan aliran udara yang melemahkan banyak fasilitas yang sebelumnya efisien.

Portofolio sertifikasi perusahaan mencakup ISO 9001 (manajemen mutu) dan ISO 27001 (manajemen keamanan informasi). Penerapannya kepada pelanggan mencakup kemitraan dengan Huawei, ZTE, dan Inspur, dengan instalasi ekspor di Amerika Serikat, Inggris, Jerman, Prancis, dan Australia.

Dimana Pendinginan Cairan Memasuki Gambar

Selama bertahun-tahun, pendingin cair merupakan teknologi khusus untuk pusat superkomputer. Hal ini berubah dengan cepat.

Cluster pelatihan AI yang menggunakan NVIDIA H100 atau GPU B200 mendatang menghasilkan 30-50 kilowatt per rak dalam konfigurasi berpendingin udara murni. Pada kepadatan ini, pendinginan udara memerlukan laju aliran udara yang tinggi — kipas yang keras, rak yang dalam, dan kontrol termal yang masih kecil.

Pendinginan cair langsung ke chip menghilangkan 60-80 persen panas dari sumbernya. Chipnya menjadi lebih dingin. Kipas angin bekerja lebih lambat. AC ruangan hanya menangani sisa panas dari catu daya, memori, dan komponen lainnya.

Peningkatan efisiensi sangat besar. Fasilitas dengan pendinginan langsung ke chip melaporkan nilai PUE sebesar 1,1 hingga 1,2. Dampaknya adalah biaya modal yang lebih tinggi, pengelolaan kebocoran yang lebih kompleks, dan kebutuhan akan pengolahan air tingkat fasilitas.

Pendinginan perendaman penuh — merendam seluruh server dalam cairan dielektrik — mendorong PUE di bawah 1,1 namun tetap terspesialisasi. Sebagian besar pusat data komersial akan mengadopsi pendinginan langsung ke chip terlebih dahulu, baru kemudian dilakukan perendaman untuk zona kepadatan tinggi tertentu.

Platform pusat data SHANGYU mencakup ketentuan untuk arsitektur pendingin udara dan cairan, menyadari bahwa penerapan kepadatan tinggi di masa depan akan memerlukan manajemen termal berbasis cairan, apa pun desain fasilitasnya.

Kesenjangan Manajemen: Dari Reaktif ke Prediktif

Sebagian besar tim operasional pusat data masih bekerja secara reaktif. Alarm berbunyi. Seseorang menyelidiki. Perbaikan diterapkan. Siklus itu berulang.

Transisi ke manajemen prediktif memerlukan tiga kemampuan yang tidak dimiliki banyak organisasi.

Data konfigurasi lengkap.Mengetahui apa yang ada di pusat data — setiap server, setiap switch, setiap PDU, setiap unit pendingin — adalah fondasinya. Tanpa data CMDB yang akurat, perencanaan kapasitas hanyalah sebuah dugaan.

Telemetri granular.Pengukuran daya tingkat rak adalah minimum. Pengukuran daya per server lebih baik. Atribusi daya tingkat beban kerja adalah yang terbaik namun paling sulit dicapai.

Analisis yang membedakan sinyal dari kebisingan.Lonjakan suhu di salah satu rak mungkin berarti kipas rusak. Lonjakan suhu di separuh pusat data mungkin berarti kegagalan sistem pendingin. Sistem perlu membedakan dan merekomendasikan tanggapan yang sesuai.

Platform DCIM dari SHANGYU menyediakan dukungan perangkat SNMP dan Modbus, antarmuka aplikasi berbasis web dan Windows, dan integrasi dengan kamera jaringan untuk pencitraan yang dipicu peristiwa. Sasaran yang dinyatakan sangatlah jelas: mengurangi waktu henti yang mahal, memangkas biaya operasional harian melalui pengendalian lingkungan yang menyeluruh, dan meningkatkan visibilitas dan ketertelusuran manajemen.

Mengapa Hal Ini Penting Di Luar Lantai Pusat Data

Konsumsi energi pusat data menyumbang sekitar 1 persen dari permintaan listrik global. Jumlah itu terdengar kecil jika tidak dimasukkan ke dalam konteksnya. Jumlah ini kira-kira setara dengan total konsumsi listrik di Inggris.

Yang lebih penting lagi, tingkat pertumbuhannya semakin cepat. Proyeksi industri menunjukkan permintaan listrik pusat data meningkat sebesar 10-15 persen per tahun hingga tahun 2030, didorong oleh AI, adopsi cloud, dan perluasan perangkat yang terhubung secara berkelanjutan. Pada tingkat tersebut, pusat data akan mengkonsumsi 3-4 persen listrik global pada akhir dekade ini.

Peningkatan efisiensi yang menjaga konsumsi daya tetap datar selama dekade sebelumnya berasal dari virtualisasi server (mengurangi jumlah server fisik), peningkatan efisiensi drive (beralih dari disk yang berputar ke SSD), dan penerapan pendinginan gratis secara luas (menggunakan udara luar, bukan pendinginan mekanis). Buah yang mudah didapat sebagian besar telah dipetik.

Gelombang efisiensi berikutnya akan datang dari pendinginan cair, distribusi tegangan lebih tinggi, kontrol pendinginan yang dioptimalkan dengan AI, dan – mungkin yang paling penting – penyelarasan yang lebih baik antara kapasitas infrastruktur dan beban TI aktual. Bagian terakhir ini memerlukan visibilitas real-time dan analisis prediktif yang disediakan oleh sistem DCIM, tetapi hanya sedikit fasilitas yang digunakan sepenuhnya.

Beberapa Pertanyaan yang Patut Ditanyakan Tentang Infrastruktur Anda Sendiri

Apakah Anda mengetahui PUE Anda yang sebenarnya, bukan nomor pada lembar spesifikasi?Jika Anda belum mengukur pada keluaran UPS dan pada masukan peralatan IT, Anda tidak mengetahuinya. Perbedaannya adalah biaya overhead Anda yang sebenarnya.

Apakah sistem pendingin Anda saling berkelahi?Di banyak pusat data, unit CRAC disetel dengan pita suhu dan kelembapan yang tumpang tindih. Satu unit menghilangkan kelembapan sementara unit lainnya melembabkan. Yang satu mendingin sementara yang lain memanaskan kembali. Ini bukanlah hal yang aneh. Itu juga tidak efisien.

Berapa konsumsi daya idle pada server Anda?Data industri menunjukkan bahwa server perusahaan pada umumnya menggunakan 30-40 persen daya puncaknya saat tidak melakukan apa pun. Mematikan atau mematikan server yang tidak digunakan adalah ukuran efisiensi ROI tertinggi yang tersedia. Ini juga merupakan hal yang paling diabaikan.

Bisakah Anda menaikkan suhu pasokan udara sebanyak dua derajat tanpa melanggar spesifikasi peralatan?Kemungkinan besar ya. Sebagian besar peralatan memiliki suhu masuk 25-27 derajat. Sebagian besar pusat data beroperasi pada suhu 20-22 derajat. Kesenjangan enam derajat tersebut mewakili energi pendinginan yang tidak diperlukan selama bertahun-tahun.

Kapan terakhir kali Anda memvalidasi efisiensi UPS Anda?Efisiensi papan nama diukur pada beban penuh dengan faktor daya sempurna. Efisiensi dunia nyata pada beban parsial dengan faktor daya dunia nyata bisa lebih rendah 5-10 poin.





Sebelumnya:Tidak ada kabar
Berikutnya:Tidak ada kabar

mengirimkan permintaan

X
Kami menggunakan cookie untuk menawarkan Anda pengalaman penelusuran yang lebih baik, menganalisis lalu lintas situs, dan mempersonalisasi konten. Dengan menggunakan situs ini, Anda menyetujui penggunaan cookie kami. Kebijakan Privasi