Centrele de date consumă mai multă putere decât se aștepta oricine. Industria se cursă pentru a ajunge din urmă.

2026-04-29 - Lasă-mi un mesaj

De ani de zile, povestea luicentru de dateconsumul de energie a urmat un arc previzibil. Digitalizarea era în creștere, sigur, dar câștigurile de eficiență de la servere mai bune, virtualizare și consolidarea cloud au menținut consumul total de electricitate surprinzător de constant. Cererea globală de energie pentru centrele de date s-a situat în jurul a 1% din consumul total de energie electrică - aproximativ 200 de terawați-oră anual - pentru cea mai mare parte a unui deceniu.

Epoca aceea se termină.

Convergența IA generativă, mineritul criptomonedelor, edge computing și creșterea exponențială a dispozitivelor conectate a rupt vechea curbă de eficiență. Estimările industriei arată acum că cererea de putere pentru centrele de date crește la ritmuri anuale nemaivăzute de la începutul anilor 2000. În unele regiuni – Irlanda, Virginia de Nord, Singapore – centrele de date reprezintă deja 15 până la 25% din consumul total de energie electrică, forțând autoritățile de reglementare să impună moratorie asupra construcțiilor noi.

În acest context, alegerile de infrastructură care odată păreau detalii tehnice - arhitectura de răcire, topologia distribuției de energie, planificarea densității rack-urilor - au devenit decizii în sala de consiliu. Costul energiei nu mai este un element rând. Este o constrângere a creșterii.


Metrica simplă care a schimbat totul

Eficacitatea consumului de energie sau PUE a fost indicatorul de eficiență standard al industriei centrelor de date de aproape două decenii. Este un raport simplu: puterea totală a instalației împărțită la puterea echipamentului IT.

Un PUE de 2,0 înseamnă că pentru fiecare watt care alimentează serverele și stocarea, un alt watt se duce la răcire, iluminare, pierderi de conversie a puterii și alte cheltuieli generale. Un PUE de 1,2 înseamnă că suprafața consumă doar 0,2 wați per watt IT.

Industria are niveluri larg acceptate bazate pe PUE:

Nivel PUE DCiE Ce înseamnă
Platină <1,25 >0,80 Eficiență de clasă mondială, necesită de obicei răcire liberă sau răcire cu lichid
Aur 1.25 – 1.43 0,70 – 0,80 Foarte eficient, realizabil cu modele moderne în climă moderată
Argint 1,43 – 1,67 0,60 – 0,70 Acceptabil pentru facilități mai vechi sau climă mai caldă
Bronz 1.67 – 2.00 0,50 – 0,60 Tipic pentru centrele de date vechi fără modificări majore
Corect 2.00 – 2.50 0,40 – 0,50 Eficiență slabă, cost de operare ridicat
Sărac >2,50 <0,40 Ineficiența critică, necesită probabil atenție imediată

Problema este că multe organizații nu își cunosc de fapt PUE. Ei estimează. Ei ghicesc. Sau măsoară doar la contorul principal de utilități și își asumă restul.

Un sondaj din 2023 din industrie a arătat că aproape 40% dintre operatorii de centre de date nu măsuraseră niciodată PUE la nivel de rack. Printre cei care au făcut-o, diferența dintre PUE raportat și real a fost în medie de 0,3 puncte - suficient pentru a muta o unitate de la Aur la Argint fără ca nimeni să observe.

Unde se duce de fapt puterea

Înțelegerea de ce variază atât de mult PUE începe cu privire la punctul în care puterea lasă un centru de date.

Într-o instalație tipică răcită cu aer, cu un PUE în jur de 1,8, defalcarea arată aproximativ astfel:

  • Echipamente IT (servere, stocare, rețea): 55-60 la sută
  • Răcire (unități CRAC/CRAH, răcitoare, pompe, răcitoare uscate): 30-35 la sută
  • Distribuția energiei (UPS, transformatoare, pierderi PDU): 5-8 la sută
  • Iluminat și alte sarcini ale instalației: 2-4 la sută

Sarcina de răcire este cea mai mare variabilă. O instalație într-un climat temperat care utilizează aer exterior pentru răcire liberă ar putea cheltui doar 15% din puterea sa non-IT pentru răcire. Aceeași instalație într-un climat tropical cu răcire mecanică pe tot parcursul anului ar putea cheltui 40 la sută.

Acesta este motivul pentru care furnizorii de servicii de colocare fac publicitate PUE la nivelul unității, dar furnizează PUE la contorul clienților - numere diferite, implicații diferite. Clientul plătește pentru toate.

Trecerea de la o infrastructură tradițională la o infrastructură la scară cloud

Managementul tradițional al centrelor de date presupunea un mediu relativ static. Rafturile au fost umplute de-a lungul lunilor sau ani. Răcirea ar putea fi reglată lent. Distribuția de energie a fost supradimensionată din prima zi.

Era norului a schimbat ipotezele. Rafturile se umplu acum cu zile. Sarcinile de lucru se schimbă automat între servere. Clusterele AI de înaltă densitate ar putea consuma de trei ori puterea rafturilor de calcul de uz general adiacente.

Aceste schimbări au forțat o regândire a managementului infrastructurii. Trei tendințe ies în evidență.

În primul rând, densitatea crește neuniform.Un rack de server standard în urmă cu un deceniu consuma 5-8 kilowați. Astăzi, rafturile de uz general consumă 10-15 kilowați. Rackurile de calcul de înaltă performanță și de antrenament AI depășesc în mod obișnuit 30 de kilowați per rack. Unele depășesc 50 de kilowați.

Acest lucru creează provocări de management termic pe care răcirea cu aer se străduiește să le rezolve. La 20 de kilowați pe rack, răcirea cu aer rămâne eficientă cu o izolare adecvată. La 30 de kilowați, devine marginal. La 40 de kilowați și peste, răcirea cu lichid trece de la opțional la necesar.

În al doilea rând, planificarea capacității a devenit predictivă.Vechea metodă – cumpărați mai multă capacitate decât este necesar și lăsați-o să stea inactiv – nu mai funcționează la scară. Capacitatea inactivă are atât costuri de capital, cât și costuri de întreținere continuă.

Sistemele moderne de gestionare a infrastructurii folosesc date istorice și prognoza sarcinii de lucru pentru a prezice când se vor epuiza energia, răcirea sau spațiul în rack. Cele mai bune sisteme pot recomanda reconfigurarea capacității existente sau comandarea hardware-ului nou, cu zile sau săptămâni înainte ca o constrângere să devină critică.

În al treilea rând, cerințele de vizibilitate au expanded.Un centru de date tradițional ar putea urmări puterea la nivelul PDU. O instalație modernă are nevoie de vizibilitate la nivel de rack, uneori la nivel de server și din ce în ce mai mult la nivel de încărcare de lucru - știind ce mașină virtuală sau container conduce ce energie consumă.

Stratul DCIM: Ce face de fapt

Infrastructura centrului de dateSoftware-ul de management (DCIM) există de peste un deceniu, dar adoptarea rămâne inegală. Mai puțin de jumătate dintre centrele de date ale întreprinderilor au implementat un sistem DCIM complet. Mulți care au folosit doar o fracțiune din capacitățile sale.

Un sistem DCIM implementat corect face patru lucruri:

Gestionarea activelor.Fiecare server, comutator, PDU și unitate de răcire este urmărit într-o bază de date de gestionare a configurației (CMDB). Locație, putere nominală, conexiuni la rețea, istoric de întreținere - toate acestea. Acest lucru sună simplu, dar multe organizații încă urmăresc activele în foi de calcul care trec luni de zile între actualizări.

Monitorizare în timp real.Consumul de energie la nivelul PDU sau rack, temperatură și umiditate la punctele de alimentare și retur, starea sistemului de răcire, starea bateriei UPS. Alarmele se declanșează atunci când parametrii se abat de la valorile de referință. Scopul este de a detecta problemele înainte ca acestea să provoace timpi de nefuncționare.

Planificarea capacității.Sistemul știe câtă putere și capacitate de răcire este disponibilă, cât este în uz și cât este rezervat pentru implementarea viitoare. Poate modela impactul adăugării unui nou rack de înaltă densitate sau retragerii unui set de servere mai vechi.

Vizualizarea.Un geamăn digital al centrului de date — rack cu rack, piesă cu placă — arată condițiile actuale și permite operatorilor să simuleze schimbări. Adăugarea a 10 kilowați de sarcină la rândul trei, coloana patru: aceasta depășește capacitatea de răcire? Sistemul răspunde înainte ca cineva să mute echipamentul.

Matematica de eficiență care funcționează de fapt

Reducerea consumului de energie al centrului de date nu este misterioasă. Metodele sunt bine înțelese. Provocarea este disciplina de implementare.

Ridicați temperatura aerului de alimentare.Majoritatea centrelor de date funcționează la rece – 18 până la 20 de grade Celsius la întoarcerea unității de răcire – pentru că asta au făcut întotdeauna operatorii. Ghidurile ASHRAE recomandă acum 24 până la 27 de grade. Fiecare grad de creștere reduce energia de răcire cu aproximativ 4 procente. Rularea la 26 de grade în loc de 20 de grade economisește 20-25 la sută din puterea de răcire.

Eliminați amestecarea aerului cald și rece.Reținerea culoarului fierbinte, reținerea culoarului rece sau conductele de evacuare verticale forțează aerul de răcire să meargă acolo unde este necesar, mai degrabă decât să treacă scurt prin partea din față a rafturilor. Numai izolarea reduce de obicei energia de răcire cu 15-25 la sută.

Utilizați unități de viteză variabilă.Ventilatoarele și pompele cu viteză constantă risipesc energie la sarcină parțială. Variatoarele de viteză potrivesc fluxul de aer și debitul de apă la cererea reală. Perioadele de rambursare a modernizării sunt de obicei de 1-3 ani.

Optimizați funcționarea UPS-ului.Majoritatea sistemelor UPS funcționează în mod continuu în mod dublă conversie — transformând AC în DC și înapoi în AC chiar și atunci când alimentarea de la utilitate este curată. Sistemele UPS moderne pot trece la modul eco atunci când calitatea energiei o permite, atingând o eficiență de 99 la sută în loc de 94-96 la sută. Compensația este un timp scurt de transfer la baterie, dacă alimentarea de la rețeaua este defectă. Pentru încărcările IT cu surse de alimentare proiectate pentru astfel de transferuri, riscul este minim.

Adoptă distribuția de tensiune mai mare.Distribuirea puterii la 415V în loc de 208V reduce pierderile de distribuție cu aproximativ 25%. Acest lucru necesită PDU-uri compatibile și surse de alimentare pentru server, dar multe dispozitive moderne îl acceptă.

Cum arată eficiența în lumea reală

Compania Shangyu CPSY, o întreprindere de înaltă tehnologie, cu accent pe infrastructura centrelor de date, raportează un PUE de 1,3 pentru soluțiile sale modulare pentru centre de date. Acest lucru plasează compania în nivelul Aur, îndreptându-se spre Platină.

Economiile de energie de 25% pretinse în comparație cu modelele convenționale provin din mai mulți factori. Sistemele UPS modulare cu o eficiență de 97,4 la sută la nivel de sistem reduc pierderile de distribuție care, altfel, rulează cu 15-20 la sută. Aparatele de aer condiționat de precizie cu compresoare cu viteză variabilă și ventilatoare EC ajustează puterea de răcire pentru a se potrivi cu sarcina de căldură reală, mai degrabă decât să funcționeze la capacitate fixă. Iar aspectul fizic — izolarea culoarului fierbinte, distanța optimă între rafturi, podeaua înălțată cu plăci perforate de dimensiuni adecvate — abordează gestionarea fluxului de aer care subminează multe facilități altfel eficiente.

Portofoliul de certificare al companiei include ISO 9001 (managementul calității) și ISO 27001 (managementul securității informațiilor). Implementările clienților săi includ parteneriate cu Huawei, ZTE și Inspur, cu instalări de export în Statele Unite ale Americii, Regatul Unit, Germania, Franța și Australia.

Unde răcirea cu lichid intră în imagine

Ani de zile, răcirea cu lichid a fost o tehnologie de nișă pentru centrele de supercalculatură. Asta se schimbă rapid.

Clusterele de antrenament AI care utilizează GPU-uri NVIDIA H100 sau viitoarele B200 generează 30-50 de kilowați per rack în configurații pur răcite cu aer. La aceste densități, răcirea cu aer necesită debite mari de aer - ventilatoare puternice, rafturi adânci și control termic încă marginal.

Răcirea cu lichid direct-to-chip elimină 60-80% din căldură la sursă. Chipsurile sunt mai reci. Ventilatoarele merg mai încet. Aparatul de aer condiționat din cameră gestionează doar căldura rămasă de la sursele de alimentare, memorie și alte componente.

Câștigul de eficiență este substanțial. Instalațiile cu răcire direct-to-chip raportează valori PUE de 1,1 până la 1,2. Compensațiile sunt costul de capital mai mare, gestionarea mai complexă a scurgerilor și nevoia de tratare a apei la nivel de instalație.

Răcirea prin imersie completă - scufundarea serverelor întregi în fluid dielectric - împinge PUE sub 1,1, dar rămâne specializată. Majoritatea centrelor de date comerciale vor adopta mai întâi răcirea direct-to-chip, apoi imersiunea pentru anumite zone de înaltă densitate.

Platforma centrului de date SHANGYU include prevederi atât pentru arhitecturi de răcire cu aer, cât și cu lichid, recunoscând că viitoarele implementări de mare densitate vor necesita un management termic bazat pe fluide, indiferent de proiectarea instalației.

Decalajul managementului: de la reactiv la predictiv

Majoritatea echipelor de operațiuni ale centrelor de date încă lucrează în mod reactiv. Se aude o alarmă. Cineva investighează. Se aplică o remediere. Ciclul se repetă.

Tranziția la managementul predictiv necesită trei capabilități de care multe organizații le lipsesc.

Date de configurare complete.A ști ce se află în centrul de date - fiecare server, fiecare comutator, fiecare PDU, fiecare unitate de răcire - este fundația. Fără date exacte CMDB, planificarea capacității este o presupunere.

Telemetrie granulară.Măsurarea puterii la nivel de rack este minimă. Măsurarea puterii pe server este mai bună. Atribuirea puterii la nivel de sarcină de muncă este cea mai bună, dar cel mai greu de realizat.

Analize care disting semnalul de zgomot.O creștere a temperaturii la un rack poate însemna un ventilator defect. O creștere a temperaturii în jumătate din centrul de date ar putea însemna o defecțiune a răcitorului. Sistemul trebuie să diferențieze și să recomande răspunsurile în consecință.

Platforma DCIM de la SHANGYU oferă suport pentru dispozitive SNMP și Modbus, interfețe bazate pe web și aplicații Windows și integrare cu camere de rețea pentru imagini declanșate de evenimente. Obiectivele declarate sunt simple: reducerea timpului de nefuncționare costisitor, reducerea costurilor zilnice de operare printr-un control complet al mediului și îmbunătățirea vizibilității și a trasabilității managementului.

De ce contează acest lucru dincolo de etajul centrului de date

Consumul de energie al centrului de date reprezintă aproximativ 1% din cererea globală de energie electrică. Acest număr sună mic până când este pus în context. Este aproximativ echivalent cu consumul total de electricitate al Regatului Unit.

Mai important, ritmul de creștere se accelerează. Proiecțiile din industrie arată că cererea de energie pentru centrele de date crește cu 10-15% anual până în 2030, determinată de AI, adoptarea cloudului și extinderea continuă a dispozitivelor conectate. În acest ritm, centrele de date ar consuma 3-4% din electricitatea globală până la sfârșitul deceniului.

Câștigurile de eficiență care au menținut constant consumul de energie pentru deceniul precedent au venit din virtualizarea serverelor (reducerea numărului de servere fizice), eficiența îmbunătățită a unității (trecerea de la discuri rotative la SSD) și implementarea largă a răcirii libere (folosind aer exterior în loc de refrigerare mecanică). Acele fructe de jos au fost culese în mare parte.

Următorul val de eficiență va veni de la răcirea lichidă, distribuția de tensiune mai mare, controalele de răcire optimizate pentru AI și, poate cel mai important, o mai bună aliniere între capacitatea infrastructurii și sarcina reală IT. Această ultimă piesă necesită tipul de vizibilitate în timp real și analiză predictivă pe care sistemele DCIM le oferă, dar puține facilități le folosesc pe deplin.

Câteva întrebări care merită puse despre propria infrastructură

Știți PUE-ul dvs. real, nu numărul de pe fișa de specificații?Dacă nu ați măsurat la ieșirea UPS și la intrarea echipamentului IT, nu știți. Diferența este totalitatea ta reală.

Sistemele dumneavoastră de răcire se luptă între ele?În multe centre de date, unitățile CRAC sunt setate cu benzi de temperatură și umiditate suprapuse. O unitate dezumidifică, în timp ce alta umidifică. Unul se răcește în timp ce altul se reîncălzește. Acest lucru nu este neobișnuit. De asemenea, nu este eficient.

Care este consumul de energie inactiv al serverelor dvs.?Datele din industrie arată că serverele obișnuite de întreprindere consumă 30-40% din puterea maximă atunci când nu fac nimic. Închiderea sau punerea în stare de repaus a serverelor neutilizate este cea mai mare măsură de rentabilitate a investiției disponibilă. Este, de asemenea, cel mai trecut cu vederea.

Ați putea crește temperatura aerului de alimentare cu două grade fără a încălca specificațiile echipamentului?Probabil că da. Majoritatea echipamentelor sunt evaluate pentru temperaturi de admisie de 25-27 de grade. Majoritatea centrelor de date funcționează la 20-22 de grade. Acel decalaj de șase grade reprezintă ani de energie de răcire inutilă.

Când ați validat ultima dată eficiența UPS-ului?Eficiența plăcuței de identificare este măsurată la sarcină maximă cu un factor de putere perfect. Eficiența reală la sarcină parțială cu factor de putere real poate fi cu 5-10 puncte mai mică.





Anterior:Nicio știre
Următorul:Nicio știre

Trimite o anchetă

X
Folosim cookie-uri pentru a vă oferi o experiență de navigare mai bună, pentru a analiza traficul site-ului și pentru a personaliza conținutul. Prin utilizarea acestui site, sunteți de acord cu utilizarea cookie-urilor. Politica de confidențialitate