Invia messaggio
Contattici
LEO

Numero di telefono : 13486085502

Uno sguardo alle tecnologie di raffreddamento di Data Center

August 31, 2021

Sabey ottimizza i centri dati raffreddati ad aria con contenimento
Da John Sasser

L'obiettivo unico della tecnologia di raffreddamento del centro dati è di mantenere le condizioni ambientali adatte per l'operazione dell'attrezzatura di tecnologia dell'informazione (ITE). Il raggiungimento del questo scopo richiede l'eliminazione del calore prodotto dal ITE ed il trasferimento del quel calore ad un certo dissipatore di calore. Nella maggior parte dei centri dati, gli operatori invitare il sistema di raffreddamento per funzionare continuamente ed attendibilmente.

Ricordo chiaramente una conversazione con un ingegnere meccanico che aveva azionato per molti anni i centri dati. Ha ritenuto che la maggior parte dei ingegneri meccanici vero non capissero le operazioni e la progettazione del centro dati. Ha spiegato che la maggior parte dei ingegneri di HVAC cominciano in ufficio o nella progettazione residenziale, mettente a fuoco sulla comodità che si raffredda, prima di entrare nella progettazione del centro dati. Ha pensato che i paradigmi che imparano in quei progetti di progettazione necessariamente non traducessero bene ai centri dati.

È importante da capire che quel raffreddamento della comodità non sia lo scopo primario dei sistemi di raffreddamento del centro dati, anche se il centro dati deve essere sicuro per la gente che lavora in loro. Infatti, per le aree è perfettamente accettabile (e tipico) all'interno di un centro dati essere scomodo per occupazione a lungo termine.

Come con tutto il sistema ben progettato, un sistema di raffreddamento del centro dati dovrebbe servire efficientemente la sua funzione. I centri dati possono essere molto energia intensiva ed è molto possibile che un sistema di raffreddamento usi tanto (o più) energia come i computer che sostiene. Per contro, un sistema di raffreddamento ben progettato ed azionato può usare soltanto una piccola frazione di energia usata da ITE.

In questo articolo, fornirò una certa storia sul raffreddamento del centro dati. Poi discuterò alcuni degli elementi tecnici del centro dati che si raffreddano, con un confronto delle tecnologie di raffreddamento del centro dati, compreso alcuno che utilizziamo nei centri dati di Sabey.

La fusione economica della legge di Moore
In presto a mid-2000s, i progettisti e gli operatori si sono preoccupati per la capacità delle tecnologie di raffreddamento a aria di raffreddare i server sempre più affamati di potere. Con le densità di progettazione che si avvicinano o che superano a 5 chilowatt (chilowatt) per gabinetto, alcuni hanno creduto che gli operatori dovessero ricorrere alle tecnologie quali gli scambiatori di calore della posteriore-porta ed altri generi di in-fila che si raffreddano per continuare con le densità aumentanti.

Nel 2007, Ken Brill dell'istituto Uptime notoriamente ha predetto la fusione economica della legge di Moore. Ha detto che la quantità aumentante di calore che deriva dalla misura sempre più dei transistor su un chip avrebbe raggiunto un punto finale a cui più non sarebbe stato economicamente fattibile da raffreddare il centro dati senza avanzamenti significativi nella tecnologia (si veda figura 1).

Figure 1. ASHRAE New Datacom Equipment Power Chart, published February 1, 2005

Figura 1. nuovo grafico di potere dell'attrezzatura di Datacom di ASHRAE, pubblicato il 1° febbraio 2005

Il congresso degli Stati Uniti anche ha ottenuto implicato. I leader nazionali avevano diventare coscienti dei centri dati e della quantità di energia che richiedono. Il congresso ha diretto gli Stati Uniti Protection Agency ambientale (EPA) presentare un rapporto sul consumo di energia del centro dati (diritto pubblico 109-341). Questa legge inoltre ha diretto il EPA per identificare le strategie di efficienza e per determinare il mercato per efficienza. Questo rapporto ha proiettato l'uso di energia notevolmente aumentante dai centri dati a meno che le misure fossero approntate per aumentare significativamente l'efficienza (si veda figura 2).

Figure 2. Chart ES-1 from EPA report dated (August 2, 2007)

Figura 2. grafico ES-1 dal rapporto di EPA datato (2 agosto 2007)

Il del 2014, la legge di Moore ancora non è venuto a mancare. Quando fa, l'estremità sarà un risultato delle limitazioni fisiche in questione nella progettazione dei chip e dei transistor, avendo niente a che fare con l'ambiente del centro dati.

A circa lo stesso tempo che EPA ha pubblicato il suo rapporto del centro dati, i leader del settore hanno preso nota delle edizioni di efficienza, produttori di ITE hanno cominciato a dare una maggior importanza su efficienza nelle loro progettazioni, oltre alla prestazione; ed i progettisti e gli operatori del centro dati hanno cominciato a progettare per l'efficienza come pure l'affidabilità e costo; e gli operatori hanno cominciato realizzare che quell'efficienza non richiede un sacrificio dell'affidabilità.

Raffreddamento dell'eredità e l'estremità del pavimento alzato
Per le decadi, i centri di calcolo ed i centri dati utilizzati hanno sollevato i sistemi del pavimento per consegnare l'aria fredda ai server. L'aria fredda da un operatore dell'aria del centro di calcolo del condizionatore d'aria (CRAC) o del centro di calcolo (CRAH) ha pressurizzato lo spazio sotto il pavimento alzato. Le mattonelle perforate hanno fornito i mezzi affinchè l'aria fredda lascino l'assemblea plenaria e per fornire lo spazio-ideale principale davanti alle assunzioni del server. Dopo il passaggio tramite il server, l'aria riscaldata restituita al CRAC/CRAH da raffreddare, solitamente dopo la mescolanza con l'aria fredda. Molto spesso, la temperatura di ritorno dell'unità di CRAC era il del punto vincente usata per controllare l'operazione del sistema di raffreddamento. La maggior parte i fan dell'unità di CRAC funzionino comunemente che ad una velocità costante e il CRAC ha avuto un umidificatore all'interno dell'unità che ha prodotto il vapore. Il beneficio primario di un pavimento alzato, da un punto di vista di raffreddamento, è di consegnare l'aria fredda in cui è necessario, con sforzo pochissimo, semplicemente scambiando le mattonelle solide per le mattonelle perforate (si veda figura 3).

Figure 3: Legacy raised floor cooling

Figura 3: L'eredità ha sollevato il raffreddamento del pavimento

Per molti anni, questo sistema era la progettazione più comune per i centri di calcolo ed i centri dati. Ancora è impiegato oggi. Infatti, ancora trovo molti operatori che sono sorpresi entrare in un centro dati moderno e non trovare il pavimento alzato e le unità di CRAC.

Il sistema legacy conta su uno dei principi di raffreddamento della comodità: consegni una quantità relativamente piccola di aria condizionata e lasci che piccolo volume di miscela condizionata dell'aria con il più grande volume di aria nello spazio per raggiungere la temperatura desiderata. Questo sistema ha funzionato giusto quando le densità di ITE erano basse. Le densità basse hanno permesso al sistema di rispondere il suo obiettivo principale malgrado la suoi efficienza del difetto-povero, raffreddamento irregolare, ecc.
A questo punto, è un'esagerazione da dire che il pavimento alzato è obsoleto. Le società ancora sviluppano i centri dati con la mandata aria sollevata del pavimento. Tuttavia, i centri dati sempre più moderni non hanno alzato semplicemente il pavimento perché le tecniche migliori di mandata aria lo hanno reso inutile.

Quanto freddo è abbastanza freddo?
«Afferri un rivestimento. Stiamo andando nel centro dati.»

Il calore deve essere rimosso dalla vicinanza delle componenti elettriche di ITE per evitare surriscaldare le componenti. Se un server ottiene troppo caldo, la logica a bordo lo spegnerà per evitare il danneggiamento del server.

Il comitato tecnico 9,9 (TC 9,9) di ASHRAE ha fatto il considerevole lavoro nell'area di determinazione degli ambienti adatti per ITE. Credo le loro pubblicazioni, particolarmente linee guida termiche per apparecchiature di elaborazione dati, ho facilitato la trasformazione dei centri dati «dagli armadi della carne» dei centri dati dell'eredità alle temperature più moderate. [La nota del redattore: La linea guida del comitato tecnico TC9.9 di ASHRAE raccomanda che l'entrata del dispositivo sia fra 18-27°C e 20-80% umidità relativa (RH) per rispondere ai criteri stabiliti del produttore. L'istituto Uptime più ulteriormente raccomanda che il limite superiore sia ridotto a 25°C per tenere conto i ribaltamenti, circostanze variabili in funzione, o per compensare gli errori inerenti ai sensori di temperatura e/o ai sistemi di controllo.]

È estremamente importante capire che le linee guida di TC 9,9 siano basate sulle temperature del server delle temperature-non dell'entrata del server, non sulle temperature ambienti e certamente non sulle temperature di scarico interne del server. È inoltre importante capire i concetti delle circostanze raccomandate e permissibili.
Se un server è tenuto troppo caldo, ma non così caldo che spegne stesso, la sua durata della vita potrebbe essere ridotta. In linea generale, questa riduzione di durata della vita è una funzione delle temperature elevate le esperienze del server e la durata di quell'esposizione. Nella fornitura dell'immagine permissibile più vasta, ASHRAE IL TC 9,9 suggerisce che ITE possa essere esposto ogni anno alle più alte temperature per più ore.

Dato che la tecnologia rinfresca può accadere spesso quanto ogni 3 anni, operatori di ITE dovrebbe considerare quanto pertinente la riduzione di durata della vita è alle loro operazioni. La risposta può dipendere dai particolari di una situazione data. In un ambiente omogeneo con una velocità di rinfrescamento di 4 anni o di di meno, il tasso di aumento di guasto le temperature può essere insufficiente per determinare la progettazione-particolare di raffreddamento se il produttore autorizzerà il ITE alle più alte temperature. In un ambiente misto con attrezzatura delle durate previste più lunghe, le temperature possono autorizzare l'esame accurato aumentato.

Oltre alla temperatura, l'umidità e la contaminazione possono colpire ITE. L'umidità e la contaminazione tendono a colpire soltanto ITE quando il ITE è esposto ai termini inaccettabili per un lungo periodo di tempo. Naturalmente, in casi estremi (se qualcuno scaricasse un secchio dell'acqua o della sporcizia su un computer) si penserebbe vedere un effetto immediato.

La preoccupazione circa bassa umidità comprende lo scarico elettrostatico (ESD). Poichè la maggior parte della gente ha sperimentato, in un ambiente con meno umidità nell'aria (umidità più bassa), gli eventi di ESD sono più probabili. Tuttavia, le preoccupazioni di ESD si sono riferite a bassa umidità in un centro dati in gran parte debunked. «Nei comandi di umidità per i centri dati – sono necessarie» (giornale di ASHRAE, marzo 2010), Mark Hydeman e David Swenson ha scritto che il ESD non era una minaccia reale contro ITE, finchè è restato nel telaio. Dal retro, il controllo di umidità stretto non è garanzia della protezione contro ESD per ITE con la sua intelaiatura rimossa. Un tecnico che rimuove l'intelaiatura per lavorare alle componenti dovrebbe usare una cinghia di polso.

L'alta umidità, d'altra parte, sembra posare una minaccia realistica contro ITE. Mentre la condensazione non dovrebbe definitivamente accadere, non è una minaccia significativa nella maggior parte dei centri dati. La minaccia primaria è qualcosa particelle di polvere igrometriche chiamate. Basicamente, il più alta umidità può fare la polvere nell'aria più probabilmente per attaccare alle componenti elettriche nel computer. Quando la polvere attacca, può ridurre il trasferimento di calore e possibilmente la corrosione di causa a quelle componenti. L'effetto di trasferimento di calore riduttore è molto simile a quello causato dalle temperature elevate.

Ci sono parecchie minacce relative a contaminazione. La polvere può ricoprire i componenti elettronici, riducenti il trasferimento di calore. Determinati tipi di polveri, hanno chiamato le basette dello zinco, sono conduttivi. Le basette dello zinco sono state trovate il più comunemente in piastrelle per pavimento alzate elettrolitiche. Le basette dello zinco possono diventare disperse nell'aria ed atterrare dentro un computer. Poiché sono conduttive, possono realmente causare il danno mettono nelle componenti interne minuscole. L'istituto Uptime ha documentato questo fenomeno in una carta intitolata «basette dello zinco che crescono sulle mattonelle del Alzare-pavimento sta causando i guasti e gli arresti conduttivi dell'attrezzatura.»

Oltre alle minacce posate tramite contaminazione polverizzata fisica, ci sono minacce relative a contaminazione gassosa. Determinati gas possono essere corrosivi ai componenti elettronici.

Processo di raffreddamento
Il processo di raffreddamento può essere rotto nei punti:

1. Raffreddamento del server. Rimuovendo calore da ITE

2. Raffreddamento dello spazio. Rimuovendo calore dallo spazio che alloggia il ITE

3. Rifiuto di calore. Rifiuto del calore ad un dissipatore di calore fuori del centro dati

4. Condizionamento fluido. Liquido di tempera e di ritorno allo spazio bianco, per mantenere appropriato
termini all'interno dello spazio.

Raffreddamento del server
ITE genera il calore come i componenti elettronici all'interno dell'elettricità di uso di ITE. È fisica newtoniana: l'energia nell'elettricità ricevuta è conservata. Quando diciamo un server usa l'elettricità, noi significa che le componenti del server efficacemente stanno cambiando lo stato dell'energia proveniente dall'elettricità per riscaldare.

Trasferimenti di calore da un solido (la componente elettrica) ad un fluido (tipicamente aria) all'interno del server, spesso via un altro solido (dissipatori di calore all'interno del server). I fan di ITE estraggono l'aria attraverso le componenti interne, facilitanti questo trasferimento di calore.

Alcuni sytems usano i liquidi per assorbire e portare il calore da ITE. In generale, i liquidi eseguono più efficientemente questa funzione dell'aria. Ho visto tre tali sytems:

• Contatto liquido con un dissipatore di calore. Un liquido attraversa un server e stabilisce il contatto con un dissipatore di calore dentro l'attrezzatura, il calore assorbente e l'eliminazione dal ITE.

• Raffreddamento di immersione. Le componenti di ITE sono immerse in un liquido non conduttivo. Il liquido assorbe il calore e lo trasferisce a partire dalle componenti.

• Liquido dielettrico con il cambiamento di stato. Le componenti di ITE sono spruzzate con un liquido non conduttivo. Lo stato liquido dei cambiamenti ed elimina il calore ad un altro scambiatore di calore, in cui il liquido rifiuta il calore e lo stato dei cambiamenti nuovamente dentro un liquido.

In questo articolo, metto a fuoco sui sistemi connessi con ITE raffreddato ad aria, poichè quello è di gran lunga il metodo più comune impiegato nell'industria.

Raffreddamento dello spazio
Nelle progettazioni del centro dati dell'eredità, l'aria riscaldata dalle miscele dei server con l'altra aria nello spazio e finalmente fa il suo modo di nuovo ad un'unità di CRAC/CRAH. L'aria trasferisce il suo calore, via una bobina, ad un liquido all'interno del CRAC/CRAH. Nel caso di un CRAC, il liquido è un refrigerante. Nel caso di un CRAH, il liquido è l'acqua raffreddata. Il refrigerante o ha raffreddato l'acqua rimuove il calore dallo spazio. L'aria che esce dal CRAC/CRAH ha spesso una temperatura di scarico di 55-60°F (13-15.5°C). Il CRAC/CRAH fornisce l'aria in un'assemblea plenaria-tipico sollevata del pavimento che usando i fan a velocità costante. La configurazione standard di CRAC/CRAH da molti produttori e progettisti controlla il raffreddamento dell'unità basato sulla temperatura dell'aria di ritorno.

Opzioni di rifiuto di calore e della disposizione
Mentre il raffreddamento libero sollevato del pavimento ha funzionato okay negli spazi a bassa densità in cui nessuna attenzione pagata ad efficienza, non potrebbe rispondere alle esigenze di densità aumentante del calore ed efficienza-al più minimo non come era stata usata storicamente. Sono stato nei centri dati dell'eredità con i calibri della temperatura ed ho misurato le temperature intorno a 60°F (15.5°C) alla base di uno scaffale e delle temperature vicino a 80°F (26°C) alla cima dello stesso scaffale ed inoltre ha calcolato PUEs ben oltre due.

La gente ha cominciato ad impiegare i best practice e le tecnologie compreso le navate laterali calde e le navate laterali fredde, assemblee plenarie di ritorno del soffitto, ha alzato la gestione del pavimento ed i pannelli di soppressione del server per migliorare la prestazione di raffreddamento negli ambienti sollevati del pavimento. Questi metodi sono definitivamente utili e gli operatori dovrebbero usarli.

Verso il 2005, i professionisti di progettazione e gli operatori hanno cominciato a sperimentare con l'idea di contenimento. L'idea è semplice; usi una barriera fisica per separare l'aria di assunzione fresca del server dall'aria di scarico riscaldata del server. Impedendo l'aria fresca del rifornimento e l'aria di scarico riscaldata la mescolanza fornisce una serie di benefici, includenti:

• Temperature dell'aria di ingresso dell'aria più coerenti

• La temperatura di aria fornita allo spazio bianco può essere sollevata, migliorando le opzioni per efficienza

• La temperatura di aria che ritorna alla bobina è più alta, che la fa tipicamente funzionare più efficientemente

• Lo spazio può accomodare l'attrezzatura più ad alta densità

Nel migliore dei casi, in un ambiente contenuto, l'aria lascia l'attrezzatura di movimentazione dell'aria ad una temperatura e ad un'umidità adatte ad operazione di ITE. L'aria passa soltanto una volta con il ITE e poi ritorna all'attrezzatura di movimentazione dell'aria per condizionare.

Contenimento caldo della navata laterale contro contenimento freddo della navata laterale
In un sistema di contenimento freddo della navata laterale, l'aria fresca dagli operatori dell'aria è contenuta, mentre l'aria di scarico calda del server è permessa ritornare liberamente agli operatori dell'aria. In un sistema di contenimento caldo della navata laterale, l'aria di scarico calda è contenuta e ritorna agli operatori dell'aria, solitamente via un'assemblea plenaria di ritorno del soffitto (si veda figura 4).

Figure 4: Hot Aisle containment

Figura 4: Contenimento caldo della navata laterale

Il contenimento freddo della navata laterale può essere molto utile in una modifica sollevata del pavimento, particolarmente se non c'è assemblea plenaria di ritorno del soffitto. In tal caso, potrebbe essere possibile lasciare i gabinetti più o meno mentre sono, finchè sono in una navata laterale fredda/disposizione calda della navata laterale. Uno sviluppa il sistema di contenimento intorno alle navate laterali fredde attuali.

La maggior parte dei ambienti freddi di contenimento della navata laterale sono usati insieme con il pavimento alzato. È inoltre possibile usare il contenimento freddo della navata laterale con un altro delivery system, quale canalizzazione sopraelevata. L'opzione sollevata del pavimento tiene conto una certa flessibilità; è molto più difficile da muovere una condotta, una volta che è installata.

In un ambiente sollevato del pavimento con i baccelli freddi multipli della navata laterale, il volume di aria fredda consegnato ad ogni baccello dipende in gran parte dal numero delle piastrelle per pavimento spiegate all'interno di ciascuna delle aree di contenimento. A meno che uno costruisca un pavimento alzato estremamente alto, la quantità di aria che può andare ad un baccello dato sta andando essere limitata. Gli alti pavimenti alzati possono essere costosi costruire; il ITE pesante deve andare sopra il pavimento alzato.

In un centro dati freddo di contenimento della navata laterale, si deve supporre tipicamente che i requisiti del flusso d'aria di un baccello non varieranno significativamente in maniera regolare. Non è pratico commutare frequentemente fuori le piastrelle per pavimento o persino regolare gli ammortizzatori della piastrella per pavimento. In alcuni casi, un sistema di software che usa il CFD che modella per determinare i flussi d'aria basati su informazioni in tempo reale può poi controllare per ventilare le velocità del fan dell'operatore nel tentativo d'ottenere la giusta quantità di aria ai baccelli giusti. Ci sono limiti a quanta aria può essere consegnata ad un baccello con tutta la configurazione data delle mattonelle; uno deve ancora provare ad avere circa la giusta quantità di piastrelle per pavimento nella posizione adeguata.

Riassumendo, il contenimento freddo della navata laterale funziona il meglio nelle istanze dove il progettista e l'operatore hanno fiducia nella disposizione dei gabinetti di ITE e nelle istanze dove il caricamento del ITE non cambia molto, né variano ampiamente.

Preferisco il contenimento caldo della navata laterale nei nuovi centri dati. Il contenimento caldo della navata laterale aumenta la flessibilità. In un centro dati caldo correttamente progettato di contenimento della navata laterale, gli operatori hanno più flessibilità nel contenimento di spiegamento. L'operatore può spiegare un baccello pieno o i gabinetti del camino. Le disposizioni del gabinetto possono variare. Uno collega semplicemente il baccello o il camino all'assemblea plenaria ed ai tagli del soffitto o che rimuove le mattonelle del soffitto per permettere che l'aria calda la entri.

In un ambiente caldo correttamente controllato di contenimento della navata laterale, il ITE determina quanta aria è necessaria. C'è una flessibilità significativa nella densità. Il sistema di raffreddamento sommerge la stanza da aria temperata. Mentre l'aria è rimossa dal lato fresco della stanza dai fan del server, l'area di pressione più bassa induce più aria a scorrere per sostituirla.

Nel migliore dei casi, la stanza del server ha una grande, assemblea plenaria aperta del soffitto, con chiaro ritorna all'attrezzatura di movimentazione dell'aria. È più facile avere una grande, assemblea plenaria aperta del soffitto che un grande, pavimento alzato aperto, perché l'assemblea plenaria del soffitto non deve sostenere i gabinetti del server. Gli operatori dell'aria rimuovere aria dall'assemblea plenaria di ritorno del soffitto. Sabey controlla tipicamente la velocità del fan basata su pressione differenziale (DP) fra lo spazio aereo fresco e l'assemblea plenaria di ritorno del soffitto. Tentativi di Sabey di tenere il DP leggermente negativo nell'assemblea plenaria di ritorno del soffitto, riguardo allo spazio aereo fresco. In questo modo, tutte le piccole perdite nel contenimento inducono l'aria fresca ad entrare in assemblea plenaria. La rampa di fan dell'operatore dell'aria verso l'alto o verso il basso per mantenere il flusso d'aria adeguato.

Il contenimento caldo della navata laterale richiede uno schema di controllo molto più semplice e fornisce le disposizioni più flessibili del gabinetto che un sistema di contenimento freddo tipico della navata laterale.

In un esempio piuttosto estremo, Sabey ha spiegato sei scaffali del cliente in uno spazio 6000 pi2 che tira un poco più di 35 chilowatt (chilowatt) per scaffale. Gli scaffali tutti sono stati disposti in una fila. Sabey ha conceduto circa 24 pollici fra gli scaffali ed ha costruito un baccello caldo di contenimento della navata laterale intorno loro. Molti centri dati avrebbero difficoltà che accomoda tali scaffali ad alta densità. Un'utilizzazione più tipica nello stesso spazio potrebbe essere 200 scaffali (30 pi2 per scaffale) a 4,5 kW/rack. All'infuori della costruzione del baccello, Sabey non ha dovuto prendere alcuna specie delle misure su ordinazione per il raffreddamento. La sequenza delle operazioni ha funzionato come previsto, semplicemente arrampicandosi i fan dell'operatore dell'aria un pezzo per compensare il flusso d'aria aumentato. Questi scaffali stanno funzionando bene per quasi un anno.

I sistemi di contenimento caldi della navata laterale tendono a fornire gli più alti volumi di aria condizionata confrontata a contenimento freddo della navata laterale, che è un beneficio secondario. In un sistema di contenimento freddo della navata laterale, il volume di aria in un centro dati in qualunque momento è il volume di aria nell'assemblea plenaria del rifornimento (se quello è un pavimento alzato o condotta sopraelevata) e la quantità di aria nelle navate laterali fredde contenute. Questo volume è tipicamente di meno che il volume nel resto della stanza. In un sistema di contenimento caldo della navata laterale, la stanza è sommersa da aria. Il volume di aria calda è in genere limitato all'aria dentro il contenimento caldo della navata laterale e l'assemblea plenaria di ritorno del soffitto.

Il contenimento caldo della navata laterale inoltre permette che gli operatori rimuovano il pavimento alzato dalla progettazione. L'aria temperata sommerge la stanza, spesso dal perimetro. Il contenimento evita la mescolanza, in modo dall'aria non deve essere consegnata immediatamente davanti al ITE. L'eliminazione del pavimento alzato riduce i costi iniziali e l'emicrania continua della gestione.

C'è un fattore che potrebbe condurre gli operatori a continuare ad installare il pavimento alzato. Se si anticipa refrigerante di liquidi diretto durante la durata della vita del centro dati, un pavimento alzato può fare una posizione molto buona per la conduttura necessaria.

Raffreddamento Fine-accoppiato
Ci sono altri metodi di eliminazione del calore dagli spazi bianchi, compreso la in-fila e le soluzioni del in-gabinetto. Per esempio, gli scambiatori di calore della posteriore-porta accettano il calore dai server e lo rimuovono da un centro dati via un liquido.

i dispositivi di raffreddamento di In-fila sono disposti vicino ai server, tipicamente come pezzo di attrezzatura disposto in una fila dei gabinetti di ITE. Ci sono inoltre sistemi che sono situati sopra i gabinetti del server.

Questi sistemi di raffreddamento fine-accoppiati riducono l'energia del fan richiesta per muovere l'aria. Questi tipi di sistemi non mi colpiscono come essendo ottimali per il modello aziendale di Sabey. Credo che un tal sistema probabilmente sia stato più costoso e meno flessibile che le disposizioni calde di contenimento della navata laterale per l'accomodazione dei requisiti di cliente futuri sconosciuti, che è importante per l'operazione di Sabey. le soluzioni di raffreddamento Fine-accoppiate possono avere buone applicazioni, quale densità aumentante nei centri dati dell'eredità.

Rifiuto di calore
Dopo che il calore del server è rimosso da uno spazio bianco, deve essere rifiutato ad un dissipatore di calore. Il dissipatore di calore più comune è l'atmosfera. Altre scelte comprendono le masse di acqua o la terra.

Ci sono vari metodi di trasferimento del calore del centro dati al suo ultimo dissipatore di calore. Qui è una lista parziale:

• Unità di CRAH con i refrigeratori raffreddati ad acqua e le torri di raffreddamento

• Unità di CRAH con i refrigeratori raffreddati ad aria

• Spacchi le unità del sistema CRAC

• Unità di CRAC con le torri di raffreddamento o i dispositivi di raffreddamento fluidi

• Liquido pompato (per esempio, dalla in-fila che si raffredda) e torri di raffreddamento

• Economia di Airside

• Economia di Airside con il raffreddamento per evaporazione diretto (dicembre)

• Raffreddamento per evaporazione indiretto (IDEC)

Raffreddamento dell'economizzatore
La maggior parte dei sistemi legacy comprendono certa forma adi ciclo termodinamico basato a refrigerante per ottenere le condizioni ambientali desiderate. L'economia sta raffreddandosi in cui il ciclo del refrigerante è girato fuori qualsiasi parte o tutto tempo.

Gli economizzatori di Airside estraggono l'aria esterna nel centro dati, che è mescolato spesso con aria di ritorno per ottenere le condizioni buone, prima di entrare nel centro dati. IDEC è una variazione di questo in cui l'aria esterna non fornisce il centro dati ma riceve il calore dall'aria interna via uno scambiatore di calore solido.

Sistema di raffreddamento per evaporazione (diretto o indiretto)