SWEP verwendet Cookies, um Ihnen den Besuch unserer Web-Seiten so angenehm wie möglich zu machen. Durch die Nutzung unseres Services gehen wir davon aus, dass Sie der Verwendung von Cookies zustimmen. Weitere Informationen zum Datenschutz erhalten Sie in unserer Datenschutzerklärung.

Kompakte Wärmerückgewinnung für Rechenzentren mit niedrigen PUE-Werten (Power Usage Effectiveness) und hoher Rechenleistung

Contact us

Optimierte Kühllösungen mit geringem Platzbedarf

In der schnelllebigen Welt der Hochleistungs-Rechenzentren und Serverfarmen sind effizientes Temperaturmanagement und Lösungen zur Wärmerückgewinnung von entscheidender Bedeutung. Die Wärmeübertrager von SWEP zeichnen sich durch hocheffiziente und gleichzeitig kompakte Lösungen aus, die keine Kompromisse beim Platzbedarf erforderlich machen.


Anwendungen, bei denen SWEP-Lösungen zur Kühlung von Rechenzentren eingesetzt werden

Lösungen für Flüssig- und Zweiphasen-CDUs

Optimierte Lösungen mit Kälteanlagen

Sparen Sie Energie und Platz mit Lösungen für die "Freie Kühlung"

 


Gehen Sie bei der Energieeffizienz keine Kompromisse ein!

Holen Sie sich einige der besten Tipps und zukunftsweisenden Lösungen von SWEP für Energiemanager von Rechenzentren

 

Top-Tipps herunterladen

 

 

 

CDUs zur Kühlung von Rechenzentren

Flüssig-CDUs zur Kühlung von Rechenzentren

Ungenutzte Flächen in Rechenzentren sind teuer und Platzoptimierung ist ein Muss. Die gelötete Plattentechnologie von SWEP ermöglicht ultrakompakte Reihen- oder Rack-CDUs mit hervorragender Kühlleistung. Darüber hinaus ermöglichen unsere Wärmeübertrager mit der Durchfluss-Umlenkung (2-Pass) eine nahezu doppelte thermische Leistung bei gleicher Stellfläche und kleinstmöglichen Abständen.

Das SWEP-Sortiment an Wärmeübertragern für den Einsatz mit 2-phasigen Kältemitteln ist unübertroffen. CDUs mit einer kondensierenden Flüssigkeit erfordern eine präzise und auf Ihre Anwendungsanforderungen abgestimmte Auswahl. Diese gelöteten Wärmetauscher können ganz einfach in unserer auf realen Tests basierenden Auslegungssoftware SSP simuliert werden, wodurch eine korrekt optimierte und zuverlässige Leistung für Ihre Systembedingungen erreicht wird.

 

SWEP bietet ein umfassendes Sortiment an Wärmeübertragern für Flüssig-CDU-Systeme.

  • Leistungsbereiche Flüssigkeitskühlung basierend auf Wasser oder Propylenglykol (30 %)
    • Zulauftemperatur Wasser 25 °C
    • Zulauftemperatur Propylenglykol (30 %) 55 °C
  • Wenn Sie weitere Informationen oder Hilfe bei der Auswahl benötigen, wenden Sie sich bitte an SWEP.

 

 

SWEP bietet ein umfassendes Sortiment an Wärmeübertragern für Zweiphasen-CDU-Systeme

  • Zweiphasen-Kühlung basierend auf einem Kältemittelzulauf-Temperaturbereich von 16 - 20 °C
  • Module erhältlich in Kondensator- oder Kaskadenausführung
  • Wenn Sie weitere Informationen oder Hilfe bei der Auswahl benötigen, wenden Sie sich bitte an SWEP.

 

 


Mechanische Kühlung

Optimierte Lösungen mit Kälteanlagen

Die breite SWEP-Palette an gelöteten Verdampfern für Kälteanlagen kombiniert innovative Platten- und Verteilungstechnologien, um Leistung und Wirkungsgrad zu maximieren. Wir arbeiten mit allen gängigen und einigen seltenen Kältemitteln, sowie mit A2L und A3, was uns zum idealen Partner für Kühlaggregate für Rechenzentren macht. Die gelöteten Plattenwärme-Übertrager eignen sich auch perfekt für Anwendungen wie Kondensatoren oder Economiser sowie für die Wärmerückgewinnung mit Einzel- oder Doppelwandtechnologie.

 

SWEP bietet Verdampfer mit Verteilungssystemen, die für eine Vielzahl von Kältemitteln und Anwendungen optimiert sind.

Die folgenden Diagramme zeigen geeignete SWEP-Verdampfer basierend auf der Kühlaggregat-Systemkapazität für R134a und R410A

Trane: Einhalten und Übertreffen der Ökodesign-Richtlinien um bis zu 20 % mit SWEP Tauschern

Der führende RLT-Systemhersteller Trane setzt auf die True Dual DFX650 von SWEP, um die auf den SEER-Werten (Seasonal Energy Efficiency Ratio) basierende Ökodesign-Richtlinien nicht nur einzuhalten, sondern um bis zu 20 % zu übertreffen und den Energieverbrauch seiner Kunden zu senken.

Die Ökodesign-Richtlinie betrifft alle Branchen, indem sie unter anderem Mindeststandards für die Energieeffizienz von luftgekühlten Kühlaggregate und Wärmepumpen festlegt. Schätzungen zufolge spart diese Vorgehensweise den Europäern durchschnittlich 490 € pro Jahr bei ihren Energierechnungen.

Lesen Sie hier das vollständige Fallbeispiel

 

 


Freie Kühlung/ Economiser

Energiesparende Effizienz bei der Kühlung

Energie kann eingespart werden, wenn die Umgebungsluft oder eine andere Kältequelle zum Kühlen der Serverschränke genutzt wird und das Kühlaggregat ausgeschaltet bleiben kann. Man spricht dann von „Freier Kühlung“. Unsere gelöteten Übertrager eignen sich dank des hohen thermischen Wirkungsgrads und der kompakten Bauform ideal als Zwischenkreis zur Trennung des externen Glykolkreislaufs vom internen Server-Kühlkreislauf.

Zur SWEP-Produktpalette gehört der weltgrößte kupfergelötete Plattenwärmeübertrager mit 6-Zoll-Anschlüssen, der pro Anschluss Volumenströme von 340 m³/h verarbeiten kann. Die kompakte Bauform der Tauscher ermöglicht auch einen modularen Aufbau und gewährleistet Zuverlässigkeit für einen höheren Wirkungsgrad bei Teillast sowie eine kostengünstige Redundanz.

Die Leistung der Tauscher von SWEP reicht bis weit in den Megawattbereich und bietet eine kompakte und kostengünstige Redundanz.

 
  • Leistungsbereiche Freie Kühlung basierend auf Wasser und Ethylenglykol (30 %)
    • Zulauftemperatur Wasser 16 °C
    • Zulauftemperatur Ethylenglykol (30 %) 13°C
  • Wenn Sie weitere Informationen oder Hilfe bei der Auswahl benötigen, wenden Sie sich bitte an SWEP.

Effiziente Kühlung der Infosys-Rechenzentren

Große Rechenzentren benötigen leistungsstarke Kühllösungen. Infosys Technologies Ltd., ein führendes IT-Unternehmen mit Hauptsitz in Bangalore, Indien, war auf der Suche nach mehreren kostengünstigen Lösungen mit hohem Wirkungsgrad. Projektleiter Herr Schneider entschied sich aufgrund der hohen Energieeffizienz und des zuverlässigen technischen Supports für gelötete Plattenwärmeübertrager von SWEP.

Dabei werden die SWEP-Tauscher eingesetzt, um das primäre und sekundäre Kühlsystem zu trennen, da der primäre Wasserzulauf aus einem Kühlturm erfolgt. Der sekundäre Zulauf, in den dieses Wasser eingeleitet werden sollte, läuft durch Kühlregister zur Versorgung von kritischen IT-Geräten.


Lesen Sie hier das vollständige Fallbeispiel

Der Kunde wollte Präzisionstechnologien zur Umweltkontrolle entwickeln, die in großen Rechenzentren und anderen unternehmenskritischen Bereichen eingesetzt werden sollten.

Mit zwei installierten Tauschern aus der B427-Baureihe von SWEP, wurde eine redundante Lösung möglich, die viel kleiner war, als der Kunde ursprünglich geplant hatte.

Lesen Sie hier das vollständige Fallbeispiel

FAQs


We have gathered some of the most common questions and answers relating to data center cooling. FAQ

Need more information? Find your local sales representative https://www.swep.net/company/contacts/

Data center cooling (short DCC) refers to the control of temperature inside a data center to give IT equipment optimal working temperature, for best efficiency and durability. Excessive heat can lead to significant stress that can lead to downtime, damage to critical components, and a shorter lifespan for equipment, which leads to increased capital expenditure. Not only that. Inefficient cooling systems can increase power costs significantly from an operational perspective.

  • A traditional DCC approach deals with Computer Room Air Conditioner (CRAC) in
    order to keep the room and its IT racks fresh. Very similarly, Computer Room Air
    Handlers (CRAH) centralize the cooling water production for multiple units and/or
    rooms. Cooling water might be issued by an adiabatic cooling tower, a dry cooler,
    which counts as free-cooling, or with a dedicated chiller when the climate is too
    warm.
  • Because air is a bad heat carrier, various improvements have been developed to
    increase cooling efficiency. Raised floor, hot aisle and/or cold aisle containment,
    and in-row up to In-rack cooling, have consistently decreased the losses.
  • While CRAH units and cooling towers have become legacy, water usage has been growing year after year to become a challenge. Water is sprayed in the air to dissipate heat better than in a dry cooler. With growing water scarcity, Water Usage Effectiveness (WUE) is now an important factor for the data center industry.
  • Liquid cooling is the most recent and advanced technology improvement and
    includes hybrid systems with integral coil or Rear Door Heat-Exchanger (RDHX), and Direct-to-Chip (DTC) while immersed systems offer the best possible Power Usage Efficiency (PUE) with highest energy density and unequaled WUE.

The cost of data center cooling depends on the type of data center, the Tier level, the location, design choices including cooling technology, etc. Total Cost of Ownership (TCO) and Return on Investment (ROI) are probably a better approach to get a full view on cost.

TCO comprises of three critical components:

  1. CAPEX (Capital Expenditure) The initial investment which takes Tier level, expected lifetime and design choices into consideration – the cost to build.
  2. OPEX (Operational Expenditure) Refers to the operating and maintenance costs and considerations like location and design choices, including PUE and cooling
    technology etc.
  3. Energy costs: since water scarcity and climate warming increase as well as fossil energy stocks decrease, increased attention should be given to Leadership in Energy and Environmental Design (LEED) certification.

These considerations lead to a more holistic view and better evaluation of ROI and strategic choices.

Water Usage Effectiveness (short WUE) is a simple rating in l/kWh comparing the annual data center water consumption (in liters) with the IT equipment energy consumption (in kilowatt hours). Water usage includes cooling, regulating humidity and producing electricity onsite. Uptime Institute claims that a medium-sized data center (15 MW) uses as much water as 3 average-sized hospitals or more than two 18-holes golf courses* While the demand is growing for more data centers, WUE becomes crucial while water scarcity becomes more and more common. As a result, data centers must rely on more sustainable cooling methods. Ramping up on renewable energies (solar and wind) also allows data centers to indirectly curb their water consumption while lowering carbon emissions.

Power Usage Effectiveness (short PUE) is a metric for the energy-efficiency of data centers; specifically how much energy is used by the computing equipment, in contrast to cooling and other overhead that supports the equipment. PUE is also the inverse Data Center Infrastructure Efficiency (DCIE). An ideal PUE is 1.0. Anything that isn’t considered a computing device in a data center (e.g. lighting, cooling, etc.) falls into the category of facility energy consumption. Traditional data centers score PUE around 1,7-1,8 or more while aisle containment lowers PUE down to 1,2. Liquid cooling technologies allow down to 1,05-1,1.

A Coolant Distribution Unit (short CDU) is a system that enables smaller, more efficient and more precise liquid cooling in a data center, often integrating facility water. The CDU circulates the coolant in a closed-loop system on the secondary side (cooling application) and utilizes facility water on the primary side. (heat rejection) A CDU has a pump, reservoir, power supply, control board, and a brazed plate heat exchanger (BPHE) as the key components. Filters, flow meters, pressure transducers, and other devices are also used for managing the operation of the CDU optimally. In-Rack CDUs are designed to integrate into a server chassis and distribute coolant to a series of servers or heat sources. In-Rack CDU offer up to 60-80kW of cooling capacity. These can feature redundant pump design, dynamic condensation-free control, automatic coolant replenishing, a bypass loop for stand-by operation, and automatic leak detection.Freestanding In-Row CDUs are larger and designed to manage high heat loads across a series of server chassis in data center. These full liquid cooling systems distribute coolant in and out of server chassis and can integrate into existing facility cooling systems or be designed to be fully self-contained. In-Row CDU capacity ranges typically around 300 kW with models up to 700 kW.

Direct-to-chip cooling (short DTC) utilizes cold plates in contact with hot components and removes heat by running cooling fluid through the cold plates. Cooling fluids can be a refrigerant (Direct expansion DX or 2-phase systems) or chilled water (single phase) in direct feed or via CDU. Practically, liquid cooled systems often have one or more loops for each server. In the GPU server (Graphic Processing Unit), there are five loops, so one needs a CDU for the rack. DTC extends cooling to CPU (Core Processing Unit), GPU, RAM (Random Access Memory) and NIC (Network Interface Card) for High-frequency trading, Hyperscale Computing, Rendering and Gaming, Supercomputer, Telecommunications, etc.

Immersion systems involve submerging the hardware itself into a bath of non-conductive and non-flammable liquid. Both the fluid and the hardware are contained within a leak-proof case. The dielectric fluid absorbs heat far more efficiently than air and is circulated to a BPHE where heat is transferred to the chilled facility water.

In a 2-phase system, the dielectric liquid is evaporated to vapor phase, re-condensed into liquid phase on top of the casing. Heat is captured by fluid’s evaporation and dissipated into the condenser toward chilled facility water. Because latent heat (phase change) is far more important than sensible heat (temperature change), data center density can reach unequaled level. Also, temperature stability is over the top since phase change occurs at constant temperature. Finally, peak loads are shaved by the thermal mass that the dielectric fluid volume represents.

An alternative system makes the dielectric fluid circulate inside the racks where IT equipment is enclosed into leakproof casings. More likely in single phase, dielectric fluid actively absorbs heat and is then cooled again in the CDU. As such, immersion cooling is the best data center cooling method, encouraging future applications like High Power Computing (HPC), machine learning Artificial Intelligence (AI), Crypto Money mining, Big data analytic programs, Internet of Things (IoT) with 5G and cloud computing deployment, etc.

Not necessarily. There is a significant quantity of copper in direct contact with the dielectric coolant, which is likely non-corrosive. Hence, copper-free BPHEs is not a must. Printed circuit boards (short PCB) are used in nearly all electronic products. This medium is used to connect electronic components to one another in a controlled manner. It takes the form of a laminated sandwich structure of conductive and insulating layers: each of the conductive layers is designed with an artwork pattern of traces, planes and other features (similar to wires on a flat surface) etched from one or more sheet layers of copper laminated onto and/or between sheet layers of a non-conductive substrate.

In Direct-to-Chip or DTC cooling, there is no direct contact between the electronics and the cooling fluid. It is crucial that the fluid is non-conductive in order to avoid perturbating the electronics operation and deionized water could be used. When reaching high purity and low electric conductivity (typically < 10 µS/cm), pure water becomes copper-corrosive.

When the DC uses evaporative or adiabatic cooling towers to reject heat, water is sprayed on the cooling air for better efficiency and resulting in a lower temperature than with a dry cooler. Unfortunately, in addition to water evaporation, salt concentration also increases to becoming fouling and corrosive. Water treatment then, becomes necessary, including water make-up for compensation, but associated operational cost rise. In order to limit this extra-cost, systems might be operated close to minimum water quality, which could result in copper-corrosive water. In these conditions, All-SS or copper-free BPHEs should be considered, but assessed case-by-case.

 


Request information