Cooles Effizienzpotenzial

Die am effizientesten eingesparte Energie ist die, die man gar nicht erst verbraucht. Bei den Dimensionen, in denen Datacenter heutzutage dank Cloud, Big Data und Digitalisierung gedacht und gebaut werden müssen, hängt ihre Wirtschaftlichkeit auch in hohem Masse von ihrer Energieeffizienz ab.

IT-Infrastrukturen sind mittlerweile ebenso unverzichtbar wie das Stromnetz oder die Verkehrswege. Anstelle, dass jedes Unternehmen seinen eigenen Serverraum betreibt, treten seit den Anfängen des IT-Outsourcings immer leistungsfähigere Datacenter und Rechenzentrumsverbünde. Sie sorgen für Daten- und Ausfallsicherheit der Informatik, für Skalierbarkeit und hohe Performance bei gleichzeitiger Kosteneffizienz. Mit der Zunahme von e-Commerce, dem Cloud-Computing, Big Data und der allgegenwärtigen Digitalisierung sämtlicher Branchen steigen Komplexität und Anforderungen an die Datacenter. Gleichzeitig gewinnen Fragen zur Nachhaltigkeit angesichts explodierender Energiekosten auch im Rechenzentrumsbetrieb an Bedeutung.

Neue Dimensionen – neue Anforderungen

Bereits beim Bau eines Rechenzentrums ist heutzutage zu berücksichtigen, dass sie für hoch skalierbare Dimensionen bei anhaltendem Wachstum konzipiert sein müssen. Wird ein RZ zu Beginn mit 150 virtuellen Maschinen in Betrieb genommen, muss es unter Umständen rasch auf 500 virtuelle Maschinen für eine Zunahme von Infrastructure- und Software-as-a-Services aufzurüsten sein. Und dabei darf es weder an Effizienz noch an Wirtschaftlichkeit verlieren. Grundlage dafür sind eine modulare, in allen Komponenten flexible IT-Architektur und automatisierte Prozesse. Auch für die Effizienzmaximierung kommen heutzutage bereits intelligente, automatisierte Energiemanagement-Lösungen zum Einsatz.

Doch Forschungsergebnisse zeigen, dass bereits die konsequente Trennung von Warm- und Kaltluft die Energieeffizienz positiv beeinflussen: Liegt die Power Usage Effectiveness (PUE), mit dem der Energieverbrauch eines RZ in Bezug auf den Bedarf des IT-Equipments dargestellt wird, herkömmlicherweise bei durchschnittlich 1.9, so lässt er sich mit dieser simplen Massnahme auf 1.48 senken. Werden zusätzlich die Einblastemperatur und die Energiedichte in den Racks erhöht, lässt sich der PUE-Wert sogar auf 1.23 reduzieren. Die Hardware verträgt Temperaturen bis 35 Grad; ideal sind 27 Grad, weil bei dieser Temperatur der Energieverbrauch für die Kühlung und die Drehzahl der Lüftung sich die Waage halten. Denn entscheidend ist immer der Verbrauch des Gesamtsystems.

Direkte Kühlung kann zur Senkung des Energieverbrauchs beitragen

Die Trennung von Warm- und Kaltluft kann durch weitere Massnahmen für eine verbesserte Energiebilanz optimiert werden. Für die Wahl der am besten geeigneten Methode spielen die Lage und die Grösse des Rechenzentrums eine wesentliche Rolle. Freie Kühlung beispielsweise hilft, den Energieverbrauch am Standort des RZ auf ein notwendiges Minimum zu reduzieren, ohne dabei Kompromisse bei der Sicherheit und Verfügbarkeit zu machen. Bei direkter freier Kühlung wird kalte Luft von aussen sozusagen durch das Rechenzentrum «geschoben»; dabei nimmt sie Wärme auf und befördert diese nach draussen. Energie wird lediglich für die Erzeugung des Luftstroms benötigt und damit weniger für die Kühlung selbst. Direkte freie Kühlung hat jedoch auch substanzielle Nachteile: Sie lässt sich schlecht nachrüsten, denn der nachträgliche Einbau von grossen Wandöffnungen beeinflusst die Sicherheit. In Gebieten mit hoher Schadstoffbelastung der Luft fällt sie als Option völlig aus. Doch auch andernorts ist in unseren Breitengraden die direkte Kühlung nicht immer die beste Wahl, die Wirksamkeit dieser Methode reduziert sich auch bei stark schwankender Luftfeuchte: Die Zuluft darf weder zu feucht noch zu trocken sein, da Kondensationseffekte einerseits und andererseits elektrostatische Aufladung in den IT-Systemen vermieden werden müssen.

Indirekte Kühlung setzt sich durch

Mehr und mehr setzt sich daher die indirekte Kühlung in vielen Rechenzentren durch. Sie ist zwar nicht so effizient wie die direkte Kühlung, da ein Wärmetauscher für den Übergang zwischen der Luft im RZ und der Aussenluft erforderlich ist, mit dem nicht nur Temperatur, sondern auch die Feuchtigkeit reguliert werden kann. Die bei der
direkten Kühlung genannten Nachteile fallen somit grösstenteils weg.

Ergänzt wird die indirekte Kühlung häufig durch so genannte Kaltgänge. Durch die Kaltgangeinhausung (Cold Aisle) wird die Trennung von Warm- und Kaltluftströmen noch weiter akzentuiert und damit die Kühlung noch nachhaltiger optimiert. Die Racks werden komplett mit beispielsweise Aluminiumprofilen, Decken- oder Wandplatten eingehaust. Auch doppelte Böden und das Design der Rack-Räume beeinflussen die Aero-und Thermodynamik. Generell ist festzuhalten: Je besser sich der Luftfluss kontrollieren lässt, je weniger Lecks es gibt und je strikter die Luftströme getrennt werden, desto besser die Energiebilanz. Durch Massnahmen wie diese hat T-Systems in der Schweiz den Energieverbrauch in ihren beiden Rechenzentren Langenthal und Zollikofen um ganze 2 GWh reduziert und damit einen sechsstelligen Frankenbetrag an Energiekosten eingespart. Die zwei Gigawatt Energie entsprechen immerhin dem Jahresverbrauch an Energie eines kleinen Dorfes mit ungefähr 500 Haushalten.

Software schlägt Hardware

Neben der baulichen Auf- oder Umrüstung von Rechenzentren spielt natürlich auch der Einsatz neuer, zunehmend energieverbrauchsärmerer Server und anderer Hardware eine Rolle. Während jedoch der Hardware allein schon rein physikalisch Grenzen in der Energieeffizienz gesetzt sind, versprechen Konzepte wie das Software Defined Datacenter einen neuen Schub in Richtung Green-IT. Beim Software Defined Datacenter (SDDC) sind nicht nur Rechenleistung und Speicherplatz virtualisiert, sondern auch Netzwerke und Sicherheitskomponenten.

Zugrunde liegen hier so genannte hyperkonvergente Infrastrukturen. Dieser alternative Ansatz soll Virtualisierung noch leichter, schneller und preiswerter machen. Vereinfacht gesagt, kombinieren hyperkonvergente Lösungen Server-, Netzwerk- und Storagekomponenten in vorkonfigurierter Form und mit einheitlicher Verwaltung über alle Ressourcen hinweg. Neue Server können nach dem Scale-out-Prinzip einfach bereitgestellt werden. Alles basiert auf Software, ist hochgradig standardisiert und automatisiert. Kombiniert mit Softwarelösungen für effizientes Energiemanagement ist eine weitere Optimierung der Energiebilanz abzusehen. Denn: Die am effizientesten eingesparte Energie ist die, die man gar nicht erst verbraucht.

Autor: Jürg Holzer, Head of Datacenter Operations, bei der T-Systems in der Schweiz

Download (PDF, 159KB)

%d Bloggern gefällt das: