Skip to content

Marketing Diarrhö: „Energieeinsparpotential im Rechenzentrum mit Load Balancern“

by Natanael Mignon on März 6th, 2014

Die IntelliComp GmbH bescherte uns heute eine Case Study unter dem Titel „Adaptive Computing for Green Data Centers“. Ich weiß gar nicht, wo ich anfangen soll mit dem Augenrollen. Jedenfalls gibt es gute Gründe, dieses Mailing nur an Entscheider zu schicken, die weit weg sind von den Realitäten in Rechenzentren.

Im Anschreiben heißt es:

„Mit dem vorliegenden Lösungskonzept lassen sich Energieeinsparungen realisieren, die sich für ein modernes Rechenzentrum schnell im siebenstelligen Bereich p.a. bewegen können.“

Energieeinsparungen im siebenstelligen Bereich pro Jahr? Bitte welches Rechenzentrum wollen sie denn dafür abschalten?

Ja, mit Application Delivery Controllern optimieren auch wir die Anwendungsbereitstellung in der Form, dass Last von den Application Servern auf die hoch-optimierten ADCs verlagert wird. Die Stichworte gehen von SSL-Offloading über Caching und Compression bis zum Verbindungsmultiplexing von TCP bis Layer-7 (HTTP, TSQL u.a.). Einiges davon beherrschen auch die beworbenen ADCs von Array Networks, keine Frage, aber selbst mit NetScaler, der noch um einiges weiter geht in der Entlastung der Backends, ist das angedeutete Szenario ein wolkiges Luftschloss.

Im PDF zur Case Study heißt es in medias res dann auch:

Die erarbeiteten Konzepte wurden prototypisch implementiert und in Testrechenzentren in Betrieb genommen, sodass die möglichen Einsparpotentiale der Lösungen evaluiert werden konnten.

Aha. Graue Theorie und vermutlich hanebüchene Hochrechnungen. Aber damit sind wir noch immer nicht bei des Pudels Kern. Der folgt dann unter der Überschrift „Lösung“:

Durch das optimierte Zusammenspiel aller Teilgewerke eines Rechenzentrums, wie Kühlung und Stromabsicherung, Server und Speicher, Betriebssysteme und Dienste konnte die Energieeffizienz nachhaltig gesteigert werden.

Wolkig, schwammig und vor allem eine ganz andere Aussage als „mit Load Balancern siebenstellige Beträge an Energie sparen“.

Reality Check

Aus der Praxis und mit belegter Realität:

  • Es ist möglich nach dem Einsatz von NetScaler die selbe Benutzeranzahl auf einer Applikation mit nur noch vier statt siebzehn Servern zu bedienen (beispielhaftes Projekt).
  • Es ist realistisch, durch Caching über 70% weniger Requests auf die Application Server zu schicken.
  • Es ist realistisch, durch Compression über 80% Bandbreite zu den Clients einzusparen.
  • Es ist Realität, dass Application Server nur noch 20% so viele Verbindungen handeln müssen dank Multiplexing.

Aber solange ich nicht Amazon, Google oder Facebook betreibe, werde ich damit niemals so viele Systeme einsparen, dass ich nach Gegenrechnen der Mehrkosten und des Energiebedarfs der ADCs einen siebenstelligen Betrag an Energiekosten einspare. Selbst dort funktioniert es nicht, weil Applikationen in dieser Dimension überhaupt nicht funktionieren können ohne ADCs – es ist gar nicht berechenbar, wie viele Server ohne NetScaler bei Google oder Amazon nötig wären (Facebook setzt keine NetScaler ein, soweit ich weiß).

Was mit NetScaler und Cloud-Umgebungen (CloudPlatform, SCVMM, vCloud) tatsächlich möglich ist, ist die dynamische und automatische Skalierung von Anwendungen in Form von automatisiertem Starten und Stoppen von Application Servern (VMs), die in die Lastverteilung aufgenommen werden. Durch die zentrale Position im Application Traffic erkennt NetScaler Mehrbedarf oder Überprovisionierung an Backends und kann per API-Calls die Cloud Orchestrierung bitten, mehr oder weniger Server zur Verfügung zu stellen. Zusammen mit den Möglichkeiten der Plattformen, dann ganze Hypervisor-Hosts leerzuräumen und herunterzufahren, wird es dann schon interessant in Sachen passender Skalierung. Aber siebenstellig…