Innovative Cloud-Technologie plus Abwärmenutzungskonzept

Lernen Sie mehr über OpenStack, dem Herzstück unserer Cloud-Infrastruktur, erhalten Sie umfassende Informationen zu unserer innovativen Direkt-Heißwasserkühlung und erfahren Sie, wie wir die Abwärme unserer Rechenzentren zum Heizen Ihrer Büroräume und zur Warmwasseraufbereitung nutzbar machen.

Wir kühlen unsere Server mit Wasser.

Bereits seit Firmengründung setzen wir auf die Kühlung unserer Systeme mit Wasser. Unsere Kühltechnologie haben wir in den letzten Jahren kontinuierlich weiterentwickelt und betreiben in unserer neusten Servergeneration eine energie- und kosteneffiziente Heißwasser-Direktkühlung. Dabei wird dank der von uns entwickelten Pumpenbox 40 °C heißes Wasser so lange softwaregesteuert im Kreis geführt, bis eine Maximaltemperatur von 60 °C erreicht wird. Durch Zuführung des heißen Wassers in den hiesigen Heizkreislauf der Unternehmen, können Büro- und Geschäftsräume kosteneffizient und nachhaltig beheizt werden.
cnh_TDP-in-W_CPU

Wieso setzen wir auf das Kühlmedium „Wasser“?

Die Klimatisierung ist der größte Energieverbraucher in der Betriebstechnik eines Rechenzentrums. Nicht selten entfällt auf sie fast ein Drittel des Gesamtenergiebedarfs. Im Gegensatz zur klassischen Luftkühlung kann die Kühlleistung mit Wasser deutlich erhöht werden. Die Wärmeaufnahmekapazität von Wasser ist um den Faktor 3300 und die Wärmeleitfähigkeit in etwa 20-mal höher als die der Luft. Wasser kann demnach ein Vielfaches mehr an Wärme aufnehmen – dieser Effekt verstärkt sich, je näher das Kühlmedium an die Wärmequelle gelangt. Zudem lässt sich die durch das Wasser aufgenommene Abwärme einfacher zum Beheizen und zur Warmwasseraufbereitung bereitstellen. Gerade in Deutschland, das im europäischen Strompreisvergleich weit über dem durchschnittlichen Preisniveau liegt, stellt die Wasserkühlung gegenüber alternativen kostenineffizienten Kühlmedien eine nicht zu vernachlässigende Alternative dar.
20170929091612-cng_Blade-Schema

Wie funktioniert unsere innovative Heißwasserkühlung?

Jeder Serverbladeeinschub ist mit einem Wärmeabnehmer aus Kupfer ausgestattet, der direkt auf den Wärmehotspots liegt. Dank der direkten Kühlung kann nicht nur eine hohe Packungsdichte innerhalb des Serverracks realisiert werden, sondern auch eine erhebliche Reduzierung des Energieverbrauchs erreicht werden. Die entstehende Wärme kann durch das heiße Kühlwasser direkt von CPU, RAM und Chipsatz aus den Knoten abgeführt werden. So lassen sich Rücklauftemperaturen von bis zu 60 °C erreichen, die auf Wunsch zum Beheizen von Immobilien und zur Warmwasserbereitstellung nachgenutzt werden können.

Nutzung von Serverabwärme zur Warmwasseraufbereitung und zum Beheizen von Immobilien möglich

Unsere patentierte Technologie beinhaltet ein einzigartiges Know-how in Steuer- und Regelungstechnik. Dies ermöglicht hohe Ausgangstemperaturen bei einem gleichzeitig sehr stabilen und ausfallsicheren Betrieb unserer Server. So lassen sich signifikante Einsparungen sowohl für die Serverklimatisierung als auch bei der Heizleistung realisieren. An unserem neusten Serverstandort in Frankfurt am Main können beispielsweise insgesamt 84 Cloud&Heat-Server betrieben werden. Durch Einspeisung der Abwärme in den Wärmekreislauf des Gebäudes können pro Jahr bis zu 40.000 Euro an Heizenergie sparen – das entspricht einer Heizleistung für umgerechnet 150 Niedrigenergiehäuser. Zusätzlich werden etwa 30.000 Euro pro Jahr an Kühlkosten durch das direkte, verlustarme Kühlen der Server eingespart.
ch_illu_CI_getreu_deutsch-neu

Realisierung weltweit niedrigster Energiewerte

Mit unserer Technologie können wir eine unschlagbare hohe Energieeffizienz erzielen. Die hohe Effizienz unserer Rechenzentren begründet sich hauptsächlich in der Wasserkühlung und dem Verzicht auf jegliche Kälteanlagen. In unserem Rechenzentrum auf der Wallotstraße konnten wir 2017 einen Rekord-PUE-Wert von 1,02 erreichen. Die benötigte Kühlluft wird bedarfsgeregelt über die anliegende Tiefgarage vortemperiert, sodass eine ganzjährige freie Kühlung erfolgen kann.

Erläuterung zu den CO2-Berechnungen des Energieflussbilds vom Rechenzentrum

Jede erzeugte Kilowattstunde Strom bringt laut den Emissionsfaktoren 2014 vom Bundesumweltamt[1], eine Kohlendioxid-Emission von 0,569 kg mit sich. Unser Rechenzentrum mit einer aktuellen Ausbaustufe von 60% benötigt pro Jahr etwa 260 MWh Strom, der etwa 150 Tonnen CO2 emittieren würde, wären unsere Rechenzentren nicht mit 100% Ökostrom versorgt. Zusätzlich zu diesen Einsparungen wird weiteres CO2 durch die sinnvolle Abwärmenutzung im Gebäude eingespart. Mit jeder gelieferten Kilowattstunde Wärme sind das 0,295 Kilogramm Kohlendioxid[2]. Bei einer Lieferung von 100 MWh pro Jahr an das Heizsystem spart das Rechenzentrum circa 30 Tonnen CO2 im Jahr. Im vollen Endausbau könnten an diesem Standort jährlich sogar 52 Tonnen CO2 eingespart werden.

Erläuterung PUE-Faktor

Der Power Usage Effectiveness-Faktor, kurz PUE, beschreibt das Verhältnis zwischen insgesamt aufgenommener elektrischer Energie, also dem Gesamtenergieverbrauch des Rechenzentrums zu der aufgenommenen elektrischen Energie der IT-Hardware, wie beispielsweise Server und Switches. Je niedriger der PUE ist, desto höher ist der prozentuale Anteil an elektrischer Energie, der für die IT genutzt wird. Entsprechend weniger Energie geht für andere Anlagen wie Kühlung und Beleuchtung "verloren". Der PUE-Wert ist immer größer Eins. Je näher der Wert bei Eins liegt, desto geringer ist der Mehrverbrauch.

Erläuterung ERE-Kennwert

Der Energy Reuse Effectiveness-Kennwert, kurz ERE-Kennwert, berücksichtigt anders als beim PUE-Faktor zusätzlich die wiederverwendete Energie. Deshalb ist der Wert für eine CO2–Primärenergiebeurteilung am sinnvollsten. Auch hier gilt: Je kleiner desto besser. Bei klassischen Rechenzentren, in denen keine Abwärme genutzt wird ist der ERE-Kennwert gleich dem PUE-Faktor.
cnh_gitlab-woc

Wir setzen beim Bau unserer Cloud-Lösungen auf OpenStack.

Bereits seit 2012 betreiben wir eine eigene Cloud-Infrastruktur powered by OpenStack. Wir sind zunächst mit Grizzly gestartet und streben an, immer die aktuellste OpenStack-Version für unsere Kunden bereitzustellen. Über die Jahre konnten wir uns ein breites Know-how und umfassende Operationsexpertise auf diesem Gebiet aneignen. So können wir die komplette Bandbreite an OpenStack-Funktionalitäten ausspielen und auf die individuellen Bedarfe unserer Kunden reagieren und maßgeschneiderte, auf Compute- und Storage- optimierte Cloud-Lösungen zusammenstellen. Das freie Softwareprojekt OpenStack bildet die Basis bei allen durch uns realisierten Projekten.
vorteile_openstack

Wieso nutzen wir OpenStack?

OpenStack ist in den letzten Jahren zum de-facto Open-Source-Standard für den Betrieb von Public Clouds auf AWS-Niveau sowie Private Clouds geworden. Besondere Stärken zeigt OpenStack vor allem in Bezug auf Flexibilität und Funktionsumfang. Die OpenStack-Community, bestehend aus den weltweit besten Entwicklern renommierter Unternehmen der IT-Branche, leistet täglich ihren Beitrag zur Optimierung und Weiterentwicklung des Open-Source-Projektes. Im Vergleich zu proprietären Lösungen können beim Gebrauch von Open-Source-Angeboten (Lizenz)-Kosten eingespart werden.

Unser Beitrag zur Optimierung der OpenStack-Security.

Während unserer 5-jährigen Operationsphase ist uns eine Vielzahl an Sicherheitsproblemen in OpenStack aufgefallen. Diese Lücken bieten Hackern potentielle Angriffsflächen, um sowohl Cloudbetreiber als auch deren Kunden nachhaltig zu schädigen. In Kooperation mit einem namhaften deutschen Sicherheitsunternehmen haben wir OpenStack einem umfassendem Security-Check unterzogen und Mechanismen entwickelt, mit denen bestehende Sicherheitslücken geschlossen werden können. Diese unterliegen der kontinuierlichen Kontrolle und Optimierung durch unser OpenStack-Core-Team. Die von uns erarbeiteten Erkenntnisse fließen in unsere eigene Public-Cloud-Infrastruktur mit ein. Sie sind jedoch auch standardmäßig Bestandteil aller Private-Cloud-Lösungen.

OpenStack-Lifecycle-Management

Dank unseres OpenStack-Lifecycle-Managements haben wir die Möglichkeit, ein virtuelles Computersystem relativ schnell und dynamisch auf verschiedenen Servern vollautomatisch zu installieren. Dabei installieren wir diejenigen Dienste automatisiert, die wir für den Betrieb von OpenStack benötigen, so z. B. Keystone, Neutron, Glance, Nova, Cinder, Object Storage (Ceph), Ceilometer und Gnocchi. Bei Bedarf lässt sich jede OpenStack-Installation flexibel durch uns oder unseren Kunden erweitern, neue Server können dynamisch hinzugefügt und geupgraded werden.

Sie möchten von den Vorteilen unserer Technologie in Ihrer Cloud-Infrastruktur profitieren?

Schreiben Sie uns. Wir freuen uns auf Ihren Kontakt.

20171115175943-hendrikfischer

Hendrik Fischer

E-Mail: info@cloudandheat.com