36
Eine Themenbeilage der Heise Zeitschriften Verlag GmbH & Co. KG powered by: RECHENZENTREN UND INFRASTRUKTUR KOMPONENTEN, KABEL, NETZWERKE 2013 DCIM: Was eine Datacenter-Infrastruktur- Lösung leisten muss Seite 10 Hadoop: Was für Open Source und gegen Vendor Lockin spricht Seite 14 Disaster Recovery: Wie ein WAN-Turbo beim Beschleunigen hilft Seite 18 Zukunft: Auf welche Techniken es künftig ankommen wird Seite 22 Sicherheit: Wie physi- sches Zutrittsmanage- ment funktionieren kann Seite 26 Cluster: Welches Netz mit doppeltem Boden Ausfälle verhindert Seite 28 Racks: Warum ein Schrank nicht gleich Schrank ist Seite 30 Steuerung: Wie effizient gekühlt hochgradig verfügbar bleibt Seite 32 www.rechenzentren-infrastruktur.de Wo Energiesparen ein Vorteil ist

Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Eine Themenbeilage der Heise Zeitschriften Verlag GmbH & Co. KG

powered by:

RECHENZENTREN UND INFRASTRUKTURKOMPONENTEN, KABEL, NETZWERKE

Ⅳ2013

DCIM: Was eineDatacenter-Infrastruktur-Lösung leisten mussSeite 10

Hadoop: Was für OpenSource und gegen Vendor Lockin sprichtSeite 14

Disaster Recovery: Wie ein WAN-Turbo beimBeschleunigen hilftSeite 18

Zukunft: Auf welcheTechniken es künftigankommen wirdSeite 22

Sicherheit: Wie physi -sches Zutritts manage -ment funktionieren kannSeite 26

Cluster: Welches Netz mit doppeltem BodenAusfälle verhindertSeite 28

Racks: Warum einSchrank nicht gleichSchrank istSeite 30

Steuerung: Wie effizientgekühlt hochgradigverfügbar bleibtSeite 32

www.rechenzentren-infrastruktur.de

Wo Energiesparenein Vorteil ist

Page 2: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

www.stulz.com/cybercool2

IT Cooling Solutions

CyberCool 2 – der High-End-Chiller für Rechenzentren

Page 3: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

3Rechenzentren und Infrastruktur Ⅳ/2013

EDITORIAL

Warum Energieeffizienz unsein besonderes Anliegen ist

V or wenigen Jahren noch als Öko-Gehabeabgetan, haben sich die Zeiten gründlich

geändert. Energiesparen tut nicht nur demKlima gut, sondern auch der Wirtschaftlich-keit. Insbesondere in Rechenzentren, wo vieleServer die meiste Zeit sinnlos vor sich hinrechnen, ohne wirklich gefordert zu sein. Daskostet wertvollen Strom und teures Geld.

Kluge Unternehmen machen die Ener -gieeffizienz zu ihrem ganz besonderen Wett -bewerbsvorteil. Das funktioniert zum Beispielmit einem zeitgemäßen Infrastrukturma nage -ment. Es sichert Business Continuity undsenkt den Stromverbrauch im Rechenzen-trum. Werden Rechenzentren geplant, errich-tet oder umgebaut, schleichen sich leichtFehler ein, die später die Sicherheit und Effi-zienz gefährden.

Insbesondere rund ums Thema Energie-sparen können solche Fehler bares Geld kos-ten – über Jahre hinweg. Der Einsatz derpassenden Software hilft, solche Patzer zuvermeiden, weiß Andreas Gebhard von Schnei-der Electric ab Seite 6 zu berichten. In diegleiche Kerbe schlägt auch Wolfgang Goretzkivon Avocent Deutschland: Zuverlässiger Be-trieb verursacht weniger Stromkosten, heißtsein Fazit. Auch er plädiert für ein modernes

Infrastruktur-Management. Weil Rechenzen-tren immer mehr leisten müssen, währendgleichzeitig die steigenden Energiekosten aufdie IT-Budgets drücken. Wie sich die Ener -giekosten trotz steigender Leistungsanfor de -rungen senken lassen und was eine Data-center-Infrastruktur-Lösung (DCIM) leistenmuss, damit der Betrieb trotz geringer Puffer-kapazitäten unterbrechungsfrei läuft, erläu-tert er ab Seite 10.

Weniger ums Energie-, sondern umsGeldsparen geht es im nächsten Beitrag vonJürgen Urbanski, T-Systems, Seite 14. Ob Ha-doop eher wie Unix oder wie Linux funktio-niert, ist eine Frage, welchem Betriebssystemam Ende und auf Dauer mehr Big Data zuzu-trauen ist. Bei der Wahl der passenden Lö-sung aufs richtige Pferd zu setzen, ist seinAnliegen. Dabei spielt Open Source eine be-sondere Rolle für den Erfolg von Big Data imUnternehmen.

Ein Blick auf die Rivalität zwischen Unixund Linux kann vor teuren Fehlentscheidun-gen bewahren. Urbanskis Beitrag ist ein Plä-doyer für die Open-Source-Software Hadoopund wider den Vendor Lockin.

Bleiben wir beim Thema, welche Technikdie bessere ist: Um einen Turbo für Weitver-kehrsdaten geht es im Beitrag von DaveGreenfield von Silver Peak ab Seite 18. WAN-Op timierung ist für ihn die Basis für die Re-chenzentrumskopplung und Disaster Reco-very. Die Auswertung großer heterogenerDatenbestände, Cloud Computing oder das Si-chern von Datenbeständen und Anwendungenmittels Disaster Recovery erfordern beson-ders schnelle und stabile Breitbandver -bindungen. WAN-Optimierungssys teme sollenverhindern, dass die Anbindung zum Fla-schenhals wird. Welcher Strategie die Zu-kunft gehört, beantworten Kerstin Ginsbergund Bernd Hanstein von Rittal. Grüner, flexib-ler und effizienter dürfte sie – die Zukunft –in jedem Fall werden.

Eine Frage der Technik ist, ob Rechenzen-tren in Zukunft mehr Energie sparen, in demsie konsequent mit Gleichstrom versorgtwerden. Und ob das heute allgegenwärtige

19-Zoll-Format bei Servern und Racks aufdem Abstellgleis steht. Ihr Blick auf Techni-ken, die uns in Zukunft beschäftigen werden,beginnt ab Seite 22.

Ein ewig spannende Frage bleibt das Zu-trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeldder physischen Sicherheit sind das Themavon Andreas Budich von E-Shelter FacilityServices ab Seite 26. Ihm rutscht der Aspektdes Zutrittsma nagements viel zu oft aus demFokus.

Um Cluster mit Netz und doppeltem Bodengegen den Systemabsturz geht es im Beitragvon Patric Czech und Vladimir Djurdjevic vonHost Europe GmbH ab Seite 28. Weil ein klei-ner Hardware- oder Softwaredefekt zu mehr-stündigen Ausfallzeiten führen kann, wennein System nicht redundant aufgebaut ist. DieLösung ist ein Cluster auf Basis der Open-Source-Lösung DRBD.

Dass Schrank nicht gleich Schrank ist, be-weist Carrie Higbie von Siemon ab Seite 30.

Oft nur reduziert ausgestattet, werdenSchränke und Racks bezüglich ihrer Rolleund ihres Einflusses auf den Betrieb meist zuwenig beachtet. Häufig werde auf Grundlagedes Preises entschieden, welches Modell einUnternehmen anschafft. Das sei jedoch zukurz gedacht, da Racks sehr viel mehr Einflussauf Kosten, Flexibilität, Kühlung und Stromver-brauch haben als gemeinhin angenommen.

Am Ende dieser Beilage geht es noch malum Kühlung, weil es hierbei so gut wie niegenug zu optimieren gibt. Womit wir wiederbeim Anfang wären ;-)

Thomas Jannot

Page 4: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

DCIM-LÖSUNG

Stromverwaltung per iPad immer im Blick

Emerson Network Power bringt zwei neue Module für die Trellis ge-nannte DCIM (Data Center Infrastructure Management)-Plattform

auf den Markt: Trellis Power System Manager und Trellis Mobile Suite.Das erste Modul soll laut Hersteller eine vollständige Visualisierungdes Stromversorgungssystems im Rechenzentrum bieten und die Aus-lastung des Stromnetzes sowie die unter den verschiedenen Gerätenbestehenden Abhängigkeiten anzeigen. Das zweite Modul soll einensicheren mobilen Zugang per iPad-App zur Trellis Plattform in Echtzeitgewährleisten.

Der Trellis Power System Manager kann im Schaltplan die gesamteStromversorgungskette vom Stromnetz bis hin zum Rack und jedemeinzelnen Gerät darstellen. Laut Emerson sei so ein Dokumentieren desgesamten Stromversorgungssystems machbar sowie das Einsehen derKapazitätsauslastung in Echtzeit das Vorausberechnen des Energiever-brauchs. Wenn im Voraus bekannt sei, welche Racks oder Geräte vonFehlern im Stromversorgungssystem oder von geplanten Wartungs -arbeiten betroffen sein werden, können dem Hersteller zufolge etwaigeProbleme behoben werden, noch bevor sie zu Ausfällen führen.

Die Trellis Mobile Suite ist eine App zum Verwalten der Rechenzen-trumsressourcen in Echtzeit per Apple iPad. Die App stehe in Echtzeit-Verbindung zur Trellis-Plattform, sodass der Nutzer mit auch im RZ

selbst Racks und Geräte schneller lokalisieren und Veränderungendurch Hinzufügen beziehungsweise Entfernen von Geräten umgehenddokumentieren könne.

Die App Trellis Mobile Suite von Emerson Network Power steht imApple App Store gratis zum Download.

Es gibt eine App dafür: Die iPad-Anwendung hält Kontakt zurDCIM-Lösung und zeigt alle relevanten Informationen auchunterwegs an.

Quel

le: E

mer

son

Netw

ork

Pow

er

VON 100 KW BIS 3 MW

Skalierbares USV-System

Die USV Newave Conceptpower DPA 500 soll laut Hersteller dieLeistungsanforderungen von 100 kW bis hin zu 3 MW erfüllen.

Basis des USV-Systems ist ein 100 kW Slide-Modul, das die für denGesamtbetrieb erforderliche Hard- und Software in sich vereint. Ineinem Conceptpower-Gehäuse können laut Hersteller fünf dieser Mo-dule installiert werden. Durch Kombination von sechs Schränken wäredann die Leistung von 3 MW zu erzielen. Newave zufolge lässt sichdie Anlage auch im laufenden Betrieb nachrüsten. Es sei eine Verfüg-barkeit von 99,9999 % erreichbar. Einige der vom Hersteller angege-benen Eckdaten: vertikale Skalierbarkeit: von ein bis fünf Module proSchrank; horizontale Skalierbarkeit: Schränke in Parallelkonfigurationbis 3 MW; maximale Ausgangs wirkleistung (kVA = kW); bis zu 96 %

Wirkungsgrad in der Betriebs-art Doppelwandlung; Effizienzim eco-Modus 99 %; Online-Swap-Modulbauweise (OSM);fernwartungsfähig; integrierterRückspeiseschutz (back-feedprotection).

PERFORMANCE-SENSOR

Serverüberwachung ohne Hardwarezugriff

Mittels des Passive Application Performance Sensor sollen Admi-nistratoren laut Hersteller Paessler AG die Performance von Ser-

vern und Services im Blick zu behalten, ohne einen direkten Zugriffauf das jeweilige Gerät haben zu müssen. Stattdessen nutze der neueSensor einen Packet Sniffer, um alle im Server eingehende TCP-Pake-te und die entsprechenden Antwortpakete zu beobachten. Anhand dergemessenen Zeit für einen TCP-Paket-Roundtrip lässt sich laut Pa-sessler AG die Performance eines Services/Servers messen.

Laut Hersteller sei zum Monitoring üblicherweise ein Zugang zumEndgerät notwendig. Alternativ müsse der Administrator auf den je-weiligen Service zugreifen, um simulierte Anfragen versenden und Timing sowie Inhalte aus den entsprechenden Antworten auslesen zukönnen. Diesen Umweg vermeide der Passive Application Perfor-mance Sensor. Er basiere laut Hersteller auf Netzwerkprotokollen, diefür jede Anfrage eine neue TCP-Netzwerkverbindung generieren.Dazu zählten beispielsweise SOAP und die meisten XML-Interfacessowie REST-Services. Dienste wie POP3, IMAP und SMTP sind eben-falls denkbar.

Um die Performance verschiedener Applikationen zu analysieren,werde die Zeitspanne ermittelt, die zwischen dem Absenden eines Pa-ketes vom Client und der Antwort vom Server oder Service liegt. AufBasis der Gesamtzahl der im letzten Monitoring-Intervall beobachtetenVerbindungen zum Service werde dann die durchschnittliche Antwort-zeit ermittelt. Der Sensor eigne sich unter anderem für die Perfor-mance-Beobachtung externer (Web-)Services wie Google Apps oderAmazon EC2. Grundlage hierfür ist jedoch Port-Mirroring auf einemSwitch beziehungsweise Packet Sniffing direkt auf dem Server.

4 Rechenzentren und Infrastruktur Ⅳ/2013

NEWS

Ausbaufähig: HerstellerNewave verspricht, dassKunden im laufenden Betriebweitere USV-Module dazupacken können.

Quel

le: N

ewav

e

Page 5: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Erleben Sie das entspannte

Gefühl eines erfolgreichen

Rechenzentrumsmanagement

Mit der DCIM Lösung von FNT organisieren und

optimieren Sie die Ressourceneffizienz Ihres

Rechenzentrums.

Facility, Netzwerke, IT Equipment, Software

und Business Services in einem durchgängigen

Datenmodell bilden die Grundlage für die Bereit-

stellung hochwertiger IT Services und ein energie-

effizientes Data Center.

Erfahren Sie mehr unter:

www.fnt.de/DCIM

ix0813_b_000_FNT.indd 1 11.07.13 11:13

Page 6: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

D ie Ausgaben für Energie steigen: Immerhin verteuerte sich Stromzwischen 2001 bis 2011 um 117 Prozent und ein Ende dieses

Trends ist nicht zu erwarten. Angesichts solch hoher Kosten wird Ener-gieeffizienz zunehmend ein Wettbewerbsvorteil. Schon heute habendie Manager von Rechenzentren erkannt, dass sie mit Software fürdas Infrastrukturmanagement ein solides Tool in der Hand haben, umIhre IT zu planen und deren Kosten zu verwalten.

Software-Suites für das Data Center Infrastructure Management(DCIM) helfen nicht erst bei der täglichen Arbeit, sondern bereits imVorfeld. Schon die Raumkonzeption kann mithilfe der Programme er-ledigt werden: Der Verantwortliche ist in der Lage, Raumeigenschaften

wie Doppelboden, eine hohe Decke sowie die einzelnen Maße einzu-tragen und den Raum der Realität entsprechend darzustellen. Selbstintegrierte Schränke oder Säulen können eingepflegt und berücksichtigtwerden. Das später notwendige IT-Equipment lässt sich anschlie-ßend – ganz ohne verrücken von Schränken – den Vorgaben entspre-chend im Raum platzieren, wobei neben Wattverbräuchen und Luft-strömen auch das Gewicht mit einbezogen wird.

Das intelligente System weist den Benutzer daraufhin, falls die Bo-denlast überschritten ist und ordnet die Elemente danach an. Gleichesgilt für die Luftzufuhr über den Doppelboden. Auch hier kann das Pro-gramm auf Basis von Doppelbodenhöhe und Einblasgeschwindigkeit

6 Rechenzentren und Infrastruktur Ⅳ/2013

MANAGEMENT

Energieeffizienz als WettbewerbsvorteilModernes Infrastrukturmanagement sichert Business Continuity und senkt den Stromverbrauch im Rechenzentrum

Werden Rechenzentren geplant, errichtet oder umgebaut, schleichen sich leicht Fehler ein, die später dieSicherheit und Effizienz gefährden. Insbesondere bei Umbauten kommt es auf Punktlandungen an – Schränkeverrücken kostet Zeit und Geld. Der Einsatz der passenden Software hilft, solche Patzer zu vermeiden.

Die Rechen -zentrums -kühlung lässtsich mit DCIM-Software im Detail über -wachen undgrafisch dar -stellen (Abb. 1).

Quel

l: Sc

hnei

der E

lect

ric

Page 7: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Brandvermeidung mit OxyReduct®

S T R O M L O S .

D AT E N L O S .

G E S C H R E I G R O S S .

Im Brandfall das IT-Zentrum stromlos schalten? Das war gestern.

Moderner Brandschutz setzt auf Brandvermeidung durch Sauerstoffreduktion.

OxyReduct® reduziert das Brandrisiko auf ein Minimum und sorgt dafür, dass

Sie im Brandfall nicht stromlos schalten müssen. Lernen Sie das intelligente

und VdS-geprüfte Schutzkonzept kennen – damit Sie auch in Zukunft auf der

sicheren Seite sind.

Weitere Informationen fi nden Sie im Internet unter

www.wagner.de/oxyreduct.

Das war gestern

Page 8: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

der Klimageräte die Geschwindigkeit der Luftströme ausrechnen, mitder die kalte Luft ankommt.

Die Software hilft nicht nur bei einem Neubau, sondern auch beimUmstrukturieren eines Rechenzentrums. Denn sie kann schon im Vorfeldauf Basis der ermittelten Daten durchspielen, welche Folgen veränderteKonfigurationen haben. Simulationen von Umzügen sind in jedem Fallleichter umsetzbar als wirkliches Schränkerücken. Dies setzt allerdingsvoraus, dass seitens der DCIM-Lösung valide Daten verfügbar sindund im Idealfall virtuelle Modelle aller IT-Komponenten erstellt wer-den. Der Planer kann dann am Bildschirm prüfen, ob etwa an einembestimmten Standort genügend Kühlleistung zur Verfügung steht.

Identifizieren von Hotspots

Typische Symptome einer schlechten Konzeption eines Rechenzen-trums und falsch platzierter Komponenten sind Hotspots an Stellen,wo es eigentlich kühl sein müsste. Dauerhaft erhöhte Temperaturenwirken sich negativ auf den Betrieb der Server aus. Stellt man allevorhandenen Komponenten grafisch dar und visualisiert Schwachstel-len bei Kapazitäts- und Kühlszenarien, können Server sinnvoll platziertwerden. Die 3D-Simulation, die einige Tools bieten, hat hierbei dreiHauptansatzpunkte: Der Raum ist dreidimensional dargestellt, Tempe-raturverhältnisse werden kalkuliert oder gemessen sowie die Luftströ-me abgebildet.

DCIM-Software kann auch beim Fehlermanagement helfen: Fälltin einer traditionellen Umgebung beispielsweise ein Lüfter aus, wirdzur Information des Personals ein Alarm versendet. In der Zwischen-zeit ist das Risiko groß, dass ein Rechner ausfällt. Ist eine DCIM-Lö-sung aktiv, fahren nach Problemen mit Lüftern noch intakte Kompo-

nenten automatisch ihre Drehzahl hoch, um den Ausfall zu kompen-sieren. Gleichzeitig identifiziert das System gefährdete virtuelle Ser-ver und beginnt einen automatischen Migrationsprozess auf andere,nicht von Kühlproblemen betroffene Host-Geräte. Das Ausfallrisiko istin diesem Fall niedrig.

Effizientes Fehlermanagement

Voraussetzung hierfür ist eine Schnittstelle in der DCIM-Anwendungzur Kommunikation mit der Virtualisierungssoftware. Stellt das Systemeinen veränderten Zustand fest, wird ein Alarm ausgelöst und eineAnalyse der Folgen durchgeführt. Danach kommuniziert sie mit demVirtual Machine Manager und verlagert die virtuellen Jobs.

Wichtig bei all dem ist, dass die DCIM-Software die vorhandenenHardwarekomponenten unterstützt. Nur so lassen sich Probleme beimImplementieren vermeiden. Außerdem sollte die Lösung Echtzeitdatenliefern, damit IT-Verantwortliche umgehend auf Störfälle reagierenkönnen. Ideal sind Informationen bis auf die Rack-Ebene, um denPUE-Wert zu ermitteln und somit eine umfassende Analyse durchfüh-ren zu können.

Generell schaffen derartige Softwarelösungen die Grundlage fürjede Art von Umstrukturierung, da sie im besten Fall eine Übersichtaller Daten liefern. Dashboards zeigen den IT-Managern alle Para -meter auf: Den Energieverbrauch sowie aktuelle und historische PUE-Werte. Sie bieten IT-Managern und CIOs den Überblick über Effizienzund Kosten – und liefern die Grundlagen für Analysen und Umstruktu-rierungen.

Andreas GebhardSales Director DACH, Schneider Electric

8 Rechenzentren und Infrastruktur Ⅳ/2013

MANAGEMENT

Quel

le: S

chne

ider

Ele

ctric

Übersicht: Per Dashboardzeigt eine DCIM-Lösung allerelevanten RZ-Daten aufeinen Blick an (Abb. 2).

Page 9: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Hüseyin Ince, e-shelter Sicherheitsdienst

Page 10: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Z unehmende Komplexität und Dynamik gefährden den reibungs -losen Betrieb von Rechenzentren. Mancherorts muss die Infra-

struktur permanent an neue Leistungsanforderungen angepasst wer-den. Indem virtuelle Maschinen verschoben werden, lassen sichLasten von einem Rack zum anderen mittlerweile einfach und schnellverlagern. Allerdings können dadurch unerwartete Hotspots entstehenoder die Stromversorgung wird überlastet.

Aktuelle Betriebsdaten auf dem Schirm

Damit keine Komponenten ausfallen, müssen größere Pufferkapa zi -täten bei den Support- und Kühlsystemen vorgehalten werden – essei denn, es gelingt, die bestehenden Kapazitäten noch besser auszu-schöpfen. Letzteres ist jedoch nur möglich, wenn die gesamte IT- undFacility-Infrastruktur detailliert geplant, überwacht und gesteuert wird.Moderne Datacenter-Infrastruktur-Lösungen (DCIM) helfen, diese Auf-gabe zu bewältigen und die Business Continuity, zu sichern. Ein intel-ligentes Management der Stromversorgung führt dazu, dass wenigerEnergie verbraucht wird. Dadurch lassen sich der Bedarf an Puffer -kapazitäten sowie die Betriebskosten reduzieren, während das Re-chenzentrum leistungsfähig bleibt.

Um das Rechenzentrum ganzheitlich zu verwalten, benötigen dieAdministratoren in Echtzeit detaillierte Informationen über den Statusund darüber, was an der gesamten Infrastruktur aktuell verändertwurde. Moderne DCIM-Lösungen sammeln die dazu notwendigenDaten von den IT-Geräten und den Supportsystemen (Facilities) undverschaffen über webbasierte Dashboards den notwendigen Überblick.Die Echtzeitdaten sollten jedoch nicht durch die Verwaltungssoftwareselbst erfasst, sondern durch ein unabhängiges skalierbares Systemvorgenommen werden. Nur so wird sichergestellt, dass die Daten auchdann noch gesammelt werden, wenn Server überlastet und einzelneNetzwerkverbindungen ausgefallen sind. Somit stehen sämtliche Infor-mationen bereit, damit künftige Ausfälle vermieden werden können.

Blackbox für das Rechenzentrum

Ein System, das die Betriebsdaten erfasst, sollte also möglichst autarkund unabhängig arbeiten können. Denn nur dann kann es vergleichbareiner Blackbox im Flugzeug sämtliche Daten aus der Betriebsumge-bung in Echtzeit zusammentragen und dokumentieren. Damit dieseUnabhängigkeit gewährleistet werden kann, bietet es sich für dieseAufgabe an, eine spezielle Hardware-Appliance in Verbindung mit derVerwaltungssoftware einzusetzen. Die Appliance kann zusätzlich wei-tere wichtige Funktionen, wie zum Beispiel den Fernzugriff auf die IT-Geräte, übernehmen und andere Gerätschaften ersetzen. Das spartPlatz. Eine intelligente Appliance sammelt außerdem nicht nur Daten,sondern wertet sie auch aus und schlägt Alarm, sollten definierteSchwellenwerte überschritten werden. Damit die Appliance den Be-triebszustand der Facility-Geräte und Umgebungssensoren oder auchDaten von Serviceprozessoren erkennen und richtig auswerten kann,muss sie verschiedene Standardprotokolle wie BACnet, Modbus,SNMP sowie Serviceprozessoren verstehen.

Moderne DCIM-Lösungen stellen aber nicht nur Überwachungs-, son-dern auch Steuerungstools bereit, damit die Administratoren auf einenAlarm schnell reagieren und die Kapazitäten entsprechend umverteilenkönnen. Zusätzlich verfügen sie über Tools, mit deren Hilfe sich die an-geforderten Kapazitäten besser vorhersagen lassen. Außerdem stellensie anhand der erfassten Betriebsdaten ausführliche Übersichten, Repor-tings und Trendanalysen zusammen. Auf der Basis dieser Berichte kön-nen Kapazitäten dann besser geplant, Hotspots gänzlich vermieden,Kühlsysteme just in time hinzugeschaltet oder in der Kühlleistung ange-

10 Rechenzentren und Infrastruktur Ⅳ/2013

MANAGEMENT

Zuverlässiger Betrieb, weniger StromkostenModernes Infrastruktur-Management sichert Business Continuity und senkt den Stromverbrauch im Rechenzentrum

Rechenzentren müssen immer mehr leisten. Gleichzeitig drücken die steigenden Energiekosten auf die IT-Budgets. Doch wie lassen sich die Energiekosten trotz steigender Leistungsanforderungen senken? Und was muss eine Datacenter-Infrastruktur-Lösung (DCIM) leisten, damit der Betrieb trotz geringerPufferkapazitäten unterbrechungsfrei läuft?

Mit mobilem Zugriff auf die DCIM-Lösung können Konfigura -tionsänderungen und neue Gerätestandorte vor Ort dokumentiertwerden (Abb.ˇ1).

Foto

: Em

erso

n Ne

twor

k Po

wer

Page 11: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Premium Produkte rund um Europas modernstes Rechenzentrum

datacenter.de –Der beste Platz für Ihre IT

höchste Verfügbarkeit

höchste Leistungsfähigkeit

höchste Energieeffi zienz durch KyotoCooling®

Green IT

zertifi ziert und ausgezeichnet nachstrengsten Richtlinien

Unbenannt-2 1 24.05.13 14:50

Page 12: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

passt werden. Das senkt nicht nur den Bedarf an Pufferkapazitäten, son-dern auch die im Normalbetrieb benötigte Energiemenge.

Stromverbrauch kontrollieren

Moderne DCIM-Lösungen überwachen neben der IT-Infrastruktur undden Facilities aber auch die Stromversorgung sowie wichtige Umge-bungsparameter wie Temperatur und Luftfeuchtigkeit. Sie visualisierendazu das gesamte Stromversorgungssystem, von der Stromzufuhr bishin zu jedem einzelnen Rack und Gerät. Praxistaugliche Lösungen prä-sentieren nicht nur einen übersichtlichen Schaltplan und geben in Echt-zeit an, wie stark das Stromversorgungssystem ausgelastet ist. Sie zei-gen auch den Energiebedarf der einzelnen Geräte an und wie diesevoneinander abhängig sind.

Auf dieser Informationsbasis lässt sich prognostizieren, welchenEnergiebedarf das System aufweist und wie es ausgelastet ist. Das

optimiert den Strombedarf. Außerdem sindWartungsarbeiten besser planbar. Aufgrundder steigenden Leistungsdichten in den Re-chenzentren können traditionelle, einphasigeStromverteiler die Stromversorgung der Racksjedoch nicht mehr gewährleisten. Bei einerLastdichte ab fünf Kilowatt pro Rack sollteman deshalb dreiphasige Stromverteilerein-heiten einsetzen. Diese müssen exakt auf dieDCIM-Lösung abgestimmt sein, damit in Echt-zeit verwaltet werden kann.

Veränderungen simulieren

Zusätzlich erlauben es intelligente DCIM-Lösun-gen, Messwerte zu erheben, damit sich Kenn-zahlen zur Energieeffizienz erstellen lassen.Zahlen wie die Power Usage Effectiveness(PUE) geben Aufschluss darüber, wie effizientdas Rechenzentrum arbeitet. Der PUE-Wertbeträgt in der Regel 1,8 oder 1,9. Das bedeu-tet, dass Supportsysteme und IT fast gleichviel Energie aufnehmen. Ziel ist es, den Wertauf 1,3 oder 1,4 zu senken.

Ein effizientes Management setzt zudemvoraus, dass die Administratoren bereits im Vorfeld wissen, wie es sichauf die Supportsysteme oder die Facilities auswirkt, wenn an der ITetwas verändert wird. Dazu geben DCIM-Lösungen nicht nur den not-wendigen Überblick über sämtliche Projekte und deren Genehmigungs-status. Sie zeigen auch, wie es sich auf die Infrastruktur auswirkt, wenndiese Projekte umgesetzt werden. Anhand von Auslastungsverlaufskur-ven können Trends ermittelt und Engpässe in der Klimatisierung und inder Stromversorgung frühzeitig erkannt werden. Mit modernen Lösun-gen lassen sich zusätzlich neue Konfigurationen am Modell testen undrealitätsnah simulieren, wie sich diese auf die Infrastruktur auswirken.

Business-Continuity-Plan erstellen

Für mehr Komfort und Ausfallsicherheit bieten moderne DCIM-Lösun-gen einen sicheren Echtzeit-Zugriff über ein mobiles Endgerät an. DieRechenzentrumsressourcen sind somit zu jeder Zeit und von jedemOrt aus zu managen. Zusatzfunktionen wie ein Barcode-Reader undeine Bildererkennungsfunktion erleichtern es, die Geräte vor Ort ein-deutig zu identifizieren. Die Administratoren sind somit in der Lage,Racks und Geräte schneller zu finden und umgehend zu dokumentie-ren, was sich an Gerätestandorten und Konfigurationen verändert hat.Das spart Zeit und senkt das Fehlerrisiko bei der Dateneingabe.

Damit der Rechenzentrumsbetrieb reibungslos gewährleistet wer-den kann, sollte in einem Business-Continuity-Plan genau dokumen-tiert werden, welche Schritte durchgeführt werden müssen, bevor eineMaßnahme als abgeschlossen gilt. Nur so kann sichergestellt werden,dass stets sämtliche Updates durchgeführt und die notwendigen Ein-stellungen vorgenommen werden. Ebenfalls erstrebenswert ist es, dieDCIM-Lösung im Hinblick auf für das Rechenzentrum geltende ServiceLevel Agreements zu bewerten. Zusätzlich gilt es festzuschreiben,welche Probleme bereits auftauchten und wie diese behoben wurden,damit Fehler nicht in Zukunft ein zweites Mal begangen werden.

Wolfgang Goretzki, ist Product Marketing Manager EMEA,

Avocent Deutschland GmbH, Emerson Network Power

12 Rechenzentren und Infrastruktur Ⅳ/2013

MANAGEMENT

Der detaillierte Schaltplan des Stromversorgungssystems zeigt neben der Auslastungauch die unter den Geräten bestehenden Abhängigkeiten an (Abb.ˇ2).

Foto

: Em

erso

n Ne

twor

k Po

wer

Mobile DCIM-Lösungen sorgen für mehr Ausfallsicherheit (Abb.ˇ3).

Foto

: Em

erso

n Ne

twor

k Po

wer

Page 13: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich
Page 14: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

G roße Datenmengen werfen noch größere Schatten voraus: In dreibis fünf Jahren werden 80 Prozent aller neuen Daten zunächst

einmal in nicht-traditionellen, neuen Speicherlösungen wie Hadoopund Object Storage landen. Damit stellen sich für einen Service Provi-der, aber auch für alle Anwender-Unternehmen zwei wichtige Fragen:Wer profitiert mehr von diesem Siegeszug von Hadoop, der Herstelleroder der Anwender? Und welche Abhängigkeiten von den führendenHerstellern ergeben sich hieraus für Anwender?

Wer einen genaueren Blick auf die Chancen und Risiken von Ha-doop wirft, wird erkennen, dass sich das konsequente Vertrauen aufOpen Source durchaus lohnt. Denn so lässt sich ein Vendor Lock-in,also die zwingende Bindung an einen Hersteller, verhindern. Zudemlassen sich wertvoller Spielraum bei Betriebskosten, strategischen IT-Investitionen und Innovations-Tempo bewahren.

Der genaue Marktanteil der Hadoop- beziehungsweise Object-Sto-rage-Lösungen lässt sich natürlich schwer voraussagen. Aber kaumein Experte zweifelt am generellen Trend, dass dem Open-Source-Em-porkömmling Hadoop glänzende Zeiten bevorstehen. Denn angesichtsdes Hypes rund um Big Data dürfte es nur eine Frage der Zeit sein,bis mehr und mehr Unternehmen entsprechende Lösungen einsetzen.

Hierbei kann eine Retrospektive Anwender davor bewahren, teureSackgassen zu beschreiten, aus denen sie so schnell nicht wiederher auskommen.

Kleiner historischer Ausflug

Die Debatte Unix gegen Linux ist ein aufschlussreiches Lehrstück:Unix wurde in den 1970er-Jahren von Bell Labs und der University ofCalifornia in Berkeley entwickelt und fand insbesondere in akademi-schen Kreisen und in der Forschung weiten Einsatz. Unix war für diedamalige Zeit ein sehr fortschrittliches Betriebssystem, was sich unteranderem durch hohe Stabilität, Multiuser- und Multitasking-Fähigkei-ten, virtuellen Speicher, die Unterstützung von IP-Netzwerken, eineVielzahl von Werkzeugen (die Unix-Kommandos), eine grafische Be-nutzeroberfläche und vieles mehr auszeichnete.

In den Achtzigerjahren sprangen auch die großen Hersteller aufden Zug auf und brachten eine große Zahl an proprietären, Unix-arti-gen Systemen auf den Markt. Zu diesen Unix-Derivaten zählten unteranderem HP-UX von Hewlett-Packard, DG/UX von Data General, AIXaus dem Hause IBM, IRIX von Silicon Graphics, sowie Solaris von Sun.

Jeder Hersteller änderte und erweitertedas hauseigene Unix-Derivat im Verlauf der1980er-Jahren nach seinen eigenen Vor-stellungen und schuf so nach und nach voll-endete Tatsachen. Es entwickelten sich Ver-sionen mit unterschiedlichen Fähigkeiten,Kommandos, Optionen und Programmbiblio-theken. So wurde Unix leistungsfähig, aberteuer. Die verschiedenen Unix-Geschmacks-richtungen waren zwar zu 80ˇProzent iden-tisch, aber die restlichen 20ˇProzent hattenes in sich. Die Unterscheide schufen einensehr hohen Grad an Vendor Lock-in, sodassKunden de facto im Derivat des jeweiligenHerstellers gefangen waren und nur sehrschwer zu einer anderen Lösung wechselnkonnten.

Auftritt des Pinguins

Das sollte sich 1991 grundlegend ändern.Damals begann der 21-jährige finnische

14 Rechenzentren und Infrastruktur Ⅳ/2013

STRATEGIE

Ist Hadoop wie Unix oder wie Linux?Bei der Wahl der passenden Big-Data-Lösung aufs richtige Pferd setzen

Open Source spielt eine besondere Rolle für den Erfolg von Big Data im Unternehmen. Ein Blick auf die Rivalitätzwischen Unix und Linux kann vor teuren Fehlentscheidungen bewahren. Ein Plädoyer für die Open-Source-Software Hadoop und wider den Vendor-Lockin.

Traditionelle Datenbank versus Hadoop: Die Unterschiede im Überblick (Abb.ˇ1)

Foto

: T-S

yste

ms

Page 15: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

transtec: Ihr Partner für Ihre IT-Projekte

Die neuen Intel E5-2600 V2 CPUs (Codename Ivy Bridge-EP) sind in Varianten mit bis zu 12 Kernen pro CPU in allen transtec CALLEO Application Servern erhältlich. Mit Performancegewinnen von bis zu 40% im Vergleich zur Vorgän-gerserie eignet sich die E5-2600 V2 Serie auch für die anspruchsvollsten Arbeiten wie Datamining oder Virtualisierung. Durch die Verkleinerung der Fertigungstechnologie von 32 nm auf 22 nm können signifi kante Stromersparnisse von über 30% erzielt werden. Somit schonen Sie Ihr Budget und die Umwelt.

KERNIG • PERFORMANT • EFFIZIENT

Intel, das Intel Logo, Xeon, und Xeon Inside sind Marken der Intel Corporation in den USA und anderen Ländern.

transtec AG Waldhörnlestrasse 18 72072 TübingenTelefon: 07071/703-0 E-Mail: [email protected] www.transtec.de

Intel® Xeon® Prozessor

33 JAHRE PROFESSIONELLE IT-SYSTEME UND LÖSUNGEN „MADE IN GERMANY“

transtec CALLEO Server mit Intel Ivy Bridge-EP:40% mehr Leistung bei 30% weniger Energieverbrauch

Page 16: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Student Linus Torvalds in Helsinki mit der Entwicklung eines neuenBetriebssystem-Kernels, der später Linux genannt wurde. Einige Ent-wickler interessierten sich für das Projekt und steuerten Verbesserun-gen und Erweiterungen bei. Daraus entstand 1992 die erste freieLinux-Distribution, lizensiert als GNU GPL. Das Konzept fand rasch Zu-lauf, sodass 1993 bereits mehr als 100 Entwickler am Linux-Kernelarbeiteten, was dem jungen Betriebssystem ein großes Spektrum anEinsatzmöglichkeiten eröffnete. Schon ein Jahr später war die Soft-ware so ausgereift, dass es zum ersten Mal kommerziellen Supportfür sie gab.

Red Hat und Suse sind bis heute die zwei meistgenutzten Linux-Distributionen in einem weiten, aber im Vergleich zu Unix kaum frag-mentierten Feld. Zwar haben sich diese beiden Linux-Varianten überdie Jahre in einigen wenigen Punkten unterschiedlich weiter ent -wickelt, etwa bei der Nutzeroberfläche, doch hat dies nichts mit Ven-dor Lock-In zu tun und führt nicht dazu, dass sich Kunden in der einenoder anderen Distribution gefangen fühlen.

Die Historie übertragen auf Big Data

Welche Lehren lassen sich aus dem Exkurs in die Geschichte von Unixversus Linux ziehen, was die neue Welt von Big Data angeht? ObwohlLinux anfangs bei der Leistungsfähigkeit noch nicht an Unix heran-reichte, sprangen viele Anwender dennoch voller Enthusiasmus aufden Linux-Zug auf. Sie taten dies, weil hier kein Anbieter eine Lock-in-Situation geschaffen hatte und weil die Software auf billiger, soge-nannter Commodity-x86-Hardware lief.

Linux besaß einen wichtigen Vorteil, der auch im Zeitalter von Ha-doop weiterhin von entscheidender Bedeutung ist: Im Vergleich zu denkostspieligen, proprietären Unix-Workstations hatte man zum erstenMal die Möglichkeit, auch auf wesentlich günstigeren, herkömmlichenServern von der Stange ein Unix-artiges System einzurichten und esbei Interesse sogar selbst mit zu gestalten.

Der unaufhaltsame Aufstieg von Linux hält noch eine zweite,höchst lehrreiche Einsicht parat, was Innovation und Change Manage-

ment angeht: Obwohl Unix bei vielen Unter-nehmen schon seit einem Jahrzehnt nichtmehr als Standard eingesetzt wird, laufenheute – 30 Jahre nach den ersten kommer-ziellen Distributionen von Unix – noch vieleAnwendungen auf Unix. Hardware und Soft-ware, die ihr Verfallsdatum überschreiten,legen ein handfestes Zeugnis zum Lock-inab, der sich dank Unix-Derivaten etablierthatte. Entscheidungen, die heute gefälltwerden, wirken also noch eine Generationnach – mit allen finanziellen und techni-schen Folgen. Besonders schmerzhaft istdas, wenn ein Unternehmen dabei auf dasfalsche Pferd gesetzt hatte und am Ende ineiner evolutionären Sackgasse steckt.

Das Big-Data-Betriebssystem

Womit wir beim Innovations-Tempo wären,das Open Source von proprietären Lösun-gen unterscheidet. Nachdem Linux eine kri-tische Masse erreicht hatte, war der Fort-schritt hier viel rascher als in den voneinzelnen Anbietern kontrollierten Unix-

Silos. Der größte Teil der Arbeit an und um Linux wird weiterhin vonder Nutzergemeinde erledigt. Wer ins Jahr 2013 springt, wird viele Pa-rallelen erkennen. Eine Hadoop-Distribution kann man (technisch nichtganz korrekt) als Betriebssystem für Big Data bezeichnen, da es An-wendungen erlaubt, auf verteilte Hardware-Ressourcen zum Spei-chern und Berechnen von Anwendungsdaten zuzugreifen. Hadoop istwie ein Data Warehouse, kann aber größere Datenmengen speichern,insbesondere auch unstrukturierte Daten. Diese können über MapRe-duce analysiert werden.

Auch bei Hadoop sollten Anwender also darauf achten, mit Part-nern zusammenzuarbeiten, die konsequent den Open-Source-Gedan-ken unterstützen, um die Gefahren eines Lock-in zu vermeiden. Unterden Hadoop-Distributionen ist hier zum Beispiel die kalifornischeFirma Hortonworks zu nennen.

Wie also stellt ein Unternehmen sicher, dass seine Big-Data-Soft-ware tatsächlich den Prinzipien des Open-Source-Gedankens folgt?Gratis ist nämlich keineswegs gleichbedeutend mit Open Source. Washeute noch gratis ist, kann schon morgen plötzlich ein teures StückSoftware sein. Dies mag theoretisch klingen. Doch wer die Theorie be-achtet, kann vermeiden, dass ein Softwarehersteller irgendwann einmalvermeintlich unersetzlich wird und dies in seinen Preisen für Software-lizenzen ausnutzen kann. Bei Open Source hingegen hat der Anwenderimmer die Auswahl, die Entwicklung, den Betrieb und die Wartungeinem anderen Hersteller anzuvertrauen, oder dies – zumindest imPrinzip – auch selber zu übernehmen.

Zur Auswahl der passenden Open-Source-Lösung ist noch eineweitere Betrachtung sinnvoll: In der Hadoop-Open-Source-Gemein-schaft arbeiten mehrere Hundert Entwickler an verschiedenen Pro -jekten, die sich modular in eine Gesamtlösung einfügen. Bei diesenEntwicklern muss man zwischen Reviewern, Contributoren und Com-mittern unterscheiden. Letztere sind die erfahrensten Mitglieder derGemeinschaft, die sich um die Koordination kümmern und die Rich-tung und Roadmap formulieren, sodass am Ende die verschiedenenProjekte wie Bausteine zusammenpassen. Die Committer sind außer-dem die letzte Instanz zur Qualitätssicherung neuer Software. Wer

16 Rechenzentren und Infrastruktur Ⅳ/2013

STRATEGIE

Vielschichtig: Eine Hadoop-Referenzarchitektur besteht aus unterschiedlichstenKomponenten (Abb.ˇ2).

Foto

: T-S

yste

ms

Page 17: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

dtm group_ Benzstr.1_ 88074 Meckenbeuren_ www.dtm-group.de_ [email protected]_ Tel +49 7542 9403 0_ Fax+49 7542 940 3 24

Lückenlose Beratung, Planung und Ausführung energieeffizienter Rechenzentren

Gezielte Luftführung Optimale Energiebilanz Variable Installation von Hardware

Zukunftssichere Verkabelung

VorkonfektionVVVVVVVVVVoooooooooooorrrrrrrrrrkk

Ersttklassigeeeeeeeeeeeeeeeeeeeeeee IIIIIIIIIIIIIIIIIIIIIIIIInstalllllllllaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaatttttttttttttttttttttttttttttttttttttttttttttttiiiiiiiiiiiiiiiiiiiiiiiioooooooooooooooooooooooooooooooooooooooooooooooonnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnabelLED PPPPPPPPPPPPPPPPPattttchhhhhhhhhkkkkkkkkkkkkka

Ennnnnneeeeeeerrrrrrrrrggggggggggiiiiiieeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeffffffffffffffffffffffffffffffffffffffffffffffffffiiiiiiiiiiiiiiiiiiiiiiiiiiiiiizzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzziiiiiiiiiiiiiiiieeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeennnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnzzzzzzzzzzzzz.E.O.L

Light Emitting OutletLight Emitting Out

KabelmanagementQuickLink

sehen will, wie genau es ein Hersteller mit Hadoop hält, sollte sich dieZahl der Committer in der jeweiligen Belegschaft anschauen.

Dabei fällt dann auf, dass einige etablierte Hersteller sagen, sie„unterstützen“ Hadoop voll und ganz, gleichzeitig aber so gut wiekeine Committer in die Gemeinschaft einbringen. Diese Abwesenheitspricht Bände über die Einstellungen zum Open-Source-Gedanken.

Täuschung und Wahrheit

Überleben werden nur die Hadoop-Distributionen all jener Firmen, dieihr Engagement für dieses Big-Data-Betriebssystem auch dadurchausdrücken, dass eine signifikante Zahl ihrer Angestellten als Com-mitter aktiv in der Gemeinde mitarbeitet. Ein Hersteller hingegen, derkeine Committer in seinen Reihen hat, hakt nur die Checkliste ab, umweniger informierten Kunden die Illusion zu geben, er spiele bei die-sem faszinierenden Open-Source-Projekt mit. De facto reitet er abernur als Trittbrettfahrer auf der Hadoop-Welle. Große Hersteller unter-stützen neue Standards oft vordergründig, aber bemühen sich hinterden Kulissen, eine Plattform mit ihren eigenen Veränderungen inkom-patibel zu machen, also das Ökosystem zu fragmentieren. Was Exper-ten als „embrace and extend“ bezeichnen, hat zur Folge, dass Kundenfrüher oder später zu Geiseln einer bestimmten Variante werden.

Die Deutsche Telekom setzt bei Hadoop auf Hortonworks und Clou-dera. Beide bekennen sich voll und ganz zu Open Source. WährendKunden mit den Lösungen der beiden gut fahren, sehen wir als Dienst-

leister kleinere Unterschiede zwischen beiden. Bei Hortonworks ist 100Prozent aller Software Open Source, einschließlich der Management-software. Cloudera hingegen bepreist die Managementsoftware sepa-rat. Letzteres erinnert an die Strategie von VMware, seinen Hyper visor(ESXi) gratis anzubieten, um dann an der Managementsoftware (vCen-ter) zu verdienen.

Keine Lippenbekenntnisse, bitte

Sollte in naher Zukunft ein Großteil aller neuen Daten zunächst aufHadoop landen, müssen sich Kunden heute gut überlegen, mit wel-chem Hersteller sie eine langfristige Beziehung eingehen wollen.Daten besitzen sehr viel Schwerkraft: Sie sind träge und bleiben tech-nisch gesehen meist da, wo sie landen.

Wer das Beste aus seinen Investitionen herausholen und sich In-novationsspielräume bei Big Data offen halten will, sollte Herstellerbevorzugen, die zu Open Source stehen und nicht nur ein Lippen -bekenntnis abgeben. So lässt sich die wirtschaftliche Abhängigkeitminimieren und schlimmstenfalls leichter der Anbieter wechseln. Undes geht hier nicht um die individuelle Wahl einer IT-Lösung. Die Ent-scheidungen von Hunderten oder Tausenden von Unternehmen wer-den die Weichen stellen, ob sich Hadoop wie Unix oder wie Linux ent-wickelt.

Jürgen Urbanski, VP Big Data Architectures & Technologies, T-Systems

STRATEGIE

ix1113_b_00_mit_Anz.indd 17 15.10.13 15:48

Page 18: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

RiMatrix S: Das erste Rechenzentrum in Serie. Einfach anschließen und fertig.

Besuchen Sie uns:sps ips drivesin Nürnberg26.–28. 11. 2013 Rittal: Halle 5, Stand 111EPLAN: Halle 11, Stand 110/120

E instmals abgehakt, entwickelt sich WAN Optimization erneut zueiner RZ-Schlüsseltechnik. Das hat mehrere Gründe: Zum einen

stehen Breitband-WAN-Verbindungen in Deutschland beileibe nicht inallen Regionen zur Verfügung. Mit einer durchschnittlichen Internet-Zugangsrate von 700ˇkBit/s liegt Deutschland auf einem der hinterenPlätze.

Zum anderen erfordern neue IT-Techniken wie Cloud Computinghochwertige WAN-Verbindungen. Der Zugang zu diesen IT-Ressourcenerfolgt über Breitbandverbindungen auf Basis von MPLS (Multi ProtocolLabel Switching), DSL oder über Plain-Ethernet-Verbindungen (IP overEthernet, IPoE). WAN-Verbindungen spielen auch bei Big Data und demReplizieren von Daten zwischen Rechenzentren eine wichtige Rolle.

Alle diese Techniken zum Spiegeln der jeweiligen Datenbeständehaben gemeinsam: Sie setzen hochwertige WAN-Verbindungen voraus.

WAN-Leitungen werden zum Flaschenhals

Hochwertig heißt:•ˇniedrige Paketverlustraten (Packet Loss Rate) von etwa 0,1ˇProzent,•ˇLatenzzeiten beim Übermitteln von Paketen von unter 100ˇms •ˇeine hohe Integrität der übermittelten Daten, sodass diese nicht mehr-

fach geschickt werden müssen.

Diese drei Faktoren sind eng mit einander verbunden. Klagen Nutzervon Cloud-Anwendungen über zu lange Antwortzeiten, erhöhen IT-Fach-leute die Bandbreite der WAN-Verbindung. Unterschätzt werden dabeimeist die negativen Effekte von zu hohen Paketverlustraten (PacketLoss Rate) und Latenzzeiten.

In Weitverkehrsnetzen auf Basis von MPLS und in IP-basierten VPN(Virtual Private Networks) beträgt die Paketverlustrate im Durchschnittetwa 0,5ˇProzent. Sie kann jedoch je nach Service-Pro vider und Güteder Infrastruktur (Kupferkabel, Lichtwellenleiter) bis zu fünf Prozenterreichen. Die Folge ist, dass eine erhebliche Zahl von Datenpaketenerneut übertragen werden muss – und somit die Bandbreite des WAN-Links schrumpft. Nach Erfahrungswerten von Fachleuten reduzierenLatenzzeiten von etwa 100 ms und Paketverlustraten von mehr alseinem Prozent die Bandbreite einer WAN-Verbindung von 10ˇMBit/s aufetwa 1ˇMBit/s pro Flow.

Reduzieren der Daten menge beim Transfer

Eine Lösung bieten WAN-systeme, wie sie etwa von Cisco, Citrix, Riverbed oder Silver Peak angeboten werden. Sie sind als Hardware-systeme oder Software (Virtual Machines, VM) erhältlich. Die Aufgabeder Appliances besteht darin, TCP/IP- und UDP-Pakete vor dem Trans-

ANBINDUNG

Turbo für WeitverkehrsdatenWAN-Optimierung als Basis für Rechenzentrumskopplung und Disaster Recovery

Techniken wie das Auswerten großer heterogener Datenbestände, Cloud Computing oder das Sichern vonDatenbeständen und Anwendungen mittels Disaster Recovery erfordern schnelle und stabile Breitband-Netzwerkverbindungen. WAN-Optimierungssysteme verhindern, dass die Anbindung zum Flaschenhals wird.

ix1113_b_00_mit_Anz.indd 18 15.10.13 15:48

Page 19: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

port über einen WAN-Link zu optimie-ren. Ein Verfahren ist das Deduplizie-ren der Daten, also das Ausfilternvon identischen Paketen. Deduplica-tion identifiziert mehrfache vorhan-dene Datenblöcke.

Deduplizierung erfordert, dass dieWAN-Appliances an beiden Endender WAN-Strecke die übermitteltenDaten lokal zwischenlagern, aufFestplatten oder Solid State Drives(SSDs). Sind identische Muster vor-handen, werden statt der Daten nurPointer (Zeiger) übermittelt. Sie ver-weisen auf bereits übertragene Da-tenpakete im Cache der Applianceam Zielort.

Mit Deduplizierung lässt sich derDatenverkehr auf WAN-Strecken jenach Datentyp um bis zu 99ˇProzentreduzieren. Diese Werte lassen sichnur bei Daten wie CAD-Dokumentenerreichen, die sich kaum ändern. BeiOffice-Dokumenten ist die Ände-rungsrate höher und somit die Dedu-plizierungsquote niedriger.

Paketverluste reduzieren

Echtzeitanwendungen wie Desktop-Virtualisierung, Voice oder Videoover IP tolerieren nur eine Paketverlustrate von deutlich unter einemProzent. Im Idealfall beträgt sie etwa 0,1ˇProzent. Paketverluste ent-stehen, wenn Router und Switches überlastet sind und Datenpaketeverwerfen, oder wenn WAN-Links falsch konfiguriert wurden.

Um Packet Loss zu minimieren, lassen sich Verfahren einsetzen.Eine dieser Techniken ist Forward Error Correction (FEC). Bei FEC wird

zusammen mit einer bestimmten Zahl von Paketen ein Fehlerkorrek-tur-Paket übertragen. Die Netzwerkkomponenten beim Empfängersind mithilfe dieses zusätzlichen Pakets in der Lage, verloren gegan-gene Daten pakete zur rekonstruieren.

Bei einer FEC-Rate von 1:10 (ein Fehlerkorrektur-Paket pro zehnDatenpakete) lässt sich die Packet-Loss-Rate von einem Prozent auf0,09 Prozent verringern. Ein Nachteil des Verfahrens ist, dass dieÜbermittlung der FEC-Kontrollpakete die Latenzzeit die Belastung der

ANBINDUNG

Ohne Einsatz von WAN-Optimierung dauert es mehr als drei Tage, um 1 TByte Daten zureplizieren dank Optimierung etwa zwei Stunden (Abb. 1).

Quel

le: S

ilver

Pea

k

ix1113_b_00_mit_Anz.indd 19 15.10.13 15:48

Page 20: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

WAN-Anbindung erhöht. Daher sollte die IT-Abteilung zuvor prüfen,wie hoch die Datenpaket-Verlustrate auf einer WAN-Verbindung ist.Forward Error Correction sollte erst bei einer Paketverlustrate vonmindestens einem, eher zwei Prozent zum Einsatz kommen.

Wichtig ist, dass eine WAN-Appliancedie Packet Loss Rate und Fehler bei derDatenübermittlung nicht nur bei TCP(Transmission Control Protocol) korrigiert,sondern auch UDP einbezieht. Denn vorallem Echtzeit-Anwendungen nutzen dasUser Datagram Protocol (UDP) und nichtTCP.

Die Latenz minimieren

Auch die Latenzzeit lässt sich mithilfe vonWAN Optimization beeinflussen. Sie hängtin erster Linie von der Länge der Übertra-gungsstrecke ab. Bei einer WAN-Streckezwischen zwei Rechenzentren in Europaund den USA sind 100 bis 200 ms ein -zukalkulieren, bei Satellitenverbindungen500ˇms.

Solche Werte sind für zeitkritische An-wendungen zu hoch. Beim Replizieren vonDaten sind beispielsweise Latenzwerte vonweniger als 100 ms erforderlich. Um die

Verzögerungszeiten zu minimieren, verwenden WAN-Optimierungs-systeme mehrere Techniken. Sie setzen bei den Übertragungsproto-kollen TCP, IP und UDP und CIFS (Common Internet File System) an.Dazu zählen:

20 Rechenzentren und Infrastruktur Ⅳ/2013

ANBINDUNG

Bereits eine Datenpaketverlustrate (Packet Loss) von unter einem Prozent auf einer WAN-Strecke senkt die nutzbare Bandbreie empfindlich (Abb. 2).

Quel

le: S

ilver

Pea

k

Wer in Rechenzentren oder einer Niederlassung ein WAN-Optimierungssystem implementieren möchte, sollte darauf achten,dass die Produkte folgende Basisanforderungen erfüllen:

• Unterstützung vieler Protokolle und Anwendungen: EtlicheSysteme beschleunigen nur einige Protokolle und Anwendun-gen. Der Anwender sollte daher prüfen, ob die ins Augegefasste WAN-Optimierungslösung für diejenigen Applikatio-nen tauglich ist, die er einsetzt oder mittelfristig einsetzenwird.

• Skalierbarkeit: Als Anhaltspunkte dienen der maximale Durch -satz (MBit/s oder GBit/s) und die Zahl der möglichen parallelenSessions beziehungsweise Flows. Auch die Up grade-Modelleder Hersteller überprüfen. Einige offerieren variable Angebote,bei denen die bereits vorhandenen die Systeme berücksichtigtwerden.

• Transparente Implementierungskosten: Nicht nur der An -schaf fungspreis spielt eine Rolle, sondern auch der Aufwand,der mit der Beschaffung, dem Test und der Installation einerWAN-Appliance verbunden ist. Virtualisierte WAN-Optimie-rungslösungen sind hierbei im Vorteil gegenüber Hardware-Systemen.

• Klar kalkulierbare Betriebskosten: Etliche Hersteller ver-schweigen Kosten für Software-Patches oder Hardware-Upgrades. Besonders problematisch ist, wenn ein Herstelleralle drei bis vier Jahre den Support für eine Produktgenera-

tion einstellt und den Anwender dadurch zwingt, auf neueModelle umzusteigen.

• Wahl zwischen Hardware-Appliances und virtualisierten Versionen: Im Idealfall hat ein Anbieter beide Produktversionenin seinem Portfolio. Dies lässt dem Anwender die größte Wahl-freiheit: In kleineren Außenstellen können beispielswei se Hard-ware-WAN-Optimierungssysteme eingesetzt werden, inRechenzentren mit einem hohen Virtualisierungsgrad dagegenVirtual Machines.

Die Lösung sollte zudem folgende Grundfunktionen bieten:

• Bandbreitenoptimierung inklusive Caching, Deduplizierung(möglichst auf Byte-Ebene, nicht nur von 16-Byte-Paketen) undKomprimierung

• Überlast-Management (Congestion Control), einschließlich derMöglichkeit, einzelnen Verkehrsströmen Priorität vor andereneinzuräumen

• Techniken zum Minimieren der Folgen von Paketverlusten undzum Sicherstellen, dass Pakete in der richtigen Reihenfolgebeim Adressaten ankommen

• beschleunigte Übermittlung von TCP- und UDP-Daten, umLatenzzeiten zu minimieren

• Monitoring-Funktionen für die Überwachung der Performanceder Anwendungen und des Netzes.

WORAUF BEI WAN-OPTIMIERUNGS PRODUKTEN ZU ACHTEN IST

Page 21: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

• eine exakte Messung der Round Trip Time (RTT) der Datenpakete• ein größeres Sende- und Empfangsfenster von TCP-Paketen von bis

zu 1ˇGigabyte statt der üblichen 64ˇKilobyte• eine Überlastkontrolle (Congestion Control) wie HighSpeed TCP. Sie

passt die TCP-Sende- und Empfangsfenster entsprechend der ak-tuellen Packet Loss Rate einer WAN-Verbindung an

• Read-ahead/Write-behind-Caching von CIFS-DatenNiedrige Latenzzeiten sind zudem die Voraussetzung dafür, dass An-wender in Außenstellen Applikationen nutzen können, die über einzentrales Rechenzentrum bereitgestellt werden. Das ist beispielsweisebei Cloud Computing und Big-Data-Projekten der Fall. Zudem lassensich bei niedrigen Latenzzeiten Daten über größere Entfernungen hin-weg replizieren. Bei synchroner Datenreplikation sind ohne WAN-Op-timierung rund 150ˇKilometer das Maximum, bei Einsatz dieser Tech-nik bis zu 1000ˇKilometer.

Auch WAN-Optimierungssysteme gibt es als Virtual Machines. Siebieten einige Vorteile:

WAN-Optimierung virtuell

• Sie lassen sich auf vorhandenen Server-Systemen und unter Stan-dard-Hypervisoren wie VMware, Citrix-Xen, Microsoft Hyper-V oderKVM implementieren.

• Die Installation erfordert nur das Herunterladen der Software undderen Installation auf einem Server-System.

• Für die IT-Abteilung und die Rechenzentrumsverantwortlichen ist eseinfacher, eine softwaregestützte WAN-Optimierungslösung für Test-zwecke herunterzuladen und zu implementieren, als eine Hard-ware-Appliance zu installieren.

• Nach Berichten von Administratoren in User-Foren ist es wenigeraufwändig, eine Virtual Appliance zu konfigurieren als eine physi-sche Variante.

• Es muss keine Hardware verschickt werden. Das kann Zeitverzöge -rungen hervorrufen, etwa durch Zoll-Formalitäten.

Hinzu kommt, dass einige Hersteller für die virtualisierten Versionenihrer WAN-Optimierungsprodukte attraktive Lizenzierungs- und Up -grade-Modelle sowie kostenlose Einstiegsmodelle anbieten.

Hardware-Appliances sind dann die erste Wahl, wenn in einer Au-ßenstelle ein WAN-Optimierungssystem installiert werden soll. In die-sem Fall ist einfacher, eine vorkonfigurierte Appliance an die Filiale zuversenden und dort von einem IT-affinen Mitarbeiter anschließen zulassen. Das Fein-Tuning können Administratoren aus der Ferne vomzentralen Rechenzentrum aus vornehmen.

Dennoch geht der Trend im Rechenzentrum klar in Richtung Soft-ware Defined Acceleration. Mittlerweile stehen softwarebasierte WAN-Optimierungslösungen zur Verfügung, die einen Durchsatz von bis zu10 GBit/s unterstützen. Dies ist selbst für anspruchsvolle Aufgabenwie die Kopplung von Rechenzentren ausreichend.

Dave GreenfieldProduct Marketing Manager, Silver Peak

ANBINDUNG

Rechenzentren und Infrastruktur /2013 21

ix1113_b_00_mit_Anz.indd 21 15.10.13 15:48

Page 22: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

P rognosen sind schwierig, vor allem, wennsie die Zukunft betreffen.“ Was in diesem

geflügelten Wort anklingt, würden Betreiberund Planer von Rechenzentren trotzdemgerne können, denn eine heute falsch getrof-fene Investitionsentscheidung kann in derZukunft kostspielig werden. Einfach ist dasKaffeesatzlesen jedenfalls nicht. 2009 gingbeispielsweise die Harvard Business Reviewdavon aus, dass schon 2012 nur noch80ˇProzent der Unternehmen ein eigenes Re-chenzentrum betreiben würden. Der Rest

sollte sich in Cloud und Wohlgefallen aufge-löst haben.

Veränderte Rolle von RechenzentrenDie aktuelle Situation sieht anders aus, derTrend bewegt sich eher weg von Outsour-cing, Hosting und Cloud. Oracles Studie „NextGeneration Data Center Index“ ergab für2013, dass sich der Anteil von Unternehmen,die ausschließlich auf unternehmensinterne

Rechenzentren setzen, seit der letzten Um-frage von 45ˇProzent auf 66ˇProzent erhöhthat. Und der Anteil der Unternehmen, die in-nerhalb der nächsten zwölf Monate in einneues Rechenzentrum investieren wollen, istvon 22 auf 26 Prozent gestiegen.

Das baldige Ende von Rechenzentren inden Unternehmen ist wohl ebenso unwahr-scheinlich wie das papierlose Büro oder Vi-deotelefonate als Ersatz für Business-Reisen.Das soll natürlich nicht heißen, dass die Si-tuation in den Rechenzentren statisch und

22 Rechenzentren und Infrastruktur Ⅳ/2013

STRATEGIE

Grüner, flexibler, effizienterRechenzentren machen sich fit für die Zukunft

Sparen Rechenzentren in Zukunft Energie, in dem sie konsequent mit Gleichstrom versorgt werden? Und stehtdas heute allgegenwärtige 19-Zoll-Format bei Servern und Racks vor der Überfahrt auf dem Abstellgleis? EinBlick auf RZ-Techniken, die uns in Zukunft beschäftigen werden.

Die Studie „Next Generation Data Center Index“ von Oracle ergab

für 2013, dass 66 Prozent aller befragtenUnternehmen aus schließ lich auf

unternehmensinterne Rechenzentren setzen (Abb.ˇ1).

Energieeffizienz ist vielschichtig und reicht von optimierten Betriebsmodellenüber Strom sparende Liquid Cooling Packagesbis hin zu effizienten Servernetzteilen (Abb.ˇ2).

Foto

: Ritt

al

Foto

: Ritt

al

Page 23: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

unverändert bleibt. Ganz im Gegenteil. Zwarwerden die meisten Firmen über kurz oderlang Cloud-Angebote wahrnehmen, doch imHinblick auf die Sorge, dass Informationenbei großen, zentralisierten Anwendern nichtvor dem Einblick Dritter sicher sein könnten,wird es auch eine immer größere Zahl vonAnwendungen geben, die man komplett untereigener Kontrolle halten will.

Gesunkener Energiebedarf

Ganz oben auf der Prioritätenliste steht Ener-gieeffizienz, auch weil sie gesellschaftspoli-tisch ein sehr relevantes Thema ist. Energie-effizienz ist extrem vielschichtig und reicht vonoptimierten Betriebsmodellen über Strom spa-rende Kühlungsvarianten bis hin zum Einsatzeffizienter Komponenten in Servernetzteilen.

Rechenzentrumsbetreiber wissen das of-fensichtlich: Nach dem CDW Energy EfficientIT Report 2012 haben 46ˇProzent der Studien-teilnehmer auf Low-Power Prozessoren umge-rüstet, 44 Prozent haben ihre Altgeräte durchEnergy-Star-kompatible Geräte ersetzt und31ˇProzent haben ihr Netzwerk-Equipment auf

energieeffiziente Komponenten umgestellt. Für43ˇProzent der befragten IT-Verantwortlichenist das Ziel Energie einzusparen ein wesent -licher Treiber für Konsolidierungs-Initiativen imRechenzentrum. Noch vor zwei Jahren warenes nur 34ˇProzent.

Solche Ansichten zeigen Wirkung. WährendAnalysten noch vor einigen Jahren erwarteten,dass Rechenzentren immer mehr Strom ver-brauchen, sieht die Situation mittlerweile an-ders aus. Das Borderstep Institut berechneteim Mai 2012 den Stromverbrauch von Servernund Rechenzentren in Deutschland im Jahr2011. Dieser lag bei 9,7ˇTerawattstunden(TWh). Damit liegt er ungefähr vier Prozentunter dem Strombedarf des Jahres 2008 –trotz steigender Zahl der installierten Server.Der Wert liegt um circa 1,4ˇTWh unter demVerbrauch, mit dem im „Business as usual“-Szenario gerechnet worden war.

Gleichstrom bis in die Server hineinInzwischen gibt es einen in der Branchedeutlich wahrnehmbaren Trend dahingehend,

Rechenzentren und Infrastruktur /2013

STRATEGIEFo

to: R

ittal

Ein breites Feuchtigkeits-und Temperaturspektrumerlaubt die häufigereVerwendung von gefilterterAußenluft zur Kühlung(Abb.ˇ4).

Foto

: Ritt

al

Als Alternative zum individuellen Rechenzentrumsbau überzeugt das standardisierteRechenzentrum RiMatrix S durch kurze Lieferzeiten und vorzertifizierte Komponenten(Abb.ˇ3).

ix1113_b_00_mit_Anz.indd 23 15.10.13 15:49

Page 24: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

die Server über Gleichstrom zu versorgen.Serverhersteller Hewlett-Packard beispiels-weise schätzt, dass der Wirkungsgrad vonGleichstrom um bis zu zehn Prozent höherliegt als bei Wechselstrom, wenn zentralisiertverteilt wird. Hinzu kommt, dass bei Einsatzvon Gleichstrom Wechselrichter in den Netz-teilen und unterbrechungsfreien Stromver-sorgungen überflüssig werden.

Betrachtet man den Weg des Stroms vomErzeuger bis zur Buchse auf dem Mother -board des Servers, wird er nämlich rechthäufig gewandelt, jeweils mit mehr oder we-niger hohen Verlusten. Generatoren im Elek-trizitätswerk oder in einer Windturbine produ-zieren in der Regel Wechselstrom, so wird erauch über die Überlandleitung verschickt.Nachdem in geringere Spannungen transfe-riert wurde, läuft er meist in die zentrale un-terbrechungsfreie Stromversorgung des RZ,wo aus Wechselstrom Gleichstrom gemachtwird, um die Akkus zu laden und die Schal-tungstechnik zu versorgen. Aus der nun un-terbrechungsfreien Gleichspannung entstehteine künstlich erzeugte Wechselspannung,die dann zum Netzteil des Servers weiterge-leitet wird. Dort sorgen wieder Gleichrichterdafür, dass am Motherboard 3,3ˇVolt, 5ˇVoltund 12 Volt Gleichspannung ankommen.

Bei Hewlett-Packard glaubt man, die An-schaffungskosten um bis zu 15 und den Be-darf an physischer Stellfläche um bis zu25ˇProzent reduzieren zu können, wenn mandie Server direkt mit Gleichspannung versor-gen würde. HP bietet Netzteile für Gleichstroman, die in puncto Formfaktor mit den aktuellenModellen übereinstimmen. Allerdings werdennur neue Servermodelle für die Gleichstrom-netzteile zertifiziert, es ist also praktisch nichtmöglich nachzurüsten. Bei anderen Herstellernsieht die Situation ähnlich aus, Gleichspan-

nungsversorgung ist, wenn überhaupt, nur fürganz neue Systeme verfügbar.

Ein weiteres Problem stellt die Strom -führung dar. Gleichspannung erfordert ver-gleichsweise hohe Ströme bis hin zu denVerteilersystemen am Serverschrank. Demstehen manchmal bauliche Hindernisse wiePlatzbedarf und Brandschutzvorschriften ent-gegen. Trotzdem bleibt die Versorgung mitGleich- anstelle von Wechselstrom eine reiz-volle Variante, die aber auf breiter Ebene erstin späteren Generationen von Rechenzentrenzum Tragen kommen wird.

Weg vom 19“-Format?

Wenn man schon die Netzteile verändert,warum dann nicht gleich die Server selbst?Große Serverhersteller und Anwender wie Facebook experimentieren damit, Server ausdem klassischen 19“-Format herauszulösen.Ein Weg dahin ist, Motherboards komplett zukapseln und von einem nichtleitenden Kühlmit-tel umfließen zu lassen. CPU, RAM, Netzwerk-und Grafikchips geben ihre Wärme direkt andas Kühlmittel ab, zwei Ventile am Gehäusesorgen für Zu- und Abfluss der Flüssigkeit.Speziell gestaltete Racks nehmen die Moduleauf und stellen die elektrischen und hydrau -lischen Verbindungen sicher. Radikale Konzeptewie dieses benötigen aber standardisierte,homogene Umgebungen mit extrem hoherSkalierung, damit sich die Kosten in einemüberschaubaren Zeitrahmen amortisieren.

Das Open Compute Project setzt ebenfallsam 19“-Format an. Dabei werden 21“ breiteModule verwendet und die größere Flächegenutzt, um die Server thermisch besser zudesignen. Das Außenmaß der Schränke bleibttrotzdem identisch mit dem von 19“-Racks,sodass im Rechenzentrum kein zusätzlicher

Platz eingeplant werden muss. Darüber hi-naus adressiert das von Facebook initiierteOpen Compute Project die Spannungsver -sorgung mit einem 12,5ˇVolt Netzteil und 277ˇVolt Eingangsspannung sowie einemEingang für ein 48ˇVolt Batterie-Backup.

Klimawandel bei der WohlfühltemperaturAuch ohne dass etwas an der Computerhard-ware drastisch verändert wurde, lassen sichdie Rahmenbedingungen für den Betriebdeutlich verbessern, vor allem bei aktuellerHardware. Wichtigste Stellschraube ist dieTemperatur der zugeführten Luft. Währendhier noch vor wenigen Jahren Werte um die20 Grad Standard waren, sind heute bis zu40 Grad anzutreffen.

Die American Society of Heating, Refrige-rating and Air-Conditioning Engineers (ASH-RAE) hat die zulässigen Eckdaten in ihrenRichtlinien für den Betrieb von Rechenzen-tren im Jahr 2008 erheblich gelockert. So-wohl die Bandbreite der Temperaturen alsauch der Luftfeuchte ist größer gewordenund wird von vielen Firmen bereitwillig aus-genutzt. Hersteller wie Dell oder SGI habendie Garantiebereiche ihrer Server an die ver-änderten Vorgaben angepasst, sodass Betrei-ber die höheren Temperaturen in den Re-chenzentren nutzen dürfen.

Ein breites Feuchtigkeits- und Temperatur-spektrum erlaubt es häufig, Außenluft zur Küh-lung zu verwenden. Die sogenannte freie Küh-lung funktioniert entweder indirekt mit Wasserals Transportmedium oder direkt über gefilter-te Außenluft als einziges Medium. Mit den an-gepassten ASHRAE-Angaben aus 2008 ist esin Mittel- und Nordeuropa fast das ganze Jahrüber möglich, auf diese Weise zu kühlen, ohne

24 Rechenzentren und Infrastruktur Ⅳ/2013

STRATEGIE

Kerstin Ginsberg,PR-Referentin IT,Rittal (Abb.ˇ5)

Foto

: Ritt

al

Bernd Hanstein,Hauptabteilungs -leiter Produkt -manage ment IT,Rittal (Abb.ˇ6)

Foto

: Ritt

al

Page 25: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Rechenzentren und Cloud ComputingMit dem neuen Loseblattwerk auf dem richtigen Weg zur energieeffi zienten Verwaltung im Öff entlichen Bereich.

Mit konkretenBeispielen aus

der Praxis!

Heise Zeitschriften Verlag GmbH & Co. KGKarl-Wiechert-Allee 1030625 HannoverTelefon: 05 11/53 52 - 277Telefax: 05 11/53 52 - 533E-Mail: [email protected]

Jetzt „Rechenzentren und Cloud Computing“ zum Preis von € 79 pro Stück sichern! (jeweils zzgl. Versandkosten)

Für kommunale IT-Entscheider, kommunale Rechenzentrums- betreiber und technische Anwender zum Thema Rechenzentren und Cloud Computing

Beschreibt umfassend, wissen- schaftlich fundiert, den Nutzen, die Einsatzsenarien und den ressour- ceneffi zienten Betrieb von Rechen- zentren und Cloud Computing

Liefert aktuelle, praxisrelevante Forschungsergebnisse in Ergän- zungslieferungen aus dem „Govern- ment Green Cloud Laboratory“

Die Herausgeber:Prof. Dr. Rüdiger ZarnekowDipl.-Volkswirt Dieter RehfeldMarc Wilkens

Die Autoren:Björn SchödwellLars DittmarStine Labes

– bis auf wenige Tage im Jahr – einen zu-sätzlichen und stromintensiven Chiller nutzenzu müssen. Doch nicht jede Hardware ver-trägt die hohen Eingangstemperaturen, Swit-ches und ältere Server benötigen oft kühlereZulufttemperaturen. Eine Möglichkeit zur Ab-hilfe besteht darin, Klimazonen zu bilden unddie entsprechende Hardware dort nach ihrenAnsprüchen zu gruppieren.

Dem Strom hinterher

Wenn es günstiger ist, über die Außentempe-ratur zu kühlen, dann ist es natürlich sinnig,ein Rechenzentrum dort zu betreiben, wo esbeständig kühle Luft gibt. In den skandinavi-schen Ländern entstehen deshalb zurzeitzahlreiche neue, große Rechenzentren. Face-book hat gerade eine Anlage in Schweden er-öffnet, die komplett mit Freikühlung aus-kommt und bei der auch der dort verfügbaregünstige Ökostrom eine Rolle spielt. Das wirdauch in Deutschland die Rechen zentrumsweltverändern: Nachdem sich Erzeuger alternati-ver Energien an Standorten ansiedeln, wo diebesten Umgebungsbedingungen für Wind-oder Wasserkraft herrschen, werden Rechen-zentrumsbetreiber folgen. Denn weil mittel-fristig leistungsfähige Trassen fehlen, um bei-spielsweise an der Nordsee erzeugten Stromnach Bayern zu transportieren, ist es sinnvoll,das Rechenzentrum in der Nähe des Strom-erzeugers zu bauen. Nachdem die mittlereDurchschnittstemperatur an der Küste auchniedriger ist als beispielsweise im MünchnerUmland, lässt sich dadurch auch frei über dieUmgebungsluft kühlen.

Standardisierung statt DetailaufwandDie Frage, aus welchen Komponenten einmöglichst effizientes Rechenzentrum aufge-baut sein muss, beschäftigt die Entwicklerschon lange. Große Anwender wie Microsoftglauben, dass die Standardisierung eine ent-scheidende Maßnahme ist, um Kosten undEffizienz in den Griff zu bekommen. Dieneuen Rechenzentren des Softwaregigantennutzen eine Tier-1-Infrastruktur, also ein RZmit minimalen Klima-, Redundanz- und Si-cherheitsvorkehrungen. Die Redundanz wirdauf Applikationsebene geschaffen. Gemein-same Massenspeicher, virtualisierte Serverund die entsprechende Hochverfügbarkeits-software sorgen im Ernstfall dafür, dass Pro-zesse und Daten von einem defekten Gerätauf ein Ersatzsystem verschoben werden.

Was Rechenzentrumsbetreiber in denletzten Jahren häufig vernachlässigt haben,

wird in Zukunft unumgänglich sein: Jederzeitgenaue Daten über ihr Rechenzentrum zu be-sitzen und auszuwerten. Eine Online-Umfragedes Branchenverbandes eco e.V. ergab, dassnur 33ˇProzent aller Rechenzentrumsbetreiberüber Personal verfügten, welches sich mitdem Thema Energieeffizienz beschäftigte und37,5ˇProzent kamen ohne einen Ansprech-partner aus, der die Stromkosten für die IT imRechenzentrum verantwortet.

Doch einer der größten Fehler der Vergan-genheit war es, das Rechenzentrum nach Ty-penschild zu dimensionieren: Wenn ein Ser-vernetzteil eine Nennleistung von 850 Wattaufwies, wurde auch mit einer maximal ange-forderten Leistung von 850 Watt kalkuliert.Doch kein Server oder anderes elektrischeGerät nutzt die Nennleistung des Typenschildstatsächlich aus, nicht einmal bei einer Auslas-tung von 100ˇProzent.

Zukunftssicherheit und aktuelle Anpassungen Die Fehleinschätzung von Leistungsdichtenwirkt sich auf alle Gewerke des Rechenzen-trums aus. Wird überdimensioniert, werdenmehr Flächen für die IT-Infrastruktur und dieGebäudetechnik benötigt. Die technischenAnlagen wie Transformatoren, USV-, Diesel-und Schaltanlagen, Batterien, Klimageräteund Kälteerzeugungsanlagen werden größerausgelegt als nötig. Eine aktuelle Studie desVerbandes eco ergab als grobe FaustformelMehrkosten von 3000 bis 5000ˇEuro pro über-dimensionierter kW für ein Rechenzentrum miteinem guten n+1-Redundanzkonzept. Bislangfehlten aber zuverlässige Praxiswerte, um rea-listisch kalkulieren zu können.

Die Welt der Rechenzentren ist nach Jah-ren, in denen es kaum umwälzende Entwick-lungen gab, stark in Wandel geraten. NeueNutzungsmodelle, Technologieansätze undein verändertes Verständnis, wie Rechenzen-tren Dienste verfügbar machen, prägen dienächsten Jahre. Rechenzentrumsbetreibermüssen aus den Angeboten und Ansätzenoptimale Kombinationen zusammenstellen,die sowohl mittelfristig alle Ansprüche derNutzer abdecken als auch langfristig mög-lichst hohes Sparpotenzial ausschöpfen. Jetztschon ist klar, dass sich Erfolg versprechendeStrategien aus energieeffizienten Komponen-ten, freier Kühlung und Standardisierung zu-sammensetzen.

Kerstin Ginsberg, PR-Referentin IT, Rittal

Bernd Hanstein, Hauptabteilungsleiter Produkt-

management IT, Rittal

Rechenzentren und Infrastruktur /2013

STRATEGIE

ix1113_b_00_mit_Anz.indd 25 15.10.13 15:49

Page 26: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

I n Rechenzentren, die als Housing-Anbieter agieren, ist Zutritts -management ein zentraler Aspekt der Serviceleistung: Der Zutritt

für die IT-Techniker der jeweiligen Kundenunternehmen ist einerseitsexklusiv auf die jeweiligen Kundenbereiche zu begrenzen (Mandan-tenfähigkeit), andererseits benötigen die Techniker des RZ-Unterneh-mens Zugriff auf Infrastrukturbereiche, in die der Zutritt für Kundennicht möglich sein soll. Der Betreiber des RZ, wie auch dessen Nutzersollten sich beim Gestalten des Zutrittsmanagements verdeutlichen,dass das IT-bezogene Zugriffsmanagement und das physische Zu-trittsmanagement den gleichen Spielregeln folgen. Für den RZ-Betrei-ber ist dieser Ansatz Voraussetzung für überprüfbare Zutrittsprozesse.

Nachvollziehbares Herleiten von Rechten

Bei Zugriff, wie auch bei Zutritt gilt der Grundsatz der Betriebsnotwen-digkeit: Auf der einen Seite ist zu gewährleisten, dass jeder Mitarbeiteralle zur Aufgabenerfüllung notwendigen Werkzeuge erhält. Auf der an-deren Seite sind die Privilegien so zu beschränken, dass wissentlicheoder unwissentliche Manipulationen in kunden- und fachfremden Ar-beitsgebieten unterbunden werden. Die erforderlichen Rechte solltensich aus dem Unternehmenszweck und den sich daraus ergebendenBetriebsprozessen ableiten lassen. Ein elementarer Erfolgsfaktor istdabei die rollenbasierte Rechteverwaltung.

Dies erfolgt beim RZ-Betreiber durch funktionsbezogene Aufgaben-beschreibungen. Fast zwangsläufig wird über diesen Ansatz klar, aufwelche Anwendungen, Services und Dateien mit welchen Rechten zu-gegriffen werden darf. Genauso ergibt es sich aus dieser Betrachtung,welche Räume betreten werden dürfen.

Die Administrierbarkeit wird hierbei durch Zuweisen von Rollen zusinnvoll zusammengefassten Zugriffsprofilen vereinfacht. Zutrittsseitigwerden funktionsbezogene Sicherheitsbereiche auf Basis eines Si-cherheitszonenkonzepts definiert, die wiederum Rollen zugeordnetwerden. Für den einzelnen Mitarbeiter ergibt sich daraus ein Zutritts-rechteprofil. Jede Zutrittsmöglichkeit sollte idealerweise nur einer Zu-trittsrolle zugeordnet werden. Der modulare Aufbau verschiedener Zutrittsrollen ermöglicht dann eine überschneidungsfreie Zuordnungder Rollen zu einer Funktion. Beispielsweise die Zutrittsrolle „allge-meine Verwaltung“, die jeder Mitarbeiter erhält und „IT-Räume“, diesich aus der Funktion eines Netzwerkadministrators ableitet.

Die nun entstandene Matrix erlaubt eine einfache und nachvoll-ziehbare Zuordnung eines Mitarbeiters zu einer oder mehreren Rollen.Aus dieser bedient sich die Zugriffsverwaltung, genauso wie die Zu-trittskontrollanlage. Das mühselige und nicht mehr nachvollziehbareZuweisen von Einzelrechten entfällt. Jede Veränderung von Zutrittsbe-reichen, beispielsweise durch Hinzufügen einer zutrittskontrolliertenTür oder der Zugang zu einer neuen Anwendung, wird automatisch analle Nutzer der entsprechenden Rolle verteilt.

Elemente des Zutrittsmanagements imRechenzentrum Zum Management der Zutritte gehört mehr als nur der Betrieb einerZutrittskontrollanlage (ZKA). Vom Ablauf her betrachtet ist die ZKA nurein Erfüllungsgehilfe, denn auch eine Schließanlage oder ein Pförtnerkönnen Teil der Prozesskette sein. Wichtig ist das Zutrittsrecht, wel-ches sich in unterschiedlichen Ausprägungen zeigt.

Das Autorisieren definiert das Zuweisen von Rechten; eine Personwird in die Lage versetzt, etwas zu tun. Dieser Bereich gliedert sich indie Teilbereiche „Recht zur Veränderung in der Zutrittskontrolle“ zur Ad-ministration der ZKA, dem „Recht zur Vergabe von Zutrittsrechten“ unddem „Zutrittsrecht“ selbst. Zur revisionssicheren Dokumentation mussjeder dieser Bereiche schriftlich festgelegt und durch eine berechtigtePerson freigegeben werden. Mit der Autorisierung sollte generell eineEinweisung in die Regeln des Zutrittsmanagements verbunden sein.

26 Rechenzentren und Infrastruktur Ⅳ/2013

SICHERHEIT

Zutrittsmanagement inRechenzentrenIdentity- und Access-Management (IDM) im Umfeld der physischen Sicherheit

Identity- und Access-Management (IDM) sind derzeit in etlichen IT-Bereichen ein wichtiges Thema. Dabei rutscht der Aspekt des Zutrittsmanagements leider allzu oft aus dem Fokus – wobei er doch inmehrfacher Hinsicht relevant ist für ein rundes IDM-Konzept. Insbesondere dann, wenn es um den Betrieb eines Rechenzentrums geht.

Zutritts- und Zugriffs -mana ge mentaus der Sicht

eines RZ-Betreibers (Abb.ˇ1).

Quel

le: E

-She

lter F

acili

ty S

ervi

ces

GmbH

Page 27: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

MODULARE LÖSUNGEN FÜR RECHENZENTRENErst mit einer frei und individuell geplanten physikalischen Infrastruktur wird Ihr Rechenzentrum optimal verfügbar. Darum: Ihre Schroff Datacom-Lösung von Pentair! Individuell kombiniert aus variabel einsetzbaren Standard-Komponenten. Schränke, Stromversorgung, Kühlung, Kabel-Management und Monitoring – ein Baukastensystem aus einer Hand, von erfahrenen Profis umgesetzt. Das schafft Freiheit für das Wesentliche: Ihren Erfolg.

DESIGN WITHOUT LIMITS

WWW.SCHROFF.DE/DATACOM

Die Authentifizierung existiert in zwei Ausprägungen. Einerseitswird die Identität des Privilegienbesitzers beim Zuordnen und Aktivie-ren der Rechte überprüft, beispielsweise bei der Übergabe des Zu-trittsmediums (Smartcard, sonstiges Token). Andererseits wird beijeder Buchung am Ausweisleser kontrolliert, ob das Zutrittsrecht ak-tuell noch besteht und Zutritt gewährt werden kann.

Das Autorisieren schafft die Grundlagen der Berechtigungszuord-nung. Im täglichen Betrieb findet diese ihren Niederschlag in der Ad-ministration der Rechteverwaltung. Zunächst gibt es die vertrautenRollen „Administration Zutrittskontrolle“, gegebenenfalls mit verschie-denen Stufen, und in der operativen Umsetzung „Parametrierung Zu-trittsrechte“ durch den Sicherheitsmitarbeiter. Administration kannaber auch das Verwalten von Schlüsseln bedeuten.

Kontrollen – unschön, aber unabdingbar

Ein ungeliebter, aber bedeutender Aspekt für funktionierendes und trans-parentes Zutrittsmanagement ist das Auditieren der Rechtezuordnung.Es erbringt den Nachweis einer einwandfrei funktionierenden Prozess-kette durch interne Prüfungen und externe Revisionen. In regelmäßigenAbständen wird intern im Vier-Augen-Prinzip geprüft, ob die Struktur derBerechtigungserteilung noch mit der Organisation des Unternehmensübereinstimmt. Ebenso sind alle Personen mit einem Zutrittsrecht daraufzu überprüfen, ob sie dieses Recht noch benötigen. Hier liegt der Prüf-schwerpunkt auf dem Abgleich der Vorgabedokumentation und der Um-setzung in der Zutrittskontrollanlage. Externe Auditoren ergänzen dieseBetrachtung durch Prüfung des vorgelagerten Autorisierungsprozesses.

Diese Ausführungen beziehen sich erst einmal nur auf den Regel-prozess für permanent Zutrittsberechtigte des Rechenzentrums. ImGrundsatz lassen sich die Gedanken auch auf das Besuchermanage-ment (für temporär Zutrittsberechtigte) übertragen sowie auf notfall-und störungsbedingte Zutritte. Letztere lassen sich dann auf Sonder-zutritte durch Rettungskräfte oder Feuerwehr einschränken.

Das reibungslose Zusammenwirken der Elemente des IDM im Zu-trittsmanagement beim RZ-Betreiber selbst, wie auch im Zusammen-wirken mit den RZ-Nutzern ist als Baustein für umfassende Informati-onssicherheit eine unabdingbare Voraussetzung für ein funktionierendesZutritts- und Zugriffsmanagement in Rechenzentren.

Andreas Budich, Compliance & Security Management,

E-Shelter Facility Services GmbH

Rechenzentren und Infrastruktur /2013

SICHERHEIT

Technische Komponenten spielen eine wichtige Rolle beimZutrittsmanagement. Aber auch die Organisation selbst mussstimmen (Abb.ˇ2).

Quel

le: E

-She

lter F

acili

ty S

ervi

ces

GmbH

ix1113_b_00_mit_Anz.indd 27 15.10.13 15:49

Page 28: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Z war gewährleisten viele Hosting-Anbieter einen Hardwareaus-tausch innerhalb von wenigen Stunden. Doch damit ist es selten

getan. Denn das Einspielen von Backups oder eine Neuinstallation und-konfiguration kosten weitere wertvolle Minuten.

Besser sind redundante Cluster-Lösungen. Sie bieten die gewünsch-te Hochverfügbarkeit, doch die Softwarelizenzen sind oftmals teuer.Die Open-Source-Lösung DRBD (Distributed Replicated Block Device)ist eine günstige Alternative.

DRBD repliziert Daten automatisch auf zwei Servern. Im Falle vonWartungsarbeiten oder einem Serverausfall greift ein automatischerFailover-Mechanismus über die Dienste Corosync und Pacemaker. Derfunktionsfähige Server übernimmt die ausgefallenen Dienste und An-wendungen mit der gleichen Netzwerkkonfiguration innerhalb von we-

nigen Sekunden beziehungsweise wenigen Minuten. Ist Server Num-mer eins wieder voll betriebsbereit, werden die in der Zwischenzeitauf Server zwei veränderten Daten erneut abgeglichen.

Ein DRBD-Cluster besteht in der Regel aus zwei Servern mit iden-tischen Hardwarekomponenten, die idealerweise über mindestens dreifreie Netzwerk interfaces verfügen. Die Ausstattung beider Servermuss so ausgelegt sein, dass beim Ausfall eines Servers alle Diensteauch auf dem anderen betrieben werden können, da dann nur noch50 Prozent der ursprünglichen Ressourcen zur Verfügung stehen.

Die Hardwareanforderungen

Um Performance-Engpässe bei steigendem Speicher- und Bandbreiten-bedarf zu vermeiden, lässt sich durch das Aggregieren weiterer Giga-bit-Links zu einem größeren Bonding innerhalb des Cluster-LANsmehr Bandbreite erzeugen.

Die Server werden per Crossover-Verkabelung direkt miteinanderverbunden und jeweils mit einer Netzwerkverbindung (Uplink) für dieAußenanbindung ausgestattet. Mit einer redundanten Crossover-Ver -kabelung und Außenanbindung ist es möglich, auf relativ kostengüns-tige Weise Redundanz zu gewährleisten, wenn es zu einem Kabelde-fekt oder Ausfall einer Netzwerkkarte kommt.

Benötigte Software

Für ein funktionsfähiges DRBD-Cluster wird folgende kostenfreieSoftware benötigt:•ˇDRBD: repliziert automatisch alle neuen und geänderten Daten.•ˇPacemaker: verwaltet die Clusterressourcen (NFS, Tomcat und so

weiter).•ˇCorosync: startet die Dienste des Cluster-Managers und gewähr-

leistet die Übertragung des Clusterstatus zwischen den Cluster-Nodes.

Auf beiden Servern werden die gleichen Linux-Betriebssysteme undAnwendungen installiert. Jeweils eine Partition auf den Servern solltefür das Betriebssystem, die aktuelle Konfiguration und Serverdienstewie MySQL oder NFS reserviert sein.

Für die reinen Nutzdaten der Clusterdienste wie Content von Web-servern, Datenbanken vom MySQL-Dienst oder kundeneigene Appli-kationen ist eine zweite Partition, das sogenannte DRBD-Volume, re-serviert. Jeder Dienst, der auf dem DRBD-Cluster aktiv betrieben wird,erhält eine eigene IP-Adresse, (Service-IP). Für Konsistenz sorgt die

28 Rechenzentren und Infrastruktur Ⅳ/2013

CLUSTER

Mit Netz und doppeltem Bodengegen den SystemabsturzDRBD-Cluster: Hochverfügbarkeitslösung für Linux-Anwendungen

Ein kleiner Hardware- oder Softwaredefekt kann zu mehrstündigen Ausfallzeiten führen, wenn ein System nichtredundant aufgebaut ist. Der Imageschaden bei einem Serverausfall einer professionellen Anwendung lässt sichnur schwer beziffern. Die Lösung: ein Cluster auf Basis der Open-Source-Lösung DRBD.

Kommt es zum Ausfall eines der beiden Nodes, werden die Diensteund An wen dungen automatisch auf dem funktionsfähigen Servergestartet (Abb. 1).

Quel

le: H

ost E

urop

e Gm

bH

Page 29: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

automatische Replikation aller Daten durch DRBD. Zum Einsatzkommt das Prinzip der blockweisen Replizierung, indem sich DRBDaktiv zwischen Dateisystem und Festplatte schaltet und die Änderungder Blöcke protokolliert und übermittelt. Das garantiert einen schnel-leren Austausch der Daten als beispielsweise die Dateireplizierung aufDateisystemebene durch rsync.

Der Failover-Automatismus tritt in AktionWer MySQL als Clusterdienst konfigurieren möchte, sollte das „da-tadir“ so anpassen, dass die Daten auf das DRBD-Volume verwei-sen. Beim Einsatz von Apache als Clusterdienst muss die „Document -Root“ ebenfalls auf die DRBD-Partition verweisen.

Die Hochverfügbarkeit wird durch einen automatischen Failovergarantiert. Stellt Pacemaker die Nichterreichbarkeit eines Servers odereiner Anwendung fest, wird der Failover-Automatismus ausgelöst. Inder Regel ist der DRBD-Cluster als Aktiv-Passiv-System angelegt.Kommt es zu einer Störung, versetzt Pacemaker das DRBD-Volumeauf dem funktionsfähigen Cluster-Node in Rolle und bindet das Vo -lume in das konfigurierte Verzeichnis ein. Abschließend wird die Ser-vice-IP gesetzt und der eigentliche Clusterdienst gestartet. Innerhalbweniger Sekunden ist die Anwendung unter der gleichen IP wiederverfügbar.

Auf in die Praxis: Der Betrieb

Eine Herausforderung ist das Szenario eines Split Brain. Denn dieseführt unweigerlich zu einer Asynchronität der Daten. Wird das Cluster-LAN unterbrochen, kommt es zwangsläufig zu einem ungewollten undunkontrollierten Master-Master-Verhalten, ohne dass eine vermittelndeInstanz die geschriebenen Daten überwacht beziehungsweise repli-zieren kann. Um das zu vermeiden, sollten im DRBD-Cluster zur Kom-munikation im Cluster-LAN keine Single-Links zum Einsatz kommen.Eine kostengünstige Empfehlung ist ein redundantes Cluster-LAN überCrossverkabelung. Alternativ dazu können die Nodes über redundante

Switches miteinander verbunden werden. Ein erfahrener Systemadmi-nistrator kann eine Cluster-Umgebung selbst einrichten. Auf Fachpor-talen und offiziellen Webseiten der Open-Source-Lösungen gibt esdafür hilfreiche Anleitungen. Eine „Do-it-yourself-Lösung“ eignet sichvorzugsweise für den Aufbau von Testumgebungen, um das Funktions-prinzip oder Konfigurationen zu prüfen.

Größere Anbieter garantieren beispielsweise für einen als Mana-ged-Hosting-Lösung angebotenen DRBD-Cluster eine Verfügbarkeit von99,995ˇProzent. Die Wahrscheinlichkeit, dass das Shopping-Erlebnisbeim entscheidenden Mausklick zerstört wird, ist somit extrem gering.

Patric Czech, Vladimir DjurdjevicHost Europe GmbH

CLUSTER

Alle Daten werden durch DRBD automatisch zwischen beidenServern repliziert und damit synchron gehalten (Abb. 2).

Quel

le: H

ost E

urop

e Gm

bH

ix1113_b_00_mit_Anz.indd 29 15.10.13 16:37

Page 30: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

D ie früher oft nur als nebensächliches Inventar angesehenen Racksund Schränke spielen im Betrieb eines Rechenzentrums heute

eine wesentlich aktivere Rolle. Denn die Wahl des Rack-/Schranktypswirkt sich langfristig auf Flexibilität, Kühlung und Stromverbrauch aus.Neben der gewählten Infrastrukturarchitektur beeinflussen ebensoRack- und Schranktyp die Geräte- und Portdichte.

Die Normungsgremien wie ISO/IEC, TIA/EIA und BICSI empfehleneinheitlich, bei der Installation der Verkabelungsinfrastruktur im RZvon Anfang an genügend Kapazität einzuplanen, damit später erwei-tert werden kann. Kabelführungen und Bereiche können mit ausrei-chend Platz installiert werden, wodurch sich auch Moves, Adds undChanges reduzieren. Die installierte Verkabelungsinfrastruktur solltezwei bis drei Generationen an Aktivtechnik unterstützen.

Eine höhere Gerätedichte ermöglichen

Die Umgebungen von RZ entwickeln sich schnell und dynamisch, den-noch müssen Investitionen langfristig geplant sein. Im Eiltempo nimmtder Anspruch an die Rechnerleistung zu und ein schier unersättlicherSpeicherbedarf lässt die Leistungsaufnahme in manchen Bereichenvon durchschnittlich 5,5 – 6ˇkW pro Schrank bis auf 20ˇkW hoch-schnellen. Die Stellfläche wird immer teurer und die Stromkosten ex-plodieren förmlich. Zu allem Übel erzeugt die zusätzliche Stromlast im

Rechenzentrum große Mengen an Wärme, die wieder abgeführt wer-den muss – was ernsthafte Konsequenzen für die Kühlung hat.

Ein wesentliches Ziel ist ein geringerer Stromverbrauch pro Schrank.Virtualisierung spielt hierbei eine wichtige Rolle und wirkt sich positivauf die Verbrauchszahlen aus. Ist bekannt, auf welche Menge Stromein Schrank begrenzt ist, kann genau abgeschätzt werden, wie vieleServer, Switches und andere Geräte in einem Schrank untergebrachtwerden dürfen.

Diesbezüglich kommt auch der Netzwerkarchitektur beziehungs-weise -topologie ein hoher Stellenwert zu: Eine strukturierte Any-to-All-Verkabelungskonfiguration mit zentralen Verteilerbereichen, wie siein TIAˇ942-A und ISOˇ24764 definiert ist, macht es möglich, die Gerätedort zu platzieren, wo es hinsichtlich Stromverbrauch und Kühlung amsinnvollsten ist. Bei einer Top-of-Rack-Konfiguration behindern die be-grenzten Längen der Punkt-zu-Punkt-Kabel das freie Aufstellen derGeräte. Ist eine Any-to-All-Verkabelung vorhanden, kann ein Server anjedem beliebigen Punkt innerhalb des Verkabelungsbereichs aufge-stellt und über Patchkabel und Patchfelder in einem zentralen Vertei-lerbereich mit jedem beliebigen Switchport verbunden werden.

Standardschränke mit 600 Millimetern Breite bieten beim Energie-und Patchkabelmanagement nicht viel Spielraum. Das größte Problembei diesen Schränken ist es, die Kabelreserve zu verstauen. Schnellfüllt sich dadurch der Platz, der noch nicht mit Aktivtechnik belegt ist.In breiteren Schränken, die das Patchen sowie die Kabelführung imvertikalen Zero-U-Bereich ermöglichen, lassen sich Überlängen geord-neter ablegen. Anstatt die Patchfelder horizontal anzubringen, waslängere Patchkabel erfordert, sind Patchkabel und Patchfelder senk-recht ausgerichtet. Die Patchfeldports befinden sich damit in unmit-telbarer Nähe zu den aktiven Geräten. Mit dieser Lösung werden nichtnur Kabel aus den Luftaustrittsbereichen entfernt, es ist nun möglich,kürzere Patchkabel zu verwenden, wodurch sich bei Patchkabeln circa40ˇProzent der Kosten einsparen lassen.

Vertikal ist Trumpf

Dass der vertikale Bereich zwischen den angereihten Schränken ge-nutzt werden kann, führt zu einer optimierten Platzausnutzung im Re-chenzentrum. Die meisten neueren Schränke bieten gegenüber derklassischen Variante zusätzliche 40 Höheneinheiten Montageplatz beijeweils zwei angereihten Schränken. Das heißt, das Equipment vonnahezu drei Standardschränken findet auf dem Raum von zweiSchränken Platz. Wenn die Kabel nicht mehr im Montagebereich derGeräte, sondern in den vertikalen Zero-U-Verkabelungsbereichen mithoher Aufnahmekapazität verlaufen, schafft das den erforderlichenPlatz. Nun lassen sich Infrastrukturen mit extrem hoher Packungsdichtebei gleichzeitig sauberer Kabelführung und ansprechendem Erschei-

30 Rechenzentren und Infrastruktur Ⅳ/2013

AUSRÜSTUNG

Rack ist nicht gleich RackWichtiges über Rack und Schrank im effizienten Rechenzentrum

Oft nur reduziert ausgestattet, werden Schränke und Racks in RZ bezüglich ihrer Rolle und ihres Einflusses aufden Betrieb meist zu wenig beachtet. Häufig wird auf Grundlage des Preises entschieden. Das ist aber zu kurzgedacht, da Racks Einfluss haben auf Kosten, Flexibilität, Kühlung und Stromverbrauch im Rechenzentrum.

Schränke mitKabelführung imvertikalen Bereichentfernen die Ver -kabelung von denLuftaustritts be rei -chen (Abb.ˇ1).

Foto

s: S

iem

on

Page 31: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

nungsbild errichten. Besitzt ein Schrank zurückgesetzte Eckpfosten,können die vertikalen Zero-U-Patch- und Kabelführungskanäle zweianeinandergrenzende Schränke unterstützen. Genauso ist es möglich,Aktivtechnik im vertikalen Bereich zu montieren, die dann ebenso zweibenachbarte Schränke versorgen kann.

Die neuesten Schrankdesigns bieten Kabelführungsoptionen, die fürjede Konfiguration passen und damit die entsprechende Flexibilität absi-chern, anstatt mit den Platzproblemen klassischer Schränke kämpfen zumüssen. So bieten beispielsweise Schränke mit Zero-U-Kabelmanage-ment zwischen angereihten Schränken und am Ende der Schrankreihezusammen mit zurückgesetzten Eckpfosten, einschließlich dediziertemvertikalen und horizontalen Kabelverlauf, Kabelzugriffspunkte sowieRangierkämme: optimale Voraussetzungen für das Kabelmanagement.

Die Betreiber von Rechenzentren sind in der Regel an langfristigenOptionen zum Infrastrukturmanagement interessiert. Bei Schränken,in denen Bereiche speziell für die Verkabelung vorgesehen sind, las-sen sich Moves, Adds und Changes leichter handhaben, ohne die Ak-tivtechnik zu stören. Die neuesten Schranktypen haben bereits Türen,die sich zu beiden Seiten hin öffnen lassen oder zweiteilige Türen, so-dass ein uneingeschränkter Zugriff gewährleistet ist, wenn Kabel an-ders geführt werden sollen, oder das System gewartet werden muss.

Air-Flow-Management

In direktem Zusammenhang mit dem Energieverbrauch stehen die er-zeugte Abwärme und damit der Kühlungsbedarf. Daher ist es wichtig,genau zu wissen, wie viel Kaltluft der Raum und die Schränke benöti-gen und inwiefern die Luftführung im Raum die Zirkulation insgesamtbeeinflusst.

Es sollten immer solche Schränke gewählt werden, die den Luft-strom führen und damit maximal zu Wärmemanagement und Energie-effizienz beitragen, ohne die Geräte- und Verkabelungsdichte zu be-lasten. Beim Zero-U-Patchen werden die Kabel aus dem horizontalenInstallationsbereich der Geräte herausgenommen und sind dement-sprechend weiter von den Kühlgebläsen entfernt, was vor allem dieKühleffizienz insgesamt verbessert.

Durch Front- und Rücktüren mit hohem Luftdurchsatz kann sichdie Luft stetig austauschen, wodurch eine ordnungsgemäße Warm-/Kaltgang-Luftzirkulation gesichert ist. Bereiche mit erhöhter Wärme-dichte lassen sich mit Rücktür-Wärmetauschern gezielt kühlen. Dennauf diese Weise muss weniger Kapital investiert werden. Zusätzlich ge-kühlt wird nur, wenn hohe Wärmelasten vorhanden sind. Kühltüren und

andere Varianten zur Kühlung direkt am Entstehungsort der Wärme sindeine günstige Methode Capex und Opex in diesem Bereich zu reduzie-ren, indem dichter an den Hotspots klimatisiert wird.

Hochwertige Schränke verfügen über Zubehör wie Bürstenleisten,Blindplatten und Kabeldurchführungen, um Luftstrom und Temperaturbesser zu kontrollieren. Vertikale Abluftkanäle (Kamine) können dieWärme passiv direkt von der Aktivtechnik in den Rückluftbereich ablei-ten und so die Wirksamkeit der Klimageräte verbessern. Zudem lassensie sich vor Ort an die unterschiedlichen Raumhöhen anpassen. Damitwird einerseits vermieden, dass heiße Luft in den Rechenzentrumsraumdringt und andererseits abgesichert, dass der Luftstrom kontrolliert zuden Klimageräten geführt wird, was den Delta-T-Wert (die Differenz zwi-schen Zuluft- und Ablufttemperatur) erhöht und die Effizienz optimiert.

Eine weitere Variante zum Steigern der Wärmeeffizienz ist die Kalt-gangeinhausung. Hier wird die kalte Luft abschottet und jegliche Ne-benluft verhindert. Die Kaltgangeinhausung ist eine kostengünstigeMethode, die Kühlkapazität auf bis zu 13ˇkW pro Schrank zu steigern,ohne dass zusätzliches Kühlequipment benötigt wird.

Carrie Higbie, Global Director Data Center Solutions and Services, Siemon

AUSRÜSTUNG

Eine Fronttür mithohem Luftdurch -

satz begünstigt den Luftaustausch

und sichert eineord nungsgemäßeWarm-/Kaltgang-

Luftzirkulation(Abb.ˇ2).

Foto

s: S

iem

on

Rechenzentren und Infrastruktur /2013 31

ix1113_b_00_mit_Anz.indd 31 15.10.13 16:06

Page 32: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

I T-Infrastruktur bereitstellen und Rechenzentren sicher betreiben:Dies sind die Hauptgeschäftsfelder der BT (Germany), einem Toch-

terunternehmen der BT Group (British Telecommunications). BT unter-hält in Frankfurt/Main zwei Rechenzentren.

Um den Energiebedarf des in den 1990er-Jahren erbauten RZ inFrankfurt-Bonames zu verringern, wurde ein Dienstleister beauftragt,ein durch die Fachabteilung von BT Germany erarbeitetes energie -effizienteres Klimatisierungskonzept detailliert zu planen und um -zusetzen.

Bis zu 2,8 Millionen kWh pro Jahr sparen

Die herkömmlichen Split-Klimageräte, die durch einen hohen Strom-verbrauch auffielen, wurden gegen eine wirkungsvollere Klimatisie-rung auf der Grundlage von Kältemaschinen und freier Kühlung aus-getauscht. Bei der freien Kühlung erkaltet das Medium lediglich durchdie Umgebungsluft, also ohne Einsatz von Kältemaschinen.

Dadurch sank die Energieaufnahme der Klimatisierung im Sommerum 50 Prozent und im Winter um 85 Prozent. In absoluten Zahlen aus-gedrückt: Bei konstanter IT-Last konnten jährlich 2,8 Millionen kWheingespart werden – Strom im Gegenwert eines sechsstelligen Euro-Betrags. Dies lässt sich auch in PUE-Kennziffern anschaulich darstel-

len: In älteren Rechenzentren liegen diese meist bei circa 2,0 odersogar darüber, wie auch ursprünglich bei diesem Standort. Der Werthat sich im umgebauten Teil des Standorts je nach Außentemperaturauf 1,48 respektive 1,3 verbessert. Nur auf die Klimatisierung bezo-gen, ergibt sich eine EER (Energy Efficiency Ratio) von 6 im Sommerund von 14 im Winter.

Redundante Auslegung innerhalb jedes Kältesystems Um eine hohe Verfügbarkeit zu gewährleisten, müssen Kältemaschinen,Pumpen und Sensoren redundant aufgebaut werden. So kann ein Aus-fall der Klimatisierung nicht zum Single Point of Failure werden. Die Käl-teanlagen wurden daher in zwei baugleichen und identisch ausgestat-teten Räumen installiert. Da sich die verwendeten Inline-Controller ILC370 PN von Phoenix Contact redundant verschalten lassen, ist das Sys-tem hochgradig verfügbar. Im Notfall schaltet es sofort von der einenauf die andere Kälteanlage um, die die Leistung dann komplett über-nimmt.

Je länger die Anlage in einem Mischbetrieb zwischen freier Kühlungund Kältemaschinen klimatisiert wird, desto mehr Energie wird einge-spart. Um den Mischbetrieb zwischen freier Kühlung und Kältemaschi-

32 Rechenzentren und Infrastruktur Ⅳ/2013

KÜHLUNG

Effizient gekühlt undhochgradig verfügbar Leistungsfähige Steuerungstechnik in Rechenzentren

Der Betrieb von Rechenzentren gehört zu den Applikationen mit dem höchsten Optimierungspotenzial in Sachen Energieeffizienz. In einem modernisierten Rechenzentrum der deutschen Niederlassung von BT spielendeshalb unterschiedliche Komponenten wie Steuerungen, Switches, Geräte zum Bedienen-und-Beobachtensowie zum Energiemessen zusammen in einem redundanten Klimasystem.

Eine Inline-Steuerung fungiert als zentrale Einheit des neuenKühlsystems. Sie ist notwendig, damit die Mischung aus freierKühlung und Kältemaschinen gut funktioniert (Abb.ˇ2).

Foto

: Pho

enix

Con

tact

Ele

ctro

nics

Gm

bH

Im neu errichteten Rechenzentrum von BT in Frankfurt-Bonamessorgt eine clever konzipierte Kühlanlage für niedrigereEnergiekosten (Abb.ˇ1).

Foto

: Pho

enix

Con

tact

Ele

ctro

nics

Gm

bH

Page 33: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

WIR TRINKEN DEN KAFFEE #000000.iX. WIR VERSTEHEN UNS.

Sie mögen Ihren Kaffee wie Ihr IT-Magazin: stark, gehaltvoll und schwarz auf weiß! Die iX liefert Ihnen die Informationen, die Sie brauchen: fundiert, praxisnah und unabhängig. Testen Sie 3 Ausgaben iX im Mini-Abo + Kinogutschein für 12,50 Euro und erfahren Sie, wie es ist, der Entwicklung einen Schritt voraus zu sein. Bestellen Sie online oder unter Telefon +49 (0)40 3007 3525.

Jetzt Mini-Abo testen: 3 Hefte + Kinogutschein nur 12,50 Euro www.iX.de/test

Page 34: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

nen zu realisieren, ist ein stetiges Regeln erforderlich – Steuerungs-technik unabdingbar. Sie bestimmt, wie effizient und damit wirtschaft-lich die Kühlung arbeitet. Für diesen Prozess ist im neuen BT-Rechen-zentrum die In line-Steuerung ILC 370 PN mit selbst-optimierendenPDPI-Reglern verantwortlich.

Relevante Betriebsdaten erfassen undweiterleiten In der Anlage werden rund 250 digitale und analoge Signale kontinu-ierlich erfasst und verarbeitet. Dies war insofern herausfordernd, dadas Rechenzentrum im laufenden Betrieb ohne Ausfallzeiten moder -nisiert werden musste. Die Steuerung um die I/O-Module aus demInline-Automatisierungsbaukasten konnte erweitert werden. Daherließen sich die Komponenten flexibel aufbauen und so die benötigen Ein- und Ausgangssignale genau anpassen. Die Anlage lässt sich aufdiese Weise weiter ausbauen, bis die endgültige Kälteleistung er-reicht ist.

Das System kommuniziert über Profinet und Modbus TCP/RTU. Sokönnen unter anderem Betriebsstunden erfasst, Störungen gemeldet,Daten der Kältemengenzähler eingesammelt und die momentane Leis-tung sowie die Menge an erzeugter Energie gesteuert werden. Die Be-

triebsdaten werden dann der Gebäudeleittechnik zur Verfügung ge-stellt und auf einem Bedienen-und-Beobachten-Gerät angezeigt.Durch seine Flexibilität, die einfache Diagnose sowie den Einsatz vonRedundanzmechanismen im Bedarfsfall eignet sich die Steuerung be-sonders für Rechenzentren.

Zu den Aufgaben der Steuerung gehören neben dem Regeln undErfassen der Betriebsstunden noch das Melden von Störungen undEinsammeln der Daten der Kältemengenzähler. Außerdem das Steuernder Pumpen sowie die Aufnahme der momentanen Leistung und Mes-sung der erzeugten Energie. Mit den Kältemaschinen werden Datenüber Modbus TCP ausgetauscht, während das Energiemessgerät derProduktfamilie EMpro von Phonenix Contact die Leistung erfasst undvia Modbus RTU an den ILC 370 PN überträgt.

Durch den Aufbau des Profinet-Systems können in Zukunft die ein-zelnen Serverräume mit weiteren Profinet-Kopplern ausgestattet undin die vorhandene Lösung integriert werden. Die dafür etwa aus denUmluftkühlgeräten erfassten Betriebsdaten lassen sich von der MSR-Steuerung (Kälteerzeugung) bereitstellen und können direkten Einflussauf die Regelung nehmen.

Benjamin Homuth B.Sc., Produktmarketing Control Systems, Phoenix Contact Electronics GmbH

34 Rechenzentren und Infrastruktur Ⅳ/2013

KÜHLUNG

Impressum Themenbeilage Rechenzentren & Infrastruktur

Redaktion just 4 business GmbHTelefon: 080 61/348 96 90, Fax: 080 61/348 96 99, E-Mail: [email protected]

Verantwortliche Redakteure:Thomas Jannot (v. i. S. d. P.), Uli Ries (089/68 09 22 26)

Autoren dieser Ausgabe:Andreas Budich, Patric Czech, Vladimir Djurdjevic, Andreas Gebhard, Kerstin Ginsberg,Wolfgang Goretzki, Dave Greenfield, Bernd Hanstein, Carrie Higbie, Benjamin Homuth,Jürgen Urbanski

DTP-Produktion: Enrico Eisert, Matthias Timm, Hinstorff Verlag, Rostock

Korrektorat:Wiebke Preuss

Technische Beratung: Uli Ries

Titelbild: © Michael Osterrieder – Shotshop.com

VerlagHeise Zeitschriften Verlag GmbH & Co. KG, Postfach 61 04 07, 30604 Hannover; Karl-Wiechert-Allee 10, 30625 Hannover; Telefon: 05 11/53 52-0, Telefax: 05 11/53 52-129

Geschäftsführer: Ansgar Heise, Dr. Alfons Schräder

Mitglied der Geschäftsleitung: Beate Gerold

Verlagsleiter: Dr. Alfons Schräder

Anzeigenleitung (verantwortlich für den Anzeigenteil): Michael Hanke (-167), E-Mail: [email protected]

Assistenz: Stefanie Frank -205, E-Mail: [email protected]

Anzeigendisposition und Betreuung Sonderprojekte: Christine Richter -534, E-Mail: [email protected]

Anzeigenverkauf: PLZ-Gebiete 0 – 3, Ausland: Tarik El-Badaoui -395, E-Mail: [email protected],PLZ-Gebiete 7 – 9: Ralf Räuber -218, E-Mail: [email protected]

Anzeigen-Inlandsvertretung: PLZ-Gebiete 4 – 6: Karl-Heinz Kremer GmbH, Sonnenstraße 2, D-66957 Hilst, Telefon: 063 35/92 17-0, Fax: 063 35/92 17-22, E-Mail: [email protected]

Teamleitung Herstellung: Bianca Nagel

Druck: Dierichs Druck + Media GmbH & Co. KG, Kassel

Eine Haftung für die Richtigkeit der Veröffentlich ungen kann trotz sorgfältiger Prüfungdurch die Redaktion vom Herausgeber nicht übernommen werden. Kein Teil dieserPublikation darf ohne ausdrückliche schriftliche Genehmigung des Verlages verbreitetwerden; das schließt ausdrücklich auch die Veröffentlichung auf Websites ein.

Printed in Germany

© Copyright by Heise Zeitschriften Verlag GmbH & Co. KG

Die Inserenten Die hier abgedruckten Seitenzahlen sind nicht verbindlich. Redaktionelle Gründe können Änderungen erforderlich machen.

BCC www.bcc.de 29

dtm group www.dtm-group.de 17

e-shelter www.e-shelter.de 9

Eaton Power www.eaton.com 13

EFB-Elektronik www.efb-elektronik.de 23

FNT www.fnt.de 5

Lehmann www.lehmann-it.de 27 Noris Network www.datacenter.de 11 Rausch www.rnt.de 21 Rittal www.rittal.de 18, 19 Schroff www.schroff.de 27Stulz www.stulz.com 2teamix www.teamix.de 36Thomas Krenn www.thomas-krenn.de 35 Transtec www.transtec.de 15 Wagner Group www.wagner.de 7

Page 35: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Jetzt individuellen vServer konfi gurieren:Unseren virtuellen Server (vServer) können Sie ganz einfach individuell konfi gurieren

und auf Ihre Bedürfnisse anpassen. Bei Lastspitzen, als Backup-Ziel, für aufwendige

Berechnungen, als VPN-Server, als eigener Mailserver, als Groupware. Sie bestimmen

das Wie, das Wann, das Wieviel und das Wie lange. Und das Ganze ist selbstverständlich

IPv6-ready. Einfach online den vServer konfi gurieren und auf Knopfdruck aktivieren.

Falls Sie Fragen haben oder Hilfe brauchen:

E-Mail: info@fi loo.de

Telefon: 05241 / 86730 - 26

vServer-Konfigurator

(Auszug eines Hardware-Beispiels am vServer-Konfigurator von filoo)

Hardware

2x

2048MB

60GB

vCPUs:

RAM:

HDD:

Netzwerk

IPv4-Adressen: 1x

Testen Sie kostenlos für einen Monat* einen IPv6-fähigen vServer von der

fi loo GmbH, der neuen Tochtergesellschaft der Thomas-Krenn.AG

Code sichern und kostenlos vServer testen unter www.thomas-krenn.com/vserver_fi loo

So ne Lastspitze kann ja mal vorkommen. Da braucht man ja nicht gleich ausfallend werden.

1 Monat*kostenlos testen

Page 36: Ⅳ RECHENZENTREN UND INFRASTRUKTUR...trittsmanagement in Rechenzentren. Identity-und Access-Management (IDM) im Umfeld der physischen Sicherheit sind das Thema von Andreas Budich

Als Unternehmer oder IT-Verantwortlicher ste-hen Sie bei der Optimierung Ihrer IT-Infrastruktur vor vielen wichtigen Entscheidungen. Um einen reibungslosen Betriebsablauf zu garantieren, ist eine regelmäßige Datensicherung äußerst wich-tig - damit Ihre Datensicherheit nicht zum Glücks-

spiel wird. Wir begleiten Ihr Backup-Projekt von der ersten Analyse, Planung und Beratung über die Implementierung, Support und Wartung bis hin zu praxisnahen Schulungen. Und das seit mehr als 10 Jahren.

Eine Cloud-Backup-Lösung, die mit Ihnen wächst?

Aber sicher. Und maßgeschneidert.

FlexVault bietet:

• Investitionskosten entfallen:

Hybridcloud-Lösung zur Miete

• Rechenzentrum am Standort

Deutschland

• Revisionssichere Archivierung

dank NetApp SnapLock

Ihre Vorteile

Ihre Daten in sicheren Händen

Über 10 Jahre

Erfahrung

Oder anrufen:0911 30999-41