Roundtable »Datacenter 2014«

Rechenzentrum auf dem Prüfstand

Output Roundtable-120Gegenwärtig sind 2,5 Milliarden Menschen auf der Welt im Netz – und es werden täglich mehr. Allein in China gehen pro Sekunde rechnerisch 1,7 neue Nutzer online, meist über mobile Geräte. Das ist ein weltweiter Trend. Mit Smartphones sind Nutzer ständig online und können von überall über die Cloud auf ihre Daten zugreifen. Dafür sind leistungsfähige Kommunikationsnetze und riesige Rechenzentren nötig, die rund um die Uhr verfügbar sind.

Der weltweite Datenverkehr in Rechenzentren steigt kontinuierlich und rapide an. Laut Cisco Global Cloud Index (2012 – 2017) wird in den nächsten drei Jahren eine Verdreifachung auf 7,7 Zettabyte erwartet. Dieser Datenmenge entsprechen 107 Billionen Stunden Musik, 19 Billionen Stunden Internet-Videokonferenzen via Webcam oder 8 Billionen Stunden High-Definition Video-Streaming. Etwa 17% davon werden von Privatnutzern erzeugt, die Internetseiten, Videostreams und soziale Netzwerke sowie mit dem Internet of Everything (IoE) verbundene Geräte nutzen. 76% kommen von Datenverschiebung innerhalb der Rechenzentren für Storage, Produktion und Entwicklung in virtualisierten Umgebungen. Die restlichen 7% entfallen auf den Verkehr zwischen Rechenzentren, etwa für Datenreplikation und Updates.

Immer mehr dominieren auch Cloud-Projekte den Datenverkehr in Rechenzentren. Bis 2017 soll sich der Cloud-basierte Datenverkehr im Rechenzentrum um das 4,5-fache erhöhen und auf 5,3 Zettabyte anwachsen. Damit wächst die Cloud schneller als alles andere und ihr Anteil im Rechenzentrum steigt von 46% (2012) auf 69% (2017).

»In zwei Jahren schaut die Applikations-Welt schon komplett anders aus«, Manfred Troger, Director von Gartner Austria.

»In zwei Jahren schaut die Applikations-Welt schon komplett anders aus«, Manfred Troger, Director von Gartner Austria.

Angesichts dieser überwältigenden Zahlen lud die output-Redaktion renommierte Experten aus Anwenderschaft, Industrie und Marktanalyse zu einem Roundtable-Gespräch ein. Thema: »Wenn die IT zum Service wird – Datacenter Trends 2014«.

Treiber der Entwicklung. Weltweit sehen sich die Datacenter, egal welcher Größenordnung, derzeit einer fundamentalen Transformation gegenüber. Die wesentlichen Treiber bringt Manfred Troger, Director von Gartner Austria, auf den Punkt: »Das eine ist das Wachstum der Daten. Ein anderes Thema ist die Virtualisierung. Das dritte sind die Applikationen.«

Storage erfährt in Bezug auf Data Growth derzeit ein jährliches Wachstum von 50%. Storage-Equipment hingegen wächst jährlich um ca. 10%. »Was aber nicht unbedingt Flächenwachstum heißt, eher in Integrierbarkeit und in Höhe«, so Troger. Die Virtualisierung habe viele Vorteile gebracht, »aber auch, dass die Komplexität unheimlich gestiegen ist«. Das bedingt viel Knowhow, um damit umgehen zu können. Troger: »Wenn ich alles richtig mache, kann ich viele Vorteile daraus generieren – ich muss aber auch alles richtig machen.«

»Die Flexibilität für den Kunden und die Agilität des Service-Providers sind noch nicht richtig vorhanden«, Alexander Spörker, Country Manager Austria bei VMware.

»Die Flexibilität für den Kunden und die Agilität des Service-Providers sind noch nicht richtig vorhanden«, Alexander Spörker, Country Manager Austria bei VMware.

Ein interessantes Detail der Gartner-Beobachtungen liefert die Strategie-Betrachtung: 63% der CIOs haben heute eine Datacenter-Strategie, 37% haben keine – vor fünf Jahren stand es noch 50:50 – Sensibilität und Bedeutung sind also gestiegen.
Was in der jüngeren Vergangenheit ebenfalls zugenommen hat: ein Rechenzentrum effizienter zu betreiben und in punkto Nachhaltigkeit eine integrierte Zusammenarbeit mit Cloud-Technologien anzustreben.

Was eine noch höhere Komplexität und die Notwendigkeit von neuen Skills mit sich bringt. Gartners klare Empfehlung dazu: »In neue Tool-Sets und Knowhow investieren, um diese externen Möglichkeiten zu integrieren.« Denn die Veränderungen in der IT-Landschaft werden umwälzend sein: 78% der Applikationen werden in den nächsten zwei Jahren geändert, so Troger: »Dann schaut die Welt komplett anders aus.«

Software-defined Datacenter. Die zunehmende Abhängigkeit der Unternehmen von der IT steigert auch den Druck auf die Fachabteilungen, ihre Anforderungen optimal mit der IT-Landschaft abzudecken. Anwendungen müssen schnell entwickelt sowie angepasst werden – ohne Qualitätseinbußen.

Die Kapazitäten der unternehmenseigenen Clouds wurden in den vergangenen Monaten fast verdoppelt, so dass sie jetzt knapp 30% aller IT-Services bereitstellen. Unternehmen haben die Do‘s & Dont‘s im Cloud-Bereich inzwischen einigermaßen gelernt und genügend Erfahrung für einen breiteren Einsatz.

»Die Angst vor der Komplexität ist sicher größer als im traditionellen Business«, Robert Kurz, Global Services Lead bei EMC Austria & CEE.

»Die Angst vor der Komplexität ist sicher größer als im traditionellen Business«, Robert Kurz, Global Services Lead bei EMC Austria & CEE.

Doch Sicherheitsthemen dominieren die Aufmerksamkeit. Die anhaltende Skepsis gegenüber Anbieter-Clouds wird von der immer wieder neu entfachten Sicherheitsdebatte gefördert. Business Continuity, Schutz vor Malware und Security Compliance stehen gleichauf mit Virtualisierung und Software-Integration ganz oben auf der Agenda.

Die Server-Virtualisierung hat durch eine bessere Auslastung der Hardware und ein effizienteres Management die IT-Kosten den Unternehmen viel Nutzen gebracht.
Ein wesentliches größeres Einsparpotenzial verspricht künftig aber das Konzept des Software-defined Datacenter (SDDC). Dieses erlaube deutliche Einsparungen, indem die Prinzipien der Server-Virtualisierung angewendet werden, um auch Storage, Netzwerk- und Security-Services zu vereinfachen.

Allein VMware-Kunden haben im Jahr 2012 durch Server-Virtualisierung weltweit rund zehn Milliarden Dollar gespart, so eine Auswertung des Marktführers. Durch SDDC aber lasse sich künftig ein Potenzial von 60 bis 70 Milliarden Dollar pro Jahr erschließen. »Aufgrund unserer Technologien – wo das Thema Software-defined ein Teil eines großen Baukastensatzes ist – sind wir in der Lage, Prozesse und Automatismen einzuführen und zu optimieren, die bisher manuell gemacht wurden«, sagt Alexander Spörker, Country Manager Austria von VMware.

Kampf der Komplexität. Ziel eines SDDC ist eine einheitliche Automatisierungs-Plattform, die den Betrieb des gesamten Rechenzentrums vereinfacht. Durch die Ausbreitung der Virtualisierung auf Storage und Netzwerke zur Abstraktion der Ressourcen wird der gesamte Pool letztlich automatisiert für ein IT-Service zur Verfügung gestellt. »Es stimmt, dass es insgesamt sehr komplex geworden ist«, lenkt Spörker ein. »Das zeigt schon allein die Tatsache, dass alle hier Anwesenden über eigene Managementsysteme verfügen, die die verschiedenen Technologien integrieren können.«

»Alle Informationen zu jeder Zeit auf jedem Device – das sind die Anforderungen«, Horst Heftberger, General Manager von Hitachi Data Systems.

»Alle Informationen zu jeder Zeit auf jedem Device – das sind die Anforderungen«, Horst Heftberger, General Manager von Hitachi Data Systems.

Dem Kunden sei es aber egal, auf welcher speziellen Plattform das Service laufe, solange es hochverfügbar sein. Der Konsument habe das vor Jahren erkannt, Stichwort Smartphone. Die Unternehmen und Fachbereiche ziehen nun nach. Mit dem Konzept von SDDC lässt sich das umsetzen, indem die IT ein Werkzeug erhält, mit dem sie Richtlinien-basierend Automatismen und Prozesse einführt, die den Ressourcen verschiedener Hersteller zur Verfügung stehen, sie zusammenfasst, abstrahiert und als geballte Kraft hinter einen Service stellt.

Spezielles Österreich. Doch der Weg dahin hat erst begonnen. Der Einfluss von standardisierten Cloud-Strukturen ist speziell in Österreich noch zurückhaltend. »Um gesharte Plattformen wirklich zu nutzen, verspüre ich hierzulande für Software-defined noch sehr viel Potenzial«, bemerkt Ewald Glöckl, Director Austria bei NetApp.

»Nicht wir treiben die Architektur, sondern die Daten und die Applikationen«, Ewald Glöckl, Director Austria bei NetApp.

»Nicht wir treiben die Architektur, sondern die Daten und die Applikationen«, Ewald Glöckl, Director Austria bei NetApp.

»Wir sind keine Early Adopters«, fügt Robert Kurz, Sr. Manager Global Services Lead bei EMC, hinzu. »Es ist notwendig zu zeigen, was SDDC ist und dass es funktioniert. Der wesentliche Punkt ist die Angst vor der Komplexität. Die ist sicher größer als im traditionellen Business. Man muss über den eigenen Schatten springen und diese Komplexität aufbrechen, um über eine Abfolge von kleineren Schritten zu einem SDDC zu kommen.«

Wachsender Bedarf. Dabei ist pure Rechenzentrums-Fläche gefragter denn je. Interxion, Anbieter von Basis-Infrastruktur und Colocation startet noch heuer in Wien mit dem Bau eines zweiten, bis zu 5.500 Quadratmeter großen Rechenzentrums. Rainer Dornauer, Key Account Manager Interxion Österreich: »Wir verdoppeln unsere Kapazitäten innerhalb von zwei Jahren, wo wir davor 14 Jahre gebraucht haben. Wir sehen also Virtualisierung, Cloud-Services und Konzentration von IT an einem Standort gerade jetzt eher als Treiber für mehr Fläche als für weniger an. Viele Service-Provider nutzen unsere Basisinfrastruktur, setzen hier ihr Rechenzentrum auf, betreiben es und veredeln ihr Angebot.«

»Virtualisierung, Cloud-Services und Konzentration von IT sind die Treiber von mehr Rechenzentrums-Fläche«, Rainer Dornauer, Key Account Manager bei Interxion.

»Virtualisierung, Cloud-Services und Konzentration von IT sind die Treiber von mehr Rechenzentrums-Fläche«, Rainer Dornauer, Key Account Manager bei Interxion.

Alexander Spörker hakt ein: »Das ist genau das Beispiel für IT-as-a-Service. In der Vergangenheit war es jedem Unternehmen wichtig, dass die IT im eigenen Haus betrieben wird. Jetzt wird es mehr oder weniger egal, wo die Applikation läuft. Hauptsache sie ist verfügbar und secure. Das ist das einzig Entscheidende.«

Dornauer ergänzt noch: »Die meisten Betreiber wissen gar nicht, was sie ihr Rechenzentrum tatsächlich kostet. Bei der Kostenstellenverwaltung geht vieles in die Gebäudeverwaltung und nicht auf die IT. Dadurch entstehen unscharfe Faktoren.«

Nicht nur Technik. Die Komplexität der Technik ist eine Sache, jene der Organisation eine andere. »Klar, wenn ich die gesamte IT betrachte, ist sie komplex«, räsonniert Spörker. »Aber es spricht nichts dagegen, alle diversen Applikationen auf standardisierten Systemen zu betreiben statt in vertikalen Stacks. Das ergäbe eine Infrastruktur, die sich einfacher managen lässt.«

Die Komplexität setzt sich in der Organisation fort: Neben dem Storage-Verantwortlichen gibt es einen Netzwerk-Verantwortlichen, einen Client-Verantwortlichen, einen Management-Verantwortlichen – jeder mit eigenen Tools und eigenen KPIs. »Daraus haben wir als VMware unser Credo bezogen, eben alles über die Software zu automatisieren und zu vereinfachen«, so Spörker.

Schritt für Schritt. Auch wenn der Weg, Rechenzentren mit Software zu automatisieren, der richtige ist – »Wir sind defi nitiv noch zwei bis drei Jahre davon entfernt«, sind sich alle Teilnehmer des output-Round Table einig. Die Kunden gehen sukzessive vor, Schritt für Schritt. Ewald Glöckl von NetApp: »Sicherheit und Daten – das ist der Hauptgrund, warum der Fortschritt dieser Technologie und Innovation noch gebremst wird, was die Integration betrifft. Andererseits ist der Wunsch des Kunden unüberhörbar, zu automatisieren und kostengünstiger in Software abzubilden, unabhängig von der Physik.«

Andererseits aber müsse die Organisation dahinter mitziehen. Weswegen oft keine Converged Infrastructure aufgebaut werden könne und der konventionelle Zug weiter befahren werde.

Dem widerspricht Horst Heftberger von Hitachi: »Gerade in diesem Bereich wird derzeit massiv umgedacht. Wir haben im letzten halben Jahr 50 Prozent des Umsatzes mit Converged Computing gemacht. Mit der Unified Compute Platform und einer Orchestration-Software nehmen wir Komplexität heraus, sodass es keine jeweils speziellen Betreuer sondern nur einen Ressource-Manager braucht.«

Schöne neue Welt. »Wo kein Schmerz ist, ist auch nicht die Notwendigkeit gegeben, etwas zu verändern«, sagt EMCs Robert Kurz. »Wenn tatsächlich 78 Prozent der Applikationen zur Änderung anstehen, dann steigt auch der Druck. Damit ist Handlungsbedarf gegeben, zumindest darüber zu sprechen, auf dem traditionellen Ansatz zu bleiben oder in die schöne neue Welt zu gehen.«

Doch wir wissen: Die schöne neue Welt hat auch immer einige Fallstricke parat. Deshalb sollten IT-Verantwortliche nicht darauf vergessen, in Tools und Talente zu investieren, so Kurz. Auch der Wandel von der Mainframe-Welt in die Client-Server-Welt habe einige Jahre gedauert. So wie jetzt der Sprung auf die »dritte Plattform«.

Im Vertrauen. Ein spezifisch österreichische Wahrnehmung gibt Ewald Glöckl wieder: »Viele Kunden verlassen wieder das Service-Provider-Modell, weil sie die erwünschte Agilität und Flexibilität in der Time-to-Market nicht erhalten haben. Zum Beispiel jemand, der in den letzten zehn Jahren mit vier verschiedenen Betreibern nicht das richtige Modell gefunden hat und jetzt wieder alles selbst macht.«

Manfred Troger von Gartner unterbricht: »Das ist auch eine Frage, inwieweit Unternehmen reif genug sind, um das extern steuern zu können.«

Glöckl fährt fort: »Das hat aber wesentlich mit unserem Thema zu tun, weil Daten in einer gewissen Größenordnung träge sind und nicht ein- und ausschaltbar wie ein Server. Deswegen muss die Architektur in den Organisationen dahinter schnell genug sein.«

Kriterien von SDDC. Als Kriterien eines SDDC ortet Alexander Spörker einerseits ein Selfservice-Modell, weiters ein Pay-per-use sowie die Verfügbarkeit von On-demand-Ressourcen je nach Bedarf. Dropbox war dazu ein klassischer Treiber. Keiner kannte zuvor einen derartigen Service. Nun haben fast alle Software-Hersteller eine solche Lösung, weil es die Unternehmen verlangen, weil es der Konsument so wollte. Horst Heftberger bietet mit Hitachi Data Systems eine »Dropbox für Enterprise«. Seine drei Anforderungen: »Alle Informationen zu jeder Zeit auf allen Devices – das kann unsere Software.«

Provider-Mängel. Robert Kurz von EMC ruft nochmals die Frage des Vertrauens und der Sicherheit ins Gedächtnis: »Laut unserer Studie ›Digital Universe‹ sind 50 Prozent der Daten nicht ausgereichend geschützt. Solange wir hier eine derartige Missbalance finden, steigt auch nicht unbedingt das Vertrauen in all diese neuen Technologien.«

Die Teilnehmer am output-Roundtable Datacenter 2014 (v.li.): Alexander Spörker (VMware), Horst Heftberger (HDS), Robert Kurz (EMC), Manfred Troger (Gartner), Georg Schnizer (AKH Wien), Ewald Glöckl (NetApp), Rainer Dornauer (Interxion)

Die Teilnehmer am output-Roundtable Datacenter 2014 (v.li.): Alexander Spörker (VMware), Horst Heftberger (HDS), Robert Kurz (EMC), Manfred Troger (Gartner), Georg Schnizer (AKH Wien), Ewald Glöckl (NetApp), Rainer Dornauer (Interxion)

Das ist der eine Grund für die erst dreiprozentige Cloud-Durchdringung in Österreich. Der andere: »Die noch nicht wirklich vorhandene Flexibilität für den Kunden und die fehlende Agilität der Service-Provider«, so Alexander Spörker. In Österreich gebe es »vielleicht eine Handvoll Provider«, die auf Basis eines Software-defined Datacenter die ersten Ansätze geschaffen haben. »Kunden können mit denen erst jetzt so richtig reden, IaaS dynamisch zum Rechenzentrum hinzufügen. Deswegen ist es logisch, dass Public- und Hybrid-Cloud-Adaptierung noch unter ferner liefen rangieren. Deswegen betreiben Unternehmen das Rechenzentrum wieder vermehrt selbst.«

Applikationen im Wandel. Doch die spannende Ausgangssituation bleibt bestehen: Wenn sich die von Gartner prognostizierten 78 Prozent der Applikationen in Bälde wirklich so grundlegend ändern, muss sich die Architektur dahinter bewegen. »Wir leben ja nicht von den Systemen, sondern von den Daten«, so Ewald Glöckl. »Und diese Daten werden von Applikationen produziert, wir nehmen sie nur auf. Nicht wir treiben die Architektur sondern die Applikationen.«

Hitachi-Kollege Horst Heftberger geht nicht nur davon aus, dass künftig 50 Prozent davon In-Memory-Applikationen sein werden, die mit Echtzeitanalysen die Grundlagen für Business-Entscheidungen in vielen Branchen liefern. Er hat auch mit »Datacenter-in-a-Box« ein steckdosenfertiges System parat, das sich auch shared nutzen lässt. »Da sehen wir einen starken Bedarf, indem Storage, Server und Netzwerk zusammenwachsen.« Wie überhaupt gelte: »Das Business treibt die IT, und die IT ermöglicht das Business.«

Mandantenfähigkeit. Die funktionsfähige Technologie ist da. Sämtliche renommierten Hersteller bieten sie an. Das Problem der Service-Provider sei vielmehr, welche Infrastruktur sie in einem Outsourcing-Fall vorhalten müssen, »damit sie all diese Anforderungen der Kunden von heute auf morgen abfangen können«, so Rainer Dornauer. »Bloß eine Frage der Mandantenfähigkeit«, weiß VMwares Alexander Spörker. Aber diese biete heute noch kein Service-Provider an.

Nicht zuletzt deshalb ist es auch Philosophie der Interxion, eine Community zu bilden. Dornauer: »Wir versuchen, Menschen zusammen zu bringen – seien es Service-Provider, Hersteller, Kunden – und so ein allumfassendes Service anzubieten.«

Comments are closed.