Big Data & Solutions

Im Zeitalter der Datenmassen

Big Data schlägt sich nieder in einer Lawine von Daten – erzeugt von den sozialen Netzen, von mobilen Sensoren, elektrischen Zählern und anderen Instrumentarien. »Im Jahr 2010 wurden 1,2 Zettabyte an Daten ausgetauscht«, sagte Joe Tucci, CEO von EMC, vergangenen Herbst auf der EMC World. »Wir erwarten für das nächste Jahrzehnt ein Datenaufkommen von 35 Zettabytes.«

Nach Angaben des McKinsey Global Institute wird das Datenvolumen im Jahr 2020 vermutlich 44 Mal höher sein als noch 2009. Das Aufkommen an maschinengenerierten Daten allerdings wächst noch viel schneller als der Durchschnitt.

Zum Beispiel kann eine Jet-Maschine in 30 Minuten bis zu 10 Terabyte an Daten generieren. Rund 25.000 Flüge pro Tag entstehen durch eine solche Datenquelle Petabytes an Daten. So genannte Smart Meter sowie Anlagen der Schwerindustrie und Ölraffinerien erzeugen ähnlich beeindruckende Datenmengen.

Die sozialen Medien sorgen zwar nicht für einen vergleichbaren hohen Datenfluss, dafür stecken hier aber Meinungen und Beziehungsgeflechte, die etwa für Kundenbeziehungen als bedeutsam erachtet werden. Bei 140 Zeichen pro Tweet und bei der Geschwindigkeit, in der die Kurzmitteilungen abgesetzt werden, sorgt alleine Twitter pro Tag für mindestens 8 Terabytes an Daten.

Unternehmen unvorbereitet. Nach der nun zum zweiten Mal durchgeführten Umfrage »Next Generation Data Centre Index« unter knapp tausend IT-Verantwortlichen zu den Rechenzentrumsstrategien in Europa und dem Nahen Osten kommt Oracle zum Schluss, dass der Big Data-Boom viele europäische Unternehmen (ab 100 Mio. Dollar Umsatz) unvorbereitet trifft.

Stärkster Hinweis dafür sind die Angaben der Teilnehmer zum Gebrauch von externen Rechenzentren sowie zum Bedarf nach neuen Rechenzentren, die sich innerhalb weniger Monate erstaunlich stark verändert haben. So ist der Anteil der Unternehmen, die nur eigene Rechenzentren verwenden, in rund neun Monaten von 60% auf 44% gesunken. Der Anteil der IT-Strategen, die längerfristig keinen Bedarf für zusätzliche Rechenzentren sehen, ist von 17 auf 8% gefallen.
38% glauben nun, dass sie schon in den nächsten zwei Jahren ein neues RZ brauchen könnten, vor neun Monaten waren es noch 27%.

Die von konstant schnell zunehmenden Datenmengen verursachten Probleme sind kein neues Thema für die Unternehmens-IT. Das könnte sich nun jedoch potenzieren. Big Data meint das Ansinnen, aus einer Unmenge von unstrukturierten Daten flexibel und schnell – möglichst in Sekunden – Business-Intelligence-Erkenntnisse für die Unternehmensführung zu gewinnen.

»Data Scientists für den gesamten Lebenszyklus von Daten«, Martin Hammerschmid, Country Manager EMC Austria.

Fachkräftemangel. Die EMC Data Science-Studie zeigt jedoch, dass Unternehmen nicht über die notwendigen Fähigkeiten verfügen, um einen wirtschaftlichen Nutzen aus der Analyse von Big Data-Beständen zu ziehen. Nur ein Drittel aller Unternehmen können neue Daten tatsächlich nutzen, um Geschäftsentscheidungen zu treffen, Wettbewerbsvorteile zu erreichen, die Produktivität zu steigern oder neue Erkenntnisse über ihre Kunden zu gewinnen.
»Das Big Data-Zeitalter bietet ungeahnte Möglichkeiten, Geschäftsmodelle zu überdenken und die Art und Weise, wie wir leben und arbeiten, zu ändern«, sagt Martin Hammerschmid, Country Manager von EMC Österreich. »Durch das Zusammenwachsen von leistungsfähigen Scale-Out-Storage-Lösungen, neuen Analyse-Tools und Visualisierungsmöglichkeiten steht die notwendige Technik zur Verfügung. Was wir aber brauchen, um diese Potenziale voll auszuschöpfen, sind exzellent ausgebildete, miteinander vernetzte und dynamische Data Science-Experten. Nur diese werden in der Lage sein, verborgene Trends in den Datenmengen zu entdecken und neue Erkenntnisse aus ihnen zu ziehen.«

Data Scientists. Die EMC-Studie belegt, dass die starke Zunahme digitaler Datenbestände in Verbindung mit neuen Analyse-Tools ebenso stark wachsende Möglichkeiten schafft, neue Umsätze und Erkenntnisse aus diesen Daten zu generieren. Durch diese Entwicklung ist aber auch der Bedarf an Data Scientists stark angewachsen und übersteigt bei weitem das Angebot an verfügbaren Experten auf dem Arbeitsmarkt.

Im Rahmen der Studie wurden weltweit Data Scientists und Experten aus benachbarten Gebieten befragt, wie zum Beispiel Datenanalysten und -spezialisten, BI-Analysten oder Systemanalytiker, die alle über IT-Entscheidungsbefugnisse verfügen. Nach EMC-Meinung werden spezialisierte Data Scientists mit höherer Wahrscheinlichkeit in den gesamten Lebenszyklus von Daten eingebunden als BI-Experten. Das umfasst das Anlegen neuer Datensätze bis hin zum Fällen von Geschäftsentscheidungen aber auch das Filtern und Organisieren von Daten, ihre visuelle Aufbereitung und das Erzählen einer Business-Story auf Basis dieser Daten.

Hinterher hinken. »Wir leben in einer datengetriebenen Welt. Das effiziente Funktionieren von Unternehmen in allen Branchen hängt immer stärker von der effektiven Nutzung großer Datenmengen ab«, erläutert Andreas Weigend, Leiter des Social Data Lab an der Universität Stanford und ehemaliger Chief Scientist bei Amazon.com. »Der sinnvolle Einsatz von Big Data basiert auf der richtigen Kombination aus den Tools, Fähigkeiten und – noch wichtiger – der Grundeinstellung, Daten als den neuen ›Treibstoff‹ anzusehen, der ein Unternehmen bewegen kann.

Unglücklicherweise hat sich die Technik schneller entwickelt als die Fähigkeiten der Mitarbeiter, sie sinnvoll einzusetzen. Unternehmen aller Branchen müssen sich an diese neue Realität anpassen oder sie werden verschwinden.«

Business Discovery. Auch Wolfgang Kobek, Managing Director QlikTech DACH, sieht die Notwendigkeiten unausbleiblich: »Big Data ist für Unternehmen nicht mehr graue Theorie, sondern bittere Realität. Die drängende Frage in diesem Zusammenhang lautet nicht mehr, wie sich Zettabytes an Informationen am besten verwalten lassen. Es zählt, was man damit machen kann.«

»Riesige Datenmengen mit Business Discovery spielend meistern«, Wolfgang Kobek, Managing Director QlikTech DACH.

Genau an diesem Punkt stoßen traditionelle BI-Systeme beim Verarbeiten von Big Data allerdings in der Regel an ihre Grenzen – mit komplexen Abfragemarathons, umständlichen Analyseverfahren und Reports von gestern. Gefragt sind heute jedoch Datenanalysen in Echtzeit und aussagekräftige Prognosen auf Basis wiederkehrender Datenmuster.
»Beste Voraussetzungen für QlikView Business Discovery«, so Kobek: »Selbst riesige Datenmengen lassen sich mit diesem Ansatz spielend meistern.« Das Konzept der Business Discovery basiert auf einer anwendergesteuerten BI, die völlig unabhängig von den zugrunde liegenden Datenquellen und -mengen zu schnellen und präzisen Ergebnissen führt. Das Funktionsprinzip: Anstatt IT-Abteilungen regelmäßig mit der Einrichtung von Cubes zu behelligen und auf Berichte warten zu müssen, erstellen Mitarbeiter ihre Analyse-Apps mit wenigen Klicks ganz einfach selbst.

In den Startlöchern. Derzeit betrifft Big Data erst wenige Unternehmen unmittelbar – wie Facebook, Amazon, eBay etc. Das wird sich jedoch rasch ändern. »Auch mittelständische Unternehmen werden zunehmend mit dem unbändigen Datenwachstum konfrontiert«, so EMC-Chef Hammerschmid.

Hinter dem Konzept von Big Data steckt die Verfügbarkeit von Werkzeugen, die es ermöglichen, diese Datenflut zu bearbeiten, zu analysieren und zu verwalten. Angesichts dessen sind die gegenwärtigen Infrastrukturen nicht ausreichend angepasst wie ebenso die Algorithmen und die Logik der Datenbanken. Um Big Data durchführen zu können, ist deshalb notwendig, vier Ecksteine zu beachten: großes Volumen, unterschiedliche Dateiformate, schneller Zugriff und mehr Wert.

Um dem zu begegnen, nehmen Ausrüster und Lieferanten viel Geld in die Hand – wie etwa EMC, das im Vorjahr Isilon Systems für 2,25 Mrd. Dollar kaufte und eine eigene Division namens »Data Computing Products« gründete. Erste dedizierte Server werden für Mitte 2012 erwartet.

Zudem bietet EMC nach der Akquisition von Greenplum nun Software-seitig auch die »Greenplum Unified Analytics Platform«, ein leistungsfähiges Werkzeug für Big Data-Analysen.

Big Data ready. Den technologischen Umbruch hat auch Oracle vollzogen und zeigt sich zwei Jahre nach der Akquisition von Sun Microsystems in Sachen Hard- und Software voll integriert. Das »One-Stop-Shop« in Sachen effizientes Informationsmanagement ist eröffnet und stellt immer mehr Waren aus. John Abel, Chief Technology Architect für Oracle EMEA, wagt einen illustren Vergleich mit der Automobil-Welt: »Unsere traditionellen Server sind wie Mercedes, aber unsere Exadata sind mit supersportlichen Motoren des Mercedes-Tuners AMG ausgestattet.«
So soll die neue »Big Data Appliance« für Unternehmen den Wert großer Datenmengen erschließen helfen. Das Produkt soll insbesondere unstrukturierte Daten so aufbereiten, dass sie sich in der Oracle-Datenbank 11g speichern lassen.
Die neu entwickelte Maschine enthält eine Distribution von Apache Hadoop (CDH) des Unternehmens Cloudera, inklusive des »Cloudera Manager«, und einer Open Source Distribution von »R«. Die Architektur ist bereits vielfach getestet und validiert. Das System läuft auf Oracle Linux und unterstützt außerdem die NoSQL Database Community Edition und die Hot-Spot Java Virtual Machine.

Mit den Big Data Connectors steht zudem ein Portfolio an Softwareprodukten zur Verfügung, mit dem Kunden ihre Daten, die im »Hadoop Distributed File System« (HDFS) oder in NoSQL gespeichert sind, leicht mit der Oracle Database 11g integrieren können.

Ebenfalls in den Startlöchern für »Big Data ready«-Lösungen befinden sich u.a. Cisco mit seiner Plattform UCS wie auch Quantum mit Appliances und Plattensystemen. Nicht zu vergessen IBM und Dell, die ebenso einige Systembausteine für Big Data in ihrem Katalog haben.

No Comments Yet.

Leave a Comment

You must be logged in to post a comment.