Big Data vs. Business Intelligence

Analysen in neuen Dimensionen

Viel wird dieser Tage über Big Data geredet – und in diesem Zusammenhang auch über Business Intelligence und Analytics. Denn diese viel zitierten Exabytes von Daten, die in unseren digitalen Sphären an irgendwelchen Speicherorten herumschwirren, wollen ja auch ausgewertet werden. Für irgendetwas müssen sie ja zunutze sein.

Unterschiedliche Dimensionen. Wie Carsten Bange vom Business Application Research Center (BARC) ausführt, kennzeichnet Big Data jedoch nicht nur die schiere Menge: »BARC versteht unter Big Data Methoden und Technologien für die hochskalierbare Erfassung, Speicherung und Analyse polystrukturierter Daten«, lautet seine Definition.

»Wir empfehlen eine klare Unterscheidung zwischen den einzelnen Ebenen einer analytischen Architektur«, Carsten Bange, Geschäftsführer von BARC.

»Das klingt auf den ersten Blick einfach«, setzt Bange fort, »hat aber doch einige sehr unterschiedliche Dimensionen. Das Entscheidende dürfte zunächst die Eigenschaft ›hochskalierbar‹ sein. Hier reden wir nicht nur über große Datenmengen, sondern auch über große Anwenderzahlen sowie hochkomplexe Anfragen beziehungsweise immer anspruchsvollere Analysen. Hinzu kommt die immer schnellere Aktualisierung von Daten, also die schnelle Verfügbarkeit sowie nur noch das reine Monitoring oder Streaming von Daten in Fällen, wo man Informationen gar nicht mehr länger speichern möchte oder kann.«

Grundsätzlich empfiehlt Bange im Zusammenhang mit Big Data auch die klare Unterscheidung zwischen den einzelnen Ebenen einer analytischen Architektur: »Big Data Analytics denkt von der Anwendung her, Big-Data-Management sorgt für die Datengrundlage, diese Analysen vornehmen zu können.«

Weniger Struktur, mehr Daten. Deswegen unterscheidet sich der Big Data-Ansatz von bisherigen konventionellen Ansätzen in erster Linie dadurch, flexibel mit polystrukturierten Daten umgehen zu können. Neben den klassisch strukturierten Daten, wie sie beispielweise von einem internen ERP- oder CRM-System generiert werden, kommen semistrukturierte Dokumente, wie auf den Standards HTML oder XML aufbauende, oder auch völlig unstrukturierte Dokumente hinzu.

Im Gegensatz zu BI-Systemen, die auf internen Daten basieren, muss sowohl bei der Aggregation der Daten als auch bei der Analyse mit teilweise unvollständigen Daten sowie Wahrscheinlichkeiten gearbeitet werden – ein Szenario, auf das die konventionellen BI- und Datawarehouse-Lösungen völlig unzureichend vorbereitet sind. Der bekannte IT-Analyst Wolfgang Martin fasst es pointiert zusammen: »Der Single Point of Truth geht baden.«

Nachdem die Datawarehouse-Initiativen seit 20 Jahren selbigen mit durchwachsenem Erfolg gesucht und als Ziel in den Fokus gestellt haben, handelt es sich um eine durchaus tiefgreifende Veränderung. Ist die Datenbasis aber breit genug, lassen sich auch aus unvollständigen und unscharfen Daten gut verwertbare, wertvolle Erkenntnisse erzielen – und die Softwarehersteller müssen mit solchen Szenarien umgehen.

Spaltenorientierung. Wie jedoch Irfan Khan, CTO der SAP-Tochter Sybase, ausführt, brauchen sich Unternehmen dank einer verfügbaren spaltenorientierten Analyse-Infrastruktur heute keine Sorgen über Big Data zu machen. Denn: »Massive Datenmengen, selbst wenn sie so heterogen sein sollten wie unstrukturierte Daten, können in spaltenorientierten Data Warehouses problemlos analysiert werden.«

Spaltenorientierte Data Warehouses zeichnen sich durch ihre hohe Verarbeitungsgeschwindigkeit, hohe Kompressionsfähigkeit und ausgezeichnete Skalierbarkeit aus. Gerade das, was man im Handling mit großen Datenmengen braucht. Es bedeutet aber auch, dass so viele Anwender und Daten hinzukommen können, wie zur Erledigung der jeweiligen Aufgabe vonnöten sind.

Die spaltenorientierte Ablage, auch im Hauptspeicher, hat zudem den Vorteil, dass die Verarbeitung sich parallelisieren lässt, man spricht von »Massively Parallel Processing« (MPP). Eine spaltenorientierte Datenbank indexiert die Daten, sobald sie in das System geladen werden, ohne eine Metaebene über die Rohdaten zu legen.

In-Memory-Datenbanken haben zudem den Vorteil, dass sie keine Daten für die Analyse verschieben müssen. Die Reaktionszeiten verkürzen sich drastisch. Insofern brauchen sich die Unternehmen tatsächlich keine Sorgen zu machen, zumal auch der Storage-Markt sich bis jetzt immer den Herausforderungen an noch mehr Daten stellen konnte – die Festplattenkapazität steigt, die Plattengröße sinkt, die Speicherkosten und die durchschnittliche Zugriffszeit reduzieren sich.

Neue Verarbeitungssysteme. Wenn von Big Data die Rede ist, wird gerne auf Social Media, Video-Inhalte und Sensoren in allen möglichen Maschinen und Netzen verwiesen. Vor allem diese lassen über die Unternehmen sintflutartige Datenmengen hereinbrechen. Auch die Studie »Quo vadis Big Data«, die T-Systems bei TNS Infratest in Auftrag gegeben hat, macht da keine Ausnahme. Demnach durchbrach bereits 2010 die weltweit in einem Jahr erzeugte Gesamtmenge an Informationen die Zettabyte-Schallmauer. Zur Erinnerung: Das sind 1.000.000.000.000.000.000.000 Byte – eine Zahl mit 21 Nullen.

Doch Big Data umfasst eben nicht nur die bloße Menge, die es zu analysieren gilt, sondern auch die neue Struktur. In der Studie heißt es: »Neue Verarbeitungssysteme müssen in der Lage sein, einen Nutzen aus der Vielzahl an unterschiedlichen Arten ziehen zu können. Dabei steht nicht unbedingt die Varianz, sondern eher die Struktur von Daten im Fokus.«

»Analytik und Performance Management sind die konsequente Weiterentwicklung der traditionellen Business Intelligence«, Wolfgang Martin, Geschäftsführer von Wolfgang Martin Team.

Mit der steigenden Menge an unterschiedlichen Daten aber, die zudem in kürzester Zeit verarbeitet werden müssen, kommen die bisherigen Datenbank-Management-Systeme nicht mehr klar und Techniken wie MapReduce-Ansätze, NoSQL-Datenbanken für die Verarbeitung von unstrukturierten Daten oder In-Memory-Verfahren für die Bewältigung der Anforderungen nötig. Trotzdem rennen die Unternehmen den Anbietern von In-Memory-Produkten nicht gerade die Türen ein. Insgesamt setzen 16% der befragten Unternehmen und öffentlichen Einrichtungen eine solche Technik ein, in den USA mehr als ein Drittel, in der Schweiz und in Österreich 2 bzw. 3%.

Dennoch: »Das Thema Big Data gewinnt an Fahrt«, weiß Ulrich Meister, Mitglied der internationalen Geschäftsführung von T-Systems und Leiter Systems Integration. »Neben der Analyse riesiger Datenmengen werden mit dieser Technologie Verbesserungen auch bei Arbeitsabläufen und betrieblichen Prozessen verbunden sein. Wir sehen auf diesem Gebiet Innovationspotenzial, das neue Geschäftsfelder und -anwendungen erst möglich macht«, spricht der Systemintegrator.

Big Data – Make or buy? Es wird noch spannend zu beobachten, wie sich der Markt auf reine Soft- und Hardware-Anbieter, Anbieter von Appliances und spezialisierte Dienstleister verteilt. Am Beispiel von Blog-Analysen bündeln einige Service-Anbieter die komplette Leistung als extern zukaufbaren Service und beliefern Kunden mit fertigen Auswertungen. Angesichts der Komplexität der Technologie und der hohen Spezialisierung ist dieses Modell in verschiedenen Bereichen eine interessante Alternative, wenn auch die Chance auf Wettbewerbsvorteile durch eigene, besonders clevere Implementierungen damit ausgelassen wird. Die Komplexität liegt keineswegs nur in der Technik – die Anforderungen an die Analyse-Tools nehmen ebenso zu wie die an den Benutzer vor dem Bildschirm.

Nachdem sich Unternehmen mit Big Data in neue funktionale Bereiche der Datenanalyse begeben und vielfach Pionierarbeit leisten, bleibt ein klassisches Problem erhalten, das die BI-Branche seit ihrem Bestehen begleitet, wissen die Spezialisten von pmOne: »Die Darstellung des ROI ist keine triviale Aufgabe und muss meist auf spekulativen Annahmen aufbauen. Der diskontierte Cashflow einer früher oder durch Big Data überhaupt erst richtig getroffenen Entscheidung ist schwer belastbar zu kalkulieren. Die betriebswirtschaftliche Unschärfe begleitet Big Data-Initiativen von Beginn an.«

Wichtiger denn je. »Analytik ist im Zeitalter von Big Data wichtiger denn je«, sagt der Experte Wolfgang Martin. Doch die traditionellen BI-Werkzeuge erweisen sich als unzureichend für Big Data-Analytik. Data Discovery, eine interaktive Variante von Analytik, steht jetzt ganz vorne in der Bedeutung. Dazu gehören Filtern und Visualisieren von Daten, kollaborative Werkzeuge zur Teamarbeit, intuitive Benutzerschnittstellen und eine neue Generation von Geräten wie die Tablets, damit man in den Fachabteilungen produktiv und erfolgreich arbeiten kann.

»Die IT muss in den Zeiten von Big Data den Hauptfokus auf Data Management legen«, sagt Martin. »Der Unterschied besteht nicht nur darin, dass man jetzt mit dem Big Data umgehen muss, sondern auch darin, dass im Zuge von Performance Management und Analytik Entscheidungen in den Kontext von Prozessen und Services gestellt werden und so auch operativ umgesetzt werden können.«

Mit traditionellen BI-Werkzeugen (Berichtswesen, Adhoc-Abfragen, OLAP, Data Mining etc.) war es immer schwierig, die richtige Information zum richtigen Zeitpunkt am richtigen Ort für den aktuellen Zweck zu haben. Sie gaben nicht das her, was man wollte: Ergebnisse, die man direkt auf Geschäftsprozesse und Strategien anwenden und umsetzen konnte. Der Return on Investment (ROI) solcher Werkzeuge war in der Regel sehr niedrig, wenn er überhaupt messbar war. Und sie waren zudem meist schwer zu handhaben.

Nur eine Handvoll Experten war in der Lage, aus den traditionellen Werkzeugen die richtige Information herauszuziehen. Management-Entscheidungen und Maßnahmen wurden daher eher auf Grund von Vermutungen getroffen, weniger auf Grund von Fakten.

Hier wurden inzwischen viele dieser Probleme beseitigt. Self-service BI, vor allem im Rahmen von Data Discovery, erlaubt heute, dass auch gelegentliche Nutzer von Analytik und Performance Management die Fakten und die Information bekommen, die sie im Rahmen einer BI-Governance benötigen. Die Benutzerschnittstellen sind in Richtung Social Media Interfaces weiterentwickelt worden und erlauben eine Nutzung à la Facebook und Twitter. Mobile Lösungen auf Smartphones und Tablets haben den Weg gezeigt, wie Software-Ergonomie zu sein hat.

Wolfgang Martins Conclusio: »Analytik und Performance Management sind die konsequente Weiterentwicklung der traditionellen Business Intelligence. Mit Hilfe von Analytik lässt sich das Big Data erschließen und wertvolles Wissen zur Steuerung im Unternehmen ableiten. Mit Hilfe von Performance Management kann dieses Wissen über eine Service- und Prozess-Orientierung von den Unternehmensstrategien bis zum operativen Tagesgeschäft hin umgesetzt und in allen Aktivitäten eines Unternehmens eingesetzt werden. Man schafft ein intelligentes Unternehmen. Hierin liegen der Nutzen und Wert.«

Comments are closed.