Big Data

Kraft einer modernen Alchemie

Alchemie_3webEffektiver und effizienter zu arbeiten und gegenüber der Konkurrenz schneller auf sich verändernde Marktgegebenheiten reagieren zu können ist das Ziel eines jeden Unternehmen. Dazu wird eine Vielzahl klassischer Analysemethoden und Instrumente eingesetzt, um aus vorhandenen Daten handlungsrelevante Informationen zu erhalten. Bis vor kurzem waren diese Analysen auf gut strukturierte unternehmensinterne Daten beschränkt. Heute machen diese internen Daten jedoch lediglich einen Bruchteil der tatsächlich vorhandenen Daten aus.

Durch die enge Verknüpfung der Prozesse in der Logistik mit den IT-Systemen und gleichzeitiger Steigerung der Komplexität der Logistik müssen die bestehenden IT-Systeme immer komplexere Aufgaben verwalten. Zusätzlich zu den großen Datenmengen, der Komplexität und der verschiedenen Datenstrukturen steigt der Bedarf an Entscheidungen in Echtzeit an.

Durch diese Entwicklung in der Logistik stoßen die aktuellen IT-Systeme an ihre Grenzen und müssen zukünftig um Methoden und Systeme aus dem Big Data Analytics-Bereich erweitert werden.

Umdenken notwendig. Der Fundus an Daten nimmt ständig zu und macht eine neue Art und Weise der Aufbereitung notwendig. Der Begriff »Big Data« beschreibt die zu konventionellen Daten abweichenden Eigenschaften dieses Datenmeers in den Dimensionen Menge, Geschwindigkeit, Vielfalt und Wahrhaftigkeit.

»Wie aus moderner Alchemie ein alltagsfähiges Werkzeug wird«, Daniel Liebhart, Enterprise Architecture Manager bei Trivadis.

»Wie aus moderner Alchemie ein alltagsfähiges Werkzeug wird«, Daniel Liebhart, Enterprise Architecture Manager bei Trivadis.

Das bedeutet, dass immer mehr Daten in immer schnellerer Geschwindigkeit erzeugt werden und diese in einer immer größeren Vielfalt vorliegen und die nicht immer zu 100% verifizierbar sind, beispielsweise im Falle von fehlenden, falschen oder doppeldeutigen Daten. Je nach Quelle nehmen die gesamthaft produzierten Daten jedes Jahr um 40 bis 50% zu. Sie kommen aus dem Netz der sozialen Medien, werden von Sensoren und anderen Geräten erzeugt und als Film-, Ton- und Office-Dokumente oder in vielen anderen Formaten gespeichert. Dank neuer und innovativer Technologien können sie genutzt werden, um Entscheidungen und Handlungen im Unternehmen voranzubringen.
So kann eine Bank viel schneller auf Portfoliorisiken oder bei Kreditkartenbetrug reagieren, ein Logistikunternehmen kann das Flottenmanagement in Echtzeit durchführen, globale Produktplanung und -Steuerung wird möglich – die neuen Möglichkeiten sind schier grenzenlos.

Diese Technologien können entweder als Ergänzung zu bestehenden Lösungen oder jedoch als vollständig neue Ansätze eingesetzt werden. Für den sinnvollen Einsatz ist in beiden Fällen jedoch ein Umdenken notwendig. Ein Umdenken, welches das Wissen und die Instrumente umfasst, die notwendig sind, um die neu möglichen Anwendungsfälle und deren Fragestellungen und Geschäftsmodelle erfolgreich anzuwenden. Gerade kleinere und mittlere Unternehmen sind gut beraten, die Grundregeln der modernen Datenanalyse zu beachten, um nicht unnötig Zeit und Geld zu investieren.

Sinnvolles Zusammenführen. Big-Data-Infrastrukturen unterscheiden sich im Aufbau von konventionellen Business-Intelligence-Systemen durch die Art und Weise, wie Daten zusammengeführt werden. Die große Datenmenge und die hohe Geschwindigkeit bei der Erzeugung neuer Daten bedingen spezielle Technologien und Ansätze, die es im Einzelfall auszuwählen und zu bewerten gilt. Die so genannte »Lambda Architektur« zum Beispiel sieht deshalb eine Trennung in der jeweiligen Vorverarbeitung vor: einerseits in eine skalierbare Batchverarbeitung und andererseits in eine ebenso skalierbare Echtzeitverarbeitung.

Die Resultate beider Verarbeitungen werden synchronisiert und zusammengeführt. Sind die Daten einmal zusammengeführt – in einer sogenannten Datenfusion –, stehen eine Vielzahl neuartiger Analyse-, Mining-, Statistik- und Visualisierungs-Techniken zur Verfügung. Sie alle werden unter dem Begriff Data Science zusammengefasst und umfassen zusätzliche Aspekte wie Speicher- und Datenbank-Technologien, erweiterte mathematische Grundlagen, Engineering-Prinzipien und Sicherheitsaspekte.

Sinnige & unsinnige Korrelationen. Auch wenn die Mehrheit aller Unternehmen davon ausgeht, dass mehr Informationen auch mehr Produktivität bedeutet, heißt das noch lange nicht, dass jede neue Korrelation auch neue unternehmensrelevante Weisheiten offenbart. Im Gegenteil, insbesondere die Kombination interner und externer Daten erfordert größte Sorgfalt bei der Interpretation. Der Satz von Data-Mining-Pionier Nicolas Bissantz »Daten bleiben scheu und grausam. Es ist schwierig, aus ihnen zu lernen, und noch schwieriger, das Gelernte umzusetzen« gilt beim Umgang mit Big Data in besonderem Maße, da nicht aus jeder technisch ableitbaren Wechselbeziehung auch eine wirtschaftlich relevante Ursache abgeleitet werden kann.

Wie lernt man Big Data? Big Data, Big Data Analystics oder Data-Science-Kurse werden an vielen Hochschulen angeboten. Auch stehen Online-Lehrgänge oder Kurse von privaten Anbietern zur Verfügung. Der typische Aufbau eines Big-Data-Kurses umfasst die Themen Speicherarten, deren Einsatzgebiete und Auswahl, Verarbeitungsmöglichkeiten sowie die neuen Analysetechniken und mögliche Umsetzungsszenarien. Ein normaler Data-Science-Kurs umfasst Aspekte der Manipulation großer Datenmengen sowie deren Analyse und Resultataufbereitung. Der Bedarf an Fachkräften in diesem Bereich ist nach Aussagen von Analysten bereits heute sehr groß und wird in Zukunft stark ansteigen.

Datenqualität. Die Zunahme von Daten bedeutet auch immer eine mögliche Zunahme von fehlerhaften Daten. Unternehmensrelevante Entscheidungen auf Basis falscher Fakten zu treffen, hatte in vielen Fällen bereits verheerende Konsequenzen.

Gemäß einer Studie des Markforschungsunternehmens Kelton Research gaben mehr als 45% der über 500 befragten Unternehmen an, bereits Fehlentscheide aufgrund falscher Daten gefällt zu haben. Moderne Datenanalysen können zwar mit fehlerhaften oder unvollständigen Daten umgehen, sie sind jedoch auf belastbare Qualitätsaussagen angewiesen. Datenqualitätsaspekte sind aus diesem Grund spätestens bei der Einführung einer Big-Data-Lösung unternehmensweit aufzuarbeiten. Dabei ist immer zu definieren, welche Informationen für eine Firma wichtig und wertvoll sind. Daraus wird der Qualitätsanspruch an die entsprechenden Daten abgeleitet. Und es sind Verantwortliche zu definieren, die fachliche und technische Qualität beurteilen und verbessern helfen.

Echtzeitanalyse. Die Echtzeitanalyse oder auch die möglichst zeitnahe Aufbereitung von Daten spielt eine zunehmend größere Rolle. Zum Beispiel können durch die laufende Überwachung von Börsentransaktionen in Sekundenbruchteilen Risiken für Anleger, wie beispielsweise unsere Pensionskassen, minimiert werden.

Darüber hinaus ergibt die Möglichkeit, möglichst schnell die richtigen Informationen richtig aufbereitet und analysiert am richtigen Ort zur Verfügung zu haben, eine Vielzahl von Anwendungsmöglichkeiten. Sie reichen von Vermeidung der Verschwendung natürlicher Ressourcen über optimale Einsatzplanungen für Güter, Fahrzeuge und Personal bis hin zu schnellen nachfrageorientierten Produktionsanpassungen.
Gerade für hochspezialisierte Unternehmen, die integrierter Bestandteil einer größeren Wertschöpfungskette sind, eröffnet Big Data eine Vielzahl von höchst interessanten neuen Geschäftsmöglichkeiten.

Was tatsächlich passiert, wird immer genauer dokumentiert. Daraus können wir bessere Informationen gewinnen. Informationen, die bei der Steuerung eines Unternehmens wertvolle Dienste leisten können. Allerdings bedingt dies den klugen Einsatz innovativer Technologien und Methoden. Wie jede unternehmerische Tätigkeit folgt auch diese einem Zyklus der ständigen Verbesserung. Nur so wird aus moderner Alchemie alltagsfähiges Werkzeug.
Daniel Liebhart

Comments are closed.