Der Trend im Storage-Segment
Das Schlagwort von den "Big Data" geistert zur Zeit massiv durch die IT-Industrie. Den größten Widerhall findet der Trend im Storage-Segment - und vor allem im Bereich Business Intelligence (BI). Aus gutem Grund: Liefern Big Data doch ganz neue Möglichkeiten der Datenanalyse. Dieser Beitrag klärt die wichtigsten Fragen, die Unternehmen dazu auf den Nägeln brennen.

Vom Thema "Big Data" versprechen sich viele Anwender die umfassende Nutzung sämtlicher im Unternehmen vorhandener Daten, um so eine noch bessere Sicht auf ihre Kunden, eine höhere operative Effizienz und nicht zuletzt Wettbewerbsvorteile zu realisieren.Der Marketing-Hype und die Geschwindi...
Vom Thema "Big Data" versprechen sich viele Anwender die umfassende Nutzung sämtlicher im Unternehmen vorhandener Daten, um so eine noch bessere Sicht auf ihre Kunden, eine höhere operative Effizienz und nicht zuletzt Wettbewerbsvorteile zu realisieren.
Der Marketing-Hype und die Geschwindigkeit, mit der Studien, Berichte von Analysten und Fachartikel veröffentlicht werden, ist fu?r Unternehmen, die von der Analyse von Big Data profitieren wollen, verwirrend. Es wird immer schwieriger, Fakten und Fiktion voneinander zu trennen und praktische Einsatzmöglichkeiten zu identifizieren. Der Business-Intelligence-Spezialist arcplan gibt interessierten Unternehmen Antworten auf die am häufigsten gestellten Fragen rund um das Trendthema.
Was sind eigentlich Big Data?
Unter dem Begriff "Big Data" versteht man zunächst eine sehr große Menge an Informationen. Im Gegensatz zu herkömmlich strukturierten Daten, die typischerweise in relationalen Datenbanken gespeichert werden, können Big Data im Bezug auf ihr Volumen, Geschwindigkeit und Vielfalt variieren. Big Data werden üblicherweise in großen Mengen generiert.
In der Regel handelt es sich um Terabyte oder gar Exabyte (eine Million Terabyte) an Daten je Datensatz. Big Data werden mit so hoher Geschwindigkeit gewonnen - üblicherweise in schnell aufeinander folgenden Intervallen -, sodass eine schnelle Analyse ausgesprochen schwierig ist, auch wenn diese den Wert der Daten erhöht.
Hinzu kommt, dass Big Data nicht schon aufbereitet als Spreadsheets oder als multidimensionale Datenbank geliefert werden, sondern häufig auch unstrukturierte, qualitative Daten enthalten.
Das Thema ist nicht ganz neu
Obwohl das Thema derzeit in aller Munde ist, gibt es Big Data schon seit Langem. Denken wir einmal an die Zeiten zurück, als Wissenschaftler Super-Computer nutzten, um solch gewaltige Datenmengen zu analysieren. Der Unterschied besteht heute darin, dass Big Data normalen BI-Anwendern zugänglich sind und von Unternehmen genutzt werden können.
Die zunehmende Bedeutung resultiert aus der steigenden Anzahl von Einsatzmöglichkeiten für Unternehmen, die realen Nutzen aus den Daten ziehen. So nutzt beispielsweise Walmart Echtzeitdaten aus sozialen Medien, um Trends zu ermitteln und entsprechende Online-Werbung zu platzieren.
Obwohl Unternehmen gegenwärtig noch zurückhaltend mit dem Thema umgehen, schätzen die Marktforscher von IDC, dass das Marktvolumen für Technologien und Dienstleistungen im Big-Data-Umfeld von 3,2 Milliarden US-Dollar im Jahr 2010 auf 16,9 Milliarden US-Dollar im Jahr 2015 steigen wird.
Die Herkunft der "großen Daten"
Big Data finden immer wieder in den gleichen Zusammenhängen, wie Social Media, Maschinen- oder Transaktionsdaten, Erwähnung. Daten aus sozialen Netzwerken geben Unternehmen erstaunliche Einblicke in das Verhalten von Konsumenten und deren Stimmung und sie können mit CRM-Daten zu Analysezwecken zusammengebracht werden.
Täglich werden bei Twitter 230 Millionen Tweets veröffentlicht, 2,7 Milliarden Likes und Kommentare bei Facebook eingestellt und in jeder Minute 60 Stunden Video auf YouTube hochgeladen (daher die Erwähnung der Geschwindigkeit der Daten). Maschinendaten bestehen aus Informationen, die aus Produktionsanlagen gewonnen werden, wie etwa Echtzeitdaten von Überwachungssensoren (häufig auch als "Internet der Dinge" bezeichnet). Beim arcplan-Kunden CERN, der größten physikalischen Forschungsanstalt weltweit, generiert der sogenannte Large Hadron Collider (LHC) während eines Experiments 40 Terabyte an Daten pro Sekunde.
Große Handels- und B2B-Unternehmen erhalten regelmäßig große Mengen an Transaktionsdaten, wie etwa Produkt-IDs, Preise, Zahlungs-, Hersteller- und Verkäufer-Informationen. Große Anbieter wie Amazon.com mit einem Umsatz von 10 Milliarden US-Dollar im dritten Quartal 2011, oder Systemgastronomen wie die US-Pizzakette Domino's, die täglich eine Million Kunden bedient, generieren täglich Petabyte an Transaktionsdaten. Dabei kann Big Data sowohl konventionell strukturierte Daten als auch unstrukturierte, häufig abgefragte Daten enthalten.
Passende Analysewerkzeuge
Ein weiterer Grund für die zunehmende Verbreitung von Big Data sind die immer leistungsfähiger werdenden Analysewerkzeuge. Seit Langem setzen Unternehmen Terabyte-fassende Data Warehouses von verschiedenen Anbietern ein, doch es gibt heute einen neuen Trend der Speicherung von Big Data über eine Vielzahl von Servern hinweg, die sehr einfach große Mengen unstrukturierter Daten verarbeiten können.
Dies ist auch der gestiegenen Nutzung von Open-Source-Technologien wie Hadoop zu verdanken, einem Framework zur Verteilung der Datenverarbeitung über eine Vielzahl von Knoten, das ein schnelles Laden von Daten und Funktionen zur Echtzeit-Analyse ermöglicht. Tatsächlich erlaubt Hadoop die Analyse von Daten dort, wo sie abgelegt sind. Dies erfordert allerdings spezielle Fertigkeiten und die Technik ist anspruchsvoll.
Analytische Plattformen, die über Schnittstellen zu Systemen von Teradata oder zu SAP HANA, der Big-Data-Lösung von SAP, verfügen, erlauben deren Datenanalyse und Visualisierung. Unternehmen, die Big Data nutzen wollen, müssen also möglicherweise in neue Technologien investieren, aber einige der traditionellen BI-Anbieter können den Weg schon heute mit ihnen gehen. Big Data ist einfach eine neue Herausforderung in der Datenspeicherung und -analyse, die es erfordert, bestehende Systeme auf eine neue Weise zu nutzen.
Ausblick
Möglicherweise lässt der Big-Data-Hype bald wieder nach, aber Studien belegen, dass deren Einsatz weiter wachsen wird. Mit einem prognostizierten Marktvolumen von 16,9 Milliarden US-Dollar im Jahr 2015 scheint klar, dass Big Data ein Thema bleiben wird.
Trotzdem gibt es zu wenige Experten im Big-Data-Umfeld, um dem Markt gerecht zu werden. McKinsey & Company schätzten bereits im Mai 2011, dass bis 2018 allein in den USA zwischen 140.000 und 190.000 Fachkräfte mit den notwendigen analytischen Kenntnissen fehlen werden.
Darüber hinaus werden rund 1,5 Millionen Manager und Analysten mit dem nötigen Know-how fehlen, um die Big-Data-Analysen zur richtigen Entscheidungsfindung zu nutzen.
Das Erscheinen von Big Data Analytics hat die Sicht vieler Unternehmen auf ihre Daten verändert. Big Data kann für Unternehmen ein Mehr an Mitarbeitern, Technik und Datenmengen bedeuten, aber es zahlt sich aus - in Form eines schnellen Einblicks in nie analysierte Daten. Je mehr Anwendungsfälle zu Tage treten und je reifer die Technik wird, desto stärker wird Big Data vom Trend zur Selbstverständlichkeit. Schon bald wird es ein weiterer Baustein im BI-Ecosystem sein.
Statement - Mit SAP HANA in Big Data

"SAP HANA (High-Performance Analytic Appliance) verspricht eine neue Ära hochperformanter Analysen in der Datenverarbeitung. Analysegeschwindigkeit allein ist allerdings noch kein klarer Wettbewerbsvorteil. Denn erst wenn Geschwindigkeit auch in schnelle und richtige Entscheidungen übersetzt wird und darauf ebenso schnelle und richtige Aktionen folgen, noch bevor der Markt und die Wettbewerber diese antizipieren, entsteht ein echter Vorteil. Im SAP-Kontext sind das beispielsweise Data-Mining-Szenarien, Planungsszenarien oder auch Preis- und Konditionsanalysen, die in der direkten Verhandlung mit Kunden oder Lieferanten Details liefern, die mit herkömmlichen Datenbank-Lösungen vor Einführung der In-Memory-Technologie nicht zugänglich waren.
Immer wieder im Fokus ist das Thema ,Periodenabschluss'. Hier geht es nicht nur um schnelle Analysen, sondern vor allem darum, eine passende Grundlage zur Abrechnung und Verteilung zu ermitteln und daraus die notwendigen Buchungen zu erzeugen. Situationen, in denen Mitarbeiter umfassende Informationen aus einem Kontext verschiedener Prozessszenarien benötigen, kann SAP HANA sehr gut unterstützen, beispielsweise in Call-Centern. Hier werden beim Anruf sofort alle Informationen benötigt, die im Kontext des Kunden relevant sind: Bestell- und Zahlungshistorie, aktuelle Bestellungen und Außenstände, Rankings und Bewertungen des Kunden oder die vom Kunden erfassten Einträge in Boards und Gästebüchern. Am Ende sollte bei allem Geschwindigkeitsrausch jede SAP HANA-Investition allerdings einer nüchternen Return-on-Investment-Betrachtung standhalten."
Statement - Mit den richtigen Werkzeugen zum Erfolg

"Big Data ist keine vorübergehende Mode, die nach einiger Zeit wieder aus der IT-Diskussion verschwindet. Der Begriff beschreibt Herausforderungen, die viele Unternehmen umtreiben: explodierende Datenmengen, die Geschwindigkeit, mit der neue Daten entstehen, die Unterschiedlichkeit der Quellen und Inhalte und nicht zuletzt der steigende Bedarf an Echtzeit-Analysen. Sowohl die aus internen Beständen, aber auch die aus externen Quellen stammenden Datenmengen, wie solche von RFID-Lesegeräten, aus Sensornetzen in der Fertigung und aus Social-Media-Plattformen, bieten Unternehmen vielfältige Möglichkeiten für neue, geschäftsrelevante Erkenntnisse. Sicher ist: Big Data verändert die Arbeitswelt. Entscheidend ist, mit den richtigen Methoden und Werkzeugen die Datenberge zu bearbeiten, wobei die Größe für jedes Unternehmen relativ ist. Bei Kleinunternehmen und im Mittelstand können schon mehrere Gigabyte an Daten eine ungewöhnlich große Menge darstellen, die möglichst in Echtzeit zu analysieren ist. Für Konzerne beginnt Big Data erst bei einer Datenmenge von mehreren Hundert Terabyte. Gesucht wird dabei immer nach Mustern, Ähnlichkeiten, Zusammenhängen und Diskrepanzen. Produzierende Unternehmen aus der Konsumgüterbranche etwa wollen verstehen, wie Verbraucher auf ihre Produkte oder eine konkrete Vertriebskampagne reagieren. Dazu müssen Daten aus internen und externen Quellen in Echtzeit zusammengeführt werden. Handelsunternehmen können Sonderaktionen auch bei umfangreichem Produktportfolio und einem großen Filialnetz in großer Präzision und Geschwindigkeit planen, deren Wirkung kontrollieren und bei Bedarf nachsteuern.
Wichtig dabei ist, auch alle relevanten Einflussfaktoren wie lokaler Wettbewerb, Kundenstruktur oder andere unvorhergesehene Ereignisse zu berücksichtigen. Dafür müssen Unternehmen aber die technischen Voraussetzungen schaffen, insbesondere auf den Gebieten Daten-Connectivity und Middleware. Beim Datenimport und -export gilt es, die traditionellen relationalen und transaktionalen Systeme, aber auch neuere Verfahren wie NoSQL sowie hochskalierbare Analyseplattformen wie Hadoop oder Map-R einzubeziehen, die eine parallele Verarbeitung großer Datenmengen ermöglichen. Dabei geht es um typische Einsatzgebiete von Business Intelligence wie Data Warehousing, Data Migration, Data Replication und Data Analysis.
Die Datenbank-Zugriffe und deren Performance sind entscheidend für den Erfolg von Big-Data-Projekten. Unternehmen benötigen daher standardbasierte, vollständig interoperable Datenbank-Treiber, mit denen sie ihre Applikationen funktional erweitern können, ohne dass sie den Programmcode der Anwendungen ändern müssen. Im Bereich der Daten-Connectivity bildet der hochperformante, standardbasierte Zugriff auf alle wichtigen relationalen Datenbanken via ODBC, JDBC oder ADO.NET ein Herzstück. Damit entsteht eine ausbaufähige Infrastruktur für einen schnellen und effizienten Datenaustausch bei Big-Data-Anwendungen."