Zum Inhalt springen
Der Guide für ein smartes Leben.
VG Wort Pixel
Business Analytics

Die Zukunft der Datenanalyse

Business Intelligence (BI) ist beileibe keine neue Technologie. Dennoch könnte sie sich in diesem Jahr praktisch neu erfinden, meint Brian Gentile, CEO des BI-Anbieters Jaspersoft. Er hat vier wesentliche Trends ausgemacht, welche die Art und Weise, wie wir Daten analysieren und wie wir die daraus resultierenden Informationen nutzen, revolutionieren könnte. Ein Gastbeitrag von Brian Gentile.

Autor: Business & IT • 19.5.2014 • ca. 7:55 Min

Die Zukunft der Datenanalyse
Die Zukunft der Datenanalyse
© bloomua - shutterstock.de

Bei Gesprächen mit unseren Kunden und Partnern erhalte ich Einblicke in den Stand der Dinge und erfahre, wie wir Kunden und Partner noch besser unterstützen können. Von den Kunden zu lernen, ist eine unserer Hauptaufgaben. Aus meinen vielen Treffen und Unterhaltungen habe ich vier zen...

Bei Gesprächen mit unseren Kunden und Partnern erhalte ich Einblicke in den Stand der Dinge und erfahre, wie wir Kunden und Partner noch besser unterstützen können. Von den Kunden zu lernen, ist eine unserer Hauptaufgaben. Aus meinen vielen Treffen und Unterhaltungen habe ich vier zentrale Trends herausgefiltert, die meiner Ansicht nach 2014 zu einem entscheidenden Jahr für Reporting und Analytics machen werden.

Trend 1: Vergessen Sie die Sentimentanalyse - Sensoren und Software gehört die Zukunft!

Der Hype um Big Data konzentrierte sich zu großen Teilen auf die Social-Media- und Sentimentanalyse ("Stimmungsanalyse"). Ziel war es, näher beim Kunden zu sein und das Wettbewerbsumfeld besser zu verstehen. So löblich dies auch sein mag, verfügen doch die wenigsten Unternehmen über die Kompetenzen und Daten, um hier nennenswerte Wettbewerbsvorteile zu erzielen.

Deutlich vielversprechender ist es, den Fokus auf das "Internet der Dinge" mit seinem unglaublichen Transformationspotenzial zu richten. Um mich herum sehe ich Tag für Tag überzeugendere Beispiele für die Wichtigkeit von Sensoren und Software. Dabei spreche ich bewusst von "Sensoren und Software", da diese Bezeichnung den konkreten Wert besser wiedergibt, der sich durch das Sammeln, Überwachen und effektive Managen großer Mengen an sensorgenerierten Daten erzielen lässt.

Warum dies ausgerechnet 2014 relevant sein wird? Erstens sind die Kosten für die Sensortechnologie erstaunlich gesunken: Ein RFID-Tag ist inzwischen für wenig mehr als 50 Cent zu haben. Zweitens ist auch die Speicherund Analysetechnologie zur Erfassung und Analyse der Daten unglaublich preisgünstig und weithin verfügbar geworden, nicht zuletzt da häufig Open-Source-Software zum Einsatz kommt.

Schließlich eignen sich sensorbasierte Daten besonders gut für die Korrelationsanalyse, anstelle - wie bisher vorwiegend geschehen - ausschließlich kausale Zusammenhänge zu betrachten. Dadurch steigt die Wahrscheinlichkeit, im Wust der maschinell erzeugten Daten aussagekräftige Informationen zu finden.

Namhafte Analysten sagen dem Trend, die Dinge "smarter" zu machen und mit dem Internet zu verbinden, eine überwältigende Zukunft voraus, die weit über reine Wirtschaftsaspekte hinausgeht. Warum sollten wir uns mit den Aussagen einer kleinen Gruppe zufriedengeben (wie dies bei der Social-Media- und Sentimentanalyse der Fall ist), wenn wir durch Sensordaten das reale Verhalten einer sehr viel größeren Zahl von Menschen durchleuchten können? Für mich ist eines klar: Wir sind gerade Zeugen einer stillen Revolution und 2014 wird das Jahr sein, in dem Sensoren und Software die Welt verändern.

Trend 2: Cloud-Bereitstellung - der Schlüssel zur neuen Analytics-Nachfrage und -Nutzung

Je schneller die Menge der Cloud-Daten wächst, desto attraktiver wird es, in der Wolke angesiedelte Zusatzdienste für Datenmanagement und -analyse zu nutzen. IES wird eine neue Generation von Plattform- und Middleware-Software geben, um die Anforderungen der Unternehmen an Cloud-basierte, elastische Datenverarbeitungsprozesse zufriedenzustellen.

Dabei werden auf Software-Ebene in erster Linie nutzungsorientierte und skalierbare Bereitstellungsmodelle das Rennen machen, bei denen Datenverbrauch und Gebühren eng aneinander gekoppelt sind. Die bessere Wirtschaftlichkeit wird wiederum einen sehr viel breiteren Einsatz von Plattform- und Middleware- Software ermöglichen, besonders mit

Blick auf Reporting und Analytics, als dies bisher der Fall war. Die Bereitstellung in der Cloud verspricht zudem ein Maß an Einfachheit und Benutzerfreundlichkeit, wie sie es in früheren Generationen von Unternehmenssoftware nicht gab, und läutet somit das Analytics-Zeitalter für Unternehmen aller Art und Größe ein. Kurz gesagt: Die Cloud-basierte Bereitstellung wird zum Schlüsselfaktor für das Streben nach umfassenden und allgegenwärtigen Analysefunktionen - besonders, wenn diese Funktionen in täglich genutzte Webanwendungen integriert werden.

Cloud,Datenanalyse
Sensoren werden immer günstiger: So kostet ein RFID-Tag inzwischen kaum mehr als 50 Cent.
© Hersteller

Nucleus Research sieht dies folgendermaßen: "Je deutlicher die Unternehmen erkennen, welche Vorteile die modernen Analyselösungen mit ihren nutzungs- und abonnementbasierten Kostenmodellen haben, desto besser sind sie in der Lage, Markttrends und Marktchancen vor der Konkurrenz zu erkennen und den Analytics-ROI von durchschnittlich 10,66 US-Dollar für jeden investierten Dollar optimal auszunutzen." Aus all diesen Gründen wird 2014 das Jahr sein, in dem die Bereitstellung in der Cloud die Analytics-Nachfrage und -Nutzung von Grund auf verändern wird.

Trend 3: Vom Schema zur Idee - der wahre Paradigmenwechsel

In der Vergangenheit (und allzu oft auch heute noch) haben wir nur die Daten gesammelt, die wir speichern konnten und für die wir einen konkreten Verwendungszweck hatten. Dabei musste so lange jedes überflüssige Bit entfernt werden, bis nur das "Datenskelett" übrig blieb - der Teilsatz an Daten, den wir wirklich brauchten. Wir wurden (und werden) von schematischen Grenzen beschränkt. Das heißt, wir mussten den Verwendungszweck von Daten bereits wissen, noch während wir sie erfassten. Eine derartige Vorgehensweise lässt wenig Spielraum für künftige Nutzwerte, die womöglich unerkannt in einem Datensatz schlummern. In der Physik weiß man jedoch, dass Energie einen unmittelbaren (kinetischen) und einen potenziellen (latenten) Wert hat. Warum sollte das für Daten nicht auch gelten?

Durch sinkende Kosten und die exponentiell steigende Leistungsfähigkeit der Technologie können wir heute nicht nur einen Teilsatz, sondern alle Daten speichern und nutzen. Natürlich kann es sein, dass wir den Wert bei ihrer Erfassung noch gar nicht kennen. Aber das macht nichts, denn früher oder später wird sich ihr latenter Wert offenbaren. Mit der heutigen Technologie können wir uns diese Sichtweise erstmals wirklich leisten. Die wahre Chance von Big Data liegt also darin, dass wir nicht durch ein Schema, sondern nur noch durch unsere Ideen begrenzt werden: Ideen, wie wir Daten nutzen können, wie sich neue Korrelationen herstellen lassen und wo sich ein Wert entdecken lässt, der zuvor verborgen war.

Cloud,Datenanalyse
Je schneller die Menge der Cloud- Daten wächst, desto attraktiver wird es auch, Zusatzdienste in der Wolke für die Datenanalyse zu nutzen.
© Hersteller

Mit zunehmender Digitalisierung der Welt wird es immer einfacher, diesen Wert zu erschließen. Eine Schlüsselrolle spielen dabei die vielen neuen Datentypen, auf die wir zugreifen können: Geo-Daten, Sensordaten, Clickstreams, Video- und Bilddaten, Dokumente oder Formulare. Noch vor wenigen Jahren wäre kaum etwas aus dieser Aufzählung als "Daten" bezeichnet worden. Die Nutzung all dieser Datentypen und die Suche nach Korrelationen, mit denen sich geschäftliche Vorteile erzielen lassen, wird die Qualität und Quantität unserer Ideen in den Fokus rücken.

Mein Lieblingsbeispiel für den latenten Wert von Daten ist die von Lytro entwickelte erste Lichtfeldkamera für den Consumer-Markt. Die Lytro-Kamera zeichnet das gesamte Lichtfeld (elf Millionen Lichtstrahlen!) auf und errechnet daraus ein Bild.

Nach der Aufnahme können Sie das Bild filtern und aus einer beliebigen Perspektive betrachten, um so festzulegen, welchen Bereich Sie scharfstellen wollen, wie der optimale Blickwinkel ist und welchen Zoomfaktor Sie verwenden wollen. Das Ergebnis bezeichnet Lytro als "lebendes Bild" mit 3D-Charakter. Für mich ist das eine extrem gelungene Nutzung des latenten Datenwerts.

2014 werden wir den Schritt vom Schema zur Idee vollziehen und damit sehr viel häufiger den wahren Wert von Big Data aufdecken.

Trend 4: "Follow the Money" - technologische Neuerungen als Wachstumstreiber

Die breitere Nutzung von Daten befeuert Innovationen. Innovationen wiederum transformieren Prozesse, Produkte, Dienstleistungen und Menschen. Unsere neu errungene Fähigkeit, enorme Datenmengen kosteneffektiv auf verborgene Muster zu untersuchen, wird eine völlig neue Generation an technologischen Innovationen hervorbringen, die vom geschäftlichen Nutzen angetrieben sind.

Um diesem Trend gerecht zu werden, müssen IT-Organisationen neue Wege finden, wie sie sich ins Unternehmen eingliedern und kollaborieren können. Zusammenarbeit ist wichtiger denn je, denn der wirtschaftliche Erfolg wird künftig entscheidend auf technologischen Neuerungen beruhen - unabhängig von Branche und Unternehmen.

Auch die Experten von Gartner sprechen in ihren jüngsten Prognosen von der digitalen Revolution der Wirtschaft und stellen CIOs und IT-Organisationen vor die Alternative, sich entweder an die Spitze dieser Revolution zu stellen oder von ihr hinweggespült zu werden: kompromisslose Worte, die aber den Nerv der Zeit treffen.

Brian Gentile
Der Autor: Brian Gentile, CEO von Jaspersoft
© Brian Gentile

In dieser neuen Ära ist jedes Unternehmen ein Technologieunternehmen und muss die verfügbaren Technologien so einsetzen, dass es sich vom Wettbewerb unterscheidet und absetzt. Gerade bei den Branchenführern lässt sich dieser Trend deutlich erkennen: Laut IDC werden hier bereits 61 Prozent der Technologieaufwendungen von den Geschäftsbereichen kontrolliert.

Zum Glück waren die Hürden für den Zugang zu neuen Technologien noch nie so niedrig wie heute. Unternehmen aller Größen können auf erschwingliche und zugleich leistungsfähige Enterprise Tools zurückgreifen. Dies sorgt für mehr Gerechtigkeit im Spiel der Business-Akteure und erlaubt selbst kleinen Marktteilnehmern, sich mit den ganz Großen zu messen (mitunter erweisen sich gerade die Kleinsten als besonders agil und damit effektiv). Ein Beispiel hierfür ist AirIT, das aus traditionellen Flughäfen modernste Datenzentren macht und dafür geschäftsrelevante Metriken nutzt, die wiederum die operativen Abläufe verschlanken und Geld sparen.

Führende Unternehmen investieren gezielt in Personal, Kompetenz und Organisation, um den innovativen Einsatz neuer Technologien voranzutreiben - und lösen damit eine Lawine aus, die Weiterbildung, Training und Personalmanagement im gesamten Unternehmen umgestalten wird.

Selbst das Militär hat erkannt, dass Kenntnisse und Fähigkeiten im Daten- und Analysebereich an vorderster Front der Personalentwicklung stehen müssen. Die Gefahr dabei ist, dass die wachsende Bedeutung von technologischem Know-how zu einer Aufspaltung in digitale Experten und digitale Amateure führt und dadurch eine Dynamik entsteht, die Zögernde gnadenlos zurücklässt.

Fazit

Damit sich die Ära der geschäftsgetriebenen Technologie-Innovationen voll entfalten kann, müssen sehr viel mehr Wissensarbeiter als bisher Zugang zu den benötigten Daten und Analysen haben. Dieser Zugang muss perfekt austariert am richtigen Ort zur richtigen Zeit erfolgen, sodass letztlich jeder Anwender zu einem fähigen Analysten und Entscheider wird - unabhängig von seiner Stellung, seiner Position oder seinen Technikkenntnissen.

2014 wird das Jahr sein, in dem Analytics keine Vision, sondern handfeste Realität ist, das Jahr, in dem die Nachfrage nach der Business Intelligence innerhalb von Applikationen und Geschäftsprozessen zum Treiber der geschäftsorientierten Technologie-Innovation wird.