Big, Bigger, Big Data
© PantherMedia /wu kailiang
MARKETING & MEDIA Sascha Harold 28.09.2018

Big, Bigger, Big Data

Gerade in Zeiten verschärfter Datenschutzbestimmungen ist der Umgang mit und der Nutzen von großen Datenmengen ein Thema.

••• Von Sascha Harold

Beim Gedanken an die damit verbundenen Herausforderungen in Sachen Datenschutz werden sich spätestens jetzt bei vielen Lesern Sorgenfalten auf den Stirnen abzeichnen. Schließlich assoziieren viele das Sammeln und Analysieren persönlicher Daten und Informationen mit „Datenkraken” à la Facebook und Google. Wir sehen dabei sehr schnell, dass das ein brisantes Thema ist, mit dem wir es hier zu tun haben. Und wie immer gibt es gerade bei ambivalenten Themen viel zu gewinnen, wenn im Vorfeld die richtigen Überlegungen getroffen werden.

Was Big Data nutzen kann

Big Data bietet jedenfalls ein riesiges Potenzial für Unternehmen – sofern diese in der Lage sind, damit auch richtig umzugehen und zwar nicht nur im Sinne von Moral und Ethik im Hinblick auf Datenschutzrichtlinien und der damit verbundenen Sicherung persönlicher Daten und Informationen; vielmehr ist auch die richtige und erkenntnisbringende Analyse der Datenfluten relevant.

Denn nur auf Basis richtig gezogener Schlussfolgerungen können Wettbewerbsvorteile für Unternehmen generiert, neue Geschäftsfelder erschlossen und innovative Produkte entwickelt werden. Big Data kann zur personalisierten Werbemaßnahmen genutzt werden – oder zur Steigerung des Cross- und Up-Sellings aufgrund von besserem Kunden- und Marktwissen.

Kundige Analysen

Social Media-Kanäle sind heute die prominentesten Produzenten von Big Data. Soziale Netzwerke ermöglichen Stimmungsanalysen der Kunden, die aus Unternehmenssicht wertvolle Einsichten erlauben. Gerade die Meinungen aller Marktteilnehmer zum eigenen Produktportfolio und zur Markenbildung sind für Unternehmen wichtig – das gilt auf der anderen Seite auch für Produkte des Mitbewerbers.

So kann eine Standortbestimmung aufgrund von Beliebtheitsskalen erstellt werden: In Blogs, Foren und Tweets wird einfach alles über Produkte und Firmen thematisiert und aufgegriffen – Expertenforen können schnell und nachhaltig Werbesprüche und oberflächliche Phrasendrescherei offenbaren. Zur Auswertung all dieser Kommunikation in den Sozialen Netzwerken beginnt man beim Umgang mit Big Data zunächst mit dem Identifizieren und Extra­hieren der relevanten Quellen.

Unbound-Kommunikation

Im nächsten Schritt gilt es, diese Quellen auszuwerten. Das liefert nicht nur statistische Information, wo und wie viele Spuren sich im Web und in den Sozialen Medien befinden; vielmehr lässt sich mithilfe von Stimmungsanalysen (Sentiment Analysis) auch die Tonalität der Beiträge bestimmen.

Auf Basis eines Social Media- Monitorings kann im nächsten Schritt eine Social Media-Interaktion aufgebaut werden. Das Unternehmen kann jetzt auf relevante Beiträge schnell reagieren und intervenieren. Das bringt Vorteile vor allem im Kundenservice oder bei der Einführung neuer Produkte im Markt, da sich sofort eine Kommunikation mit Communities im Web aufbauen und unterhalten lässt.
In verschiedenen Service-Callcentern sind beispielsweise Agenten gleichsam zu Social Media-Agenten geworden, die eine Multikanal-Kommunikation mit den Kunden sowohl über die traditionellen als auch über die Social Media-Kanäle führen können. Das ist der Schritt von der Trennung zwischen Outbound- und Inbound-Kundenkommunikation hin zur Un-bound-Kundenkommunikation!
So schafft man eine gesteigerte Time-to-Market- und eine höhere Kundenbindung bei einer vergleichsweise überschaubaren Investition.

Schaf im Wolfspelz

Dabei ist die Verwendung von Big Data auch jenseits marketingorientierter Instrumentalisierung eine durchaus gute Sache für die Gesellschaft. So wird mit der Analyse riesiger Datenmengen künftig die Vorhersage von Gesundheitsrisiken bestimmter Bevölkerungsgruppen ermöglicht.

Strenge Regeln

Gleiches gilt für zielgerichtete Prognosen, wann und wo kommende Grippe-Epidemien ausbrechen werden. Auch der Zeitpunkt, wann sich der nächste Wirtschaftscrash ereignen wird, kann abgeschätzt und so entsprechende Gegenmaßnahmen eingeleitet werden. Sinnvolles Wissen aus riesigen Datensätzen zu ziehen, hat sich die Komplexitätsforschung zur Aufgabe gemacht – und sie hat dabei einige bemerkenswerte Muster und fundierte Prognosemodelle entwickelt, die auf hochentwickelten Wahrscheinlichkeitsberechnungen basieren.

Big Data gibt uns also auch gesellschaftlich gute Karten in die Hand. Wie wir diese ausspielen und im Fall von Marketing und Co. nutzen, hängt am Ende bloß von uns ab. Gute und damit auch strenge Spielregeln werden wir in jedem Fall brauchen! Einerseits für die Datensätze und deren Lukrierung durch den Menschen, zum anderen für die damit verbundenen Schlussfolgerungen. Zu Letzterem muss zunächst die Flut an Datenströmen verstanden werden. Die Visualisierung – oder besser formuliert unser visuelles System – ist uns dabei behilflich. Denn mithilfe besagter Visualisierung können komplexe Daten zu visuellen Kanälen kodiert werden, die wir Menschen uns vorstellen können. Mithilfe dieser „Externalisierung” können wir Menschen komplexere Gedankengänge formulieren und uns in größere Datenströme hineindenken. Das menschliche visuelle System stellt folglich eine intuitive, direkte und sprachunabhängige Methode zur Verfügung, Daten anzusehen, zu zeigen und auszuwerten. Es ist für uns ein wichtiges Werkzeug, um Informationen zu verstehen. Es stellt gleichzeitig auch die direkteste und leistungsfähigste Verbindung zum menschlichen Verstand dar. Jüngste Untersuchungen lassen darauf schließen, dass das menschliche visuelle System in der Lage ist, über neun Megabit an Informationen pro Sekunde zu verarbeiten. Das klingt in Zeiten allgegenwärtiger Digitalität nicht nach sonderlich viel – wir sprechen hier aber umgerechnet immerhin von einer Million Buchstaben an Text in der Sekunde.

Im Wettrennen um Big Data

Die Visualisierung großer Datenströme stellt am Ende einen großen Wettbewerbsvorteil dar – denn mit der bloßen Sammlung besagter Daten ist erst die halbe Miete geschafft. Die erwähnte Auswertung – und dazu ist die Visualisierung nötig – beschert Erkenntnisgewinne, die sich in wirtschaftlich messbare Erfolge umwandeln lassen. Es geht hier um ein Gesamtbild des Kunden, das für die B2B-Unternehmen Relevanz hat. Denn Unternehmen in der heutigen Wirtschaft benötigen einen möglichst lückenlosen Blick auf ihre Klientel. Je brauchbarer das Bild vom Kunden, desto wertvoller die Einblicke und desto größer ist der wirtschaftliche Nutzen, der sich davon ableiten lässt. Darunter fallen auch Verhaltensmuster der Kunden – etwa wie sie Produkte und Angebote des Unternehmens rezipieren; oder wie alternative Produkte vom Mitbewerb wahrgenommen und beurteilt werden. Je tiefer man in den Kopf des Kunden einsteigt, desto größer wird am Ende das Verständnis sein. Kundenbezogene Verhaltensmuster sind oft an Zeitzyklen gebunden, wie beispielsweise den 24-Stunden-Rhythmus oder die monatliche Gehalts­auszahlung.

Um aber das Gesamtbild des Kunden wirklich zu erfassen, bedarf es mehr als nur des Verständnisses von wichtigen Messgrößen. Wichtig ist auch die Stimmung – sie gilt es zu verfolgen und nachvollziehbar darzustellen.

Verständnis für den Kunden

Dabei stehen folgende Fragen im Zentrum: Was denkt der Kunde über das eigene Unternehmen? Welche Haltung nimmt dieser zur Konkurrenz ein? Diese Form von Big Data kann aus einer Vielzahl von Datenquellen erzielt werden – etwa aus Callcenter-Protokollen oder Kundenumfragen. Die Stimmungsanalyse eignet sich besonders gut, um diese Datenmengen zu verarbeiten. Schlüsselwörter und -sätze können so aus der Kundenkommunikation extrahiert werden. Das „Theme-River”-Visualisierungsverfahren gibt einen Aufschluss darüber, wie dermaßen gelagerte Informationen zur Darstellung gelangen können. Am Ende erhält man ein Gefühl für den wortwörtlichen Fluss der Kundenstimmung.

IBM hat verstanden, dass Big-Data-Analysen einen wesentlichen Beitrag zum Wettbewerbsvorteil darstellen – und dass ihre Darstellbarkeit dazu ein notwendiger Schritt ist. Darum hat IBM eigene Visualisierungsfunktionen in Business-Analytics-Lösungen integriert. Eine Voraussetzung dafür ist die IBM Rapidly Adaptive Visualization Engine – kurz „RAVE” genannt. Sie dient mehr und mehr heute als Standard für die Auswertung von Big Data. IBM ist hier früh auf den Zug aufgesprungen und fungiert als absoluter Trendsetter. Denn das Konzept der Interpretation von riesigen Datensätzen befindet sich erst in den Kinderschuhen. Gleiches gilt für die bereits heute schon denkbaren Möglichkeiten, die kluge Big Data-Auswertungstools dem modernen B2B-Marketing in die Hände geben.

BEWERTEN SIE DIESEN ARTIKEL

TEILEN SIE DIESEN ARTIKEL