Big Data – Einsichten und Aussichten für Medienanalyse

Foto Thomas Stöckle, Global Head of Evaluation & Insights, LexisNexis BIS

Herr Stöckle, innerhalb der Informationsbranche sagt man, dass Daten das neue Rohöl seien. Sie warnen in dem Zusammenhang vor „gepanschtem Öl". Wie meinen Sie das?

Zunächst einmal denke ich, dass die Rohstoff-Analogie schon stimmt. Wir produzieren jede Menge Daten, und aus Daten wird jede Menge produziert. Das digitale Universum wächst ja mit zunehmend rasanter Geschwindigkeit. So soll 2013 die Schallmauer von vier Zettabytes durchbrochen worden sein. Ein Zettabyte hat 21 Nullen. Damit kann man als Normalsterblicher schon nicht mehr viel anfangen. Und diese Zahl soll sich innerhalb der nächsten sieben Jahre mehr als verzehnfachen. Nun sind solche Angaben aber auch spekulativ. An anderer Stelle liest man dann von drei Zettabytes weltweitem Datenvolumen, und dass es 2020 100 Zettabytes sein sollen. Vielleicht sollten wir der Einfachheit halber bei „jede Menge Daten" bleiben.

Aus der Sicht kommerzieller Datenverabeitung ist aber auch eher von Interesse, welcher Anteil dieser Daten tatsächlich sinnvoll verarbeitet werden kann. Das waren 2013 etwas mehr als 20%. Und nur ein Viertel davon – also insgesamt 5% - wurden wirklich analysiert und genutzt. Auch diese Werte werden in den nächsten Jahren signifikant zunehmen.

Aber am kommerziellen Nutzen scheiden sich dann auch die Geister. Die Welt von Big Data ist voll mit klugen Algorithmen, und Daten-Wissenschaftler gelten als die neuen Rockstars. Aus immer mehr zur Verfügung stehenden Daten, können wir immer mehr Erkenntnisse ziehen. Manche Unternehmen aus der Branche wie beispielsweise Blue Yonder wenden sogar Erkenntnisse aus der Teilchenphysik für datengesteuerte „Predictive Analytics" an.

Bloß weil wir in der Lage sind, viele Hunderte von Terabytes an Daten pro Sekunde zu erzeugen, und komplexe Datenmodelle für Geschäftsmodelle zu füttern, heißt das nicht, dass wir automatisch das menschliche Verhalten aus früheren Beobachtungen vorhersagen können.

Das bringt mich dann auch zum gepanschten Öl, zu falschen Propheten und bedenklichen Prophezeiungen. Die Zukunft vorhersagen zu wollen, ist ja so etwas wie ein menschliches Grundbedürfnis, das weiter zurückgeht als das Orakel von Delphi vor 3.000 Jahren. Da überrascht es dann auch nicht, dass Big Data Versprechungen sich schnell ins Hellseherische versteigen (wie in diesem faz.net Artikel vom Januar).

Das Problem sind dabei nicht die Daten, sondern die Art und Weise, wie sie benutzt werden, welche Modelle der Interpretation zugrunde liegen. Nate Silver, einer der Rockstars der Big Data Szene (sein Buch „Die Berechnung der Zukunft" ist ein internationaler Bestseller), ist gleichzeitig auch einer ihrer bedeutendsten Kritiker. Wir Menschen geben den Zahlen Bedeutung, sagt er. Und dabei sind wir eben nicht immer objektiv. Man muss bloss an den berühmten Bestätigungsfehler (confirmation bias) aus der Kognitionspsychologie denken, also der Neigung, Wirklichkeit nach eigener Vorstellung zu schaffen, und Informationen und Fakten so auszuwählen, dass sie bereits getroffene Entscheidungen bestätigen. Davor sind auch die gewieftesten Datenwissenschaftler nicht gefeit.

Zudem basieren unsere Modelle auf dem, was wir (glauben zu) verstehen. Allerdings, so Silver, sei es bemerkenswert, wie oft wir in Wirklichkeit mit „einmaligen Ereignissen" konfrontiert werden. Dass sind in der Regel überraschende Ereignisse, die sich aller verfügbaren Daten zum Trotz immer erst im Nachhinein erklären lassen.

Darin ist sich Silver dann auch mit Nassim Taleb einig, dem Autor des Schwarzen Schwan. Wie Silver, so hat sich auch Taleb die unangemessen optimistischen Vorhersagemodelle der Finanzwelt als Anschauungspunkt genommen. Worauf alle Kritik letztlich hinausläuft, dass ist der Umstand, dass das „menschliche Element" in vielen Big Data Modellen vernachlässigt wird. Dem schliesst sich auch der Psychologe und Verhaltensökonom Daniel Kahneman an, dessen Einsichten in die menschliche Seite des „Homo Oeconomics" immerhin einen Nobelpreis wert waren.

Und um das „Problem Mensch" kommt auch Big Data nicht herum. Wenn es sich zum Beispiel bei den Daten um Medieninhalte, seien es traditionelle, digitale oder soziale, oder deren Interpretation handelt, dann geht es ja letztlich um zwischenmenschliche Kommunikation und um Einflussnahme. Und das kann man halt nach wie vor nicht in Algorithmen oder Formeln packen.

Bedeutet das, dass Daten aus Medien schwieriger zu analysieren und auszuwerten sind?

Man muss sich bei der Analyse von Daten aus den diversen Medien um die Einflussfaktoren bewusst werden, damit man auch den größten Mehrwert aus der Analyse ziehen kann. Das geht immer nur fallbezogen mit Hilfe der richtigen Fragstellung, wie zum Beispiel:

  • Was sind die konkreten Ziele?
  • Wer sind die relevanten Akteure?
  • Wer sind die relevanten Meinungsführer?
  • Was sind die relevanten Kanäle?
  • Was sind die relevanten Sprachen?

Die Antworten auf diese Fragen und die Auswahl der entsprechenden Suchbegriffe sind die Basis für die der Analyse zugrundeliegende Medienbeobachtung.

Dabei werden aus Big Data dann kleinere, geschäftsrelevante Datenpakete geschnürt, die bessere, schnellere Geschäftsentscheidungen ermöglichen. Im englischen Sprachraum spricht man da von Forensic Analytics: Daten werden dazu genutzt, um in akribischer Feinarbeit Sachverhalte zu rekonstruieren und Zusammenhänge zu verstehen – in Kommunikation, in Markeninteresse, Kaufverhalten usw.

Selbstverständlich ist Technologie dabei eine enorme Hilfe. Eine zentrale Medien-Plattform, die sich durch eine klare und einheitliche Struktur, eindeutige Regeln und Taxonomien zur Datenanreicherung, Analysemodelle und -werkzeuge auszeichnet und die darüber die richtige Visualisierung der Ergebnisse ermöglicht: was heute Standard ist, davon konnte ich zu Studienzeiten ja nur träumen.

Welche Arten von Mediaanalysen sind Ihrer Meinung nach sinnvoll?

Es werden laufend neue Analysetools entwickelt, die es den Nutzern leichter machen sollen, in der zunehmenden Informationsflut, Daten schnell und vor allem zuverlässig auszuwerten. Wichtig ist, dass Analysen tatsächliche Kommunikationsprozesse abbilden. Zum Beispiel die zunehmende Konvergenz von sogenannten Medienkanälen: es reicht nicht mehr, sich Nachrichtenmedien als Untersuchungsgegenstand vorzunehmen. Themen wandern ja von einem Medium zum nächsten, etablierte Journalisten nutzen Twitter als Verbreitungsmechanismus, Facebook-Einträge und Blogbeiträge werden bei entsprechender Resonanz zum Recherche-Thema des nach wie vor existierenden Qualitätsjournalismus.

Also müssen zeitgemässe Analysemodelle und -methoden medienübergreifend sein. Und zeitnah, wenn sie zu geschäftlichen Entscheidungsprozessen beitragen sollen.

Die wesentlichen Analysearten sind in meinen Augen zurzeit die folgenden:

  • Präsenzanalyse
  • Sentiment-Analyse (Analyse des Stimmungsbilds)
  • Trend- oder Themenanalysen
  • Profilanalyse der Meinungsführer
  • Vernetzungsanalysen
  • Kampagnenanalysen
  • Wettbewerbs- und Marktanalysen

Diese Analysen helfen Experten aus PR, Kommunikation, Competitive und Market Intelligence oder Business Development, Tendenzen im Markt zu erkennen und Entscheidungen zu treffen.

Um es aber noch einmal zu betonen: mit der Anhäufung von Datenbergen allein ist es nicht getan. Ohne relevante Modelle, die menschlichem Verhalten angelehnt sind, haben Big Data Kalkulationen wenig Sinn. Wir brauchen Daten und Modelle, die auf Kontextverständniss und menschlichem Urteilsvermögen beruhen. Das ist am ehesten zu gewährleisten, wenn wir „wissenschaftsübergreifend" arbeiten, d.h. wenn wir Datenwissenschaft, Sozialwissenschaft und Managementwissenschaft zusammenbringen. Gemeinsam kommen wir Lösungen wesentlich schneller näher.

Zur Person

Thomas Stöckle ist seit Ende 2014 Global Head of Evaluation & Insights bei LexisNexis BIS.

Sein Tätigkeitsbereich umfasst die Beobachtung und Analyse traditioneller und zunehmend auch sozialer Medien, die Entwicklung innovativer Forschungsmethoden und -ansätze, sowie die Unterstützung und Beratung von Klienten in Fragen angewandter Kommunikationsforschung.

Seit 15 Jahren in London ansässig, hat er als Projektmanager, Forschungsleiter und Geschäftsführer verschiedener Forschungs- und Beratungsagenturen in der Arbeit mit internationalen Firmen in den Bereichen Medienresonanzanalyse, strategische Kommunikationsplanung und Unternehmenskommunikation die rasante Entwicklung insbesondere im Bereich Onlinemedien und Datenverarbeitung, speziell im englischsprachigen Raum, hautnah miterleben können. Zunehmend umgeben von ‚Digital Natives', fühlt er sich dennoch wohl als ,Digital Neanderthal'.

Diesen Blog-Beitrag teilen:


Melden Sie sich zum zweimonatlich erscheinenden LexisNexis Newsletter an.