
In ekstatischem Rausch, auf einem Dreifuß sitzend und von Apollon inspiriert, erteilte die Priesterin Pythia in Delphi ihre scheinbar widersinnigen Orakel. Die Antworten von Pythia wurden in Versen verkündet und waren zumeist zweideutig formuliert.
Ähnlich kryptisch klingen die Verheißungen der Big Data-Hohepriester, die die Welt wieder berechenbar machen wollen und von der perfekten Vermessung des Internets träumen. Es ist das Versprechen, der anschwellenden und Datenflut des Netzes wieder Herr zu werden.
Ob Mensch, Smartphone, Tablet, Internet der Dinge, Auto oder Industriesensor: Nach Schätzungen von IBM produzieren wir täglich 2,5 Quintillionen Bytes neuer Daten – das gesamte Informationsvolumen verdoppelt sich alle zwei Jahre. Immer mehr mobile Endgeräte, 500 Millionen Tweets am Tag, ungezählte Petabyte-Berechnungen aus Windkanal-Tests der Autoindustrie: Längst gelten Daten als das neue Öl und Big Data-Systeme als digitale Bohrmaschinen zur Schaffung von Reichtum und Allwissenheit – begleitet von einer Aura aus Wahrheit, Objektivität und Genauigkeit. Daten seien die Trittleiter zu einer neuen Erkenntnisstufe, proklamieren die Roland Berger-Berater Björn Bloching und Lars Luck sowie brandeins-Autor Thomas Ramge in ihrem Opus „Data unser – Wie Kundendaten die Wirtschaft revolutionieren“:
„Big Data wird Gesellschaft, Politik und Wirtschaft so grundlegend verändern wie der elektrische Strom und das Internet.“
Da werde an Apparaturen wie aus einem guten Science Fiction-Roman gebastelt. Es seien die ehrgeizigsten Vorhaben der Prognostik seit dem Orakel von Delphi. Weltsimulatoren sollen durch Echtzeitanalyse den epidemischen Weg von Schweinegrippen-Viren vorausberechnen. Es sollen Empfehlungen zur Bewältigung des Klimawandels und Frühwarnungen ausgespuckt werden – selbst Befunde zur Bewältigung von Finanzkrisen stellen die Konstrukteure von Simulationsrechnern in Aussicht. Im unternehmerischen Anwendungsmodus könnten die Entscheidungsmaschinen Aussagen treffen, ob die Einführung eines neuen Produktes den Wettbewerber in die Bredouille bringt oder doch nur das eigene Portfolio kannibalisiert.
IT-Systeme würden das realisieren, was IT-Visionäre vor Jahrzehnten versprochen haben.
„Sie aggregieren das Wissen der Welt auf einem Bildschirm. Sie erkennen Zusammenhänge, die für die menschliche Auffassungsgabe zu komplex waren. Und sie bilden Modelle, die uns mit den Mitteln der Wahrscheinlichkeitsrechnung ein Fenster für den Blick in die Zukunft öffnen. Rechner kennen uns besser als wir selbst“, so die drei Buchautoren.
Mietwagenfirmen wissen aufgrund des Kundenprofils, mit wie viel Benzin im Tank das Leihauto zurückgegeben wird. Ein analytisch ausgerichteter Online-Händler weiß, bei welchem Preis der Stammkunde mit welcher Wahrscheinlichkeit zum Kauf eines Produktes oder Dienstes bereit ist. Und wie viel Budget ein Anbieter für personalisierte Werbung einsetzen muss.
Die letzte Schlacht des Controllings
Vielleicht erleben wir auch nur die letzte Schlacht des Controllings, um in den Zeiten des Kontrollverlustes die alte Logik des Industriezeitalters in die vernetzte Welt zu retten. Die Schaffung von neuer Übersichtlichkeit im chaotischen Universum des Cyberspace. Der Wunsch nach Rückgewinnung der Deutungshoheit und die Sehnsucht nach maschinengesteuerten Entscheidungen auf dem Fundament der Ratio.
Big Data evoziert utopische wie auch dystopische Rhetorik. Es weckt Hoffnungen und Ängste vor Überwachung. Das eine Lager erträumt sich ein Himmelreich der Planbarkeit, das andere warnt vor dem Niedergang des selbstbestimmten Lebens.
Beide Fraktionen sitzen mit ihren Mutmaßungen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen Big Data-Analysten mit bedeutungsschweren Gesten vorführen. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und dies ist kein Zufall.
Schaut man in ihren Zauberkasten hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor 13 Jahren den so genannten NeuroBayes-Algorithmus erfunden. Sein Ziel war es, ein Werkzeug für exakte Prognosen zu schaffen – sowohl für die wissenschaftliche Forschung als auch für unterschiedliche Wirtschaftszweige und deren Entscheidungsprobleme in Unternehmen.
Das Feindt-Szenario klingt so: Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode.
„Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.
Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten.
Hackfleisch-Prognosen
Feindt würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Aber was steckt tatsächlich hinter den Durchschnittswerten, die ermittelt werden?
Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen – gesteuert von Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Irre führen. Selbst bei Textilwaren:

„Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind einzigartig“, erklärt der Jurist und Informatiker Christoph Kappes.
Die Big Data-Apologeten könnten ein ähnliches Debakel wie Krösus erleben. Er wollte gegen Persien in den Krieg ziehen und fragte das Orakel von Delphi um Rat. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog mit seinem Heer in die Schlacht. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.
Algorithmen konstruieren Wirklichkeit
Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, was können die Big Data-Systeme wirklich? Hinter jedem Algorithmus steckt eine Konstruktion der Wirklichkeit:
Es gibt immer wieder Modewellen, die die Analysierbarkeit komplexer Systeme versprechen. Von der Hirnforschung, über die Formelwelt der Finanzbranche bis zu den Supercomputern mit ihren Echtzeitanalysen. Im Big Data-Diskurs schwingt der monokausale Glaube mit, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat.
„Wenn ich die Vergangenheit umfangreich und schnell genug auswerte, weiß ich, was die Zukunft bringt. Und genau das ist die Illusion. Das ist zwar möglich. Aber ich muss dann für sehr triviale Strukturen sorgen. In der Physik nennt man das Labor. Die Welt, wie sie ist, wird ausgeblendet. Mit den wenigen Wirkungszusammenhängen, die übrig bleiben, entwickelt man Gesetzmäßigkeiten. Für soziale Systeme ist das aber albern“, sagt Dr. Gerhard Wohland vom Institut für dynamikrobuste Höchstleister.
Ein Modell müsse einfacher sein als das, was es modelliert. Wenn das nicht so wäre, könnte man ja direkt den Untersuchungsgegenstand heranziehen. Modelle müssen also immer simplifizieren. Aspekte der Wirklichkeit werden ausgeblendet. Das gelingt aber nur, wenn zwischen wichtig und unwichtig unterschieden wird. Komplexe Systeme, also auch die menschliche Gesellschaft, kennen aber diese Unterscheidung überhaupt nicht.
„Welches Ereignis nun eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen“, betont der Organisationswissenschaftler Wohland.
Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig.
Insofern sei es fragwürdig, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben.
„Wenn neue Technik in die Welt kommt, gibt es immer zwei Tendenzen: Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde oder einer Adressänderung“, erläutert Wohland.
Prognosen im Rückspiegel
Es steht außer Frage, dass die Datenspuren, die wir im Internet hinterlassen und die von Maschinen gelesen werden, uns in gewisser Weise analysierbar machen.
„Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann, bestätigt auch Kappes.
Da stünden wir, allenfalls am Anfang einer Entwicklung, die bis zum Ende des 21. Jahrhunderts keine Ergebnisse zeitigen wird. Es komme immer darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, Wahrscheinlichkeitsaussagen über Personengruppen zu treffen. Das Handeln einer einzelnen Person fernab von Clusteranalysen ist nicht bestimmbar.
Über solche Dinge kann man eine gewisse Zeit Unsinn reden, ohne negative Folgen. Eine Gefahr entsteht mit Sicherheit nicht, wenn sich Entscheidungsmaschinen über die Krawattenmode der nächsten Saison irren oder ständig personalisierte Werbebotschaften über Dinge einblenden, die mich schon längst nicht mehr interessieren.
Lizenz zum Denunziantentum
Wenn Big Data-Algorithmen ohne meine Zustimmung anfangen, mich zu klassifizieren und zu stigmatisieren, automatisch meine Bonität herabstufen, einen Wechsel der Krankenversicherung wegen meines vermeintlich exakt berechneten Gesundheitszustandes verhindern oder Personalberatern die Abweisung meiner Stellenbewerbung empfehlen, dürfte es zu heftigen Gegenreaktionen der Netzgesellschaft kommen. Irgendwann reagiert die Gesellschaft. Es folgen Störungen des Systems, die bis zu Boykott und Ausstieg reichen können. Man merkt es an der sinkenden Akzeptanz von Facebook und Google. Der Machtwille der Netzgiganten werde immer sichtbarer – auch ihre Manipulation von Algorithmen und ihre Bereitschaft zur Überwachung, bemerkt die amerikanische Ökonomin Shoshana Zuboff.
Man fühle sich bloßgestellt. Jeder Nutzer von Internet-Diensten sei bereit, für Dinge zu zahlen oder Daten bereitzustellen, die sein Leben besser machen.
„Um zu verstehen, wonach ich verlange, musst du in meinen Raum kommen, und ich muss dir deshalb vertrauen können. Wenn du meinen Raum missbrauchst, schalte ich dich ab“, verkündet die Wissenschaftlerin.
In jedem Augenblick, in dem die Web-Konzerne das Vertrauen des Individuums enttäuschen, geht ihnen Geld verloren. Im Wettbewerb von personalisierten und vernetzten Angeboten werden nur jene überleben, die einen Vertrauenspakt mit ihren Kunden eingehen, ist sich der Düsseldorfer Unternehmensberater und Smart Service-Blogger Bernhard Steimel sicher.
„Wer Big Data anwendet, kann sich an Open Data nicht vorbeimogeln. Jedes Tracking zur Auswertung von Datenspuren, jede Lokalisierung und jeder Abgleich mit dem Profil eines Internetnutzers darf nur erfolgen, wenn der Kunde es will.“
Friss-oder-stirb-Geschäftsbedingungen könne sich niemand auf Dauer erlauben. Nicht alles, was technisch machbar sei, ist auch kulturell mehrheitsfähig.
„Das Maß aller Dinge ist meine Bereitschaft, Daten von mir preiszugeben. Hier liegt der Kern von Big Data-Anwendungen. Mein digitales Ich, meine digitale Repräsentanz und mein digitales Beziehungsnetzwerk müssen in meiner Hand liegen. Sozusagen ein Recht auf virtuelle Selbstbestimmung. Die Nutzung dieser Daten kann ich den Big Data-Systemen zu jeder Zeit wieder wegnehmen. Der Datenschlüssel, den ich zur Verfügung stelle, kann abhängig sein vom Zeitpunkt der Nutzung, er kann abhängig sein von Personen, er kann definiert sein für bestimmte Aktionen oder Nutzungsszenarien. Entscheidend ist nur, dass mir die personalisierten Dienste das Leben einfacher machen“, resümiert Steimel.
Datenpakt mit den vernetzten Konsumenten
Die ersten Anbieter, die zu einem neuen Datenpakt mit den vernetzten Konsumenten bereit sind, werden zu den Gewinnern der Netzwerk-Ökonomie zählen. Ein direkter Vertrag könne auch fernab von Facebook und Google über Apps abgeschlossen werden, so Steimel. Dafür eignet sich aber nicht der anmaßende Begriff „Big Data“, sondern eher „Smart Data“.
Smartphone-Applikationen bieten eine riesige Bandbreite an personalisierten, datenschutzkonformen und punktgenauen Services. Der Kunde steuert, wie tief die Datenanalyse gehen soll, um seine Anliegen schneller zu lösen.
„Diese Apps würden nicht nur die Identifikation des Kunden ermöglichen, sondern sehr viele Wege für die Datenanalyse und Vorqualifizierung bieten, die der Anwender individuell gestaltet“, so die Empfehlung von Heinrich Welter, Experte für Kundenkommunikation.
Der Kunde entscheide die Kommunikationsform und der Anbieter stellt sich genau auf das ein, was in der App abgerufen wird. Zudem werde die Autarkie des Kunden gestärkt, meint Welter.
„Er gibt genau seine Präferenzen an und teilt dem Unternehmen mit, welche Daten analysiert werden dürfen und welche nicht.“
Und das könne sich auch von Fall zu Fall ändern, etwa bei der Übermittlung von Geopositionen bei einem Autounfall, die man dann nur in diesem Fall freigibt.
Marketing statt Dialog
„Bei Unternehmen ist dieses Thema leider unterentwickelt, weil das Ganze nur unter Marketing- und Verkaufsaspekten vorangetrieben wurde. Es geht um Markenbekanntheit, Unterhaltung, Lifestyle, Transaktionen oder nette Produktvideos“, kritisiert Welter.
Bei den personalisierten Diensten, die man mit Netzintelligenz bestücken will, gehe es nicht darum, bunte Alternativen zu bestehenden Applikationen anzubieten, sondern um eine Neuerfindung von Assistenzsystemen, die diesen Namen auch verdienen. Ein wichtiger Baustein könnte die Sprachsteuerung sein, auch wenn Dienste wie Siri noch als Spielerei gesehen werden. Perzeption, Gedächtnis, Geschwindigkeit, Ausdauer und semantische Technologien zählen zu den Stärken der Maschinen. Diese Fähigkeiten ermöglichen die nahtlose, mühelose und neue Zusammenarbeit mit Computern. Eine Kombinatorik der unterschiedlichen Anwendungen unter einer sprachgesteuerten Motorhaube ist bislang nur in Ansätzen zu sehen. Der Systemingenieur Bernd Stahl vom Netzwerkspezialisten Nash Technologies spricht sogar von den leeren Versprechen der App Economy.
App-Kombinatorik
„Die Kombination von Apps zu größeren Applikationen ist bislang ausgeblieben. Jede App ist autark und kommuniziert nicht mit anderen Diensten. Es gibt zwar einige einfache Kombinationen, wie den Kalender auf dem iPhone. Aber so richtig begeistert mich das nicht. Man sieht nichts von komplexeren Software-Architekturen, wie man das in der traditionellen Software-Entwicklung kennt. Da ist noch ziemlich viel Luft nach oben. Die Frage ist, ob die App-Anbieter sich überhaupt in diese Richtung bewegen”, so Stahl.
Es müsste möglich sein, ein größeres System in einem Framework aus vielen Applikationen zusammen zu bauen. Also die Überwindung der Software-Krise durch die Schaffung von einfach nutzbaren Apps.
„Irgendwie klappt es mit der Modularisierung von Apps nicht, wie man sich das anfänglich vorgestellt hat”, sagt Stahl.
Von wirklich personalisierten und interagierenden Diensten sei man noch weit entfernt – mit und ohne Apps. Bislang laufen die Analyse-Systeme eher auf Cookie-Niveau und elektrisieren vor allem die Werbeindustrie. Das erkennt man beispielsweise an der Nachfrage nach Big Data-Spezialisten.
„Die Zahl der Vakanzen steigt vor allem bei Sales und Consulting“, so Personalberater Karsten Berge von SearchConsult.
Es geht um Verkauf und sehr wenig um wirklich nutzbringende Netzintelligenz. Insofern sollten sich die Big Data-Marktschreier mit ihren Versprechungen etwas mehr zurückhalten und Programme entwickeln, die man im Alltag nützlich einsetzen kann. Punktuell, situativ und nur dann, wenn ich es als Anwender auch zulasse. In aller Bescheidenheit könnten sich die Maschinisten der Informationstechnologie von der Inschrift leiten lassen, die Überlieferungen zufolge am Eingang des Tempels von Delphi zu lesen war: „Erkenne dich selbst“. Denn erkennbar wird die Welt, so der Philosoph Immanuel Kant, ausschließlich als unsere Vorstellung.
Hat dies auf fuhriello macht Fuhrwerk bekannt rebloggt.
Hat dies auf Ich sag mal rebloggt.
[…] Eine neue Ära der Berechenbarkeit versprechen ja die Big Data-Hohepriester. Das sind auch nur Place… […]
[…] Über die trügerischen Verheißungen der Big Data-Hohepriester: […]