Wenn man die Bäume vor lauter Wald nicht sieht – Big Data in der Marktforschung

Im Irrgarten der Daten

Im Irrgarten der Daten

Klassische Marktforschung und Big Data sollen Gewissheiten für die Zukunft produzieren – ihre Prognosekraft ist bescheiden.

Führungskräfte stehen in ihrer eigenen Organisation unter Rechtfertigungsdruck, besonders wenn es um Entscheidungen geht, die Forschung, Entwicklung, Produkte und Dienste betreffen.

„In der Hierarchie eines Unternehmens wird es geradezu als verwerflich angesehen, wenn man seiner eigenen Intuition oder seinem Bauchgefühl folgt, etwa beim Start einer Werbekampagne. Hier kommt häufig Marktforschung ins Spiel, um Entscheidungen abzusichern“, weiß Jan Steinbach, Geschäftsführer der Düsseldorfer Marketingagentur Xengoo.

Das Symptom des Misstrauens in die Entscheidungsfähigkeit der Mitarbeiter durchziehe sich durch alle Disziplinen eines Unternehmens bis zur Auswahl von Lieferanten. Es zählen nicht Erfahrungswerte, persönliche Abwägungen oder die interne Expertise der Abteilung, sondern extern erhobene Kennzahlen. Wunder versprechen sich Unternehmen und Berater von Big Data. Der Blick in den Rückspiegel gelingt mit solchen Systemen immer schneller, so dass die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen. Nach Ansicht des PWC-Analysten Andreas Hufenstuhl könne man beliebig große Datenmengen anschauen und damit mehr das Gesamtbild sehen als nur einen Teilaspekt.

„Das Ergebnis ist eine weit bessere Basis für Entscheidungen, denn auch extern verfügbare Daten können hinzugezogen werden, wie Wettbewerbspreise, Veröffentlichungen, Markttendenzen oder Klimadaten“, glaubt Hufenstuhl nach einem Bericht der PWC-Vorausdenker-Zeitschrift Next.

Große Datenmengen auf einer kostengünstigen Infrastruktur zu speichern und zu verarbeiten, sei um den Faktor 50 billiger und den Faktor 1.000 umfassender als reine Marktforschung. Und dann? Häufig sehen die Analysten die Bäume vor lauter Wald nicht mehr. Die Daten-Systeme können den kreativen Schöpfungsprozess von Menschen nicht ersetzen.

Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der nächsten Woche ausführlich nachzulesen in einem Gastbeitrag für LeanKnowledgeBase.

Über lichtscheue Big Data-Verkäufer, die ihre Datenspuren löschen

Wer beobachtet wen?

Wer beobachtet wen?

Big Data-Anbieter sind großartige Verkäufer, wenn sie in der Öffentlichkeit von den Vorzügen der schonen neuen Datenwelt fabulieren können. Sie gieren nach Analysen möglichst großer Datenberge, um Grippewellen vorherzusagen, Euro-Krisen zu verhindern, den Autoverkehr staufreier zu machen oder Prognosen über den Verkaufserfolg von Rollkragenpullover in roter Farbe abzugeben.

Mit statistischen Spielchen auf der Metaebene geben sich die Zahlenfreunde aber nicht zufrieden. Sie wollen mehr. Sie erheben sich zur neuen Klasse der Sozialingenieure, um Gesundheitssysteme zu steuern, Banken vor Kreditausfällen zu bewahren oder Minderjährige vor dem Abrutschen ins Verbrechen zu „schützen“. Die zumeist technisch oder naturwissenschaftlich ausgebildeten Analysten wollen sich also tief ins Datenleben einzelner Menschen eingraben und beeinflussen.

Lichtscheue Analysten

Rückt man dem Big Data-Verkaufspersonal allerdings mit Anfragen zu den Rechenformeln ihrer Gottesmaschinen zu sehr auf den Pelz, ändert sich blitzschnell ihre Disposition: Die Algorithmen-Wahrsager werden lichtscheu und löschen ihre Datenspuren – welch eine Ironie. So geschehen bei einer kleinen Disputation auf Facebook über selbstgewisse Neurowissenschaftler, die Abläufe des menschlichen Gehirns noch nicht mal in Ansätzen erklären können. Ein Systemingenieur warnte vor zu großem Pessimismus. Man werde sich noch wundern, was in der Hirnforschung und beim künstlichen Nachbau der Gehirne in den nächsten Jahren so alles passieren werde.

Über die „Intelligenz“ seiner eigenen Prognose-Maschine äußerte sich dieser Geschäftsführer eines Softwareunternehmens ähnlich euphorisch. Ist ja völlig in Ordnung. Jeder Krämer lobt seine Ware. Als ich auf Facebook nachfragte, ob er sein System live in Bloggercamp.tv vorführen wolle, wechselte der virtuelle Werkzeugmacher direkt in den privaten Modus und sagte mir klar, dass er gegenüber der Öffentlichkeit keine Bringschuld habe.

„Nur soviel: Wir setzen unsere Software im Klinikbereich ein, um gute von schlechten Patienten zu trennen. Als Auswertungstool um aufzuzeigen, wo Ärzte Geld verballern.“

Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern und beendete die Diskussion mit mir – zumindest im nicht-öffentlichen Chat. Seine Großspurigkeit im öffentlichen Teil setzte er fort.

Nach der anonymisierten Veröffentlichung seines Patienten-Zitats auf meinem ichsagmal-Blog verfiel er in eine Panikattacke, löschte alle Kommentare und proklamierte pauschal, man könne Bloggern einfach nicht vertrauen. Jetzt geht es also um „Vertrauen“ – es geht wahrscheinlich auch um seine Reputation. In diesem kleinen Feldtest ist dem Big Data-Maschinisten vielleicht klar geworden, um was es geht.

Was passiert, wenn seine Algorithmen ahnungslose Menschen in die Kategorie „schlechte Patienten“ eintüten und sie von den „guten“ Patienten abtrennen? Welche Gewichtungen und Abgrenzungen hat denn der Systemingenieur in sein Prognose-System eingebaut? Bekommt der „schlechte“ Patient Einblick in die Formelstube? Nach der Geheimniskrämerei des Geschäftsführer zu urteilen, eher nicht. Schließlich habe er Auftraggeber zu bedienen und nicht die Öffentlichkeit.

Social Media-Freunde als Indikator für Kreditwürdigkeit

Gleiches gilt für die Firma „Big Data Scoring“ aus Estland, die über die Auswertung von Social Media-Profilen Aussagen über die Kreditwürdigkeit für Banken treffen will: „Es läuft ein bisschen nach dem Prinzip: ‚Sag mir, wer deine Freunde sind, und ich sag dir, wer du bist‘“, erklärt nach einem t3n-Bericht Meelis Kosk von Big Data Scoring. Ein hoher Akademiker-Anteil unter den Freunden könnte beispielsweise ein gutes Zeichen für die persönliche Finanzlage sein. Äh, und wenn es Philosophen und Germanisten sind? Ziemlich dubiose Kriterien.

Alles sei selbstverständlich gaaaaanz freiwillig, beschwichtigen die Unternehmensgründer. Es gebe schließlich eine Opt-In-Regel – ohne Zustimmung des Kreditnehmers passiere nichts. Auch die politische Gesinnung und die sexuelle Orientierung bleiben außen vor – wie großzügig. Haben die Rechenschieber-Freaks eigentlich mal probiert, in Deutschland einen Bankkredit zu beantragen? Was passiert denn, wenn man die Abfrage beim kommerziellen Dienstleister Schufa verweigert, der ebenfalls mit Scoring-Verfahren in einer trüben Suppe der Wahrscheinlichkeitsrechnung herumrührt und seine Formeln als Geschäftsgeheimnis deklariert? Nichts, man kann nach Hause gehen und schauen, ob noch irgendein Spargroschen unter der Matratze liegt. Welchem Scoring-System unterliegen eigentlich die Entwickler und Anwender der Big Data-Analysetools? Wer haftet denn für falsche Berechnungen, die zum Reputationsverlust führen?

Beweislast-Umkehr

Viktor Mayer-Schönberger vom Oxford Internet Institute hat eine Beweislast-Umkehr ins Spiel gebracht, die beim Anwender liegen müsse. Zudem benötige man eine neue Berufsgruppe zur Überprüfung der Big Data-Analysen. Mayer-Schönberger spricht von „Algorithmikern“, es könnten auch Big Data-Forensiker sein, die den Betroffenen helfen, rechtlich gegen die Zahlendreher vorzugehen.

Über die Wirksamkeit und Genauigkeit der Korrelations-Fetischisten sind Zweifel angebracht, wenn sie Individuen zum Objekt ihrer Begierde machen und damit auch noch Geld verdienen wollen. Die Systeme können nur das, was Menschen programmiert haben und daraus ableiten. Es sind hoch manipulative, konstruierte und erfundene Welten, die immer zu richtigen Ergebnissen kommen. Richtig im Sinne des Erfinders, Konstrukteurs, System-Ingenieurs, Mathematikers, Software-Entwicklers oder KI-Wissenschaftlers: Die Logik sei nur ein Beschreibungsapparat, so wie die Grammatik für Sprache, sagt Systemtheoretiker Heinz von Foerster im Fernsehinterview mit Lutz Dammbeck.

„Die Logik ist ja nur eine Maschine, um mit gewissen Aussagen gewisse andere Aussagen machen und entwickeln zu können. Der Übergang von A nach B, das ist, was die Logik kontrolliert….also die Logik bringt ja gar nichts Neues….die Logik macht es nur möglich, dass Sie von einem Satz, der etwas verschwommen ist, etwas ableiten können, oder Sätze, die ähnlich verschwommen sind, ordentlich beweisen können“, erläutert Foerster.

In diesen weltweit funktionierenden Maschinensystemen seien alle Aussagen richtig – im Sinne der Ableitungen.

Den Wahrheits-Maschinisten sollte man politisch und rechtlich zeigen, wie wichtig Vertrauen ist, wenn man Menschen berechnet, kategorisiert, sortiert und letztlich aburteilt.

Siehe auch:

Gegenbewegungen: Wissenschaftler erobern das Internet zurück

Algorithmen-Angst: Es ist immer noch die eigene Entscheidung (wenn man entscheiden kann und nicht Entscheidungen von anderen getroffen werden, ohne sich zur Wehr setzen zu können).

Big Data und die Illusion der rationalen Entscheidungsfindung

Eine Reise zu den Minen und Raffinerien der Datenzeit.

Eine Reise zu den Minen und Raffinerien der Datenzeit.

Millionen, Billionen, Trillionen, Quintillionen – wenn es um Datenmengen geht, scheint keine Zahl mehr zu groß. Getreu dem Motto „Viel hilft viel“ hoffen viele Analysten, aus immer besseren Daten der Vergangenheit Aussagen für die Zukunft treffen zu können. Doch das wahre Leben könnte diese Hoffnungen zerstäuben. Ob Business Intelligence, Big Data oder Data Mining. Es geht um die Illusion der rationalen Entscheidungsfindung.

Vielleicht erleben wir die letzte Schlacht des Controllings, um in den Zeiten des Kontrollverlustes die alte Logik des Industriezeitalters in die vernetzte Welt zu retten, um neue Übersichtlichkeit im chaotischen Universum des Cyberspace zu schaffen. Vielleicht rühren daher der Wunsch nach Rückgewinnung der Deutungshoheit und die Sehnsucht nach maschinengesteuerten Entscheidungen auf dem Fundament der Ratio. Nachzulesen in der Zeitschrift GDI Impuls mit dem Schwerpunkt „Big Data – Rohstoff oder Müll? Eine Reise zu den Minen und Raffinieren der Datenzeit“.

Daten bleiben scheu und grausam, sagt etwa Nikolas Bissantz, Gründer und Mehrheitsgesellschafter von Bissantz & Company, im Interview mit GDI-Impuls.

„Es ist schwierig, aus ihnen zu lernen und noch schwieriger, das Gelernte umzusetzen.“

Zaubertricks hinterfragen

Gute Manager müssten in der Lage sein, das Modell zu hinterfragen, das der Analyse zugrunde liegt.

„Zaubertricks, die wir nicht durchschauen, sind sympathisch – im Varieté. Im Business nicht“, erklärt Bissantz.

Big Data sei ein Sammelbegriff für mehrere Phänomene und gleichzeitig ein verkäuferischer Geniestreich. Im Moment werde mehr Zeit in die Speicherung als in die Analyse von Daten gesteckt.

Derzeitig dehnen fast alle Business Intelligence-Unternehmen ihr Angebot auf das Thema Big Data aus, um damit ein Schlagwort mit hoher Aufmerksamkeit zu bedienen, weiß der IT-Personalexperte Karsten Berge von SearchConsult in Düsseldorf.

„Viele Kandidaten auf dem Personalmarkt, die aus dem Vertrieb oder der Beratung kommen, positionieren sich für Big Data-Stellenangebote, ohne genau zu wissen, was sie dabei erwartet. Ein Manager aus dem Verkauf, der in ein Unternehmen gewechselt ist, um Big Data abzudecken, stellte fest, dass er etwas zu euphorisch war und die internen Voraussetzungen beim neuen Arbeitgeber alles andere als positiv waren. Es gab noch keine Kunden und man arbeitete hoch defizitär“, so Berge.

Bauchentscheidungen, das belegen die Forschungsarbeiten von Professor Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung, können die raffiniertesten Computerstrategien in den Schatten stellen. Business Intelligence und Big Data werden die Intuition nicht überflüssig machen. Die Big Data-Anbieter sind übrigens immer noch herzlichst eingeladen, ihre Analysemodelle live bei Bloggercamp.tv vorzuführen. Bislang hat sich noch keiner getraut. Merkwürdig.

Über die trügerischen Verheißungen der Big Data-Hohepriester

Heute schon orakelt?

Heute schon orakelt?

In ekstatischem Rausch, auf einem Dreifuß sitzend und von Apollon inspiriert, erteilte die Priesterin Pythia in Delphi ihre scheinbar widersinnigen Orakel. Die Antworten von Pythia wurden in Versen verkündet und waren zumeist zweideutig formuliert.

Ähnlich kryptisch klingen die Verheißungen der Big Data-Hohepriester, die die Welt wieder berechenbar machen wollen und von der perfekten Vermessung des Internets träumen. Es ist das Versprechen, der anschwellenden und Datenflut des Netzes wieder Herr zu werden.

Ob Mensch, Smartphone, Tablet, Internet der Dinge, Auto oder Industriesensor: Nach Schätzungen von IBM produzieren wir täglich 2,5 Quintillionen Bytes neuer Daten – das gesamte Informationsvolumen verdoppelt sich alle zwei Jahre. Immer mehr mobile Endgeräte, 500 Millionen Tweets am Tag, ungezählte Petabyte-Berechnungen aus Windkanal-Tests der Autoindustrie: Längst gelten Daten als das neue Öl und Big Data-Systeme als digitale Bohrmaschinen zur Schaffung von Reichtum und Allwissenheit – begleitet von einer Aura aus Wahrheit, Objektivität und Genauigkeit. Daten seien die Trittleiter zu einer neuen Erkenntnisstufe, proklamieren die Roland Berger-Berater Björn Bloching und Lars Luck sowie brandeins-Autor Thomas Ramge in ihrem Opus „Data unser – Wie Kundendaten die Wirtschaft revolutionieren“:

„Big Data wird Gesellschaft, Politik und Wirtschaft so grundlegend verändern wie der elektrische Strom und das Internet.“

Da werde an Apparaturen wie aus einem guten Science Fiction-Roman gebastelt. Es seien die ehrgeizigsten Vorhaben der Prognostik seit dem Orakel von Delphi. Weltsimulatoren sollen durch Echtzeitanalyse den epidemischen Weg von Schweinegrippen-Viren vorausberechnen. Es sollen Empfehlungen zur Bewältigung des Klimawandels und Frühwarnungen ausgespuckt werden – selbst Befunde zur Bewältigung von Finanzkrisen stellen die Konstrukteure von Simulationsrechnern in Aussicht. Im unternehmerischen Anwendungsmodus könnten die Entscheidungsmaschinen Aussagen treffen, ob die Einführung eines neuen Produktes den Wettbewerber in die Bredouille bringt oder doch nur das eigene Portfolio kannibalisiert.

IT-Systeme würden das realisieren, was IT-Visionäre vor Jahrzehnten versprochen haben.

„Sie aggregieren das Wissen der Welt auf einem Bildschirm. Sie erkennen Zusammenhänge, die für die menschliche Auffassungsgabe zu komplex waren. Und sie bilden Modelle, die uns mit den Mitteln der Wahrscheinlichkeitsrechnung ein Fenster für den Blick in die Zukunft öffnen. Rechner kennen uns besser als wir selbst“, so die drei Buchautoren.

Mietwagenfirmen wissen aufgrund des Kundenprofils, mit wie viel Benzin im Tank das Leihauto zurückgegeben wird. Ein analytisch ausgerichteter Online-Händler weiß, bei welchem Preis der Stammkunde mit welcher Wahrscheinlichkeit zum Kauf eines Produktes oder Dienstes bereit ist. Und wie viel Budget ein Anbieter für personalisierte Werbung einsetzen muss.

Die letzte Schlacht des Controllings

Vielleicht erleben wir auch nur die letzte Schlacht des Controllings, um in den Zeiten des Kontrollverlustes die alte Logik des Industriezeitalters in die vernetzte Welt zu retten. Die Schaffung von neuer Übersichtlichkeit im chaotischen Universum des Cyberspace. Der Wunsch nach Rückgewinnung der Deutungshoheit und die Sehnsucht nach maschinengesteuerten Entscheidungen auf dem Fundament der Ratio.

Big Data evoziert utopische wie auch dystopische Rhetorik. Es weckt Hoffnungen und Ängste vor Überwachung. Das eine Lager erträumt sich ein Himmelreich der Planbarkeit, das andere warnt vor dem Niedergang des selbstbestimmten Lebens.
Beide Fraktionen sitzen mit ihren Mutmaßungen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen Big Data-Analysten mit bedeutungsschweren Gesten vorführen. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und dies ist kein Zufall.

Schaut man in ihren Zauberkasten hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor 13 Jahren den so genannten NeuroBayes-Algorithmus erfunden. Sein Ziel war es, ein Werkzeug für exakte Prognosen zu schaffen – sowohl für die wissenschaftliche Forschung als auch für unterschiedliche Wirtschaftszweige und deren Entscheidungsprobleme in Unternehmen.

Das Feindt-Szenario klingt so: Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode.

„Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.

Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten.

Hackfleisch-Prognosen

Feindt würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Aber was steckt tatsächlich hinter den Durchschnittswerten, die ermittelt werden?
Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen – gesteuert von Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Irre führen. Selbst bei Textilwaren:

Christoph Kappes

Christoph Kappes

„Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind einzigartig“, erklärt der Jurist und Informatiker Christoph Kappes.

Die Big Data-Apologeten könnten ein ähnliches Debakel wie Krösus erleben. Er wollte gegen Persien in den Krieg ziehen und fragte das Orakel von Delphi um Rat. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog mit seinem Heer in die Schlacht. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.

Algorithmen konstruieren Wirklichkeit

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, was können die Big Data-Systeme wirklich? Hinter jedem Algorithmus steckt eine Konstruktion der Wirklichkeit:
Es gibt immer wieder Modewellen, die die Analysierbarkeit komplexer Systeme versprechen. Von der Hirnforschung, über die Formelwelt der Finanzbranche bis zu den Supercomputern mit ihren Echtzeitanalysen. Im Big Data-Diskurs schwingt der monokausale Glaube mit, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat.

„Wenn ich die Vergangenheit umfangreich und schnell genug auswerte, weiß ich, was die Zukunft bringt. Und genau das ist die Illusion. Das ist zwar möglich. Aber ich muss dann für sehr triviale Strukturen sorgen. In der Physik nennt man das Labor. Die Welt, wie sie ist, wird ausgeblendet. Mit den wenigen Wirkungszusammenhängen, die übrig bleiben, entwickelt man Gesetzmäßigkeiten. Für soziale Systeme ist das aber albern“, sagt Dr. Gerhard Wohland vom Institut für dynamikrobuste Höchstleister.

Ein Modell müsse einfacher sein als das, was es modelliert. Wenn das nicht so wäre, könnte man ja direkt den Untersuchungsgegenstand heranziehen. Modelle müssen also immer simplifizieren. Aspekte der Wirklichkeit werden ausgeblendet. Das gelingt aber nur, wenn zwischen wichtig und unwichtig unterschieden wird. Komplexe Systeme, also auch die menschliche Gesellschaft, kennen aber diese Unterscheidung überhaupt nicht.

„Welches Ereignis nun eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen“, betont der Organisationswissenschaftler Wohland.

Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig.
Insofern sei es fragwürdig, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben.

„Wenn neue Technik in die Welt kommt, gibt es immer zwei Tendenzen: Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde oder einer Adressänderung“, erläutert Wohland.

Prognosen im Rückspiegel

Es steht außer Frage, dass die Datenspuren, die wir im Internet hinterlassen und die von Maschinen gelesen werden, uns in gewisser Weise analysierbar machen.

„Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann, bestätigt auch Kappes.

Da stünden wir, allenfalls am Anfang einer Entwicklung, die bis zum Ende des 21. Jahrhunderts keine Ergebnisse zeitigen wird. Es komme immer darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, Wahrscheinlichkeitsaussagen über Personengruppen zu treffen. Das Handeln einer einzelnen Person fernab von Clusteranalysen ist nicht bestimmbar.
Über solche Dinge kann man eine gewisse Zeit Unsinn reden, ohne negative Folgen. Eine Gefahr entsteht mit Sicherheit nicht, wenn sich Entscheidungsmaschinen über die Krawattenmode der nächsten Saison irren oder ständig personalisierte Werbebotschaften über Dinge einblenden, die mich schon längst nicht mehr interessieren.

Lizenz zum Denunziantentum

Wenn Big Data-Algorithmen ohne meine Zustimmung anfangen, mich zu klassifizieren und zu stigmatisieren, automatisch meine Bonität herabstufen, einen Wechsel der Krankenversicherung wegen meines vermeintlich exakt berechneten Gesundheitszustandes verhindern oder Personalberatern die Abweisung meiner Stellenbewerbung empfehlen, dürfte es zu heftigen Gegenreaktionen der Netzgesellschaft kommen. Irgendwann reagiert die Gesellschaft. Es folgen Störungen des Systems, die bis zu Boykott und Ausstieg reichen können. Man merkt es an der sinkenden Akzeptanz von Facebook und Google. Der Machtwille der Netzgiganten werde immer sichtbarer – auch ihre Manipulation von Algorithmen und ihre Bereitschaft zur Überwachung, bemerkt die amerikanische Ökonomin Shoshana Zuboff.

Man fühle sich bloßgestellt. Jeder Nutzer von Internet-Diensten sei bereit, für Dinge zu zahlen oder Daten bereitzustellen, die sein Leben besser machen.

„Um zu verstehen, wonach ich verlange, musst du in meinen Raum kommen, und ich muss dir deshalb vertrauen können. Wenn du meinen Raum missbrauchst, schalte ich dich ab“, verkündet die Wissenschaftlerin.

In jedem Augenblick, in dem die Web-Konzerne das Vertrauen des Individuums enttäuschen, geht ihnen Geld verloren. Im Wettbewerb von personalisierten und vernetzten Angeboten werden nur jene überleben, die einen Vertrauenspakt mit ihren Kunden eingehen, ist sich der Düsseldorfer Unternehmensberater und Smart Service-Blogger Bernhard Steimel sicher.

„Wer Big Data anwendet, kann sich an Open Data nicht vorbeimogeln. Jedes Tracking zur Auswertung von Datenspuren, jede Lokalisierung und jeder Abgleich mit dem Profil eines Internetnutzers darf nur erfolgen, wenn der Kunde es will.“

Friss-oder-stirb-Geschäftsbedingungen könne sich niemand auf Dauer erlauben. Nicht alles, was technisch machbar sei, ist auch kulturell mehrheitsfähig.

„Das Maß aller Dinge ist meine Bereitschaft, Daten von mir preiszugeben. Hier liegt der Kern von Big Data-Anwendungen. Mein digitales Ich, meine digitale Repräsentanz und mein digitales Beziehungsnetzwerk müssen in meiner Hand liegen. Sozusagen ein Recht auf virtuelle Selbstbestimmung. Die Nutzung dieser Daten kann ich den Big Data-Systemen zu jeder Zeit wieder wegnehmen. Der Datenschlüssel, den ich zur Verfügung stelle, kann abhängig sein vom Zeitpunkt der Nutzung, er kann abhängig sein von Personen, er kann definiert sein für bestimmte Aktionen oder Nutzungsszenarien. Entscheidend ist nur, dass mir die personalisierten Dienste das Leben einfacher machen“, resümiert Steimel.

Datenpakt mit den vernetzten Konsumenten

Die ersten Anbieter, die zu einem neuen Datenpakt mit den vernetzten Konsumenten bereit sind, werden zu den Gewinnern der Netzwerk-Ökonomie zählen. Ein direkter Vertrag könne auch fernab von Facebook und Google über Apps abgeschlossen werden, so Steimel. Dafür eignet sich aber nicht der anmaßende Begriff „Big Data“, sondern eher „Smart Data“.

Smartphone-Applikationen bieten eine riesige Bandbreite an personalisierten, datenschutzkonformen und punktgenauen Services. Der Kunde steuert, wie tief die Datenanalyse gehen soll, um seine Anliegen schneller zu lösen.

„Diese Apps würden nicht nur die Identifikation des Kunden ermöglichen, sondern sehr viele Wege für die Datenanalyse und Vorqualifizierung bieten, die der Anwender individuell gestaltet“, so die Empfehlung von Heinrich Welter, Experte für Kundenkommunikation.

Der Kunde entscheide die Kommunikationsform und der Anbieter stellt sich genau auf das ein, was in der App abgerufen wird. Zudem werde die Autarkie des Kunden gestärkt, meint Welter.

„Er gibt genau seine Präferenzen an und teilt dem Unternehmen mit, welche Daten analysiert werden dürfen und welche nicht.“

Und das könne sich auch von Fall zu Fall ändern, etwa bei der Übermittlung von Geopositionen bei einem Autounfall, die man dann nur in diesem Fall freigibt.

Marketing statt Dialog

„Bei Unternehmen ist dieses Thema leider unterentwickelt, weil das Ganze nur unter Marketing- und Verkaufsaspekten vorangetrieben wurde. Es geht um Markenbekanntheit, Unterhaltung, Lifestyle, Transaktionen oder nette Produktvideos“, kritisiert Welter.

Bei den personalisierten Diensten, die man mit Netzintelligenz bestücken will, gehe es nicht darum, bunte Alternativen zu bestehenden Applikationen anzubieten, sondern um eine Neuerfindung von Assistenzsystemen, die diesen Namen auch verdienen. Ein wichtiger Baustein könnte die Sprachsteuerung sein, auch wenn Dienste wie Siri noch als Spielerei gesehen werden. Perzeption, Gedächtnis, Geschwindigkeit, Ausdauer und semantische Technologien zählen zu den Stärken der Maschinen. Diese Fähigkeiten ermöglichen die nahtlose, mühelose und neue Zusammenarbeit mit Computern. Eine Kombinatorik der unterschiedlichen Anwendungen unter einer sprachgesteuerten Motorhaube ist bislang nur in Ansätzen zu sehen. Der Systemingenieur Bernd Stahl vom Netzwerkspezialisten Nash Technologies spricht sogar von den leeren Versprechen der App Economy.

App-Kombinatorik

„Die Kombination von Apps zu größeren Applikationen ist bislang ausgeblieben. Jede App ist autark und kommuniziert nicht mit anderen Diensten. Es gibt zwar einige einfache Kombinationen, wie den Kalender auf dem iPhone. Aber so richtig begeistert mich das nicht. Man sieht nichts von komplexeren Software-Architekturen, wie man das in der traditionellen Software-Entwicklung kennt. Da ist noch ziemlich viel Luft nach oben. Die Frage ist, ob die App-Anbieter sich überhaupt in diese Richtung bewegen”, so Stahl.

Es müsste möglich sein, ein größeres System in einem Framework aus vielen Applikationen zusammen zu bauen. Also die Überwindung der Software-Krise durch die Schaffung von einfach nutzbaren Apps.

„Irgendwie klappt es mit der Modularisierung von Apps nicht, wie man sich das anfänglich vorgestellt hat”, sagt Stahl.

Von wirklich personalisierten und interagierenden Diensten sei man noch weit entfernt – mit und ohne Apps. Bislang laufen die Analyse-Systeme eher auf Cookie-Niveau und elektrisieren vor allem die Werbeindustrie. Das erkennt man beispielsweise an der Nachfrage nach Big Data-Spezialisten.

„Die Zahl der Vakanzen steigt vor allem bei Sales und Consulting“, so Personalberater Karsten Berge von SearchConsult.

Es geht um Verkauf und sehr wenig um wirklich nutzbringende Netzintelligenz. Insofern sollten sich die Big Data-Marktschreier mit ihren Versprechungen etwas mehr zurückhalten und Programme entwickeln, die man im Alltag nützlich einsetzen kann. Punktuell, situativ und nur dann, wenn ich es als Anwender auch zulasse. In aller Bescheidenheit könnten sich die Maschinisten der Informationstechnologie von der Inschrift leiten lassen, die Überlieferungen zufolge am Eingang des Tempels von Delphi zu lesen war: „Erkenne dich selbst“. Denn erkennbar wird die Welt, so der Philosoph Immanuel Kant, ausschließlich als unsere Vorstellung.