Plädoyer für dadaistische Algorithmen

Gigerenzer auf der re:publica

Gigerenzer auf der re:publica

Unser Denken ist gehackt. Das meinen zumindest die Programm-Gestalter der Media Convention, die auf der re:publica in Berlin eine Fachrunde zur vermeintlichen Herrschaft der Algorithmen auf die Beine stellten. „Suchmaschinen, Social Media und Big Data-Nudging: Algorithmen haben die Kontrolle über unseren Alltag übernommen. Durch selbstverstärkende Mechanismen versinken wir in der Einseitigkeit unserer Interessen und setzen uns freiwillig der Diktatur der Daten aus. Wir müssen reden. Wie sind wir zu Like-Maschinen geworden, die mediale Monotonie produzieren? Und viel wichtiger: Wie können wir die Kontrolle über den Diskurs wieder zurückholen – und Freiheit und Demokratie sichern?“ Soweit der Anreißer, der auf der Bühne in Stage 5 mit Statistiken untermauert wurde. So ist angeblich zwei Dritteln der Facebook-Nutzer nicht bewusst, dass der Newsfeed auf der Zuckerberg-Plattform von Algorithmen gesteuert wird.

Mehr Kant, weniger Algorithmen

Professor Gerd Gigerenzer, Direktor Max-Planck-Institut für Bildungsforschung in Berlin, rief in seinem Impulsvortrag die Netznutzer deshalb dazu auf, dem Credo des Philosophen Kant zu folgen: Aufklärung ist der Ausweg des Menschen aus seiner selbstverschuldeten Unmündigkeit. Und die Unmündigkeit besteht bei vielen Menschen darin, sich nicht seines eigenen Verstandes und Wollens zu bedienen. Gefordert sei eine aufklärerische Algorithmen-Kompetenz. Was die algorithmischen Variablen für Wirklichkeitsmanipulationen produzieren, bleibt in der Regel ein Geheimnis der mathematischen Konstrukteure. Dabei versagen die Systeme in schöner Regelmäßigkeit, wenn es um Vorhersagen geht. So ist der beliebteste Showcase, der von jedem Big Data-Heizdeckenverkäufer präsentiert wird, in sich zusammen gebrochen.

Google Flu Trends verschwinden von den Vortragsbühnen

Gigerenzer erwähnt die Google Flu Trends, die in den vergangenen Jahren dramatisch falsch lagen, weil die Suchabfragen keine eindeutigen Korrelationen mehr zuließen. Generell ist es eine Schwäche der Big Data-Algorithmen, reine Korrelationen zu rechnen und keine Kausalitäten.

„Diese Systeme können denken“, so Gigerenzer.

In Momenten, wo etwas Unerwartetes passiert, kommt es zu irreführenden Prognosen.

Besonders fragwürdig und gefährlich wertet Gigerenzer die das so genannte Big Nudging. Also eine Kombination von Big Data mit Nudging-Steuerung. Der Staat versucht, die Bürgerinnen und Bürger in die richtige Richtung zu lenken, ohne gesetzgeberische Hebel anzusetzen.

Die Regierungen in den USA und Großbritannien verfügen über Nudging-Teams, die täglich das volkspädagogische Steuerrad bewegen. Menschen seien einfach nicht in der Lage, Risiken richtig einzuschätzen, so dass sie ein wenig angestupst werden müssen.

Google und die KP-China

Der chinesische Staatsrat hat Nudging mit Big Data verbunden und einen harmlos klingenden „Social Citizens Score“ eingeführt, der über die kommunalen Regierungsvertreter flächendeckend zur Anwendung kommen soll. Basis für die Korrektheitsberechnung ist der Sesame Credit Score der Ant Financial Services Group, einer Tochtergesellschaft von Alibaba. Neben der finanziellen Kreditwürdigkeit kommen Variablen zur Berechnung der sozialen und politischen „Kreditwürdigkeit“ in den Algorithmus des Plattform-Betreibers rein. Die Kommunistische Partei China macht das sehr transparent, so dass jedem Schäfchen des Landes klar ist, was die Parteiführung von „ihrem“ Volk erwartet. Man kann in dem „moralischen“ Dokument der KP nachlesen, was zu einem schlechten Score-Wert führt. Ähnliches hat der ehemalige Google-Chef Eric Schmidt formuliert: Wenn wir etwas tun, was andere nicht wissen sollten, dann sollten wir es besser nicht tun. Gigerenzer verortet erstaunliche Parallelen zwischen Google und der KP China.

Donald Trump-Katalysator

Man könnte auch von einem Maschinen-Paternalismus sprechen, der indirekt Konformität und vorauseilenden Gehorsam produziert. Die Paneldiskussion auf der re:publica flachte dann etwas ab und reduzierte die Problematik auf den Nachrichtenkonsum. Die Personalisierung von Feeds führe zu einem verengten Weltbild, objektive Wirklichkeitszugänge werden erschwert, die Wahrnehmung von Realität verändere sich blablabla.

Nachrichtenselektion ist ein altes Thema und funktionierte in Zeiten der massenmedialen Gatekeeper perfekter. Gigerenzer selbst brachte dafür ein eindrückliches Beispiel. So investierte der republikanische Präsidentschaftskandidat Donald Trump lächerliche zehn Millionen Dollar für klassische Fernsehwerbung. Die freiwillige Sendezeit der TV-Anbieter brachte dem reaktionären Parolenschwinger einen Gegenwert von 1,9 Milliarden Dollar. Die TV-Filterblase ist wohl der wichtigste Katalysator für den Konkurrenten von Hillary Clinton. Die Pluralität der Quellen ist wichtig und dadaistische Algorithmen, die den paternalistischen Erziehungs-Algorithmen das Wasser abgraben.

Advertisements

Schlagwörter:, , , , ,

2 Kommentare - “Plädoyer für dadaistische Algorithmen”

  1. Der kleine Mann im Kopf 21. September 2016 um 15:24 #

    Sehr gut und sehr wichtige Anregungen.
    Es ist schon witzig, dass es mehr Veröffentlichungsplattformen denn je gibt, das Ergebnis jedoch wie Konformismus wirkt. Das Entdeckungsprinzip geht flöten, aber letztlich wir sind diejenigen, die uns leiten lassen wollen und keinen Gebrauch unserer Freiheit machen bzw. das Potenzial nicht zu nutzen.

Eure Meinung ist gefragt

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: