Munich Re wird neuer Gesellschafter des Deutschen Forschungszentrums für Künstliche Intelligenz

Professor Wolfgang Wahlster vom DFKI

Munich Re hat einen Gesellschaftsanteil des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) erworben. „Die Unterzeichnung des Kaufvertrages durch Vertreter beider Unternehmen ist ein weiterer wichtiger Schritt für die Kooperation zwischen weltweit führenden Vertretern aus Industrie, Wissenschaft und Politik auf dem Gebiet der Künstlichen Intelligen“, teilt das DFKI mit.

„Künstliche Intelligenz ist eine der wichtigsten Schlüsseltechnologien unserer Zeit. Sie ermöglicht bereits jetzt vollkommen neue Produkte, zum Beispiel Deckungen für vernetzte Fabriken oder für Schäden durch Cyberkriminalität, bringt aber auch zahlreiche neue Herausforderungen. Durch die Zusammenarbeit mit dem DFKI unterstreichen wir unseren Anspruch, eine Führungsrolle für Künstliche Intelligenz in der Versicherungsindustrie einzunehmen. Die Partnerschaft hilft uns nicht nur dabei, die neuesten, effektivsten und besten Verfahren für unsere Kunden zu entwickeln, sondern auch den aktuellsten Stand der Forschung für unsere Mitarbeiter verfügbar zu machen und die Forschung selbst voranzutreiben“, erläutert Torsten Jeworrek, Mitglied des Vorstands von Munich Re.

Mit dem Beitritt zum DFKI-Gesellschafterkreis erschließen sich nach Einschätzung von Professor Wolfgang Wahlster, Chief Executive Advisor (CEA) des DFKI, riesige Innovationspotentiale für die von seinem Forschungszentrum entwickelten Methoden der Künstlichen Intelligenz:

„Besonders für unser Kompetenzzentrum zum Deep Learning, unsere Technologien zum Sprach- und Bildverstehen, der Erklärbarkeit von Lernergebnissen und der Sensorfusion ergeben sich aufgrund der Echtzeit-Anforderungen bei Big-Data-Analytik der Munich Re hervorragende Anwendungsmöglichkeiten. Unsere bisherigen Kooperationsergebnisse bei der Luftbildauswertung von Sturmschäden unter Berücksichtigung sozio-ökonomischer Parameter waren sehr positiv. Schon bei meiner Präsentation des DFKI vor dem Vorstand der Munich Re im letzten Juli war für mich klar, dass durch den Eintritt der Munich Re in unseren Gesellschafterkreis eine echte Win-Win-Situation entstehen kann: ich bin glücklich, dass dies nun so rasch umgesetzt werden konnte.”

Beide Seiten haben sich darauf verständigt, keine Angaben über den Kaufpreis zu machen. Der Abschluss der Transaktion wird für das erste Quartal 2019 erwartet und steht unter dem Vorbehalt der formalen Zustimmung aller aktuellen Gesellschafter.

Zur KI-Forschung in Deutschland und Europa – Professor Wolfgang Wahlster und Dirk Wittkopp, Geschäftsführer der IBM Deutschland Research & Development:

Warum sich München Re im DFKI und in der KI-Forschung engagiert, beleuchtete Robert Weber schon im September des vergangenen Jahres. Dabei geht es vor allem um die Übernahme des Softwareunternehmens Relayr.

Relayr habe zum Beispiel eine Plattform entwickelt, mit der Unternehmen alte und neue Versionen von Hardware und Software verbinden, sowie Daten aus Maschinen und Geräten auslesen und analysieren können:

„Damit kann etwa erkannt werden, wann eine Maschine voraussichtlich ausfallen würde und dem Ausfall durch entsprechende Wartung vorgebeugt werden. Mit den IoT-Lösungen von Relayr können Unternehmen geschäftskritische Daten gewinnen, mit denen sie ihre Abläufe und damit ihre Profitabilität verbessern können.“

Plakat mit Geschichte: Zum KI-Forscher Joseph Weizenbaum

Weizenbaum-Plakat der Gesellschaft für Informatik

Der 2008 verstorbene Berliner Wissenschaftler Joseph Weizenbaum zählte zu den legendären Persönlichkeiten der Forschungsszene für Künstliche Intelligenz (KI). Der “Pionier, Dissident und Computerguru”, der als Professor für Computerwissenschaften am MIT in Cambridge unterrichtete und später wieder nach Berlin zurückkehrte, entwickelte 1966 ein Computerprogramm namens Eliza, das einen einfachen Dialog mit einem Menschen führen konnte. Das Projekt spielt auf Eliza Doolittle aus George Bernhard Shaws Schauspiel Pygmalion an:

“Meine Idee war, dass mein Sprach-Analyse-Programm in seiner sprachlichen Ausdrucksweise immer besser, also differenzierter, genauer und raffinierter werden würde, genau wie die Blumenverkäuferin aus dem Musical, unter der Anleitung ihres Lehrers Professor Higgins”, erläutert Weizenbaum in einem Interview.

Ich hatte nicht nur das Vergnügen, mit Weizenbaum ein längeres Gespräch zu führen, sondern konnte auch eine Diskussionsrunde mit ihm und Professor Wolfgang Wahlster, Direktor des Forschungszentrums für Künstliche Intelligenz, in Berlin organisieren.

Mein Interview mit Joseph Weizenbaum in Berlin

Mein Interview mit Joseph Weizenbaum in Berlin

Weizenbaum stellte sich im Laufe seiner Karriere immer kritischere Fragen über die gesellschaftlichen Folgen der Fortschritte in der Computertechnik. Was ihn im Kern immer mehr bewegte, war die Frage nach der Wechselwirkung zwischen technischer Entwicklung und gesellschaftlichen Veränderungen. Dabei kritisierte er auch bei dem Expertengespräch mit Wahlster nicht die technischen Möglichkeiten grundsätzlich, sondern die teilweise religiös anmutende Gläubigkeit in die Naturwissenschaften.

„Die Extremisten, die Ideologen der Künstlichen Intelligenz, versuchen, Gott zu spielen. Da muss man von Grössenwahn, buchstäblich von Wahnsinn sprechen.“

Wahlster sieht die KI-Forschung, zumindest in Deutschland, nicht auf diesem Entwicklungspfad. Im Vordergrund müsse eine “Informatik für den Menschen” stehen: die Schaffung intelligenter Technologien für die Mensch-Technik-Interaktion, die den natürlichen Kommunikationsstil von Techniklaien akzeptieren, einen direkten Dialog mit der Technik unterstützen und damit Hemmschwellen bei der Nutzung von Hochtechnologie abbauen.

„Semantische Technologien überbrücken die Lücke zwischen der Fachsprache der Informatik und den Sprachen ihrer Anwender, weil sie es erlauben, verschiedene Begriffssysteme ohne Bedeutungsverlust ineinander zu übersetzen. Automobilingenieure, Medizintechniker oder Logistikexperten sind mit semantischen Technologien in der Lage, ihr Wissen und ihre Prozessmodelle digital in der eigenen Fachsprache zu formulieren, ohne die speziellen künstlichen Sprachen zur maschinellen Wissensrepräsentation erlernen zu müssen“, betonte Wahlster.

Hier setzte auch Lupo Pape an, Geschäftsführer von Semanticedge in Berlin und ebenfalls Teilnehmer der Expertenrunde. Das Ziel der Sprachdialoge sei es, den Erwartungen des Menschen so nahe wie möglich zu kommen.

Die Kritik von Weizenbaum hat sich nach seiner Einschätzung auf die KI-Forschung positiv ausgewirkt:

“Es geht nicht mehr darum, in den konstruierten Computern oder Robotern den besseren Menschen zu erkennen und auf eine postbiologische Welt zuzusteuern. Das sind Wahnvorstellungen. Heute geht es darum, dass sich der Mensch nicht länger dem Computer anpassen muss. Die Informationstechnik muss sich an den Menschen anpassen. Softwaresysteme müssen daher intelligenter werden, damit sie besser verstehen, was der Mensch von ihnen will und damit sie sich umgekehrt dem Menschen einfacher verständlich machen: Das gilt besonders für die automatische Spracherkennung per Telefon. Es geht nicht um eine Nachahmung der Kommunikation zwischen Menschen, sondern um eine angemessene Behandlung des Menschen im Dialog mit dem Computer”, so Pape.

Auch Wahlster rückt die humanistischen Ziele in den Vordergrund seiner Forschungsarbeiten.

“Die semantische Wende ist die größter Herausforderung für die Informatik in den nächsten Jahren. Nicht die Interaktion über komplizierte Kunstsprachen mit Tastatur und Maus, sondern die Kooperation in der Alltagsbegrifflichkeit mit Sprache und Gestik sollen in Zukunft im Zentrum einer ‘Informatik für den Menschen’ stehen”, sagt Wahlster.

Deshalb übersetzt er die KI eher als künftige Informatik.

„Die Zeiten der KI-Gurus, die irgendeine Methode als Allheilmittel propagierten und nur anhand einer Spielzeugwelt demonstrierten, sind seit vielen Jahren vorbei – wie auch im Rest der Informatik“, so Wahlster.

Eine Weltherrschaft der Künstlichen Intelligenz sei nicht angebrochen, dafür seien in den vergangenen fünf Jahrzehnten allerdings einige wichtige und nützliche Durchbruchinnovationen gelungen. So konnte ein Computer den Schachweltmeister schlagen, Roboter könnten autonom den Mars explorieren, Telefondialoge zur Terminabsprache liessen sich automatisch übersetzen und ein fahrerloses Auto fahre durch unbekanntes Gelände.

Über lichtscheue Big Data-Verkäufer, die ihre Datenspuren löschen

Wer beobachtet wen?

Wer beobachtet wen?

Big Data-Anbieter sind großartige Verkäufer, wenn sie in der Öffentlichkeit von den Vorzügen der schonen neuen Datenwelt fabulieren können. Sie gieren nach Analysen möglichst großer Datenberge, um Grippewellen vorherzusagen, Euro-Krisen zu verhindern, den Autoverkehr staufreier zu machen oder Prognosen über den Verkaufserfolg von Rollkragenpullover in roter Farbe abzugeben.

Mit statistischen Spielchen auf der Metaebene geben sich die Zahlenfreunde aber nicht zufrieden. Sie wollen mehr. Sie erheben sich zur neuen Klasse der Sozialingenieure, um Gesundheitssysteme zu steuern, Banken vor Kreditausfällen zu bewahren oder Minderjährige vor dem Abrutschen ins Verbrechen zu „schützen“. Die zumeist technisch oder naturwissenschaftlich ausgebildeten Analysten wollen sich also tief ins Datenleben einzelner Menschen eingraben und beeinflussen.

Lichtscheue Analysten

Rückt man dem Big Data-Verkaufspersonal allerdings mit Anfragen zu den Rechenformeln ihrer Gottesmaschinen zu sehr auf den Pelz, ändert sich blitzschnell ihre Disposition: Die Algorithmen-Wahrsager werden lichtscheu und löschen ihre Datenspuren – welch eine Ironie. So geschehen bei einer kleinen Disputation auf Facebook über selbstgewisse Neurowissenschaftler, die Abläufe des menschlichen Gehirns noch nicht mal in Ansätzen erklären können. Ein Systemingenieur warnte vor zu großem Pessimismus. Man werde sich noch wundern, was in der Hirnforschung und beim künstlichen Nachbau der Gehirne in den nächsten Jahren so alles passieren werde.

Über die „Intelligenz“ seiner eigenen Prognose-Maschine äußerte sich dieser Geschäftsführer eines Softwareunternehmens ähnlich euphorisch. Ist ja völlig in Ordnung. Jeder Krämer lobt seine Ware. Als ich auf Facebook nachfragte, ob er sein System live in Bloggercamp.tv vorführen wolle, wechselte der virtuelle Werkzeugmacher direkt in den privaten Modus und sagte mir klar, dass er gegenüber der Öffentlichkeit keine Bringschuld habe.

„Nur soviel: Wir setzen unsere Software im Klinikbereich ein, um gute von schlechten Patienten zu trennen. Als Auswertungstool um aufzuzeigen, wo Ärzte Geld verballern.“

Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern und beendete die Diskussion mit mir – zumindest im nicht-öffentlichen Chat. Seine Großspurigkeit im öffentlichen Teil setzte er fort.

Nach der anonymisierten Veröffentlichung seines Patienten-Zitats auf meinem ichsagmal-Blog verfiel er in eine Panikattacke, löschte alle Kommentare und proklamierte pauschal, man könne Bloggern einfach nicht vertrauen. Jetzt geht es also um „Vertrauen“ – es geht wahrscheinlich auch um seine Reputation. In diesem kleinen Feldtest ist dem Big Data-Maschinisten vielleicht klar geworden, um was es geht.

Was passiert, wenn seine Algorithmen ahnungslose Menschen in die Kategorie „schlechte Patienten“ eintüten und sie von den „guten“ Patienten abtrennen? Welche Gewichtungen und Abgrenzungen hat denn der Systemingenieur in sein Prognose-System eingebaut? Bekommt der „schlechte“ Patient Einblick in die Formelstube? Nach der Geheimniskrämerei des Geschäftsführer zu urteilen, eher nicht. Schließlich habe er Auftraggeber zu bedienen und nicht die Öffentlichkeit.

Social Media-Freunde als Indikator für Kreditwürdigkeit

Gleiches gilt für die Firma „Big Data Scoring“ aus Estland, die über die Auswertung von Social Media-Profilen Aussagen über die Kreditwürdigkeit für Banken treffen will: „Es läuft ein bisschen nach dem Prinzip: ‚Sag mir, wer deine Freunde sind, und ich sag dir, wer du bist‘“, erklärt nach einem t3n-Bericht Meelis Kosk von Big Data Scoring. Ein hoher Akademiker-Anteil unter den Freunden könnte beispielsweise ein gutes Zeichen für die persönliche Finanzlage sein. Äh, und wenn es Philosophen und Germanisten sind? Ziemlich dubiose Kriterien.

Alles sei selbstverständlich gaaaaanz freiwillig, beschwichtigen die Unternehmensgründer. Es gebe schließlich eine Opt-In-Regel – ohne Zustimmung des Kreditnehmers passiere nichts. Auch die politische Gesinnung und die sexuelle Orientierung bleiben außen vor – wie großzügig. Haben die Rechenschieber-Freaks eigentlich mal probiert, in Deutschland einen Bankkredit zu beantragen? Was passiert denn, wenn man die Abfrage beim kommerziellen Dienstleister Schufa verweigert, der ebenfalls mit Scoring-Verfahren in einer trüben Suppe der Wahrscheinlichkeitsrechnung herumrührt und seine Formeln als Geschäftsgeheimnis deklariert? Nichts, man kann nach Hause gehen und schauen, ob noch irgendein Spargroschen unter der Matratze liegt. Welchem Scoring-System unterliegen eigentlich die Entwickler und Anwender der Big Data-Analysetools? Wer haftet denn für falsche Berechnungen, die zum Reputationsverlust führen?

Beweislast-Umkehr

Viktor Mayer-Schönberger vom Oxford Internet Institute hat eine Beweislast-Umkehr ins Spiel gebracht, die beim Anwender liegen müsse. Zudem benötige man eine neue Berufsgruppe zur Überprüfung der Big Data-Analysen. Mayer-Schönberger spricht von „Algorithmikern“, es könnten auch Big Data-Forensiker sein, die den Betroffenen helfen, rechtlich gegen die Zahlendreher vorzugehen.

Über die Wirksamkeit und Genauigkeit der Korrelations-Fetischisten sind Zweifel angebracht, wenn sie Individuen zum Objekt ihrer Begierde machen und damit auch noch Geld verdienen wollen. Die Systeme können nur das, was Menschen programmiert haben und daraus ableiten. Es sind hoch manipulative, konstruierte und erfundene Welten, die immer zu richtigen Ergebnissen kommen. Richtig im Sinne des Erfinders, Konstrukteurs, System-Ingenieurs, Mathematikers, Software-Entwicklers oder KI-Wissenschaftlers: Die Logik sei nur ein Beschreibungsapparat, so wie die Grammatik für Sprache, sagt Systemtheoretiker Heinz von Foerster im Fernsehinterview mit Lutz Dammbeck.

„Die Logik ist ja nur eine Maschine, um mit gewissen Aussagen gewisse andere Aussagen machen und entwickeln zu können. Der Übergang von A nach B, das ist, was die Logik kontrolliert….also die Logik bringt ja gar nichts Neues….die Logik macht es nur möglich, dass Sie von einem Satz, der etwas verschwommen ist, etwas ableiten können, oder Sätze, die ähnlich verschwommen sind, ordentlich beweisen können“, erläutert Foerster.

In diesen weltweit funktionierenden Maschinensystemen seien alle Aussagen richtig – im Sinne der Ableitungen.

Den Wahrheits-Maschinisten sollte man politisch und rechtlich zeigen, wie wichtig Vertrauen ist, wenn man Menschen berechnet, kategorisiert, sortiert und letztlich aburteilt.

Siehe auch:

Gegenbewegungen: Wissenschaftler erobern das Internet zurück

Algorithmen-Angst: Es ist immer noch die eigene Entscheidung (wenn man entscheiden kann und nicht Entscheidungen von anderen getroffen werden, ohne sich zur Wehr setzen zu können).