Plattformen mit vielfältigen Daten gewinnen #watsonat #CIOKuratorTalk

Selbst digitale Champions sind angreifbar. Beispiele von Yahoo bis AOL gibt es reichlich.
Das gilt auch für den Online-Marktplatz eBay: Im Unterschied zu eBay spielt beispielsweise auf dem Marktplatz von BlaBlaCars nicht der Preis die Hauptrolle, sondern vielfältige Daten. Nachzulesen im neuen Buch „Das Digital“ von Viktor Mayer-Schönberger und Thomas Ramge“, erschienen im Econ Verlag:

„Mitfahrer können zum Beispiel die Angebote danach durchsuchen, wie gesprächig der Fahrer ist (daher der Name BlaBlaCar), welche Musik sie mögen oder ob Haustiere mitfahren dürfen – und somit das für sich perfekt geeignete Angebot auswählen. Der Preis spielt in dem Modell nur eine untergeordnete Rolle, denn die Fahrer Fahrer können diesen nur innerhalb einer vorgegebenen Spanne festlegen.“

Andere Plattformen gehen ähnlich vor. Etwa der Reiseanbieter Kayak, die Investmentfirma SigFig oder die Jobbörse Upwork. Es entstehen immer mehr Märkte, die auf vielfältige Daten setzen und dadurch Nutzern helfen, optimale Transaktionspartner zu finden.

Gefragt ist hierbei mehr Intelligenz in der Datenanalyse. Hier müssen nach Ansicht von Karl-Heinz Land die Firmen auf eigene Strategien für Daten, Cloud und Künstliche setzen, sonst hat man im Wettbewerb keine Chance.

Das gelte für Internet-Giganten wie für Handwerker und Bäcker. Schwächen in der digitalen Welt übertragen sich irgendwann auch auf die physische Welt, so Land im Interview auf dem Watson Summit in Wien.

Was denkt Ihr?

Advertisements

Die Autonomen kommen – Über Logistik, Zalando und Schwarm-Mobilität

Zusammen mit meinen Redaktionsassistenten Yoda und Steve Jobs führte ich eine interessantes Live-Interview mit Holger Rieth von Stute Logistics über autonomes Fahren, KI, Robotik und Automatisierung.

Das Ganze läuft unter dem Format-Titel #CIOKuratorLive

Habt Ihr Anregungen? Geht das in die richtige Richtung?

Autonome Mobilität: Was verändert sich im Transportwesen? Antworten um 16 Uhr im Livestream

Der autonome LKW fährt 24 Stunden am Tag und er muss keinen Parkplatz suchen.

„Seamless logistics – also die nahtlose Logistik – ist der feuchte Traum der Logistikbranche“, so Professor Lutz Becker in einer FutureHubs-Fachrunde der D2030-Zukunftsinitiative.

Das werde Konsequenzen haben. Was werden dann die LKW-Fahrer machen? Selbst die das Be- und Entladen gehe über Roboter.

„Ich glaube, diese Entwicklung wird sehr schnell kommen, weil der ökonomische Druck so hoch ist. Wenn der LKW den halben Tag steht, brauche ich zwei LKWs. Bei der autonomen Mobilität brauche ich nur noch einen“, sagt Becker.

Das werde die Branche völlig umkrempeln: Keine Wartezeiten, ständige Verfügbarkeit, Reduktion der Ausfallzeiten und vieles mehr.

Hier müssten die Ökonomen im Sinne der Möglichkeitswissenschaft Antworten liefern, fordert Professor Uwe Schneidewind, Präsident des Wuppertal Instituts.

„Was heißt das für so eine Branche, was bedeutet das im Hinblick auf die Arbeitsplätze, die dort verloren gehen, wie nehme ich heute Menschen mit, wie mache ich heute schon Berufsinformationen und weise darauf hin, welche Zusatzqualifikationen vonnöten sind.“

Wie müssen Flächennutzungspläne und Verkehrswegepläne angepasst werden? Welche Gedanken macht sich heute die Politik über die neuen Mobilitätszzenarien, die alles andere als utopisch sind? Wie sieht das die Praxis?

All das diskutiere ich mit Holger Rieth, Bereichsleiter IT von STUTE Logistics in unserem Format #CIOKuratorLive. Um 16 Uhr im Livestream auf YouTube. Debattiert mit über die Chatfunktion von YouTube rechts neben dem Webplayer.

Man hört, sieht und streamt sich gleich

Wie unschuldig sind Algorithmen? #D2030 #FutureHubs @FuturICT

Sind Algorithmen unschuldig und neutral, fragen sich Anna-Verena Nosthoff und Felix Maschewski in einem Gastbeitrag für die NZZ und zitieren Mark Zuckerberg, der bei der Debatte über die Verbreitung von Fake News erklärte, es sei schlicht „verrückt“ anzunehmen, seine Firma Facebook habe die US-Wahl beeinflusst, sie stelle nur eine „neutrale Plattform“ dar:

„Auch der CEO der britischen Datenfirma Cambridge Analytica (CA), Alexander Nix, betont die Vorurteilslosigkeit der Technik – zuletzt in seinem Vortrag ‚From Mad Men to Math Men'“, schreiben die Autoren.

Erwähnt wird die These der Mathematikerin Cathy O’Neil: Algorithmen seien „in Code eingebettete Meinungen“. Sie repräsentierten die Werte ihrer Programmierer, operierten per se nicht neutral, würden daher häufig Vorurteile reproduzieren – schliesslich werden die ‚Problemlöser‘ selbst zum Problem.

Ähnlich sieht es der KI-Experte Stefan Holtel.

„Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“

Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden.

„Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel.

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss“, fordert Holtel.

Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation.

„Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel:

„Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden.

„Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel.

Auf der Berliner D2030 Zukunftskonferenz am 6. und 7. Juli wird dieser Aspekt sicherlich zur Sprache kommen.

Siehe auch: Sozialingenieure und ihre Steuerungsinstrumente für eine „wohlwollende“ Diktatur

@DirkHelbing über Datendiktatur oder Mitmachgesellschaft?