#KuenstlicheIntelligenz #Digitalstrategie #Digitalklausur Wo steht Deutschland? @ChrisStoecker @DFKI @lietzkow @ReinhardKarger @DigitalratD @th_sattelberger

Mittlerweile gibt es eine Flut von Veröffentlichungen und Stellungnahmen zur Relevanz von Künstlicher Intelligenz. Wie gut Deutschland in der KI-Forschung und in der Anwendung von KI dasteht, ist höchst umstritten. Als Beispiel führe ich den Beitrag von Christian Stöcker auf, der im Spiegel eine sehr kritische Position zur KI-Forschung in Deutschland vertritt. Sie ähnelt den Wortmeldungen des FDP-Bundestagsabgeordneten Thomas Sattelberger.

Die Zahl der Fachbeiträge wertet Stöcker als Indikator für die Relevanz der KI-Forschung:

„Wie es bei uns in Sachen maschinelles Lernen wirklich aussieht, kann man an den Tagungsbeiträgen bei großen internationalen Fachkonferenzen ablesen. Unter Informatikern sind per Peer Review ausgewählte Konferenzbeiträge zentral fürs Renommee“, behauptet Stöcker und verweist auf die KI-Konferenz NIPS, die er zur wichtigsten Konferenz über KI einordnet:

„Zur NIPS 2017 wurden 3240 Paper eingereicht, davon wurden 679 akzeptiert. 91 stammten von Google und seiner Tochter Deepmind, weitere 40 von Autoren, die für Microsoft arbeiten. Unter den 57 Institutionen, die mehr als fünf Paper auf der Tagung unterbrachten, sind fünf europäische – und keine deutsche.Vielleicht reichen deutsche Forscher ihre KI-Arbeiten ja lieber bei einer großen europäischen Konferenz ein? Wie der International Conference on Machine Learning (ICML), die 2018 in Stockholm stattfand? 58 Institutionen kamen dort auf mehr als fünf angenommene Beiträge – und darunter sind immerhin zwei Deutsche: Das Max-Planck-Institut für intelligente Systeme und die Universität Tübingen. Zusammen kommen sie auf 21 Beiträge. Das ist beachtlich – genau so viel wie die Gesamtzahl der erfolgreichen Einreichungen von Facebook-Mitarbeitern. Zählt man alle Google-Paper bei der Tagung zusammen, kommt man auf 82. Das sind 13 Prozent aller erfolgreichen Einrichtungen“, schreibt Stöcker.

In das gleiche Horn bläst Stefan Heumann.

Auf der Kölner Konferenz #NextAct äußerte sich der FDP-Neupolitiker Thomas Sattelberger kritisch über die Leistungen des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI): Die besten KI-Forscher würden abwandern und landen bei internationalen Konzernen. Zudem möge man sich mal die Zahl der Ausgründungen anschauen, die aus dem DFKI in den vergangenen zehn Jahren gekommen sind. Siehe auch meinen Bericht auf ciokurator.com.

“Das ist eine vernachlässigbare Größe. Skaliert hat keine einzige”, moniert Sattelberger.

Das seien Forschungseinrichtungen, wo das wissenschaftliche Erkenntnisinteresse vor dem Verwertungsinteresse dominiert.

“Forschung soll nicht nur verwertungsorientiert sein. Wir brauchen eine vernünftige Balance zwischen zitiert werden in A+ Journals und dem gesellschaftlichen Nutzen”, fordert der forschungs- und innovationspolitische Sprecher der FDP-Bundestagsfraktion.‏

Ob man die Qualität der Forschung an der Zahl der Fachvorträge und an den Veröffentlichungen in hoch gerankten Journalen messen kann, halte ich doch für sehr fragwürdig. Da sollte man sich die Mechanismen hinter den Kulissen etwas genauer anschauen: Noch fragwürdiger ist es allerdings, die Stärken der KI-Forschung in Deutschland schlichtweg zu ignorieren. Allein das DFKI kann sich vor Aufträgen aus dem staatlichen und industriellen Sektor kaum noch retten, wie DFKI-Chef Professor Wolfgang Wahlster im Live-Talk auf der Cebit ausführte. Die Kritik von Sattelberger sei nicht nachvollziehbar, so Wahlster.

“Er ist ja nicht der absolute Spezialist für KI und war doch eher für Personalpolitik zuständig. Ich kenne ihn nicht als KI-Experten. Das soll er mal gründlicher anschauen. Wir haben 80 Spin-Off-Firmen generiert. Wir haben Firmenwerte von über einer Milliarde Euro generiert. Wir haben gerade in den vergangenen zwei Jahren Firmen für über 100 Millionen Euro verkauft. Das ist nun wirklich ein Witz, was Thomas Sattelberger behauptet. Da müsste er etwas genauer recherchieren”, so die Replik von Wahlster.

Das DFKI habe allerdings auch Forschungsaufgaben.

“Wir bilden die nächste Generation von Hochschullehrern aus und bringen KI-Talente hervor. 96 Professoren für KI, die in Deutschland tätig sind, wurden bei uns ausgebildet”, betont der DFKI-Chef.

Man sollte bei der Beurteilung der Forschungsarbeit nicht nur auf Spin-Off-Firmen schauen. Auch die etablierten Unternehmen in Deutschland würden die Relevanz der KI erkennen und sich erfolgreich innovieren. Etwa Bosch und Siemens, denen das in den vergangenen Jahrzehnten immer wieder gelungen sei.

“In den USA sind viele große Unternehmen den Abgrund runter gestürzt. Man hat dort zwar erfolgreiche Spin-Offs, es werden in der Öffentlichkeit allerdings immer die gleichen Beispiele genannt. Siemens, Bosch und andere Unternehmen in unserem Land waren und sind über Generationen hinweg Flaggschiffe. Das muss man erst einmal können. Diese Unternehmen haben KI-Abteilungen errichtet und setzen lernende Systeme bis in die Produktentwicklung ein”, erläutert Wahlster.

Thomas Sattelberger sollte eine Deutschlandtour machen und sich diese Anwendungen anschauen. Wahlster würde ihn dabei begleiten.

Der Blick in die USA hilft nicht immer weiter.

“IBM gibt es in Deutschland seit mehr als 100 Jahren. Ich leite ein Entwicklungslabor in Böblingen mit rund 1.700 Mitarbeitern. Wir beschäftigen uns intensiv mit KI. Es passiert sehr viel in Deutschland”, bestätigt Dirk Wittkopp, Geschäftsführer der IBM Deutschland Research & Development GmbH.

Auch Wahlster hält von den Vergleichen mit den USA wenig. Man sei schon längst international vernetzt. Google und Co. seien Gesellschafter im DFKI. Es gebe einen regen Austausch. So komme das Team für die autonome Übersetzung bei Google aus dem DFKI.

“Man befruchtet sich gegenseitig. In Deutschland sollten wir uns auf unsere Stärken besinnen. Etwa in der Industrie. Man sollte die ‘KI-Spritze’ in die besten Produkte injizieren, sei es die Landmaschine, sei es die Werkzeugmaschine, sei es der Medizin Scanner von Siemens oder das Auto. Es bringt nichts, Google zu kopieren.”

Zu den Beschlüssen der KI-Klausurtagung der Bundesregierung äußerte sich Wahlster gegenüber der FAZ positiv:

„Ich bin von der neuen KI-Strategie begeistert, da nun in Europa das größte nationale Förderprogramm den Durchbruch von KI-Lösungen auf breiter Front ermöglicht. Damit wird endlich auch die von etlichen Medien und amerikanischen Unternehmensberatern oft fälschlich behauptete Überlegenheit der amerikanischen und chinesischen KI-Strategien klar widerlegt.“ Tatsächlich sei die Summe des deutschen Programms größer als die Initiativen, die beispielsweise Frankreich und Großbritannien bislang begonnen haben, so die FAZ.

Drei Punkt, die Christian Stöcker dargelegt hat, sind allerdings essentiell:

„Rechenleistung – die bei Google und Co. bekanntlich in Hülle und Fülle vorhanden ist, bis hin zu eigens für maschinelles Lernen entwickelten Spezialchips. Das exponentielle Wachstum der in KI investierten Rechenleistung wird maßgeblich von Google vorangetrieben. Große Datenmengen – und auch die liegen im Silicon Valley bekanntlich vor. Wussten Sie zum Beispiel, dass sie jedes Mal, wenn sie auf einem Captcha Schornsteine oder Zebrastreifen identifizieren, Daten fürs Machine Learning erzeugen? Und zwar für Google? Innovationen, also schlaue Leute. Die natürlich auch wieder bevorzugt dort arbeiten, wo Rechenleistung und Trainingsdaten en masse zur Verfügung stehen. Und wo man fünf- bis zehnmal so viel verdienen kann wie auf einer Postdoc-Stelle an einer deutschen Hochschule.“

Hochschulen müssten ihren Spitzenkräften erleichtern, an ihren Erfindungen zu verdienen. Auch das ist super wichtig.

Wie kommt man an die Trainingsdaten und wie verhindert man die Abwanderung von Talenten in der KI, das sind wohl die wichtigsten Fragen, die wir in Deutschland beantworten müssen. Das erörterten wir mit Jörg Müller-Lietzkow auf der Next Economy Open #NEO18x.

Wir sollten also nicht die Zeit vertrödeln beim Schlechtreden der KI-Forschung in Deutschland, sondern die richtigen Akzente in den nächsten Jahren setzen.

Nun ist er fertig, der Band „Schöpferische Zerstörung und der Wandel des Unternehmertums – Zur Aktualität von Joseph A. Schumpeter“

Seit vielen Jahren ist der in Österreich geborene Ökonom Joseph A. Schumpeter in aller Munde. Die Bezüge auf ihn sind allerdings keineswegs einheitlich. Viele von jenen, die für künftige gesellschaftliche Entwicklungen den Schwerpunkt weiter einseitig in technischen Innovationen suchen, propagieren Schumpeter als deren wichtigsten Verfechter.
Natürlich haben Innovationen, hat die Durchsetzung neuer Kombinationen, die „schöpferische Zerstörung“, wie Schumpeter das in seinem Werk „Kapitalismus, Sozialismus und Demokratie“ nannte, auch etwas mit technischen Veränderungen zu tun. Aber die bloße technische Erfindung ist noch keine ökonomische Innovation. Und vor allem war Schumpeter nicht nur Ökonom, sondern ein umfassender Gesellschaftstheoretiker. Gegenüber den Fortschrittstheoretikern seiner Zeit war er willens und in der Lage, die Probleme, Schwächen und Risiken der kapitalistischen Entwicklung herauszuarbeiten, darunter die Erosion des ursprünglichen Unternehmertums. Darum geht es in dem von Hans Frambach, Norbert Koubek, Heinz D. Kurz und Reinhard Pfriem herausgegebenen Band „Schöpferische Zerstörung und der Wandel des Unternehmertums – Zur Aktualität von Joseph A. Schumpeter
er Band liefert ebenso repräsentative wie vielfältige Sichtweisen.

Inhalt:

Lambert T. Koch: Von Schumpeter lernen – Geleitwort 1. Innovationen und wirtschaftliche Entwicklung

Heinz D. Kurz: Die Durchsetzung neuer Kombinationen, schöpferische Zerstörung und die Rastlosigkeit des Kapitalismus. Zur Aktualität Joseph A. Schumpeters

André Reichel: Die Neuerfindung des Neuen. Soziale Innovationen in kollaborativen Innovationsprozessen

Birger P. Priddat: Schumpeter und die modernen Marktdynamiken

Jörg Freiling, Ekaterina Brandtner: Dominante Logiken – Barrieren oder Wegbereiter für Schumpeters „schöpferische Zerstörung“?

Norbert Koubek, Hermann Sebastian Dehnen, Jan Hendrik van Dinther: Schwellenländer in der Weltwirt- schaft. Von der Doppel-Triade zur Doppel-Helix

Bettina Kieselbach, Marco Lehmann-Waffenschmidt: Strategien zur schöpferischen Vermeidung von Monopolen in innovativen Branchen – eine neo-Schumpetersche Fallanalyse des Digitalisierungsprozesses in Sachsen

Marlies Schütz, Rita Strohmaier, Stella Zilian: Vom Datenkapitalismus zum Datensozialismus? Zur Bedeu- tung der Werke J. A. Schumpeters und T. B. Veblens in Zeiten des digitalen Wandels

Christine Volkmann, Wolfgang Kuhn: Elektrisches Licht und Taschenlampen: historische und gesellschaftliche Dimensionen eines innovativen Phänomens

Geschichte und Zukunft des Unternehmertums

Hans Frambach: Der Schumpetersche Unternehmer in der Geschichte des ökonomischen Analyse

Lars Hochmann: Lebendiges Unternehmertum als revolutionärer Entwurf. Versuch einer radikalen Ökonomik im Zeitalter digitaler Revolutionen

Uwe Schneidewind, Annika Rehm: Unternehmen als strukturelle Kraft. Vom schöpferischen Zerstörer zum konstruktiven Schöpfer

Klaus Fichter, Karsten Hurrelmann: Climate Entrepreneurship. Von der schöpferischen Zerstörung zur Schöpfung gegen Zerstörung – Unternehmertum in Zeiten des Klimawandels

Ulrich Braukmann, Daniel Schneider, Dominik Bartsch:

Youth Entrepreneurship Education und ihr Potential für eine (Re-)Vitalisierung des Schumpeterschen Un- ternehmertums in Deutschland

Stephanie Birkner, Lisa Heinrichs: Eine Frage der Zeit? Eine feministisch motivierte Reflexion der historischen Bedingtheit des Schumpeterschen Gedankengutes zum Unternehmertum

Gesellschaftstheoretische Dimensionen in Schumpeters Werk

Reinhard Pfriem: Ökonomik als Gesellschaftswissenschaft. Zukunftsfähigkeit und Grenzen des Sozialökonomen Joseph A. Schumpeter

Lutz Becker: Schumpeters blinder Fleck. Das Spannungsfeld zwischen Markt und Unternehmer im Zeichen der Plattform-Ökonomie

Richard Sturn: Kapitalismus, Populismus, Demokratie

Harald Hagemann: Schumpeter und die Weltwirtschaftskrise: Die Vorzüge schlechter Zeiten oder eine pathologische Depression?

Lars Immerthal: Dionysische Störungen. Ein Kommentar zur Her- und Zukunft der Metapher der‚schöpferischen Zerstörung’

Eberhard K. Seifert: Schumpeter über Marx als Ökono- men. Theoriegeschichtliche Anmerkungen zu seiner Kritik der Arbeitswerttheorie in ‚Kapitalismus, Sozialismus und Demokratie’

Gunnar Sohn: Wenn Volkswirtschaften in Routine ersticken. Schumpeters soziologische Analysen in seiner Bonner Zeit

#Preistheorie war gestern – Wir suchen etwas Neues #NEO18x @mspro #ZF18 @HS_Fresenius

Ökonomen betrachten bekanntlich die gehandelte Menge an Gütern und Dienstleistungen als Ergebnis eines Zusammenspiels von Angebot und Nachfrage. Studierende der Wirtschaftswissenschaft werden damit in Kurvendiagramm-Vorlesungen gelangweilt. Problem: In den Modellen arbeitet man mit Interpretationen, die erst im Nachhinein der Öffentlichkeit präsentiert werden. Für Voraussagen sind die Kurvenspielchen völlig ungeeignet. Noch problematischer wird es, wenn man Preiserwartungen in die Rechnungen einbezieht.

Dann gehen die Wirkungen sogar ihren Ursachen voraus. Was in der Realität passiert: „Die Modelle können in nahezu jeder vorhandenen Datenreihe mehr oder weniger passend gemacht werden“, schreibt Tobias Schmidt in einem Beitrag für die Zeitschrift Merkur.

Wie belastbar das wissenschaftstheoretisch wirklich ist, überlasse ich jetzt mal der Interpretation. Inwieweit die Preistheorie für das wirtschaftliche Geschehen in aggregierten Ex post-Rechnungen zum Erkenntnisgewinn beiträgt, ist zumindest ein paar kritische Fragen wert. Im digitalen Kontext ist das Zirkelschluss-Gesabbel noch idiotischer.

Wenn der Preis nur eine Nebenrolle spielt

Viktor Mayer-Schönberger und Thomas Ramge erläutern das in ihrem Buch „Das Digital – Markt, Wertschöpfung und Gerechtigkeit im Datenkapitalismus“ am Beispiel des Erfolgs der Firma BlaBlaCar. Bei dieser Plattform spielt nicht der Preis die Hauptrolle, sondern vielfältige Daten. Mitfahrer können die Angebote danach durchsuchen, wie gesprächig der Fahrer ist – daher der Name BlaBlaCar -, welche Musik sie mögen oder ob Haustiere mitfahren dürfen – und somit das für sich perfekt geeignete Angebot auswählen. „Der Preis spiel in dem Modell nur eine untergeordnete Rolle, denn die Fahrer können diesen nur innerhalb einer vorgegebenen Spanne festlegen“, so Mayer-Schönberger und Ramge.

Was sich immer mehr herauskristallisiert ist eine „Matching-Ökonomie“, in der man viel stärker auf die Details und Nuancen von wirtschaftlichen Entscheidungen schauen muss. Damit dieses Matching in der Flut von Informationen überhaupt möglich ist, braucht man Ontologien. Laut Wikipedia dienen sie als Mittel der Strukturierung und zum Datenaustausch,  um bereits bestehende Wissensbestände zusammenzufügen, in bestehenden Wissensbeständen zu suchen und diese zu editieren sowie aus Typen von Wissensbeständen neue Instanzen zu generieren.

Soweit die eher technokratische Definition. Meßbar ist jedenfalls, dass die schlechte Ontologie eines Anbieters oder eines Marktplatzes im Zeitverlauf zu einer Verringerung von Transaktionen führt. Der ökonomische Druck zur Entwicklung von Schlagwort-Strategien steigt, betonen die beiden Buchautoren und verweisen auf die Metadaten-Expertin Madi Solomon. Sie komme aus den Salzminen der Datenarbeit und war für die weitgehend manuelle Verschlagwortung beim Walt-Disney-Konzern verantwortlich. „Später wurde sie Direktorin für Datenarchitektur und semantische Plattformen beim Bildungsverlag Pearson.“

Ohne Meta-Daten kein Matching

Für die Zukunft erhofft sie sich ein besseres Zusammenspiel von Algorithmen und Daten-Ontologien. „Startups und große Datenspieler haben das Thema schon für sich entdeckt – und gehen es immer öfter gemeinsam an. Das ehrgeizige Datenprojekt bei eBay etwa hat genau das Ziel, durch bessere Katalogisierung die Auffindbarkeit der Produkte von 42 auf rund 90 Prozent zu steigern.“

Eine wichtige Rolle spielen dabei mehrere auf Metadaten-Management spezialisierte Startups wie ExpertmakerCorrigon und Alation, die eBay erworben hat oder mit denen die Handelsplattform eng zusammenarbeitet. Sie sollen zur automatischen Kategorisierung beitragen. Prognose von Mayer-Schönberger und Ramge: „Je stärker die Märkte sich vom Preisvergleich ab- und dem datenreichen Matching zuwenden, desto intensiver wird das Wettrennen um leistungsfähigere Algorithmen.“

Kreatives Matching mit Zufallsgenerator

Aktiv abwenden können sich Märkte von „Preisen“ natürlich nicht, denn sie existieren nur in der Fantasie der Zirkelschluss-Ökonomen, die eine Volkswirtschaft in aggregierten Zuständen betrachtet – jedenfalls tun das die Makroökonomen. Aber das Matching-Logiken der Katalysator des Netzes sind, dürfte wohl kaum einer bestreiten. Und wie sorgt das Ganze für Überraschungen jenseits von mechanistisch aufgebauten Algorithmen?

Wie das funktionieren kann, belegt der rein manuell gepflegte Zettelkasten des legendären Soziologen Niklas Luhmann. Der Zettelkasten ist eine Kombination von Unordnung und Ordnung, von Klumpenbildung und unvorhersehbarer, im ad hoc Zugriff realisierter Kombination. Das notierte Luhmann auf dem Zettel 9/8. An dieser Stelle verweist das Notiz-Amt auf die Forschungsarbeit von Johannes F.K. Schmidt, der den Nachlass des Bielefelder Soziologen bearbeitet und die Prinzipien des Luhmannschen Überraschungsgenerators der Öffentlichkeit zugänglich macht.

Ein Punkt ist hier aber wichtig. Die Funktion des Schlagwortverzeichnis im Zettelkasten von Luhmann: „Jede Notiz ist nur ein Element, das seine Qualität erst aus dem Netz der Verweisungen und Rückverweisungen im System erhält. Eine Notiz, die an dieses Netz nicht angeschlossen ist, geht im Zettelkasten verloren, wird vom Zettelkasten vergessen“, schreibt Luhmann.

Damit dieses Matching-Gedankenspiel in Gang kommt, braucht man Meta-Daten – also ein Schlagwortverzeichnis. „Will man sich nicht nur auf den Zufall verlassen, so muss man zumindest einen Punkt identifizieren und ansteuern können, an dem man in das entsprechende Verweisungsnetz einsteigen kann“, so Schmidt.

Das Strukturprinzip führe dazu, dass der über das Schlagwortverzeichnis gesteuerte Zugriff auf eine begrifflich einschlägige Stelle die Suche gerade nicht auf diesen Begriff limitiert, sondern im Gegenteil aufgrund der spezifischen Einstellpraxis der Zettel und der Verweisungsstruktur der Sammlung ein schon bald nicht mehr überschaubares Netz von Notizen eröffnet. Was Luhmann analog vollbrachte, ist ein Multiple Storage-Prinzip – also eine Mehrfachablage mit völlig überraschenden Matching-Verläufen. Sein Datenbank-System ist überaus kreativ und bewährt sich als Denkwerkzeug.

Das kann man bislang von den Ontologien, die im Netz herumschwirren, nicht sagen. Wer den Luhmann-Algorithmus ins Netz überträgt, wird das Rennen auch gegen Google und Co. gewinnen. Meine Prognose 🙂

Einen interessanten neuen Ansatz präsentierte Michael Seemann auf dem Zündfunk-Netzkongress

Wie wäre es mit einer neuen Großtheorie? Auf der Next Economy Open greifen wir das auf.

Projektarbeit Wirtschaftsethik – Ideenskizzen für die Next Economy #NEO18x

NEO Werkstatt

Vom 13. bis 15. November findet in diesem Jahr die Next Economy Open statt. Die beiden ersten Tage gestalten die Studierenden der Hochschule Fresenius in Köln.

Hier die ersten Ideenskizzen für die Live-Sendungen am 13. November:

Die Studierenden brauchen bei Ihrer Arbeit Unterstützung. Wäre toll, wenn Ihr bei diesem Projekt mitwirken könntet.

Siehe auch die Facebook-Gruppe.