Große Konzerne sind selbstherrliche Parallelgesellschaften, sagt @th_sattelberger

Meine Organisationsrebellen

Das wird auf LinkedIn derzeitig kräftig debattiert. Auszüge: 

„Psychopathen haben starke Seiten im Intrigieren. Und das ist in einer Firma aus hauptsächlich karrieregeilen Affen die beste Methode nach oben. Wer also solch einen an der Spitze hat, da sind drunter oft auch sehr orientiert an der eigenen Karriere. Im Zweifel auch mehr als am Vorankommen der Firma.“

„Nicht alle sind psychisch unausgeglichen, aber ‚Die Täter des alten Systems können nicht sanieren‘, und wurden 2008 durch Steuergelder in ihrer (Selbst?)-Täuschung Milliardenhoch unterstützt. Manche sind psychisch so labil, daß sie ihre damaligen staatliche Überlebensunterstützer heute Milliardenhoch mit fiktiven Steuerrückzahlungen betrügen, und nennen es interessanter Weise „Verantwortung übernehmen.“ – Eine Ent-täuschung bedeutet auch ein Ende-der-Täuschung, und der lange Arm des Staates ist nicht zu unterschätzen.“

„Megalomanie und ihre vermeintlichen Folgen. Volkswagen gehört zerschlagen. Jetzt.“

„Beispiel VW: Nichts gegen Puffbesuche, aber nicht auf meine Kosten. Never ever ein Fahrzeug aus dem VW Konzern.“

Und dann liegen ja noch ein paar Vorschläge von Thomas Sattelberger auf dem Tisch, die er im Interview mit mir dargelegt hat:

Corporate Governance, die ein strengeres Regelwerk erstellt und Fehlverhalten sanktioniert. Nominierungsausschuss für Vorstandsposten sollte nicht vom Aufsichtsrat gebildet, sondern von der Hauptversammlung bestimmt werden. Man braucht Störenfriede im Vorstand und eine Graswurzelbewegung im Unternehmen. Es müsse eine Personalfunktion geben, die souveräner agiert. Sattelberger fordert eine konsistente kritische Medienbranche als Kompass für gutes Unternehmertum und gutes Management. Fehlentwicklungen und Korruption müssten kontinuierlich angeprangert werden. Zudem brauche man analog zu Politikern eine ManagerWatch-Plattform und eine digitale APO, um den zivilgesellschaftlichen Druck zu erhöhen. 

Wie schaffen wir da jetzt die Umsetzung? Etwa über Initiativen im Deutschen Bundestag?

Digitalisierungsdruck macht Vorstände nervös: Sie wechseln ihre CIOs aus – Digitalexpertise kann so nicht entstehen

“Große Unternehmen legen eine digitale Strategie fest. Das allererste was sie machen: Sie tauschen die CIOs aus.“

Das sagte Harvey Nash-Analyst Mark Hayes vor gut einem Jahr. So richtig vom Sockel hat das wohl niemanden gehauen. Jedenfalls wurde das CIO-Kurator-Interview auf Facebook nicht sonderlich beachtet.

Das sollte man nun ändern oder besser gesagt: NACHHOLEN.

Denn dieser Trend ist im vollen Gange. Die Vorstände spüren zunehmend den Digitalisierungsdruck und agieren nervös. Dabei fehlt es ihnen selbst an der nötigen Expertise – vorsichtig ausgedrückt: Das Forscherteam von  Julian Kawohl, Professor für Strategisches Management an der Hochschule für Technik und Wirtschaft in Berlin, hat alle Vorstände in DAX- und MDAX-Konzerne unter die Lupe genommen. Das Ergebnis ist niederschmetternd. „Die Befunde haben uns in ihrer Radikalität erstaunt. Nur 25 Prozent der untersuchten 411 Lebensläufe kann unternehmerische Erfahrungen vorweisen und acht Prozent verfügen über Digitalerfahrungen“, so Kawohl. 

Interessant sind die Indikatoren für die relativ austauscharme Luft auf den obersten Etagen der Führungsriegen in Deutschland.

Wer im Kamin hochfährt, bleibt im alten Trott

„Wer klassische Konzernkarrieren macht und den Kamin hochfährt, kann kaum Außenerfahrungen sammeln im digitalen Kontext oder im Umfeld von Startups. Auch die unternehmerische Expertise bleibt auf der Strecke“, so Kawohl. Er selbst hat bei AXA erlebt, wie Vorstandsberufungen ablaufen. Da werden klassische Headhunter beauftragt, die dieses Geschäft schon seit Jahrzehnten erledigen. Es sind immer die üblichen Adressen. Die bekommen ein Profil und schauen in ihrem alten Netzwerk nach geeigneten Kandidaten. Manchmal sind es auch Seilschaften, die von ehemaligen Unternehmenschefs organisiert werden. Das Suchfeld sei so ausgeprägt, den alten Kreislauf der Deutschland AG in Betrieb zu halten, weiß Kawohl: „Unter solchen Bedingungen kann wenig Neues von außen kommen.“

Und nun soll es der Austausch der CIOs richten? Wer sich die Personalmeldungen anschaut, wird schnell feststellen, dass ein Wechselfieber herrscht – das durchzieht sich von Handelskonzernen bis zu den Hidden Champions des Mittelstandes in der Industrie. Nur was soll dieser hektische Aktionismus bringen? Digitalkompetenz kommt so nicht in die Organisationen.

Die Ursachen liegen tiefer. 

Juristen und Controller in Aufsichtsräten Teil des Kreisverkehrs der Deutschland AG

Die Zusammensetzung der Aufsichtsräte erschwert die Findung von digitalen Talenten. In diesen Gremien sitzen ehemalige Vorstände, Juristen, Controller, institutionelle Anleger oder irgendwelche milliardenschweren Investoren. Sie sind Teil des alten Kreisverkehrs und eher an geschlossenen Formationen interessiert. „Die kulturellen Unterschiede zwischen denjenigen Nachwuchskräften, die man dringend braucht und den alten Tankern, die transformiert werden müssen, sind doch sehr groß. Da hilft dann auch die Gründung von Labs oder der Kauf von Startups nicht weiter“, erläutert Kawohl. 

Folgende Vorschläge macht die Studie der HTW-Berlin: Aufbau von Senior-Junior-Vorstandstandems zur gegenseitigen Befruchtung; Vermehrte Job-Rotation und Einsatz der Vorstandskandidaten in Digitalbereichen und internen Startups; Gezielte Übernahme von Startups inklusive deren Gründerteam und Einsatz in Topmanagement-Positionen im Mutterkonzern. Schaffung eines Umfelds, das es Talenten aus der Digitalszene und ehemaligen Unternehmern ermöglicht, in das Topmanagement etablierter Unternehmen aufzusteigen; Besetzung des Aufsichtsrats und hier insbesondere des Nominierungsausschusses durch Personen mit Entrepreneurship- und Digitalerfahrung; Schaffung von externen Beiräten zum Coaching von Aufsichtsrat und Vorstand für die Vorstandsnachfolgeplanung.

„Insbesondere aus Sicht der Investoren ist es wichtig, dass Unternehmensvorstände nicht nur über das theoretische Wissen verfügen, den digitalen Wandel zu gestalten. Konkret bedeutet dies, dass Investoren bereit sind, einen höheren Preis zu zahlen für ein Unternehmen, das mit der digitalen Transformation konfrontiert wird, wenn es von einem Vorstand geleitet wird, der diese strategischen Herausforderungen auch durch seine Persönlichkeit verkörpert“, betont Kawohl.

Vielleicht sollten CIOs diesen Prozess koordinieren und nicht vor die Tür gesetzt werden. 

Zur Meinungsmacht im Internet – Die neuen Gatekeeper der öffentlichen Meinung

Fragen zur Meinungsmacht im Internet: „Ein quantifizierender Vergleich der jeweiligen Meinungsmacht-Potenziale ist auf dem Stand der kommunikationswissenschaftlichen Forschung indes noch nicht präzise möglich“, konstatieren Frank Lobigs und Christoph Neuberger in ihrem Gutachten „Meinungsmacht im Internet und die Digitalstrategien von Medienunternehmen – Neue Machtverhältnisse trotz expandierender Internet-Geschäfte der traditionellen Massenmedien-Konzerne“:

Es sei deshalb möglicherweise von Interesse, wie die Gesprächsexperten die potenzielle Meinungsmacht der Intermediäre beurteilen. Anonyme Zitate ab Seite 273 (leider):

„Na ja, Google und Facebook produzieren ja selber keine Inhalte, aber sie steuern und propagieren und filtern Inhalte. Damit haben sie natürlich eine extreme Meinungsmacht, weil sie das Nutzungsverhalten, oder andersherum: die Wahrnehmungsebene von Rezipienten schlichtweg manipulieren können. (…) All diesen Gate-Keepern des modernen Internets billige ich eine extreme Meinungsmacht zu – und deswegen kooperieren wir auch mit all diesen, auf mehr oder minder intensive Art. Weil ich denke, mit am Tisch zu sitzen, zu reden, zu diskutieren, Einfluss zu nehmen auf die Produktgestaltung auch dieser großen Plattformen ist allemal besser, als dagegen zu meckern und null Gestaltungseinfluss zu haben.“ (Experte A)

„Die Meinungsmachtkontrolle sollte definitiv stärker auf diese Player schauen. Wir sind ja eine Mikrobe in diesem Kosmos, ja? Und selbst ARD oder ZDF oder was auch immer – gucken Sie sich einmal YouTube an, bitteschön, ja? Was das für ein Broadcaster geworden ist, übrigens auch mit manipulativer Macht hoch zehn . . . Nein, das muss man so betrachten, das wäre geradezu blauäugig – und damit aber wieder regierungstypisch respektive polittypisch – das zu übersehen.“ (Experte A, Verlagsvertreter)

„Google und Facebook, ich sehe die nicht nur als technische Plattformen. Das ist mir zu einfach. Und vor allem, es gibt überhaupt keine Garantie! Wir sind im Jahr zwölf von Facebook und im Jahr 15 von Google oder so etwas. Was ist, wenn Larry Page und Sergey Brin dieses Unternehmen nicht mehr führen? Wer hindert die künftigen Eigentümer von Alphabet und Google daran, so wie Jeff Bezos einmal die fünf wichtigsten Zeitungen der Welt aufzukaufen? Können sie jederzeit tun. Und deren Ergebnisse künftig oben auf der Trefferliste zeigen in Google-News und so weiter. Das heißt, natürlich haben die ein Meinungsmachtpotenzial. Und es ist ein riesiges Meinungsmachtpotenzial, was bei den beiden Unternehmen liegt.“ (Experte B)

„Die Politik-Kollegen in Brüssel beschäftigen sich aus meiner Sicht viel stärker mit Grundsatzfragen. Wie kann man diesen Markt wirklich bauen? Ich würde mir auch wünschen, dass in Deutschland mehr diese Grundsatzfragen diskutiert werden. Als jemand, der als liberaler Anhänger eigentlich gegen Subventionsunterstützung ist – ich bin gegen Subventionen – wäre es mir lieber, wir würden in Deutschland sicherstellen, dass Google und Facebook in Deutschland die gleichen Steuern bezahlen wie unsere Unternehmen und dass der Datenschutz völlig einheitlich ist und das auch durchgesetzt wird. Ich wünsche mir, dass wir ein level playing field haben. Das ist für mich der wichtigste Punkt: level playing field, offene Märkte für den Konsumenten. Der Konsument soll wirklich entscheiden können. Und dass nicht alles eine Google-Welt ist. Das sind für mich die Grundsatzfragen, die da sind.“ (Experte C)

„Es gibt für klassische Medien eine Vorgabe, damit einem beim Thema Meinungsmanipulation eine Grenze gesetzt ist, zum Beispiel beim Thema Native Advertising klar zu kennzeichnen. So ist es für ein klassisches Printmedium oder TV-Produkt. Meinungsbildung ist klar erkennbar. Und das ins Digitale zu übertragen, ist halt nicht so einfach. Da gibt es andere Techniken, da gibt es dann Filterblase, Microtargeting und dies und jenes. Da gibt es die Frage, wie stelle ich das überhaupt fest? Und die Gefahr, die ich hier sehe ist, dass dieses Prinzip – wie wirken Technologien, Unternehmen, die diese Technologien besitzen, Menschen, die was Böses und andere Menschen, die nichts Böses im Schilde führen, und die Politik, wie wirkt das alles zusammen? –, dass diese Frage eben ein so junges Feld ist. Da hat Frau Merkel schon Recht mit Neuland.“ (Experte D)

Mit Blick auf die Debatte zur Neuausrichtung der Medienkonzentrationskontrolle ergeben sich nach Ansicht der Studienautoren aus den Resultaten des Gutachtens drängende weitere Untersuchungsbedarfe. Etwa bei der Forschung zur Meinungsmacht der Intermediäre und weiterer Akteure.

Im vorderen Teil des Gutachtens wird das genauer dargelegt – also ab Seite 30. Auszug:

„Hier stellt sich die Frage, inwieweit die Kriterien des Rundfunkbegriffs valide Indikatoren für die Messung von Meinungsmacht sind. Das Rundfunkrecht schließt von leicht fasslichen formalen und inhaltlichen Angebotsmerkmalen (Bewegtbild und Ton, Aktualität) sowie der Nutzungshäufigkeit (Breitenwirkung) auf grundsätzlich nur multifaktoriell erklärbare Medienwirkungen, die das eigentliche Ziel der Regulierung darstellen (öffentliche und individuelle Meinungsbildung).46 Um das verfassungsrechtliche Gebot der Meinungsvielfalt im Rundfunk zu erfüllen, soll das Entstehen vorherrschender Meinungsmacht verhindert werden. Dies geschieht im Fall des bundesweiten Fernsehens mit Hilfe des Zuschaueranteilsmodells (§ 26 RStV). Danach ergibt sich die potenzielle Meinungsmacht aus dem Anteil, den die einem Veranstalter zuzurechnenden Programme an der Gesamtsehdauer der Bevölkerung haben.“

Es müssten Wirkungsbedingungen auf der Angebots- und Nutzungsseite genauer ins Auge gefasst werden, und zwar gerade im Fall des Internets, das sich als sehr heterogen und dynamisch darstellt. „Der Diskussion von Regulierungsfragen sollte ein Modell der medial vermittelten, öffentlichen Kommunikation zugrunde liegen, in dem empirisch gesicherte Wirkungszusammenhänge zwischen den Elementen angenommen werden“, schreiben die beiden Autoren des Gutachtens.

Angebotsmerkmale
Angebotsform
• zeitliche Struktur (Linearität)
• Kommunikationsrichtung (Asymmetrie)
• Wahrnehmungskanal und Gestaltung (Suggestivkraft)
Angebotsinhalt
• zeitliche Struktur (Aktualität)
• publizistische Relevanz (Genres, Leistungen, Normen, Rollenverständnis, Anbieterstatus)
• politische Relevanz (Thema)
• Techniken der strategischen Kommunikation (Persuasion)
Nutzungsmerkmale
• Reichweite und Nutzungszeit (Breitenwirkung)
• Vertrauen und Glaubwürdigkeit (Empfänglichkeit)
Wirkungsmerkmale
• Mikrowirkung: individuelle Meinungsbildung
• Makrowirkung: öffentliche Meinungsbildung

„Es müssen empirisch abgesicherte Befunde über Kausalzusammenhänge vorliegen, welche zeigen, dass eine bestimmte Wirkungsintention mit hoher Wahrscheinlichkeit realisiert werden kann. Erst dann kann von ‚Macht‘ im Sinne einer beabsichtigten und tatsächlich erzielbaren Wirkung die Rede sein. Für die Messung von Meinungsmacht reicht jedoch auch bereits die Einschätzung des Wirkungspotenzials aus; es muss keine tatsächliche Beeinflussung oder auch nur Absicht vorliegen. Daher genügt der Hinweis auf allgemein ermittelte Wirkungszusammenhänge als Möglichkeit; es muss nicht im zu beurteilenden Einzelfall ein empirischer Nachweis erbracht werden, dass Macht tatsächlich ausgeübt worden ist. Da bereits die (richtige oder falsche) Annahme über ein solches Potenzial ausreicht, dass Beobachter ihr Handeln anpassen (indirekte, reflexive Wirkung), ist sowieso eine klare Trennlinie zwischen Machtpotenzial und -anwendung nur schwer zu ziehen. Es genügt bereits das Image des Machtvollen (vgl. Kap. I.1.1). Das Wirkungspotenzial muss konstant verfügbar sein. Indikatoren für die Messung müssen sich deshalb auf strukturelle Voraussetzungen eines Mediums oder Angebots beziehen, welche die generelle Möglichkeit der instrumentellen Einflussnahme begünstigen. Bisher wurde auf der Ebene der Medientypen zwischen dem Rundfunk und anderen Einzelmedien unterschieden. Die Heterogenität des Internets erfordert aber eine strukturelle Differenzierung bereits auf der Ebene der Angebotstypen und Angebote. Flüchtige Mobilisierungseffekte, wie sie im Internet zu beobachten sind, sind ein Grenzfall in der Analyse von Meinungsmacht; sie müssen wiederholt intendiert ausgelöst werden können, um für die Regulierung relevant zu sein.“

In Kapitel 2.1 heißt es.

„Wie unterscheidet sich das Internet von traditionellen Massenmedien wie Presse und Rundfunk? Sein technisches Potenzial übertrifft in der Sozial-, Zeichen-, Zeit- und Raumdimension jenes der Vorgängermedien. In der Sozialdimension lässt sich die Erweiterung der Möglichkeiten mit Hilfe der Begriffe ‚Partizipation‘, ‚Interaktion‘, ‚Selektion‘, ‚Vernetzung‘, ‚Transparenz‘, ‚Konvergenz‘ und ‚Algorithmen‘ umreißen. Diese Potenziale werden vor allem durch soziale Medien unterstützt, die prinzipiell jedem offenstehen und als Hybridangebote flexibel für eine Vielzahl von Zwecken einsetzbar sind. Zu den sozialen Medien zählen Blogs, Microblogging-Dienste (z.B. Twitter), Podcasts, soziale Netzwerk-Plattformen (social network sites [SNS], z.B. Facebook), Videoplattformen (z.B. YouTube) sowie Wikis (z.B. Wikipedia).“

Schöne Zusammenfassung:

Partizipation: Mit dem Internet wird der technische Engpass beim Zugang zur Öffentlichkeit beseitigt. In den traditionellen Massenmedien haben nur sehr wenige Akteure Zugang zur Kommunikator- und Anbieterrolle. Daraus ergibt sich ein strukturelles Ungleichgewicht. Dagegen herrscht im Internet kein Mangel mehr an Verbreitungskapazität. Deshalb weckt das Internet die Hoffnung auf einen sozial erweiterten, weniger diskriminierenden Zugang zur Kommunikator- und Anbieterrolle. Die bisher passiven, d.h. nur rezipierenden Mitglieder des Massenpublikums können sich nun öffentlich zu Wort melden. Auch Akteure, die partikulare Interessen verfolgen (Public Relations, Werbung), können diese Möglichkeit nutzen.“ Stichwort: Content Factory-Einheiten der Unternehmen.

Interaktion: In den traditionellen Massenmedien sind die Kommunikator- und Rezipientenrolle bzw. Anbieter- und Nutzerrolle relativ starr zugewiesen. Es wird im Wesentlichen einseitig und einstufig zwischen wenigen Anbietern und einem rezipierenden Massenpublikum kommuniziert. Das Internet erlaubt dagegen den flexiblen Wechsel zwischen der Kommunikator- und Rezipientenrolle, sodass längere Interaktionsketten entstehen können, die wechselseitig (Diskussion) oder einseitig gerichtet (Diffusion) sein können. Dadurch wächst die Komplexität öffentlicher Kommunikation; es kann eher zu überraschenden, schwer vorhersehbaren und steuerbaren Kommunikationsverläufen und -effekten kommen.“ Wer ist besonders aktiv, wer eher passiv, wer ist reiner Konsument?

Selektion: Rezipienten können (und müssen) im Internet aktiver Angebote auswählen. Selektionsentscheidungen werden häufig nicht mehr durch Gatekeeper getroffen, die eine redaktionell geprüfte Vorauswahl treffen. Rezipienten sind dadurch eigenständig mit einer Fülle an Angeboten konfrontiert, deren Qualität stark schwankt und oft schwer erkennbar ist. Es kann also zu einer quantitativen und qualitativen Überforderung der Rezipienten kommen. Durch die aktive Selektion (selective exposure) kann die Nachrichtenauswahl auch solche Themen und Meinungen umfassen, die journalistisch ausgespart bleiben. Allerdings können diese auch einseitig ausgewählt werden, gelenkt durch eigene Einstellungen und Interessen, wodurch die Vielfalt reduziert wird. Dadurch kann es auch zur Abkapselung Gleichgesinnter kommen (echo chamber).“

Siehe dazu:

Vernetzung: Im Vergleich mit den traditionellen Massenmedien sind im Internet auch neue Verbindungen möglich: Publikum und Quellen sind nicht mehr notwendiger Weise auf journalistische Vermittler angewiesen. Sie können die Redaktionen umgehen und direkt miteinander in Kontakt treten (Disintermediation). Im Internet verliert der professionelle Journalismus daher sein Monopol als Gatekeeper. Informationen und Meinungen können ungefiltert verbreitet werden. Das Publikum ist nicht mehr dispers (zerstreut) wie in Presse und Rundfunk, sondern die Publikumsmitglieder können untereinander in Kontakt treten.“

Transparenz: Nutzer können durch Suchhilfen (wie Suchmaschinen und Aggregatoren) bequem auf große Angebotsmengen zugreifen. Neben die aktive Suche der Nutzer treten in wachsendem Maße Formen der passiven, algorithmisch gesteuerten Vorauswahl hinzu (Personalisierung). Anbieter gewinnen durch die Auswertung von Datenspuren auch tiefere Einblicke in das Nutzerverhalten und können so ihr Angebot besser den Publikumserwartungen anpassen oder aber die persönlichen Daten anderweitig verwenden.“

Konvergenz: Das Internet vereint Kommunikationsformen, die sich nach der Teilnehmerzahl (one-to-one, one-to-many und many-to-many) und Zugänglichkeit (öffentlich und privat) unterscheiden. Dafür standen zuvor nur separate Medien zur Verfügung. Im Internet kann dagegen flexibel zwischen den Formen gewechselt werden. Allerdings ist subjektiv nicht immer genau erkennbar, in welchem Kontext kommuniziert wird, sodass es auch zu unbeabsichtigtem Verhalten kommen kann, z.B. zur Offenlegung privater Informationen (self disclosure).“

Algorithmen: Öffentliche Kommunikation wird zunehmend mit Hilfe von Algorithmen automatisiert. Unter einem Algorithmus wird eine endliche Serie an präzise beschriebenen Regeln und Prozessen für die Lösung eines Problems verstanden, wobei ein Input transformiert und ausgegeben wird. Algorithmen können menschliche Aufgaben übernehmen (wie Suche, Aggregation, Beobachten, Prognose, Filtern, Empfehlen, Zählen, Produktion und Distribution von Inhalten60). Diese Informationsverarbeitung kann auch die Wahrnehmung verzerren (filter bubble), und Algorithmen können auch zur Täuschung über die (nicht-menschliche) Herkunft von Mitteilungen eingesetzt werden (social bots).“

Im Internet sind Angebote global zugänglich, so die Autoren des Gutachtens, und über mobile Endgeräte könne von jedem Ort zu jeder Zeit darauf zugegriffen werden. Im Prozess der Institutionalisierung eines neuen Mediums werden seine technischen Möglichkeiten erprobt. Im Laufe der Zeit verfestigen und vereinheitlichen sich bestimmte Verwendungsweisen. Dieser Prozess besitzt im Fall des Internets einige Besonderheiten, die erklären helfen, weshalb der Wandel hier besonders tiefgreifend, vielfältig und weiterhin dynamisch sei:

„Multioptionaler Gebrauch: Die technische Multioptionalität des Internets führt zu einer bisher nicht gekannten Formbarkeit eines Mediums. Je perfekter die Technik ist, desto unwichtiger ist sie; je weniger die Technik ihren Gebrauch bestimmt, desto mehr Möglichkeiten eröffnet sie, desto weniger wird sie als Hindernis wahrgenommen und desto mehr verlangt sie, dass die Technikverwender ihre Erwartungen reflektieren und ihren Einsatz aktiv gestalten. Im Internet wird daher eher der Überschuss an Möglichkeiten zum Problem als deren Knappheit. Der technikdeterministische (Kurz-)Schluss vom Potenzial auf den Gebrauch ist im Fall des Internets noch weniger zulässig als im Fall der traditionellen Massenmedien, die weniger Optionen bieten und daher ihre Verwendung stärker prägen.“

„Partizipative Gestaltung: Während in den traditionellen Massenmedien nur wenige professionelle Anbieter (Management) und Regulierer (Fremd- und Selbstregulierung) die wesentlichen Entscheidungen über deren Gebrauch treffen, beteiligt sich daran im Internet eine Vielzahl von Akteuren mit unterschiedlichen Interessen, Ressourcen und Strategien, die sich öffentlich wechselseitig beobachten und beeinflussen. Die Vielzahl der Beteiligten macht das Internet prinzipiell zu einem demokratischen Medium. Zugleich wächst damit der Abstimmungsbedarf.“

Was fehlt in dieser Aufzählung? Die neue Logik der Aufmerksamkeitsökonomie. Medienprofessor Roberto Simanowski spricht von einem numerischen Populismus.

„Man klickt immer auf die Angebote mit der höchsten Zahl und befestigt so ihre Spitzenposition.“

Der Hunger nach Bestätigung, den uns Facebook und Co. beibringen, führe zu Unmengen an geistigem Fastfood.

Auf der Strecke bleibe das komplexe Argument zugunsten der simplen Parole, der Text zugunsten des Bildes, mühsame Versuche des Welt und Selbstverstehens zugunsten amüsanter Banalitäten, die Vertiefung zugunsten des Klicks.

„Facebooks Verbrechen liegt nicht darin, Falschmeldungen und Hassreden zuzulassen, sondern darin, Kommunikationsbedingungen zu schaffen, die für eben solche Beiträge anfällig machen“, schreibt Simanowski in seinem Opus „Abfall. Das alternative ABC der neuen Medien“, erschienen im Matthes & Seitz Verlag.

Facebook sei nicht nur ein Informationsanbieter, es ist eine Sozialisationsinstanz, die einen Umgang mit Information praktiziert, der in der Tat den Erfolg von Demagogen wie Trump erleichtert – sowie jener, die es ihm nachmachen wollen.

Und der Begründer der ökonomischen Theorie der Aufmerksamkeit Professor Georg Franck sagt, dass es noch nie und nirgends so leicht war, Leidensgenossen des eigenen Ressentiments zu aktivieren wie in den sozialen Medien.

„Die Reichweite ist unbeschränkt, kein Gatekeeper kann der Niedertracht wehren.“

Nachzulesen in dem Sammelband „Hidden Values – Die Währungen der Zukunft“, herausgegeben von Creative.NRW. Es gebe eine zunehmende Erhitzung des emotionalen Klimas und damit einhergehend ein Verfall kooperativer Umgangsformen.

Hörzeichen: Sascha Lobo. Journalismus darf sich nicht hacken lassen.

Ist das überhaupt noch möglich? Plädoyer für die Politik der kleinen Schritte

Wie wissenschaftlich sind Management-„Modelle“? – Beispiel: Das Viable System Model (VSM) von #StaffordBeer #Kybernetik

Mal schauen, ob wir da auf Facebook eine wissenschaftstheoretische Debatte hinbekommen:

Ich möchte an dieser Stelle nicht noch mal die kybernetische Debatte führen (eigentlich wäre da eine Debatte auf Basis von Fakten schon sinnvoll – siehe Ergänzung unten). Da kennt Mark meine Schriften. Aber ein wissenschaftstheoretisches Interesse treibt mich schon um: Der Modell-Platonismus in der BWL, VWL und in der Managementliteratur. Die Einordnung der ML-Bücher in eine der Kategorien kann ich gar nicht so richtig vornehmen. In Freiheit und Verantwortung schreibt Mark folgendes: Anstelle der Falsifizierbarkeit (die beim VSM-„Modell“ nicht möglich ist), sollte die Wahrscheinlichkeit berechnet werden, ob eine noch untestbare Theorie (oder ein untestbares Modell, gs) zuverlässige Ergebnisse liefert.

„Leider hat sich bisher noch niemand an die Arbeit gemacht, die Wahrscheinlichkeit für das VSM zu berechnen – und ich werde wohl selber nicht mehr in diesem Leben die Bayessche Formel durchdringen.“

Warum sprichst Du dann noch von Modell oder von Theorie, lieber Mark? Wenn das Deine eigene Denk- und Begriffswelt erhöht, ist das ja prima. Bei mir ist es das Prinzip des Zettelkastens von Luhmann. Alles fein. Was aber ML schreibt, ist eine Immunisierungsstrategie.

Ich habe dazu gerade einen Buchbeitrag für einen Schumpeter-Sammelband verfasst.

Auszug: Was bleibt: Schumpeters Erkenntnis, dass eine exakte Ökonomie nicht möglich ist, auch wenn es die Modell-Platonisten der Mainstream-Ökonomik nicht wahrhaben wollen. Aufgrund der unendlich vielen Kombinationen von möglichen Einflüssen auf das menschliche Verhalten sind reale ökonomische Situationen niemals gleich. Es gibt zu viele Variablen, weil immer auch unvorhersagbares menschliches Verhalten eine Rolle spielt. Oder wie es Douglas North, Nobelpreisträger für Wirtschaftswissenschaften, im Hinblick auf Modellwelten der Ökonomik ausdrückt: „Der Preis der Präzision ist die Unfähigkeit, Fragen des realen Lebens zu behandeln“.

Und so präzise sind die ökonomischen Modelle gar nicht. Es sind häufig nur tautologische Aussagen, die sich einer empirischen Überprüfung (es muss kein Experiment sein, Mark) entziehen, kritisiert der Wissenschaftstheoretiker Hans Albert. Ein beliebtes Instrument für diese Immunisierungsstrategie ist die so genannte ceteris-paribus-Klausel.
„Wenn ein ökonomisches Gesetz unter Anwendung dieser Klausel formuliert wird, dann ist der mehr oder weniger offenkundige Zweck dieser Einschränkung der, dieses Gesetz vor Falsifikation zu schützen.“ Genau das macht ML auf Seite 152 von Freiheit und Verantwortung.

An einer Disputation zur Wissenschaftstheorie wäre ich sehr interessiert. Ist doch auch ein schönes Thema für die Fresenius Hochschule Lutz Becker. Wir könnten doch mal ein Livestream-Kolloquium organisieren. Im Sommersemester 2019.

Kybernetik als Begriff zur Tarnung von militärischen Forschungen

Nun ja. Eine Frage zur Kybernetik könnte mir Mark vielleicht noch beantworten – auch das ohne Polemik: Der Mathematiker Norbert Wiener wird von ML als „Vater der Kybernetik“ benannt. Das stimmt aber nicht ganz. Der Erfinder ist das Mathematik-Genie John von Neumann: Bei der Entwicklung der Wasserstoffbombe hatten sich für ihn Berechnungsaufgaben ergeben, die sich nur mit verbesserten Rechenmaschinen für Geschütz-Tabellen bewältigen ließen.

„Der hochrangige Geheimnisträger, wissenschaftliche Berater fast aller geheimen Militärprojekte der USA im Zweiten Weltkrieg, durfte aber diesen Zusammenhang auf keinen Fall preisgeben. Schon deshalb musste er die gefundene Maschine tarnen. Dazu verhalf ihm die Metaphorik eines Diskurses, der später als Kybernetik bekannt wurde“, schreibt Wolfgang Hagen in dem Band Cybernetics – Kybernetik, The Macy-Conferences 1946 – 1953.

John von Neumann initiiert und fördert diese Camouflage umso mehr, als die wissenschaftsübergreifende Ausrichtung der Kybernetik dem Computer und den gewaltigen Investitionen zu seinem Bau eine ideale Friedenslegitimation bietet. Von Neumann konnte mit dieser Tarnung in der Nachkriegszeit sein Ziel der Super-Bombe ungestört und erfolgreich fortsetzen.

Generalisierung einer „Theorie“, die auf Täuschung beruht

Was er unterschätzte, war die Eigendynamik der kybernetischen Denker, die an einer Generalisierung der mathematischen Berechnungen für selbstkorrigierende Automaten arbeiteten. Zu ihnen zählte Norbert Wiener.

„Die Kybernetik im Wienerschen Sinne propagiert die These, dass in einem ganz konkreten Sinn alles, was Rückkopplung organisiert, als Medium begriffen werden kann. Kybernetik ist die erste Wissenschaft, die programmatisch darauf zählt, dass alles, was berechenbar ist, wie komplex es auch sei, in eine dem individuellen Menschen letztlich überlegene Hardware rückkoppelnder Maschinen gegossen werden könne“, führt Hagen aus.

Norbert Wiener war der bessere PR-Mann

Seinen Einspruch gegen die Kybernetik äußerte John von Neumann leider nur in persönlichen Gesprächen. Er bat seinen Freund Norbert Wiener in milden Worten, in öffentlichen Interviews alle Hinweise auf „reproductive potentialities of the machines of the future“ zu unterlassen. Leider verfügte von Neumann nicht über das Sendungsbewusstsein und die PR-Maschinerie seines Weggefährten:

„I have been quite virtuos and had no journalistic contacts whatever.“

Automatentheorie für die Konstruktivisten

Die psychophysikalischen Ableitungen der Kybernetiker lehnte von Neumann rigoros ab. In seiner eigenen Automatentheorie ging es ihm um ein auto-referentielles „Re-Entry“ des Messsystems in das gemessene System. Diese Integration des Messens ins Gemessene hat die Kybernetik später vorbehaltlos als auto-referentielle Rückeinführung des Beobachters in das beobachtete System verallgemeinert. Alle Systemversuche des Konstruktivismus von Glaserfeld, Bateson, Luhmann und Co. sind von diesem Fundament der Quantenmechanik geprägt. Die Interventionen von John von Neumann werden dabei schlichtweg ignoriert. Übertragungen auf das menschliche Nervensystem seien schlichtweg unsinnig: „Whatever the system is, it cannot fail to differ considerably from what we consciously and explicitly consider as mathematics.“

Zum Schluss hilft nur Spiritualität

Die Camouflage der Kybernetik konnte John von Neumann zu Lebzeiten nicht mehr enttarnen. Quantenmechanisch kann man selbstreproduzierende Systeme konstruieren. Deren logische Grundlage als Messsystem scheitert grundlegend, wenn man sie auf die Gehirn-Physiologie überträgt.

Das gilt auch für die sogenannte Kybernetik zweiter Ordnung. Sie schwebt im luftleeren Raum, weil wir über die statistischen Gehirnfunktionen schlichtweg nichts wissen. Das funktioniert nur dann, wenn man die Kybernetik zweiter Ordnung im Kontext einer universellen Spiritualität propagiert, wie es explizit George Spencer-Brown praktiziert: Ein Universum gelangt zum Dasein, wenn ein Raum getrennt oder geteilt wird. Alles klar?

Für Berater und kybernetische Wissenschaftler ist das eine höchst amüsante Gemengelage wie beim Gottesbeweis. Wenn ich die Nichtexistenz Gottes nicht beweisen kann, ist das der Beweis für die Existenz. Ein Zirkelschluss des Nichts, mit dem man aber weiterhin kräftig Geschäfte machen kann.

Liegt nun Wolfgang Hagen mit seinen wissenschaftshistorischen Recherchen falsch, lieber Mark?

#Gallup – Alles so agil in Unternehmen oder doch nicht? #NEO18x #Narrative #Netzökonomie





Schlechte Chefs kosten die deutsche Volkswirtschaft bis zu 103 Milliarden Euro: Die aktuelle Untersuchung von #Gallup zeigt, dass Mitarbeiter, die ihrem Unternehmen ein hohes Maß an Agilität zuschreiben, auch deutlich häufiger an dieses emotional hoch gebunden sind und es für die Zukunft als wirtschaftlich gut aufgestellt ansehen. Gespräch mit dem Gallup-Studienleiter Marco Nink über den Engagement Index 2018 – Liveschalte von #StudioZ auf der Fachmesse Zukunft Personal Europe zum Gallup-Institut in Berlin. 

Auf der Next Economy Open werden Studierende das Thema am 14. November in einer Session präsentieren.