Wie unschuldig sind Algorithmen? #D2030 #FutureHubs @FuturICT

Sind Algorithmen unschuldig und neutral, fragen sich Anna-Verena Nosthoff und Felix Maschewski in einem Gastbeitrag für die NZZ und zitieren Mark Zuckerberg, der bei der Debatte über die Verbreitung von Fake News erklärte, es sei schlicht „verrückt“ anzunehmen, seine Firma Facebook habe die US-Wahl beeinflusst, sie stelle nur eine „neutrale Plattform“ dar:

„Auch der CEO der britischen Datenfirma Cambridge Analytica (CA), Alexander Nix, betont die Vorurteilslosigkeit der Technik – zuletzt in seinem Vortrag ‚From Mad Men to Math Men'“, schreiben die Autoren.

Erwähnt wird die These der Mathematikerin Cathy O’Neil: Algorithmen seien „in Code eingebettete Meinungen“. Sie repräsentierten die Werte ihrer Programmierer, operierten per se nicht neutral, würden daher häufig Vorurteile reproduzieren – schliesslich werden die ‚Problemlöser‘ selbst zum Problem.

Ähnlich sieht es der KI-Experte Stefan Holtel.

„Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“

Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden.

„Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel.

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss“, fordert Holtel.

Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation.

„Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel:

„Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden.

„Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel.

Auf der Berliner D2030 Zukunftskonferenz am 6. und 7. Juli wird dieser Aspekt sicherlich zur Sprache kommen.

Siehe auch: Sozialingenieure und ihre Steuerungsinstrumente für eine „wohlwollende“ Diktatur

@DirkHelbing über Datendiktatur oder Mitmachgesellschaft?

„Korrekte“ Maschinen als Hausmeister für politische Hygiene – Zur #KünstlichenIntelligenz

Kann Künstliche Intelligenz irgendetwas besser machen, was Software bislang noch nicht konnte, fragt sich Stefan Holtel, Lead Cogniteer von brightONE Consulting. Das ist natürlich Unsinn.

„Nicht die Algorithmen werden in der KI zu vielen Problemen führen, sondern die Vorurteile, die in den Daten stecken.“

Also Vorurteile, die wir alle in die Daten stecken.

Wenn auf dieser Basis die KI-Systeme ihre unermüdliche Arbeit aufnehmen und Entscheidungen vorbereiten oder sogar selbst treffen, kommt ziemlicher Mist dabei heraus. Kunden, die keinen Kredit mehr bekommen, Versicherte, die Prämienerhöhungen hinnehmen müssen oder gar Netzaktivisten, die als potenzielle Störenfriede der Gesellschaft aussortiert werden. Fast alle Daten, die von Black Box-Maschinen verarbeitet werden, sind von Menschen annotiert worden.

„Wir reichern vermeintlich objektive Daten mit unseren Weltmodellen an. Das wird von keinem Algorithmus hinterfragt“, so Holtel

Konsequenz: Es fällt uns immer schwerer, die Richtigkeit von Datenberechnungen zu erkennen. Das Ganze ist sogar ein paradiesisches Feld für Trickser, Agitatoren, Autokraten und Machtgierige, sich hinter den Ergebnissen der KI-Maschine zu verstecken und die schmutzigen Entscheidungen auf die Algorithmen zu schieben. Etwa beim Scoring aller Bürgerinnen und Bürger in China. Die Führung der Kommunistischen Partei in Peking installiert „korrekte“ Maschinen als Hausmeister für politische Hygiene. Sozusagen eine Beseelung von toten Apparaten: KI-Maschinen sind wie wir, nur perfekter und unfehlbarer. Der manipulierende Maschinist bleibt dabei unerkannt. Die Drecksarbeit übernehmen Algorithmen – vergleichbar mit der unsauberen Arbeit von Consulting-Firmen, die als Alibi für den Rausschmiss von Mitarbeitern in Unternehmen engagiert werden.

„Wir müssen unser Konzept von Vertrauen in Maschinen überdenken und neu bewerten. Das ist keine technische Frage, sondern eine techniksoziologische und gesellschaftliche, die keine objektive Antwort haben wird, sondern in einem normativen Diskurs entwickelt werden muss“, sagt Holtel.

Sonst entsteht so eine Art Maschinen-Paternalismus. Vergleichbar mit der Einführung der Tabellen-Kalkulation.

„Wie haben uns den Ergebnissen ausgeliefert, die von Excel und Co. ausgespuckt werden. Dabei gibt es eine Vielzahl von Studien, die die Fehlerhaftigkeit von Excel-Tabellen belegen. Wenn wir die einfache Konstruktion einer Tabelle schon nicht verstehen oder kritiklos darauf reagieren, werden wir erst recht nicht verstehen, was in der Interaktion mit Algorithmen abgeht“, mahnt Holtel.

Das berühmteste Beispiel ist das Excel-Chaos der Harvard-Ökonomen Carmen Reinhart und Kenneth Rogoff, die ein Optimum für die Höhe von Staatsschulden als finanzpolitischen Leitfaden den Staatsregierungen ins Ohr gemauschelt haben. Es sei ein großer Fehler, den Maschinen Fähigkeiten wie Rationalität und Unfehlbarkeit zuzuschreiben, bemerkt Holtel:

„Das speist sich aus unseren täglichen Erfahrungen. Niemand rechnet Excel-Tabellen nach. 2007 gab es im Intel-Prozessor einen Hardware-Fehler, der dazu führte, dass Excel falsch rechnete. Es gibt diese systemischen Fehler sehr häufig, aber Menschen sind kaum in der Lage, diese Risiken einzuschätzen.“

Der Diskurs über Künstliche Intelligenz müsse differenzierter geführt werden. „Wir sollten durch Aufklärung oder Machteliten-Hacking Verantwortung übernehmen, um diesen Diskurs adäquat zu begleiten“, resümiert Holtel.

Siehe auch:

CIO-Kurator: Es geht nicht darum, die neuen künstlichen Intelligenzen zu verteufeln. Sie bieten privat und auch für Unternehmen auch riesige Chancen, nicht zuletzt im Bereich Usability (aber nicht nur dort). Doch müssen wir unbedingt über die Risiken aufklären, sie kommunizieren und diskutieren. Alles andere ist unverantwortlich. Privat und im Geschäft.

Künstliche Intelligenz – Eine partielle Polemik

Wie Überraschend: „Es wird in Zukunft darum gehen, den Konsumenten bei allem technischen Fortschritt nicht aus den Augen zu verlieren und modernste Technologien als Schnittstelle zwischen menschlichen Bedürfnissen und Unternehmen zu nutzen.“ Könnte auch im Wandkalender stehen. Solche Weisheiten passen immer.

Vertraue keinem Marktforscher

Auch in der Marktforschung
Auch in der Marktforschung

Klassische Marktforschung und Big Data sollen Gewissheiten für die Zukunft produzieren – ihre Prognosekraft ist bescheiden.

In ekstatischem Rausch, auf einem Dreifuß sitzend und von Apollon inspiriert, erteilte die Priesterin Pythia in Delphi ihre scheinbar widersinnigen Orakel. Die Antworten von Pythia wurden in Versen verkündet und waren zumeist zweideutig formuliert.

Ähnlich kryptisch klingen die Verheißungen der Big Data-Anbieter im Marketing. Sie wollen den Zufall besiegen. Häufig handelt es sich um Physiker oder Mathematiker, die in das Lager der Daten-Analysten konvertiert sind. Schaut man in die Big Data-Systeme hinein, findet man recht simple Formeln. So hat Professor Michael Feindt schon vor rund 15 Jahren den so genannten NeuroBayes-Algorithmus erfunden.

„Es gibt Artikel, die eine höhere Wahrscheinlichkeit haben, zum Mode-Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.

Maschinen-Entscheidungen

Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten. So simpel lässt sich also die Wirtschaftswelt steuern. Wenn es aber um konkrete Prognosen geht, die über Stauwarnungen und die Ausbreitung von Grippeviren hinausgehen, schneiden die Daten-Systeme recht kümmerlich ab.

Was Algorithmen leisten, sind Optionen und Anregungen. Dahinter stecken wiederum Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Schon bei Textilwaren kann das in die Hose gehen:

„Eine Maschine versagt bei der Vorhersage, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein“, erklärt der Internet-Experte Christoph Kappes.

Auch wenn der Blick in den Rückspiegel immer schneller gelingt und die Daten aus der Vergangenheit mehr oder weniger in Echtzeit vorliegen, können die Daten-Systeme den kreativen Schöpfungsprozess von Menschen nicht ersetzen.

Trügerische Komfortzonen

Es sei der monokausale Glaube, dass das, was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat, bemerkt der Organisationswissenschaftler Gerhard Wohland.

„Auch wenn ich die Vergangenheit umfangreich und schnell auswerte, weiß ich nicht genau, was die Zukunft bringt.“

Welches Ereignis eine Wirkung in der Zukunft erzeugt, könne man in der Gegenwart nicht wissen. Die kleinsten Ursachen, die von Big Data-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationsrechner ad absurdum führen. Am Ende bliebe Frust und Enttäuschung übrig. Big Data im Marketing ist nach Ansicht des Markenexperten Martin Lindstrom ein Ausdruck von Unsicherheit.

„Fast jedes große Konsumgüter-Unternehmen – von Unilever über Procter & Gamble bis hin zu Nestlé – arbeitet mit einer 60/40-Regel. Jedes Produkt muss von mindestens 60 Prozent der Konsumenten gegenüber den Konkurrenzprodukten bevorzugt werden. Aus Sicht der Produktentwicklung ist das großartig. Die Verantwortlichen für das Marketing und Branding jedoch geraten so in eine trügerische Komfortzone.“

Big Data habe ein ähnliches Verhalten hervorgerufen.

„Milliarden Datenpunkte lassen das Topmanagement glauben, dass es stets den Finger am Puls der Zeit hat – in Wirklichkeit ist das Gegenteil der Fall“, so Lindstrom im Interview mit Harvard Business Manager.

Das Ganze sei nur ein Ruhekissen. Man rechnet eine Menge Korrelationen, vernachlässigt aber die Kausalitäten. In der klassischen Marktforschung sieht es nicht besser aus. Allein in Deutschland gibt es 80 Markenbewertungsmodelle und eine nicht mehr überschaubare Datensammlung für Verbraucherverhalten und Mediaplanungen.

Wunschquote eines TV-Chefs

Die wohl berühmteste Erfindung ist die werberelevante Zielgruppe der 14- bis 49-Jährigen bei der Messung der TV-Einschaltquoten. Das Ganze war ein Vermarktungstrick von Helmut Thoma. Der frühere RTL-Chef habe es mit seiner Eloquenz geschafft, diese Zielgruppe im Markt zu verankern, berichtet das NDR-Magazin Zapp.

„Die Kukidents überlasse ich gern dem ZDF“, so der legendäre Ausspruch des Österreichers.

In den vergangenen 30 Jahren sind Milliarden Euro für Fernsehwerbung ausgegeben worden auf völlig willkürlichen Grenzziehungen eines Fernsehchefs. Hochbezahlte Mediaplaner, Kommunikationschefs und Werbeexperten fielen darauf rein. Selbst ARD und ZDF rannten dieser Schimäre hinterher.

„Dabei hatte unsere Argumentation von Anfang an enorme Lücken“, gab Thoma in einem Interview mit dem Spiegel zu.

Er habe der Werbewirtschaft suggeriert: Ihr müsst an die Jungen ran, die „Erstverwender”; deshalb braucht ihr auch keine alten Zuschauer, denn die seien markentreu. Aber ab 29 brauche man wirklich nicht mehr von „Erstverwendern” zu sprechen. Außerdem: Wer ist denn zählungskräftig? Die über 50-Jährigen. Geändert hat sich nichts. Bis heute hält man an der Mogelquote fest.

Fehlende Datenkritik

Es sei schon erstaunlich, wie man in jedem Jahr über 20 Milliarden Euro für Media-Schaltungen ausgibt und sich statistisch auf so dünnem Eis bewegt, so Heino Hilbig, ehemaliger Werbechef von Casio und Olympus:

„Kann es wirklich angehen, dass wir uns im Marketing mit Daten und Statistiken umgeben, die schon beim einfachen Nachprüfen zu mehr Fragen als Antworten führen?“

Auffällig sei, dass es zwar Hunderte Fachpublikationen gibt, wie man mit Excel und Co. wunderbare Daten und Graphen erzeugt, aber kein einziges, welches sich mit Datenkritik im Marketing befasst, meint Hilbig. Den meisten seiner Kollegen ist das bewusst. Ihr gemeinsames Credo lautet:

„Was soll man machen?“

Jeder kritische Einwand wird als Majestätsbeleidigung weggebügelt – man will doch sein Gesicht nicht verlieren. Gefahndet wird nach der Bestätigung der eigenen Annahmen. Nach Erkenntnissen von Hilbig gibt es jedoch keine funktionierende wissenschaftliche Methode, die hilft, kreative Erfolge von Misserfolgen im Vorhinein zu unterscheiden.

„Häufig kommen bei solchen Verfahren genau jene Dinge durch, die man schon vorher erwartet hat. Valide sind diese Daten nicht“, bestätigt der Düsseldorfer Marketingexperte Jan Steinbach.

So gleiche die Prüfung eines Werbespots mit ausgewählten Probanden in einer Studiosituation eher den Schimpansen im Versuchslabor. Eine unnatürliche Situation, die nach Ansicht von Steinbach kaum verwertbare Erkenntnisse bringt. Da werde der Wiedererkennungswert einer Anzeige abgefragt oder die Kaufabsicht und Weiterempfehlung eines Produktes.

„Mit solchen Aussagen kann ich nichts anfangen. Großartige Kampagnen werden durch solche Marktforschungsansätze nicht erzeugt. Da kommt eher Mittelmaß heraus. Man braucht sich nur die früheren Werbespots von Procter & Gamble anschauen. Das war Schema F“, so Steinbach.

Der Krösus-Irrtum

Nach Erfahrungen von Holger Rust, Professor für Wirtschaftssoziologie, sind Forschungsansätze sinnvoll, um Widersprüche bei der gewählten Unternehmensstrategie zu verorten. Die quantitativen Daten müssten mit den qualitativ erarbeiteten Befunden kontrovers diskutiert werden. Es ist ein dauerhafter diskursiver Prozess, der nicht zu endgültigen Gewissheiten führt. Wer das in der Attitüde eines allwissenden Gurus verspricht, etwa die einschlägig bekannten Trendforscher, ist nach Meinung von Rust eher ein unterhaltsamer Geschichtenerzähler aber kein Marktforscher.

„Marktforschung ist immer dann sinnvoll, wenn man getroffene Entscheidungen überprüfen möchte“, betont Steinbach.

INNOFACT verfolge mit seinem Online-Panel einen pragmatischen Ansatz. Hier werde plattformübergreifend das Bewegungsprofil mit Zustimmung der Panel-Mitglieder über sehr lange Zeiträume digital gemessen. Der Browser wird komplett ausgewertet, alle Käufe, Empfehlungen, Meinungsbeiträge und das Surfverhalten vor und nach einer Kaufentscheidung. Die Unnatürlichkeit der Testsituation im Studio ist somit ausgeschaltet. Das hält auch Michael Dahlén von der Stockholm School of Economics für einen sinnvollen Weg. Man könne mehr über Kunden erfahren, ohne sie zu manipulieren.

„Ihr Verhalten ist echt – Antworten in einem Fragebogen sind es nicht unbedingt“, sagt Dahlén nach einem Bericht der absatzwirtschaft.

Aber selbst Echtzeit-Systeme blicken in den Rückspiegel und bieten nicht die Datengrundlage, um wirklich Neues zu schaffen. Wenn es um die Zukunft geht, sollten Unternehmensentscheider mit Daten und Zahlen skeptischer umgehen. Ansonsten könnten sie ein ähnliches Debakel erleben wie Krösus: Er wollte gegen Persien in den Krieg ziehen und fragte das Orakel von Delphi um Rat. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog mit seinem Heer in die Schlacht. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.

Man sollte wohl eher diesem Rat folgen – auch in der Marktforschung:

Mehr Kant, weniger Algorithmen

Professor Gerd Gigerenzer, Direktor des Max-Planck-Instituts für Bildungsforschung in Berlin, rief in seinem Impulsvortrag die Netznutzer deshalb dazu auf, dem Credo des Philosophen Kant zu folgen: Aufklärung ist der Ausweg des Menschen aus seiner selbstverschuldeten Unmündigkeit. Und die Unmündigkeit besteht bei vielen Menschen darin, sich nicht seines eigenen Verstandes und Wollens zu bedienen. Gefordert sei eine aufklärerische Algorithmen-Kompetenz. Was die algorithmischen Variablen für Wirklichkeitsmanipulationen produzieren, bleibt in der Regel ein Geheimnis der mathematischen Konstrukteure. Dabei versagen die Systeme in schöner Regelmäßigkeit, wenn es um Vorhersagen geht. So ist der beliebteste Showcase, der von jedem Big Data-Heizdeckenverkäufer präsentiert wird, in sich zusammen gebrochen.

Gigerenzer erwähnt die Google Flu Trends, die in den vergangenen Jahren dramatisch falsch lagen, weil die Suchabfragen keine eindeutigen Korrelationen mehr zuließen. Generell ist es eine Schwäche der Big Data-Algorithmen, reine Korrelationen zu rechnen und keine Kausalitäten.

„Diese Systeme können nicht denken“, so Gigerenzer.

In Momenten, wo etwas Unerwartetes passiert, kommt es zu irreführenden Prognosen.

Siehe auch:

Agenturen haben den Knall noch nicht gehört

Neue Zahnrad-Logik mit Big Data im Personalmanagement? #rpTEN #HRFestival

rpTEN-Debatte über Big Data und Arbeitnehmer
rpTEN-Debatte über Big Data und Arbeitnehmer

Was können Big Data-Systeme im Personalmanagement leisten? Beispielsweise bei der Prognose von Kündigungsabsichten. Nutzt man das, um eine Kündigung zu verhindern oder werden Maßnahmen eingeleitet, um die Kandidaten loszuwerden?

Führt Big Data unternehmensintern zu einem weiteren Controlling-Wahnsinn, der jetzt schon zur Zahnrad-Logik mit digitalen Mitteln genutzt wird?

Im Ideen-Management wären solche Anwendungen höchst nützlich, um in Echtzeit Clusterungen vorzunehmen, Mitarbeiter zu matchen und interdisziplinäre Teams aufzustellen.

Auch Stimmungsbarometer könnte man auf Knopfdruck abrufen.

Auf der re:publica gab es zwei Panel-Diskussionen, die sich mit Big Data im Unternehmen auseinander gesetzt haben. Da gibt es wohl noch eine Menge Klärungsbedarf.

Hier die Podcast-Variante des Interviews für die Badewanne 🙂

Und ohne Open Data – also die Offenlegung aller Algorithmen – geht es nach meiner Meinung überhaupt nicht.

Youtube-Playlist zum HRFestival auf der re:publica in Berlin.

Die geheimen Zaubertricks der „Daten-Elite“ – Wahrheiten mit Esels-Ohren

Daten-Fahndung
Daten-Fahndung

Bekanntlich drohen fünf Jahre Knast, wenn man nur darüber spricht, ein sogenanntes National Security Letter von den amerikanischen Geheimdienst-Gichtlingen erhalten zu haben – ohne auf die Inhalte der “Anfrage” einzugehen.

„Wenn es um die nationale Sicherheit geht, können amerikanische Ermittler Konzerne wie Google oder Microsoft per Anordnung zwingen, Daten ihrer Kunden herauszugeben. Die sogenannten National Security Letter verpflichten die Firmen zu absoluter Geheimhaltung: Sie dürfen weder den Betroffenen Auskunft geben noch öffentlich auch nur über die Existenz dieser Geheimanordnungen sprechen“, schreibt Spiegel Online.

Das ist nicht nur paranoid, sondern öffnet Willkür und Denunziantentum Tür und Tor – das gilt nicht nur für die Schnüffler des Staates: Genaue Einblicke gewähren auch die Big Data-Gurus selten bis gar nicht. Es scheint zum Ehrenkodex dieser neuen Daten-Elite zu zählen, die Zahlentricks zwar öffentlich vorzuführen und ein raunendes Publikum zu unterhalten. Jeder gute Zauberer ist einem Ehrenkodex verpflichtet, Trickgeheimnisse zu wahren. Als zulässig wird angesehen, Tricks denen gegenüber zu offenbaren, die selbst aktive Zauberkünstler werden möchten. Das gilt für Geheimdienstler der NSA, Rating-Agenturen, Berater, Wirtschaftsforscher und sonstige Welterklärer.

Wenn Big Data-Algorithmen ohne meine Zustimmung anfangen, mich zu klassifizieren und zu stigmatisieren, automatisch meine Bonität herabstufen, einen Wechsel der Krankenversicherung wegen meines vermeintlich exakt berechneten Gesundheitszustandes verhindern, meine kritischen Beiträge als Vorstufe zum Terrorismus verorten oder Personalberatern die Abweisung meiner Stellenbewerbung empfehlen, dürfte es zu heftigen Gegenreaktionen der Netzgesellschaft kommen – bislang ist das ja nur ein laues Lüftchen. Nachzulesen unter: Big Data im Unsinn-Modus: Die Illusionen der Weltvermesser von NSA bis Rating-Agenturen.

Der NSA-Erklärer
Der NSA-Erklärer

Wenn niemand über die Totalüberwachung reden darf, ohne die Strafjustiz am Hals zu haben, was soll ich dann mit den Beschwichtigungsschwafeleien der deutschen Sicherheitsbehörden anfangen? Das sind Wahrheiten mit Eselsohren – ohne Möglichkeiten zur Gegenprüfung. Als jüngstes Beispiel kann man den Handelsblatt-Gastbeitrag des obersten Verfassungsschützers Hans-Georg Maaßen heranziehen:

„Uns liegen keinerlei Erkenntnisse vor, die die These einer Wirtschaftsspionage aus dem Westen stützen könnten. Tatsächlich wurde bis zum heutigen Tage in ganz Europa kein einziger Fall amerikanischer oder britischer Wirtschaftsspionage nachgewiesen.“

Vielleicht sagt das mehr über die Dummheit deutscher Sicherheitsdienste als über die tatsächliche Faktenlage. Es sind wohl doch schafsköpfige Einfaltspinsel.

Es gibt also keinen einzigen Fall von amerikanischer oder britischer Wirtschaftsspionage in Europa, Herr Maaßen? Wenn ich einen einzigen Fall finde, darf ich Sie dann einen Lügner nennen? Denn:

„Die Europäer legen hinsichtlich der Zusammenhänge dieser Art der Konfrontation eine gewisse Heuchelei an den Tag. Die Wirtschaftsexperten und Managementspezialisten prangern die Wirklichkeit an, indem sie sie als Verschwörungstheorie verharmlosen. Aber diese Ablehnung, die Wirklichkeit zu akzeptieren, wie sie ist, geht fast schon ins Lächerliche. In Deutschland spricht man höchstens über Wettbewerb zwischen den Marken. Diese Sichtweise ist jedoch zu einseitig und birgt langfristig das Risiko, den Überblick darüber zu verlieren, wie Teile der weltweiten Wirtschaft wirklich funktionieren“, sagt Christian Harbulot, Gründer und Direktor der École de Guerre Économique.

Etwa beim Wettbewerb „Boing versus Airbus“ oder bei der Destabilisierung der Euro-Länder über halbseidene Einstufungen durch die Rating-Agenturen der USA. Auch die gezielten Lauschangriffe auf die politischen Institutionen der EU dienen mit Sicherheit nicht dem Anti-Terrorkampf. Das ist noch kein Beweis. Aber ich suche jetzt mal etwas intensiver.

Wenn ihn finde, könnte der Verfassungsschutzpräsident ja zu uns in die Bloggercamp.tv-Sendung kommen, damit ich den Fund virtuell übergeben kann.

Vielleicht findet man ja auch hier eine Spur: Britischer Geheimdienst zapft Daten aus Deutschland ab.

Was suchen denn die Briten in Deutschland? Britischer Geheimdienst überwacht besonders deutsche Internetnutzer.

Wo ist eigentlich die Rote Linie von Angela Merkel in der Späh-Affäre?