Gegen das Sakrale hilft nur Aufklärung – Erinnerung an eine Disputation mit Frank Schirrmacher

Standard

Schirrmacher 001

Christoph Kappes hat den FAZ-Herausgeber Frank Schirrmacher in einem lesenswerten Nachruf als Großmeister der Debatten bezeichnet. Über die Wesenszüge von Schirrmacher kann ich nichts schreiben. Ich habe ihn leider nie persönlich kennengelernt. Nur ein einziges Mal kreuzten wir auf Google Plus kurz die Klingen, als auf dieser Plattform noch geistreiche Disputationen geführt wurden. Das war damals wohl der Charme des Neuen, der zu ungewöhnlichen virtuellen Begegnungen führte. So war ich sehr überrascht, als Schirrmacher auf meine Postings reagierte:

Es ging um die Frage, ob uns das Internet dümmer oder schlauer macht, ob die Dominanz des Digitalen zu negativen neuronalen Effekten führt oder nicht? Seine Thesen über bevorstehende Gedächtnis-Deformationen durch die Alleinherrschaft des Suchmaschinen-Giganten Google wertete ich als Fortsetzung der Thesen von Schirrmacher, die er in seinem Buch „Payback“ ausgebreitet hat: Es ging um die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es war die Unterwelt der Benutzeroberfläche, die Schirrmacher umtrieb: Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. In dem interessanten Google Plus-Gespräch ist Schirrmacher dann noch etwas deutlicher geworden.

„Gunnar Sohn et al, leider in Eile: 1. Wir wissen nicht was Google weiß. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe? Das aber ist das Wissen des 21.Jahrhunderts. 2. ‚Alles‘ ist nicht zu lesen, zu kennen, zu wissen‘. Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, dass der imaginäre Vertrag, an den alle glauben, besagt, dass ‚alles‘ zu wissen ist, was ist und kommuniziert. Tertium non datur. Man existiert nicht, wenn man nicht im Netz existiert, hieß das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteilungen entsenden.“

Er verwies auf einen Wissenschaftsbeitrag im Wall Street Journal, der dokumentiert, wie perfekt unsere digitalen Lebensspuren schon heute analysiert werden können. Wenn das schon möglich sei, ohne verbale Kommunikation und bei nur 2000 Menschen, was sei dann heute insgesamt möglich?

“Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung – das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.” Und da stoßen wir wohl zum Kern der Schirrmacher-Thesen: „Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörter gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das Ganze dann als sein Privateigentum weiterverkauft hätte.“

Seine Einwände konnte ich nicht teilen, aber sie waren stets eine Herausforderung für den eigenen Intellekt. Man musste sich zusammenreißen, um in solchen Kontroversen nicht unterzugehen.

Meine Replik veröffentlichte ich im Debattenmagazin “The European”: Ob sich unser Bewusstsein verändert und wir zu Abziehbildern von Computerprogrammen degradiert werden, ist ein höchst unterhaltsamer Ansatz für Kinofilme. Das hat eher den Charakter eines „Wrestling-Events“, wie es der Soziologe Gerhard Schulze ausdrückte. Statt Inhalten werden nur Etikettierungen ausgetauscht. Die einen sind Panikmacher, die anderen Zyniker. Man geht zur Tagesordnung über und sucht sich einen neuen Spielplatz, um „Alarm, Alarm“ zu brüllen.

„Es ist ja nicht zu bestreiten, dass die Maschinen in vielen Teildisziplinen stärker und besser sind als Menschen. Angefangen bei der Muskelkraft. Heute käme niemand auf den Gedanken, mit einem Industrie-Roboter sich im Armdrücken zu messen.” So zitierte ich den Systemingenieur Bernd Stahl von Nash Technologies.

Beim Schach oder bei Quizsendungen würde es ähnlich aussehen. Gegen IBM-Watson sei kein Kraut gewachsen.

„Eins darf allerdings in der Schirrmacher-Debatte aber nicht verdrängt werden. Die Petabytes lösen nicht das semantische Problem, sondern sind nur die Hardware-Basis-Voraussetzungen. Kann ein Computer prinzipiell zur Sprache kommen, oder bleibt er nur bestenfalls ein semantischer Blechtrottel? Ob das Internet vergesslich oder dumm macht, hängt nicht mit dem Internet zusammen, sondern liegt an dem, der es benutzt. Hier wabert viel Spekulatives und man begibt sich auf wackeligen Grund. Was allerdings wichtig ist, sind dezentrale Lösungen im Netz. Vielleicht braucht man eine Gewaltenteilung des Wissens, so wie wir es aus der Demokratietheorie kennen und umsetzen“, erläutert der Netzwerkexperte Stahl.

Notwendiger wäre eine breitere Debatte über die politische Netzneutralität von Infrastrukturanbietern wie Google, Apple oder Facebook. Also nicht die Frage nach dem gleichberechtigten Transport von Datenpaketen, sondern die Zurückhaltung von Konzernen in politischen, moralischen und ethischen Angelegenheiten. Was passiert, wenn digitale Existenzen von Google und Co. einfach ausgelöscht werden?

Hier lag Schirrmacher richtig:

„Man existiert nicht, wenn man nicht im Netz existiert“.

Seine intellektuellen Einwürfe werden mir fehlen, denn er animierte mich zur Klarheit im Denken – auch oder besonders in der Formulierung einer Gegenposition.

Siehe auch:

Zum Tode von Frank Schirrmacher: Neuland.

Über diese Anzeigen

Wer zu Open Data nicht bereit ist, sollte von Big Data schweigen #Datability #Cebit #Systemtheorie #Schirrmacher

Standard
Automatisierte Kontrollgesellschaft?

Automatisierte Kontrollgesellschaft?

“We don’t know how the human brain works.” Mit diesem Satz macht Patrick Breitenbach auf einen Artikel aufmerksam, der sich mit den Thesen von Kurzweil beschäftigt: “Why Ray Kurzweil is Wrong: Computers Won’t Be Smarter Than Us Anytime Soon”.

Es sind letztlich völlig überdrehte, anmaßende und werbegetriebene Thesen, die man mit Big Data, Künstliche Intelligenz und Neurowissenschaften verbindet. Das wirkt sich vielleicht positiv auf den Verkauf von Büchern über das Ende des Zufalls aus oder über Neuro-Leadership, Neuro-Marketing und Maschinen-Intelligenz. Es ist auch eine beliebte Methode, um milliardenschwere Forschungsbudgets und Beratungsaufträge zu kapern, wie beim Human Brain Project. Beim öffentlichen Diskurs sollte man die wirtschaftlichen Interessen dieser Akteure nicht aus den Augen verlieren. Siehe dazu auch: “Die große Neuro-Show – Was wurde aus den Verheißungen der Hirnforschung? Wissenschaftler ziehen Bilanz. Sie fällt dürftig aus”.

Die Systeme können nur das, was Menschen programmiert haben und daraus ableiten. Es sind hoch manipulative, konstruierte und erfundene Welten, die immer zu richtigen Ergebnissen kommen. Richtig im Sinne des Erfinders, Konstrukteurs, System-Ingenieurs, Mathematikers, Software-Entwicklers, Hirnforschers oder KI-Wissenschaftlers: Die Logik sei nur ein Beschreibungsapparat, so wie die Grammatik für Sprache, sagt Systemtheoretiker Heinz von Foerster im Fernsehinterview mit Lutz Dammbeck.

“Die Logik ist ja nur eine Maschine, um mit gewissen Aussagen gewisse andere Aussagen machen und entwickeln zu können. Der Übergang von A nach B, das ist, was die Logik kontrolliert….also die Logik bringt ja gar nichts Neues….die Logik macht es nur möglich, dass Sie von einem Satz, der etwas verschwommen ist, etwas ableiten können, oder Sätze, die ähnlich verschwommen sind, ordentlich beweisen können.” In diesen weltweit funktionierenden Maschinensystemen seien alle Aussagen richtig – im Sinne der Ableitungen.

Heinz von Foerster

Heinz von Foerster

Wenn sich auf diesem wackligen Fundament die Big Data-Neuroklecks-KI-Hohepriester aufschwingen, das Leben anderer Menschen zu beeinflussen, zu kontrollieren, zu steuern und zu bestimmen, müssen sie ihre Ableitungen offenlegen. An diesem Punkt stimme ich FAZ-Herausgeber Frank Schirrmacher zu, der fordert, dass die offene Gesellschaft neue Freunde braucht.

Er beschreibt in seinem FAZ-Leitartikel den Fall einer Amazon-Lageristin in Allentown, die nach mehreren 11-Stunden-Arbeitstagen eine automatisierte SMS des „employee-tagging“- Systems bekam. Botschaft: Sie sei „mehrere Minuten“ unproduktiv gewesen und wurde kurz darauf gefeuert. Droht hier ein neuer Optimierungswahn, der in den Pionierzeiten des Industriekapitalismus von Henry Ford etabliert wurde?

“Die Erkenntnis, dass die IT-Industrie Teil der wohl bedeutendsten gesellschaftlichen Debatte sein muss, nimmt auch die jetzt beginnende Cebit ernst, die weltgrößte Computermesse. Unter dem Titel ‘Datability’ – dem ‘nachhaltigen’ Umgang mit Daten – will sie sich, aufgeschreckt vor allem durch die Snowden-Enthüllungen, an einem Diskurs beteiligen, der sich den Chancen und den Risiken der digitalen Moderne widmet. Schon das ist ein Fortschritt. Es signalisiert, dass die Branche verstanden hat, dass die Zeiten vorbei sind, in denen technische Geräte die entsprechenden Sozialtechniken gleichsam mitproduzieren und einfordern – unter Ausschaltung jeder politischen Willensbildung”, schreibt Schirrmacher.

Das sei eine politische Aufgabe, keine technologische. “Anders gesagt: man kann die Festlegung gesellschaftlicher und politischer Normen nicht einer Mathematik überlassen, die systematisch Kausalitäten und Korrelationen erzeugt, deren Effekte wir spüren, aber deren Zustandekommen wir nicht nachvollziehen können.”

Diesen Satz sollten sich die Richter des Bundesgerichtshofs hinter die Ohren kleben. Stichwort: Schufa-Urteil.

Wer eine falsche Stromrechnung bekomme, der rechnet nach. Wer eine falsche Rechnung über seine Lebens- und Karrierechancen, seine Talente, seine Effizienz und Kondition, seine Gesundheitsprognose oder seine Kreditwürdigkeit bekommt, der könne nur noch glauben.

“Heute gelten die Algorithmen, die beispielsweise die Reputation oder Kreditwürdigkeit von Menschen berechnen, als Geschäftsgeheimnis”, so Schirrmacher.

Wer nicht nur Stauwarnungen ausspricht, sondern auch das Wohl und Wehe von einzelnen Menschen beeinträchtigt und zu Open Data nicht bereit ist, sollte Big Data nicht anwenden dürfen. Die Entwickler von diesen Systemen werden ohne politische Regeln dazu nicht freiwillig bereit sein, wie mir ein Informatiker klar zu verstehen gab. Er habe eine Software für Kliniken entwickelt, um “gute” von “schlechten” Patienten zu trennen. Das Auswertungstool soll aufzeigen, wo Ärzte Geld verballern. Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern. Wenn dieser Mann dazu nicht bereit ist, muss er mit rechtsstaatlichen Mitteln dazu gezwungen werden, wenn die betroffenen Patienten es verlangen.

Siehe auch die Rede von Google-Manager Eric Schmidt auf der Tech-Konferenz SXSW und sein merkwürdiges Verständnis von Selbstzensur.

Entlarvung der Neo-Kybernetiker.

Liebwerteste Gichtlinge der Internet-Konzerne, wo bleibt der ehrliche Datenpakt mit der Netzgesellschaft?

Idioten-Systeme, Daten-Diät und vorauseilender Maschinen-Gehorsam

Standard
Menschliche Maschinen?

Menschliche Maschinen?

Bei den Debatten über die Verführungskraft von Algorithmen, Big Data und Neuro-Kleckskunde-Propaganda fällt mir immer wieder auf, dass Kritiker und Gurus im selben Teich der Übertreibungen schwimmen.

Dahinter stecken Träume, Horrorszenarien und schlichtweg Idiotie, wie bei den Pionieren der Künstlichen Intelligenz, die noch nicht einmal in der Lage sind, künstliche Gehirne von Kleinkrebsen nachzubauen oder gar zu verstehen. Biologen versuchen das nun seit 30 Jahren – ohne Erfolg. Das Keinstgehirn des Krabbeltierchens besteht gerade mal aus 30 Millionen Neuronen und kontrolliert den Verdauungstrakt. Man hat bis heute nicht verstanden, wie das funktioniert. Ähnliches werden wir wohl beim milliardenschweren Human Brain Projekt erleben. Humanoide Maschinen sind Hirngespinste von Science Fiction-Autoren, Wissenschaftlern und Journalisten, die einem mechanistischem Weltbild hinterherlaufen, so die Reaktion von Patrick Breitenbach auf die Vorschläge von Hans Magnus Enzensberger und FAZ-Herausgeber Frank Schirrmacher zur Daten-Diät im Internet. Sie bestätigen im Grunde die verkaufsfördernde These der Big Data-Gurus, der Mensch lasse sich zur Maschine degradieren und könne wie eine Maschine gesteuert werden. Bei Enzensberger werte ich die Intervention als humoreske Übertreibung, auch ohne die nachgeschobene Erläuterung von Schirrmacher.

In diesen Diskursen über die vermeintliche Diktatur von Algorithmen und Big Data-Systemen gibt es die Tendenz zur Personifizierung von Technik. Mensch und Maschine stehen sich in einem Teufelspakt gegenüber.

„Wir nennen das die Animation des Toten. Menschen gehen offensichtlich viel lieber und leichter mit Lebendigen um als mit Toten. Wenn ich mir meinen Dosenöffner, der gerade abgerutscht ist und mich verletzt hat, als beseelt denke, kann ich ihn beschimpfen. ‚Du blöder Dosenöffner. Irgendwann schmeiß ich Dich in den Müll‘. Das macht man mit seinem Laptop, mit seinem Auto und generell mit Technik. Dabei weiß jeder, dass die toten Dinge mich gar nicht verstehen können“, so der Organisationswissenschaftler Gehard Wohland.

In der Psychologie nennt man das Projektion. Die Maschinenwelt wird mit Seele aufgeladen, um sich emotional zu entlasten.

„Das ist eine enorme Fähigkeit von Menschen. Wenn man aber die tote Maschinenwelt verstehen will, wie sie zusammenhängt und funktioniert, dann darf man sie nicht beseelen. Sonst kommt im Wechselspiel von Mensch und Maschine zu viel Toleranz ins Spiel. Ich höre auf zu denken. Das gilt auch für die Moralisierer, die der Technik böse Absichten unterstellen. Wer einen Schuldigen in der Maschinenwelt verortet, unternimmt keine weiteren Denkanstrengungen mehr. Die Maschine ist aber keine Person. Wenn ich den Stecker ziehe, tut sie gar nichts mehr. Maschinen sind immer Werkzeuge von Menschen. Auch der Algorithmus wird von Menschen gemacht und benutzt. Niemand kann mich daran hindern, einen Algorithmus zu programmieren, der vielleicht besser ist als das, was Google und Facebook auf den Markt bringen. Das ist ein sinnvoller Standpunkt. Wer von bösen, manipulativen und bedrohlichen Algorithmen redet, steht sich selber im Weg, zu klaren Erkenntnissen zu kommen“, sagt Wohland.

Eine Simplifizierung der Maschinenwelt bringe uns nicht weiter. Da komme nur Unsinn heraus. Generell sieht Wohland die Tendenz kritisch, Technik zu überhöhen – im negativen und positiven. Es gebe immer zwei Tendenzen:

“Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde und einer Adressänderung“, erläutert der Experte für Systemtheorie.

Sein Rat: In jeder Organisation sollte man nach diesen Übertreibungen suchen. Wer sie findet, besitzt wertvolle Potenziale, um sich zu verbessern.

„Vom Controlling wird verlangt, eindeutige Prognosen für die Zukunft zu liefern. Mit einem Plan, einem Budget und allem, was damit zusammenhängt. Dann tun die Controller das, was man von ihnen erhofft. Aber die Controller nicht natürlich die ersten, die sehen, dass das alles nicht zusammenpasst. Kein Plan tritt tatsächlich ein. Die Zeiten sind längst vorbei, die komplexen Vorgänge in Wirtschaft und Gesellschaft prognostizieren zu können. Wir nennen das oft Basar- oder Theaterkommunikation. Jeder spielt eine Rolle. Jeder weiß, dass er eigentlich Unsinn redet. Und der Gesprächspartner weiß es auch. Also passiert nichts Besonderes. Es ist wie bei des Kaisers neuen Kleidern. Es darf keiner kommen und das Ganze tatsächlich so beschreiben, wie es ist – der fliegt in der Regel raus. Der stört das System“, weiß Wohland.

Wir sollten uns mehr mit den niederen Absichten der Daten-Clowns auseinandersetzen und politisch sowie juristisch beantworten, statt im voreilenden Gehorsam mit einer völlig abstrusen Daten-Askese zu reagieren. System-Störenfriede müssen massenweise Daten produzieren und die vermeintlich schlauen Analysten von NSA bis Schufa in den Wahnsinn treiben. Da wäre der großartige Autor Enzensberger gefragt – also seine anarchische Ader aus der Kursbuch-Zeit :-)

Mehr dazu in meiner Mittwochskolumne für das Debattenmagazin “The European”.

Siehe auch:

Sammelt mehr Daten!

Die Absichten von Enzensberger wertet Don Dahlmann durchaus wohlwollend, kommt aber zu einer ähnlichen Analyse wie Wohland:

“Er macht es sich ein wenig einfach, wenn er die Schuld bei der Technologie sucht und nicht etwa im Versagen der Politik bzw. des Liberalismus, der Sozialdemokratie (damit meine ich nicht die Partei) und der ethischen Verantwortung der Wirtschaft. Er könnte auf Parteien, Wahlsysteme usw. einprügeln, aber er hat sich die Technologie ausgesucht.”

Und eine Analyse von Patrick Breitenbach: Enzensberger und Schirrmacher wider die selbstbestimmte Medienkompetenz.

Gamification der Politik – aber ohne Game Master!

Standard

Verblöden uns Games?

Nach dem postideologischen Kater der Systemkrise namens Finanzkapitalismus und dem Einsturz des Utopieglaubens bleibt nach Auffassung von Frank Rieger und Fefe nur noch Zynismus und Gamification übrig. Das äußerten sie in einem gut zweitstündigen Gespräch mit dem FAZ-Herausgeber Frank Schirrmacher. Abzuhören in ihrer Alternativlos-Podcast-Reihe.

Digitale Artefakte werden benutzt, um unsere Soziotope zu gestalten, wenn es etwa um Reputation oder Wissensmanagement geht. “Dabei müssen wir darauf achten, nicht mehr die Rolle eines Game Masters hinzunehmen wie bei Google, der die Regeln bestimmt. Wir müssen verstehen, wie diese Regeln funktionieren”, so Rieger. Und ich würde ergänzen, wie man sie brechen kann.

Als besonders fragwürdig werden in dem Podcast Regeln gewertet, die von Algorithmen bestimmt werden wie beim Google-Spiel Ingress, das zumindest von Frank Rieger bis zum finalen Level 8 durchgespielt wurde.

Es heißt nur, hier hast Du das Programm, viel Spaß dabei. “Regeländerungen kommen ausschließlich über Software Updates und plötzlich funktioniert Deine Welt anders”, stellt Rieger fest.

Er wertet das als Vorboten für soziale Interaktion und Politikgestaltung. Wenn von der Gamification der realen Welt gesprochen werde, könnte man von der “fucking” Software Version abhängig werden.

Auf der Strecke bleiben Möglichkeiten der Selbstorganisation, die es allerdings im klassischen Industriekapitalismus nie gab, wie Wolf Lotter sehr eindrucksvoll auf der republica skizzierte.

Fefe machte dann einen recht altväterlichen Einwurf über “die” Jugend und über “die” Kinder, die mit Computerspielen aufgewachsen seien, die ihnen vorschreiben, was sie tun dürfen und was nicht. Gamification mache die Masse träge und würde sie indoktrinieren (klingt ein wenig nach Manfred Spitzer). Und die nachwachsende Generation sei eben nach diesen Maßstäben sozialisiert worden. Klingt ein wenig nach Verschwörungstheorie – aber das ist ja das Spezialgebiet von Fefe.

Für wichtig halte ich die Forderung von Rieger, dieses Prinzip des Game Masters, der die Regeln setzt und quasi Gott spielt, zu durchbrechen.

Was haltet ihr von diesen Thesen? Mit der “nachwachsenden” Generation werde ich noch eine gesonderte Hangout-Runde machen über die Vorhaltungen von Fefe. Spätestens auf der Gamescom in Köln.

Was ich übrigens nach meiner Rückkehr von der republica in Berlin immer schon mal sagen wollte:

Tegel erhalten!

Big Data: Auch der Spiegel beerdigt die Zukunft – Dabei gilt: Gewiss ist nur die Ungewissheit

Standard

Alles so Big Data oder was?

Nun widmet sich auch der Spiegel in einer Titelgeschichte dem Phänomen “Big Data” und man hat den Eindruck, dass die Verheißungen von Big Data-Gurus bei einigen Journalisten die Sinnesorgane vernebeln. Vom Ende des Zufalls ist da die Rede, von der Lenkung des Lebens oder von der präzisen Vorhersage menschlichen Verhaltens.

Schaut man genauer hin, sind es in der Regel aggregierte Daten, die recht nützliche aber doch simple Vorhersagen machen. Von einer Steuerung unserer Zukunft in allen Lebenslagen kann nicht die Rede sein – da sollte man den Werbebroschüren von Big Data-Anbietern schon etwas kritischer entgegentreten.

Wenn es um die Auslastung eines Container-Hafens geht, kann die Auswertung von Daten logistische Abläufe verbessern. Kreditkartenfirmen können Kunden warnen, wenn sie ungewöhnliche Nutzungsmuster wahrnehmen, die auf betrügerische Aktionen schließen lassen. Warenbestellsysteme könnten mit der Echtzeitanalyse von Daten präziser arbeiten. Fahnder können schneller Diebe aufspüren durch die Clusterung von Bewegungsprofilen. Aber wird mein Denken über Big Data determiniert? Das klingt genauso anmaßend wie die maschinenbeseelten Börsenbubis, die über Algorithmen die Finanzmärkte steuern wollten und damit kräftig auf die Schnauze gefallen sind. Auch hier waren es übrigens wie bei Big Data in der Regel Naturwissenschaftler (einige von ihnen konvertierten zu den sozialwissenschaftlichen Disziplinen), die sich mit ihren kruden Modellen ausgetobt haben und immer noch austoben.

Siehe auch: Herrschaft der Vereinfacher: Über Sozialingenieure, Hightech-Kaffeesatzleser, universitäre Gehirnwäscher und nutzenoptimierte Automaten.

Angeblich krempelt Big Data zur Zeit die komlette Wirtschaft um, so der Spiegel. Auf dem Personalmarkt sieht es ganz anders aus: „Die Zahl der Vakanzen steigt vor allem bei Sales und Consulting“, so der Düsseldorfer Personalberater Karsten Berge von SearchConsult.

Es geht um Verkauf und sehr wenig um wirklich nutzbringende Netzintelligenz. Insofern sollten sich die Big Data-Apologeten mit ihren Versprechungen etwas mehr zurückhalten und Programme entwickeln, die man im Alltag nützlich einsetzen kann. Punktuell, situativ und nur dann, wenn ich es als Anwender auch zulasse. Beispielsweise über wirklich smarte Apps, die man allerdings mit der Lupe suchen muss:

„Die Kombination von Apps zu größeren Applikationen ist bislang ausgeblieben. Jede App ist autark und macht nicht viel mit anderen Diensten. Es gibt zwar einige einfache Kombinationen wie den Kalender auf dem iPhone. Aber so richtig begeistert hat mich das nicht. Man sieht nichts von komplexeren Software-Architekturen wie man das in der traditionellen Software-Entwicklung kennt. Da ist noch ziemlich viel Luft nach oben. Die Frage ist, ob die App-Anbieter sich überhaupt in diese Richtung bewegen”, so Bloggercamp-Kollege Bernd Stahl von Nash Technologies.

Es müsste möglich sein, ein größeres System in einem Framework aus vielen Applikationen zusammen zu bauen. Also die Überwindung der Software-Krise durch die Schaffung von einfach nutzbaren Apps.

„Irgendwie klappt es mit der Modularisierung von Apps nicht so, wie man sich das anfänglich vorgestellt hat”, sagt Stahl. Von wirklich personalisierten und interagierenden Diensten sei man noch weit entfernt – mit und ohne Apps.

Bislang laufen die Analyse-Systeme eher auf Cookie-Niveau und elektrisieren vor allem die Werbeindustrie.

Ausführlich nachzulesen unter: Über die Sehnsüchte der Controlling-Gichtlinge: Big Data und das Himmelreich der Planbarkeit.

Vielleicht sollte man eher der Empfehlung von Frank Schirrmacher folgen und sich mit den Arbeiten von Professor Gerd Gigerenzer, Direktor am Max-Planck-Institut für Bildungsforschung, beschäftigen:

“Nur eines ist gewiss: Wir leben in einer Welt der Ungewissheit und des Risikos.”

Schirrmacher hält es für notwendig, sich in der Maschinenwelt stärker der Unberechenbarkeit zu widmen und seiner Intuition zu vertrauen. Das sagte er im Gespräch mit Frank Rieger und Fefe (so nach zwei Stunden und 30 Minuten).

Vielleicht sollte man auch Big Data in die Kategorie der Parawissenschaften einordnen. Mehr Aberglaube als gesicherte Erkenntnis :-)