Big Data: “Sag mir, wo Du bist und ich sage Dir, was Du gerade machst“

Welterklärungssysteme der einfachen Art

Gestern startete ich ja eine etwas intensivere Recherche zum Themenkomplex Big Data und Prognose-Systeme. Vom Unternehmensberater Bernhard Steimel kam der Hinweis auf einen DLD-Vortrag von Albert-László Barabási vom Center for Complex Network Research of Northeastern University:

Mobile phones, the Internet and email have turned society into a huge research laboratory. All those electronic trails of time stamped texts, voicemails, and internet searches add up to a previously unavailable massive data set of statistics that track our movements, our decisions, our lives. His conclusion: patterns in human behavior previously thought to be purely random but it isn’t. „Mobility is one of cleanest predictors of human behaviour“, he says.

Vereinfacht könnte man seine Thesen so interpretieren: Menschen sind Gewohnheitstiere und der beste Beweis ist ihre Gewohnheit, immer wieder die gleichen Orte aufzusuchen.

Jedes Jahr Urlaub an der Ostsee

Insofern sei unser Handeln doch vorhersehbar. Das gilt selbst für Studenten am MIT.

Barabási behauptet also: “Sag mir, wo Du bist und ich sage Dir, was Du gerade machst“.

„Wenn man also gut rät, was jemand gerade macht, dann kann man seine Ansprache auf den Kontext einrichten. In Klartext, wenn jemand im Wohnzimmer sitzt und mit seinem iPad rumspielt, dann ist das ein guter Zeitpunkt, ihn mit personalisierter Werbung anzusprechen. Wenn ich weiß, dass jemand regelmäßig am Freitagsnachmittag zum Einkaufen in den Supermarkt fährt, dann sollte ich ihm am Donnerstags den Einkaufsvorschlag schicken“, meint Steimel.

Ist das schon Big Data? Ein recht bescheidener Ansatz. Wie gut sind Prognosesysteme bei Dingen, von denen ich nicht einmal weiß, dass ich sie nicht weiß. Also das Phänomen der „Unknown Unknowns“. Ein Schwerpunktthema der Zeitschrift „GDI-Impuls“ im vergangenen Jahr. Habe ich mir gerade bestellt. Rudolf Burger hat es in einem Beitrag für den Merkur-Sammelband „Macht und Ohnmacht der Experten“ ähnlich formuliert:

„Aber die Masse dessen, was man noch nicht weiß, weiß man derart nicht, dass man nicht einmal weiß, dass man es nicht weiß, wie es in der klassischen Fassung bei Aristoteles heißt.“

Insofern finde ich die Formulierung von Bernhard Steimel schon sehr sympathisch. Big Data ist wohl eher ein Ratespiel:

„Bei Kalkülen, die zukünftige Ereignisse betreffen, handelt es sich nicht, wie bei statistischen Aussagen über gegenwärtige Verteilungen, um empirisch nachprüfbare Tatsachen, sondern um Wetten“, bemerkt der Schriftsteller und Mathematik-Kenner Hans Magnus Enzensberger in seiner Schrift „Fortuna und Kalkül“, erschienen in der edition unseld.

Wo sich die Zukunftsforschung nicht auf gegenwärtig verfügbare Daten stützen könne, wuchert die Ungewissheit.

Und das gilt selbst für Vorhersagen, die sich nicht auf Einzelpersonen beziehen, sondern mit aggregierten Daten operieren:

„Ob sie sich mit der Konjunkturentwicklung, mit der längerfristigen Wetterprognose oder mit der Börsenspekulation beschäftigt – ihre Ergebnisse sind, man kann es nicht anders sagen, niederschmetternd“, so Enzensberger.

Katastrophen, dilettantische Fehlentscheidungen wie beim Problem-BER-Großflughafen, Korruption, Revolutionen, Machtwechsel, disruptive Innovationen oder spontane Reaktionen können die besten Algorithmen nicht erfassen. Menschliche Interaktionen führen zu einer unabsehbaren Zahl von Rückkopplungen, bei denen die Menge der Variablen exponentiell ansteigt.

„Exakte Gleichungen versagen vor solchen Aufgaben. Bereits für grobe Annäherungen wäre ein utopischer Rechenaufwand nötig, um die Reflexivität von ökonomischen und politischen Systemen zu messen“, erläutert Enzensberger.

Elena Esposito kommt in ihrer Schrift „Die Fiktion der wahrscheinlichen Realität“ zu einem ähnlichen Urteil. Bei prognostischen Aussagen, die auf Wahrscheinlichkeitskalkülen beruhen, handelt es sich grundsätzlich um Fiktionen. Zukünftige Ereignisse treten nämlich nicht zu neun oder zu 99 Prozent, sondern entweder ganz oder gar nicht ein – unabhängig von allen Voraussagen. Siehe auch meine The European-Kolumne: Die Antwort bleibt 42.

Vielleicht vertreten die Kritiker und Befürworter von Big Data auch nur ein sehr fragwürdiges Menschenbild: Die erste Fraktion betrachtet Individuen wie wehrlose Web-Maden, die beliebig manipulierbar sind und sich nicht selbst schützen können. Soll uns der Bundesinnenminister vor den bösen Algorithmen beschützen, wo er uns doch gleichzeitig über Staatstrojaner ausspioniert? Oder der Staat als abstrakte Größe? Oder irgendwelche Moralapostel? Keine sehr schönen Perspektiven.

Und die andere Fraktion will eben nur Big Data-Systeme verkaufen und behauptet, unsere Wünsche erahnen zu können, um Produkte und Dienste besser an den Mann oder die Frau zu bringen. Kein Software-Anbieter käme auf die Idee, den potenziellen Kunden klarzumachen, dass sie ein Ratespiel erwerben. Insofern schlummert in dieser Debatte ein philosophisches Problem. Wie stark lässt sich das Verhalten von Menschen determinieren? Es ist vielleicht auch nur die Sehnsucht der Controlling-Gichtlinge, wieder mehr Planungssicherheit unter die Füße zu bekommen. Man sollte einfach kleinere Brötchen backen.

So können Text Mining-Systeme den Inhalt eines eingehenden Textes analysieren und per Mustervergleich den zugrunde liegenden Geschäftsvorfall daraus ableiten – auch und im Besonderen bei unstrukturierten Kundenmitteilungen per E-Mail, De-Mail und Web.

„Mittlerweile erreicht intelligente Klassifizierungssoftware in Poststellen und Service-Centern Fehlerraten, die unter den üblichen Raten bei der manuellen Sortierung von Dokumenten durch Mitarbeiter liegen“, weiß Andreas Klug vom Softwarehaus Ityx in Köln.

Ebenso ermöglichen die Lösungen in vielen Fällen eine automatisierte Erkennung und Extraktion von Fachdaten, um den Kontext einer Nachricht zu bereits bestehenden Informationen festzustellen, bevor ein menschlicher Sachbearbeiter zu dem Fall hinzugezogen wird. Auf diese Weise könne ein modernes Posteingangsmanagement die richtige Verteilung und Beantwortung von Dokumenten im wahrsten Sinne des Wortes “erlernen”. Also eine erhebliche Arbeitserleichterung und Zeitersparnis.

Man könnte auch Apps für den Service auf den Markt bringen, wo der Kunde steuert, wie tief die Datenanalyse gehen soll, um seine Anliegen schneller zu lösen.

„Sie ermöglichen nicht nur die Identifikation des Kunden, sondern bieten sehr viele Möglichkeiten für die Datenanalyse und Vorqualifizierung, die der Anwender individuell steuern kann“, erläutert Heinrich Welter von der Firma Genesys im ichsagmal-Interview.

So könne man den Blindflug im Service beenden. Der Kunde entscheide die Kommunikationsform und der Anbieter stellt sich genau auf das ein, was in der App abgerufen wird. Man braucht nicht mehr in der Warteschleife zu verwesen oder ständig sein Anliegen wiederholen. Zudem werde die Autarkie des Kunden gestärkt, so Welter.

„Er gibt genau seine Präferenzen an und teilt dem Unternehmen mit, welche Daten analysiert werden dürfen und welche nicht.“

Und das könne sich auch von Fall zu Fall ändern, etwa bei der Übermittlung von Geopositionen bei einem Autounfall, die man dann nur in dem einzelnen Fall freigibt.

Insofern sollten die Big Data-Apologeten etwas weniger ihre Klappe aufreißen, sondern Dinge programmieren, die man im Alltag nützlich einsetzen kann. Punktuell, situativ und nur dann, wenn ich es als Anwender auch zulasse. Das menschliche Verhalten ist nicht bestimmbar wie ein mechanisches Uhrwerk. Fortsetzung folgt. Es gibt schon einige Reaktionen für weitere Interviews.

Big Data und die Algorithmus-Herrschaft über Web-Maden

Klein-Gunni

Hallo, ich bin Dein Algorithmus und ab sofort gehörst Du mir. Deine zwanzig Datenpunkte, die Du im Internet zurückgelassen hast, reichen mir, um zu wissen, wer Du bist. Und als willenloser und dummer User, wie ich Dich täglich im Netz wahrnehme, entscheide ich fortan für Dich, was Du in Zukunft machen wirst, Du kleine Web-Made.

Mit diesen drei Sätzen könnte man die prosaischen Gedankenflüge von Miriam Meckel zusammenfassen, die sie in unterschiedlichen Varianten verkündet. Die Kommunikations-, Politik-, Rechts- und Chinawissenschaftlerin wandelt auf den Spuren des Filterblasen-Diskurses, den der Online-Pionier Eli Pariser in seinem Opus „The Filter Bubble“ ausgelöst hat. Auch er wählt als Ausgangspunkt für seine steilen Thesen einer drohenden Maschinen-Gatekeeper-Herrschaft den Dezember 2009: In diesem Monat änderte Google seinen Suchalgorithmus und läutete eine neue Ära der Personalisierung ein. Eine Zeitenwende. In der feuilletonistischen Variante von Frau Meckel sterben wir nun den Tod der virtuellen Berechenbarkeit.

Die Netzmenschen erleben eine Neuauflage des Schicksals von Narziss, dem Sohn des Flussgottes Kephissos, der sich in sein Spiegelbild verliebte, als er sich an einer Quelle niederließ und starb:

„Enttäuschung, Entzauberung und Verirrung – sie bescherten dem Götterjungen sein Ende“, schreibt Meckel im Spiegel.

Diesmal ist es nicht die Wasserquelle, die uns ins Unglück stürzt, sondern Software, die von Google, Facebook und anderen Internet-Giganten programmiert wird.

„Immer mehr Entscheidungen werden uns im personalisierten Internet durch Algorithmen abgenommen“, skizziert Meckel die Lage.

Auf der Strecke bleiben Zufälle, Überraschungen, Zweifel und Ungewissheit. Als Ergebnis entsteht eine Gesellschaft, die auf dem weltkurzsichtigen digitalen Narziss beruht. Was hat uns der arabische Algebraiker Al-Khwarizimi da nur eingebrockt? Oder hat die Kommunikations-, Politik-, Rechts- und Chinawissenschaftlerin die faszinierenden Denkanstöße und Prozeduren der Informatik zur Lösung eines Problems vielleicht falsch verstanden? Die Behauptungen der Professorin für Corporate Communication und Beraterin für strategische Kommunikation stoßen auf Skepsis:

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die bis zum Ende unseres Jahrhunderts keine Ergebnisse zeitigen wird“, erwidert der Jurist und Informatiker Christoph Kappes.

Gute Algorithmen sind lernfähig

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes.

Herrschaft der Automaten?

Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte.

„Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien.

Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen.

„Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Wie könnten denn nun personalisierte Dienste fernab von den Sirenen-Gesängen von Kulturkritikern wie Meckel funktionieren? Welche Versprechen kann der Bullshit-Bingo-Tanz um das Goldene Kalb namens „Big Data“ wirklich einlösen? Wird es Apps geben, die sich automatisch um meine Anliegen als Verbraucher kümmern – die mir also nervige Routinearbeiten abnehmen, so dass ich mehr Zeit bekomme für die Lektüre schöngeistiger Literatur? So behauptet Michael Wexler, Leiter Digital Insights bei Citigroup, über Big Data-Systeme die „Bedürfnisse“ ganz unterschiedlicher Kunden vorauszusehen.

„Wir beginnen zu verstehen, wie unterschiedlich Kunden mit Finanzdienstleistungen umgehen wollen und können unsere Angebote an diese Wünsche anpassen. Big Data hilft uns, Offline-Interaktionen mit Online-Banking-Klicks zu verbinden, aber auch mit Mobile- und Tablet-Apps.“

Über neue Tools konzentriere man sich auf „atomic data“:

„Wer jeden kleinen Click und jede kleine Aktion in digitalen Netzen analysiert, entdeckt, was Kunden wirklich frustriert, oder stösst auf ungenutztes Potenzial, wie man Kunden bei ihren Entscheidungen unterstützen kann. Wir betreiben auch «text mining», das heisst, wir untersuchen Inhalte in sozialen Netzwerken und lernen so, was unsere potenziellen Kunden beschäftigt“, so Wexler im Interview mit dem Gottlieb-Duttweiler-Institut.

Es bleibt allerdings immer noch ein Blick in den Rückspiegel. Wie treffsicher sind nun die Prognosen für das zukünftige Verhalten der Kunden? Können die Wünsche der Kunden antizipiert werden.

Fragen über Fragen, die ich gerne in nächster Zeit in Interviews behandeln möchte. Am liebsten als Video-Gespräch via Hangout On Air. Wer Zeit und Lust hat, mit dem mache ich natürlich auch gerne ein Bibliotheksgespräch bei mir zu Hause.

Supercomputer zur Weltrettung für 20 Euro

Der Kombinatoriker Lullus

Auf der Suche nach der Welterklärungsmaschine, die der ETH-Professor Dirk Helbing ersehnt, ist man in der Literatur schon längst fündig geworden. Die Antwort lautet 42.

Science Fiction-Kenner werden bei dieser Zahl sofort hellhörig und auf das kürzeste und bekannteste Zitat des Douglas Adam-Romans „Per Anhalter durch die Galaxis“ verweisen. Es ist die Antwort auf die Frage nach dem Leben, dem Universum und dem ganzen Rest, die vom Super-Computer Deep Thought nach einer überschaubaren Rechenzeit von 7,5 Millionen Jahren ausgespuckt wird.

Um sich diesen Zeitaufwand zu sparen, könnte der liebwerteste ETH-Gichtling auch einen anderen Weg beschreiten: Einfach in ein Schreibwarengeschäft gehen und Utensilien zum Nachbau der Logik-Maschine von Raimundus Lullus kaufen. Er hatte so um 1300 auf dem mallorquinischen Berg Randa den göttlichen Auftrag empfangen, die Ars Magna zu verfassen. Entstanden ist eine logische Maschine zur Produktion von Aussagen mittels einer permanent sich differenzierenden und fragenden Reflexion. Ein Instrument zum Finden und Erfinden, zum Prüfen und Bestimmen, zum Entwerfen und Erobern neuer Räume des Denkens. Ein steter Kampf gegen das Ungewisse, gegen den Zweifel am Wissen. Nachzulesen in der exzellenten Arbeit von Werner Künzel und Peter Bexte: „Allwissen und Absturz – Der Ursprung des Computers“.

Wundermaschine für 20 Euro

Die Bastelarbeit an dem Lullus-Supercomputer dürfte so für 20 Euro zu haben sein. Am Ende entsteht eine Denkmaschine für Spiel, Assoziation und Erfindungskunst, die übrigens Gottfried Wilhelm Leibniz zur Konzeption des binären Zahlensystems anregte.
Den Bau des Ars Magna-Apparates könnte der liebwerteste ETH-Gichtling auch mit einem Urlaub auf Mallorca und einer Besichtigung des Lullus-Klosters verbinden. Auf Cobol läuft dieses Kombinatorik-Meisterstück übrigens auch. Supercomputer sind da nicht vonnöten. Mehr dazu in meiner morgigen The European-Kolumne 😉

Auf der Suche nach der Welterklärungsmaschine: Von den zweifelhaften Verheißungen eines Supercomputers

Scheitern gehört zur Disruption

In Zürich will ein Professor auf einem Computer das gesamte Weltgeschehen simulieren. Menschliches Verhalten und die Zukunft sollen so berechenbar werden. „Wollen wir das überhaupt“, fragt sich die Frankfurter Allgemeine Sonntagszeitung. Besser wäre wohl die Frage, ob wir und der Professor das überhaupt können.

Die Finanzkrise hätte es mit der Welterklärungsmaschine in der Schweizer Metropole angeblich nicht gegeben, der Tsunami hätte nicht 230.000 Menschen getötet, und auch Hitler wäre nicht an die Macht gekommen:

„Wenn alles nur besser gesteuert wäre. Dirk Helbing läuft mit großen Schritten auf das sozialwissenschaftliche Institut der Eidgenössischen Technischen Hochschule in Zürich zu. Der Professor hat es eilig. Er will die Zivilisation retten. Mit Computern, die den Menschen helfen, sich selbst zu steuern. Und um diese Computer zu bauen, braucht Helbing eine Milliarde Euro – die Hälfte davon soll die EU bezahlen“, so die FAS.

Sein Projekt habe es in die letzte Runde des „Future and Emerging Technologies“-Wettbewerbs der EU geschafft – noch nie zuvor wurden so hohe Fördermittel an Forscher vergeben.

„Wenn Helbing und sein Team gewinnen, wollen sie das gesamte Geschehen auf der Welt mit einem Supercomputer simulieren: Sämtliche verfügbaren Informationen über alle und alles, von überall, sollen permanent einfließen. So soll die Zukunft vorhersehbar werden“, führt die FAS weiter aus.

„Ein Jahr vor dem Banken-Crash unterhielt sich Helbing auf einer Konferenz in Dresden mit Vertretern der Europäischen Kommission. Keiner der Experten habe die Finanzkrise kommen sehen, sagt Helbing – außer ihm selbst. Er habe gewusst, dass es Kaskadeneffekte, wie er das nennt, geben würde, und erkannt, dass die Politik das nicht versteht. Da sei ihm klar geworden: Die Zeit ist reif für sein Projekt zur Berechnung der Welt. ‚FuturICT‘, was, entknotet und ins Deutsche übersetzt, ungefähr bedeutet: die Vorhersage der Zukunft mit Informations- und Kommunikationstechnik. Was die Gehirne der Politiker nicht leisten können, müsse die Technik erledigen. ‚Wir brauchen neue Erkenntnisinstrumente. Früher gab es ein Fernrohr, in Zukunft muss es Instrumente geben, die Feedback- und Kaskadeneffekte im Vorfeld erkennen lassen'“, erläutert die FAS.

Merkwürdig, dass solche Erkenntnisse immer erst so spät das Licht der Öffentlichkeit erblicken. Professor Helbing hat also alles vorher gewusst. Ihm war also schon 2008 klar, dass Lehman Brothers den Bach runtergeht, die Immobilienblase in den USA platzt und das gesamte Finanzwesen an den Rand des Absturzes gebracht wird. Warum haben wir von diesem Genie diese Weissagungen nicht schon vor fünf Jahren gehört? Das riecht kräftig nach Ex-Post-Schlaumeierei und Wissensanmaßung. In der Wirtschaftswissenschaft verabschiedet man sich gerade von der Planungs- und Vorhersage-Hybris, beerdigt den Rationalitätsmythos homo oeconomicus und muss kleinlaut eingestehen, noch nicht einmal den Konjunkturverlauf eines Jahres richtig prognostizieren zu können. Nun kommt ein zur Sozialwissenschaft konvertierter Naturwissenschaftler daher und predigt die Notwendigkeit einer eierlegenden Welterklärungs-Wollmilchsau. Ich halte das für Scharlatanerie.

„Management der Zukunft findet unter den Bedingungen der Komplexität und Zufall statt. Zufallsfluktuationen und Komplexität erzeugen nichtlineare Dynamik“, schreibt der Wissenschaftstheoretiker Klaus Mainzer in seinem Buch „Der kreative Zufall – Wie das Neue in die Welt kommt“.

In unsicheren und unübersichtlichen Informationsräumen könnten Menschen nur auf Grundlage beschränkter Rationalität entscheiden und nicht als homo oeconomicus. Der Laplacesche Geist eines linearen Managements von Menschen, Unternehmen und Märkten sei deshalb zum Scheitern verurteilt. Auch wissenschaftliche Modelle und Theorien seien Produkte unserer Gehirne.

„Wir glauben in Zufallsreihen Muster zu erkennen, die keine sind, da die Ereignisse wie beim Roulette unabhängig eintreffen. Wir ignorieren Spekulationsblasen an der Börse, da wir an ein ansteigende Kursentwicklung glauben wollen“, erläutert Professor Mainzer.

Zufall führe zu einer Ethik der Bescheidenheit. Es gebe keinen Laplaceschen Geist omnipotenter Berechenbarkeit. In einer zufallsabhängigen Evolution sei kein Platz für Perfektion und optimale Lösungen. Zufällig, spontan und unberechenbar seien auch Einfälle und Innovationen menschlicher Kreativität, die in der Kultur- und Wissenschaftsgeschichte als plötzliche und unvorherbestimmte Ereignisse beschrieben werden. Ohne Zufall entstehe nichts Neues.

„Nicht immer fallen die Ereignisse und Ergebnisse zu unseren Gunsten aus – das Spektrum reicht von Viren und Krankheiten bis zu verrückten Märkten und Menschen mit krimineller Energie“, resümiert Mainzer.

Der Ökonom Friedrich August von Hayek wandte sich 1974 in seiner Rede zur Verleihung des Wirtschaftsnobelpreises gegen die Benutzung der Instrumente der harten Wissenschaften in den sozialen Wissenschaften. Den Boom dieser Methoden in den Wirtschaftswissenschaften konnte Hayek nicht aufhalten, obwohl es immer noch Stimmen gibt, die den Ökonomen eher die Rolle bescheidener Philosophen zuweisen wollen. Hohepriester sind sie jedenfalls nicht.

Professor Helbing sollte wieder zum Bunsenbrenner zurückkehren und sich auf physikalische Vorhersagen kaprizieren. In den Sozialwissenschaften haben mechanistische und formelgesteuerte Instrumente nichts zu suchen. Hat der Helbing meine spontane Meinungsäußerung voraussehen können?

Ich werde das Thema in meiner Mittwochskolumne für das Debattenmagazin „The European“ aufgreifen.

Statements wie immer hoch willkommen. Benötige ich am Dienstag so bis 12 Uhr.

Auf#Regener des Tages: Bubble-Rhetoren unterschätzen Kompetenz der vernetzten Verbraucher

Mein Aufreger des Tages für die absatzwirtschaft: Filterbubble-Theorie – Werden Konsumenten durch Suchmaschinen und Filterfunktionen der sozialen Medien entmündigt? Hier ein Auszug: Im Diskurs über die vermeintliche Diktatur von Filterblasen, Algorithmen und personalisierten Diensten wird der Eindruck erweckt, dass sich Mensch und Maschine in einem Teufelspakt gegenüberstehen. Zu den prominentesten Vertretern der Jammerathleten, Klagegenies und Kassandren vom Dienst zählt der Filterbubble-Autor Eli Pariser. Angeblich werden wir durch Personalisierungsfunktionen des Netzes sukzessive entmündigt. Das selbstbestimmt Ich erlebt eine Umformung zu einem fremdbestimmten Werbemedium. Im Klagechor der digitalen Skeptiker wird davor gewarnt, sich den Einflüsterungen der Reklame willenlos zu ergeben. Am Ende sei es nicht mehr möglich, freie Entscheidungen zu fällen.

Sollten wir als Alternative weiter auf die Alzheimer-Dienste von Call Center-Anbietern oder pauschale Werbe-Berieselung setzen?

Jeder Mensch filtert und vergisst Informationen – ansonsten würden wir im Wahnsinn enden. Jeder konstruiert seine eigene Wirklichkeit, konsumiert, liest und liebt nach bestimmten Mustern und Lebenserfahrungen. Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen. Niemand ist diesen Diensten willenlos ausgesetzt.

„Die meisten Diskussionen zur Rolle von Filtern haben den Fehler, dass sie von Information als etwas Gegebenem ausgehen“, schreibt der Berater Christoph Kappes in einem Beitrag für die Zeitschrift „Merkur“. Im Hinblick auf Neues sei die Theorie von der Filterbubble sogar fachlich falsch: „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärte Kappes in einem Telefoninterview mit mir.

Es ist ein simpler Trick der Bubble-Fraktion, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben, um entsprechend kritischer den Diskurs vorantreiben zu können. Es könnte sich natürlich auch um ein psychologisches Syndrom handeln:

„Wir nennen das die Animation des Toten. Menschen gehen offensichtlich viel lieber und leichter mit Lebendigen um als mit Toten. Wenn ich mir meinen Dosenöffner, der gerade abgerutscht ist und mich verletzt hat, als beseelt denke, kann ich ihn beschimpfen. ‚Du blöder Dosenöffner. Irgendwann schmeiß ich Dich in den Müll‘. Das macht man mit seinem Laptop, mit seinem Auto und generell mit Technik. Dabei weiß jeder, dass die toten Dinge mich gar nicht verstehen können“, so Dr. Gehard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung.

„Wer einen Schuldigen in der Maschinenwelt verortet, unternimmt keine weiteren Denkanstrengungen mehr. Maschinen, Algorithmen und Software sind aber keine Personen. Maschinen sind immer Werkzeuge von Menschen. Auch der Algorithmus wird von Menschen gemacht und benutzt. Niemand kann mich daran hindern, einen Algorithmus zu programmieren, der vielleicht besser ist als das, was Google und Facebook auf den Markt bringen. Das ist ein sinnvoller Standpunkt“, so Wohland.

Wer von bösen, manipulativen und bedrohlichen Technologien redet, stehe sich selber im Weg, zu klaren Erkenntnissen zu kommen. Es komme nur Unsinn heraus. Eine Simplifizierung der Maschinenwelt bringe uns nicht weiter.

Social Web straft inhaltsleeres Marketing-Geträller ab

Die Bubble-Rhetoren unterschätzen die Kompetenz der vernetzten Verbraucher. „Nutzer teilen Inhalte nicht, wenn sie ihnen nicht vertrauen“, schreibt Salima Richard in dem Beitrag „Psychologische Studie: Warum wir Inhalte im Netz teilen“.

Einen zweiten Aufreger habe ich für Service Insiders recherchiert: Neues Kreislaufwirtschaftsgesetz missachtet EU-Recht: Müllverbrennung und Recycling gleichgestellt – Mittelständische Recyclingwirtschaft gefährdet.

Aufregener ist ja tatsächlich der Auf#Regener. So schreibt Netzpolitik.org vollkommen richtig:

Wenn ich früher an Element of Crime dachte, wäre mir dazu ein Begriff wie Ignoranz als einer der letzten eingefallen. Seit gestern ist das anders, seit Sven Regener, Frontmann der fast schon legendären Band, bei Zündfunk auf Bayern 2 einen so unfassbar ignoranten Rant abgelassen hat, dass sogar Jan Delays Lapsus in Sachen Abmahn-Einnahmen dagegen fast noch putzig wirkt.

Ich schmeiße wohl meine mp3-Regener-Platten weg.

Aber Sveni-Boy verdient mildernde Umstände: Finger weg von seiner Paranoia

Ich sag mal-Bibliotheksgespräch: Diskurs über dumme Organisationen und überschätzte Technik

Hier ist es nun, das erste Bibliotheksgespräch des Ich-sag-mal-Blogs, wie ich es vor ein paar Tagen angekündigt habe. Mein Gesprächspartner Gerhard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung, äußerte sich sich über die Sprache der Technik, mystifizierte Algorithmen und Maschinen, über Dummheiten in der Unternehmenssteuerung und die Grenzen der Beratung. Ein ausführlicher Bericht wird morgen im Fachdienst „Service Insiders“ erscheinen. Das knapp einstündige Stück habe ich für die Videoversion auf ein Drittel reduziert. Die komplette Diskussion liegt aber als Audioaufzeichnung vor.

Die Video-Datei habe ich mal auf Youtube und identisch auf WordPress hochgeladen, um die Qualität vergleichen zu können. Mein erster Eindruck. WordPress ist besser. Wer Lust und Zeit hat, kann das ja mal selber überprüfen.

Weitere Gespräche werden folgen. Vorschläge immer willkommen. Wer den beschwerlichen Weg nach Bonn-Duisdorf auf sich nehmen möchte, ist herzlich eingeladen 🙂

Algorithmen und das mechanistische Weltbild ihrer Kritiker und Anwender

Kathrin Passig setzt sich in der Süddeutschen mit der im vergangenen Jahr um sich greifenden Kritik an einer vermeintlichen Algorithmen-Diktatur auseinander (Zur Kritik an Algorithmen: Warum wurde mir ausgerechnet das empfohlen?). Vor allen Dingen Miriam Meckel hatte sich ja mit Horrorszenarien hervorgetan. Passig schreibt:

„Zwei Probleme sind es vor allem, die die feuilletonistische Algorithmenkritik behindern. Zum einen sind viele dieser Algorithmen – und es sind gerade die, mit denen Teilzeitinternetnutzer in Berührung kommen – nicht besonders ausgefeilt. Amazon empfiehlt mir regelmäßig den Kauf meiner eigenen Bücher, Google+ schlägt seinen Nutzern vor, sich mit ihren eigenen Zweit-Accounts zu befreunden. Aus diesen schlechten Erfahrungen lässt sich aber noch nichts Allgemeingültiges über maschinell erzeugte Filter und Empfehlungen ableiten. Und zum anderen beruht das Misstrauen der Algorithmenkritiker selten auf konkreten Erfahrungen oder technischem Verständnis.“

Miriam Meckels Argument, Empfehlungs- und Filteralgorithmen verlängerten nur auf langweilige Weise die Vergangenheit eines Menschen in dessen Zukunft, beruhe auf einer irreführenden Prämisse, nämlich ihren Erfahrungen mit der iTunes-Funktion „Genius“. Genius erzeuge automatisch eine Playlist aus Songs, die dem gerade gehörten ähneln, und Meckel beklagt:

„Aus unserer Vergangenheit und unserem früheren Verhalten wird unser mögliches zukünftiges Verhalten errechnet. Das bedeutet, wir bewegen uns in einen Tunnel unserer selbst hinein, der immer enger, immer selbstreferentieller wird, weil keine neuen Impulse mehr hinzukommen.“

Genius aber könne dem Hörer nichts vorspielen, was sich nicht bereits auf dessen Festplatte befindet.

„Es bringt nur die Stücke aus der eigenen Musiksammlung in eine gefällige Reihenfolge und behauptet auch nichts anderes, denn iTunes ist nun mal kein Radio. Neues kann bei Genius nur am Rande als Kaufempfehlung auftauchen. Diese Empfehlungen beruhen ebenso wie die Zusammenstellung der Playlist aus dem Vorhandenen auch auf den Nutzungsdaten, die andere iTunes-Nutzer dem Dienst (anonymisiert) zur Verfügung stellen können“, so Passig.

In der FAZ legte Meckel dann noch weitere Argumente vor:

„Alle Unbekannten in dieser Gleichung werden von vornherein herausgerechnet, und so entsteht ein endloser gleichförmiger Fluss von Mainstreaminhalten, in dem alle mitschwimmen können. Varianz oder gar Aufklärung kommt so nicht in die Welt.“

Dazu Passig: „Abgesehen davon, dass die ‚Unbekannten in dieser Gleichung‘, die ‚von vornherein herausgerechnet werden‘, nichts Erkennbares mit dem konkreten Innenleben von Filter- oder Empfehlungsalgorithmen zu tun haben, fehlt es an konkreten Belegen für eine solche Gleichschaltung durch Algorithmen.“

Ich selbst hatte mich im September 2011 mit den Thesen von Meckel beschäftigt und dazu Internet-Experten Christoph Kappes interviewt: Sterben wir den Tod der virtuellen Berechenbarkeit?

„Man muss zwei Dinge unterscheiden. Wenn wir im Internet etwas preisgeben, was Maschinen lesen können, dann werden wir in gewisser Weise analysierbar in unserem Verhalten in der Vergangenheit. Man kann rückwärts Informationen über Personen gewinnen. Eine völlig andere Frage ist, ob ich das Verhalten von Menschen vorhersagen kann. Da stehen wir, wenn es überhaupt möglich sein sollte, allenfalls am Anfang einer Entwicklung, die auf absehbare Zeit keine Ergebnisse zeitigen wird.“

Es komme darauf an, um welche Arten von Vorhersagen es geht. Über großvolumige Datenmassen habe man schon heute die Möglichkeit, etwa über Gesundheit, Kriminalität, Wohlstand oder Bonität Wahrscheinlichkeitsaussagen über Personengruppen zu treffen.

„Das ist aber etwas völlig anderes. Das Handeln einer einzelnen Person fernab von Clusteranalysen kann man nicht vorhersagen“, betont Kappes. Was Frau Meckel vorbringt, sei viel zu undifferenziert. Algorithmen, wenn man sie klug programmiert, seien schon lange in der Lage, zu lernen. Und dieses Lernen beruhe auf Testverfahren, um erkennen zu können, wie sich ein Nutzer entscheiden könnte. „Nehmen wir die Personalisierung bei Textilwaren. Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind in ihrer Singularität einzigartig“, erklärt Kappes.

Gute Algorithmen seien so konzipiert, dass sie erst Wissen erzeugen müssen. Und das würden sie aus dem aktuellen Verhalten generieren.

„Sie legen mir nicht nur Sachen vor, die sie schon können. Das kann nicht funktionieren. Hier liegt auch ein Unverständnis gegenüber der Funktionalität von E-Commerce vor. Die Maschine muss mir doch immer etwas anderes vorschlagen als das, was ich schon gekauft habe. Wer gerade ein Auto erworben hat, sollte am nächsten Tag nicht sofort wieder die Empfehlung für ein Auto bekommen“, so der Berater für Online-Strategien.

Empfehlungssysteme leben nicht von der Monotonie, sondern auch von Zufällen und Überraschungen. „Algorithmen sind keine statischen Regeln. Das stellen sich vielleicht Laien so vor. Es sind andere Mechanismen. Berechnet und bewertet werden Verhaltenswahrscheinlichkeiten auf Basis des sozialen Graphen oder der Crowd eines Nutzers. Vorschläge werden also dynamisch generiert“, sagt Kappes.

Algorithmen sind also nicht allwissend und versagen bei der Prognose von Verhaltensmustern in der Zukunft. Kappes hat in dem Interview eine Frage aufgeworfen, die viel spannender ist und die ich in meiner nächsten Kolumne aufgreifen möchte? Mit welchem Weltbild agieren Konzerne wie Google und Facebook bei der Programmierung von Algorithmen? So operiere Facebook mit einem sehr einfachen behavioristischen.

„Ich kann die Aufregung von Geisteswissenschaftler verstehen, wenn Technologen simple Modelle von menschlichem Verhalten in die Welt setzen. Das ist in der Tat bedenklich. Hier modelliert man den Menschen als Objekt der Maschine. So wird man der Komplexität seines Verhaltens und Denkens nicht gerecht. Hier liegt Facebook falsch mit der Frage, ob man aus dem Maß der Interaktion mit anderen Personen schließen kann, welche Statusmeldungen angezeigt werden. Wenn ich etwas schweigend zur Kenntnis nehme, ist das ja kein Beleg für Unwichtigkeit. Auf dieser Grundlage gibt es keine Rechtfertigung für das Ausblenden von Informationen.“

Aber nicht nur Facebook wenden solche simplifizierenden Verfahren an. Auch die Sozialwissenschaften – besonders die Politikberater in den Wirtschaftsforschungsinstituten – vertreten eine mechanistische Weltsicht, kritisiert Wolfgang Streeck, Direktor am Max-Planck-Institut für Gesellschaftsforschung in Köln. Sie blenden den Faktor Ungewissheit aus. Warum das bei den Konjunkturprognosen regelmäßig in die Hosen geht, habe ich bereits ausführlich in diesem Blog dargelegt. Streeck liefert dafür weitere Argumente:

„Jede Betrachtung gesellschaftlicher Prozesse hat es mit Fallzahlen zu tun, die niedriger sind als die Zahl der Faktoren, die als Erklärung in Frage kommen. Damit aber gibt es für jeden gegenwärtigen Zustand unvermeidlich mehr als eine gültige Erklärung, und jeder zukünftige Zustand erscheint als einmaliges Resultat eines einmaligen Zusammenwirkens einer Vielzahl von Faktoren, als Unikat (Kappes spricht von Singularität, gs), für das es keine Normalverteilung gibt und dessen Besonderheiten deshalb nicht auf allgemeine Gesetzmäßigkeiten reduziert werden können“, schreibt Streeck in dem Sammelband „Wissenschaftliche Politikberatung“, erschienen im Wallstein Verlag).

Trotzdem versuchen natürlich Politiker und auch Marketing-Gurus, unser Handeln zu beeinflussen oder sogar zu steuern. Wenn Menschen das durchschauen, passiert sogar das Gegenteil. Solche Dinge bleiben eben nicht geheim. Instrumente zur Verhaltenskontrolle oder Verhaltensmanipulation werden über kurz oder lang bemerkt. Man erkennt die Absichten und verhält sich absichtsvoll anders. Streeck verweist auf die Hawthorne-Experimente (1924 bis 1932). Forscher wollten herausgefunden haben, dass Arbeiterinnen auch ohne Lohnerhöhung schneller und besser arbeiten, wenn man freundlich zu ihnen ist (wie großzügig, gs) und die Wände gelb anstreicht.

„Aber nachdem sich unter den Beschäftigten herumgesprochen hatte, dass das Management mit seinen guten Worten und der gelben Farbe nur Geld sparen sollte, kam es zu Lohnforderungen und einem Streik“, führt Streeck aus.

Die Geltung derartiger Modelle und Theorien könne durch ihr Bekanntwerden schnell wieder außer Kraft gesetzt werden!

In meiner Freitagskolumne möchte ich genau diesen Aspekt aufgreifen. Meinungsäußerungen und Tipps bitte bis Donnerstagabend hier als Kommentar posten oder mir direkt wieder per E-Mail senden an: gunnareriksohn@googlemail.com

Dumme Facebook-Nutzer und die Heuchelei der Staatsfürsorge: Das Schlusswort hat Red Robo

Nun ist es also soweit. Die Schlacht kann beginnen. So schreibt das tn3-Magazin: Like-Button-Streit eskaliert: Datenschützer mahnt ab.

„Im Streit um die Verwendung des Facebook Like-Buttons wird es ernst in Schleswig-Holstein. Der Leiter des Unabhängigen Landeszentrums für Datenschutz (ULD), Thilo Weichert, mahnt Staatskanzlei, Wirtschaftsministerium und Privatwirtschaft deshalb ab. Aufgrund der „unsicheren Rechtslage“ werde die IHK Schleswig-Holstein einen Musterprozess anstrengen, schreiben die Lübecker Nachrichten. Auch die Behörden zeigen kein Einverständnis.“

Mit Einsicht der Betroffenen könne der Datenschutz-Deichgraf nicht rechnen. Warum auch:

„Die Staatskanzlei erklärt in Person von Regierungssprecher Knut Peters, das soziale Netzwerk habe sich besonders in Krisenzeiten bewährt. Als Beispiele nennt er die Bekanntmachung von winterbedingten Schulausfällen und die Verbreitung von Informationen über das EHEC-Virus. Auch Ministerpräsident Peter Harry Carstensen macht seinen Standpunkt im Bezug auf das Gebaren des ULD gegenüber dem Schleswig-Holsteiner Zeitungsverlag unmissverständlich deutlich: ‚Drohgebärden sind nicht nur kontraproduktiv, sie sind auch rechtlich fragwürdig.‘ Die IHK Schleswig-Holstein signalisiert, sie werde im Disput um die Verwendung des Like-Buttons nicht nachgeben und auch ein Verfahren nicht scheuen“, bericht tn3.

Ich hoffe, dass es zu diesem Musterprozess kommen wird, um endlich Rechtsklarheit zu schaffen und der antizipierten Verwaltungspraxis von Weichert die Grundlage zu entziehen. Mit den Gesetzen steht das nach meiner Auffassung nicht im Einklang. Der ganze Streit wird dominiert von Internet-Blindfischen, die über einen Sachverhalt urteilen, den sie aus eigener Erfahrung wenig oder gar nicht kennen. Zudem sind den Facebook-Kritikern die Interessen der Nutzer anscheinend wurscht. Ähnlich sieht das der Zeit-Redakteur Ijoma Mangold: „Die Sorge um Seelenheil ist bei denen am größten, die noch nie einen Schritt in Richtung Facebook getan haben. Das Bild, das sie dabei von den Usern entwerfen, ist von verächtlicher Abwehr gezeichnet: digitaler Plebs, der die bürgerliche Unterscheidung zwischen privat und öffentlich verlernt habe.“ Oder eben in den Worten von staatlichen Datenschützern, dumme Menschen, die es nicht besser verdient haben und nun von ihnen in Schutzhaft genommen werden. Das ist auch das Thema meiner heutigen Freitagskolumne für Service Insiders: Zufall nach Plan? Facebook und der Laplacesche Geist omnipotenter Berechenbarkeit. Hier ein Auszug:

Auffällig an dem gesamten Diskurs über den Niedergang der Selbstbestimmtheit im Netz ist das Menschenbild der Internet-Kritiker. Wie weit können Algorithmen wirklich das Leben bestimmen und voraussagen? „Die Kulturkritiker fallen ein wenig ins 18. und 19. Jahrhundert auf das Niveau des Mathematikers und Philosophen Pierre-Simon Laplace zurück. Seine Sichtweise war sehr eng und deterministisch. Er predigte die Fiktion, dass die Natur vollständig berechenbar sei. Wir sehen ja an den Formelkönigen der Börsen und Wirtschaftsforschungsinstitute, wo das hinführt. Was dort in die mathematischen Berechnungen einfließt hat sehr viel mit der Vergangenheit und nur wenig mit der Zukunft zu tun. Es sind Ex-post-Prognostiker, die sich einen wissenschaftlichen Anstrich geben und mit ihren Vorhersagen eine Treffsicherheit wie beim Lotto erzielen“, kritisiert der IT-Experte Udo Nadolski, Geschäftsführer des Beratungshauses Harvey Nash.

Um die Natur zu berechnen, wie es Laplace vorschwebte, benötige man Hardware, die umfangreicher als unser Weltall sein müsste, erklärt Georg Brunold in seinem Buch „Fortuna auf Triumphzug“ (Verlag Galiani Berlin). Die erforderliche Informationsmenge sei so groß, dass sie durch die Wirklichkeit prinzipiell gar nicht dargestellt werden könnte.

Merkwürdig an der Algorithmen-Furcht ist die ambivalente Haltung der Bedenkenträger. Sie klagen über Datenfluten, Kontrollverlust, Burnout und mentaler Überforderung. Gleichzeitig betrachten sie das Internet wie eine Maschine, die nach einem Plan zusammen gesetzt sei und fordern die Rückkehr des Zufalls. Der Kern des Sozialen bestehe gerade nicht im totalen Erfasssenkönnen, meint Nina Pauer in ihrer Facebook-Abhandlung. „Also in dem, was jede Situation an Überraschendem, Unplanbarem, Ungesagtem, Angedeutetem birgt.“

Die Medienwissenschaftlerin Miriam Meckel fordert sogar einen planerischen Eingriff ins Internet, um wieder mehr Zufallselemente in die Algorithmen einzubauen. Zufall nach Plan? Algorithmen können doch nur Verhaltenswahrscheinlichkeiten ausrechnen und sind nie in der Lage, die Komplexität des Lebens und der Natur vollständig zu erfassen. Das wird auch Mark Zuckerberg nicht ändern. Sollte er anders denken, wird er von der Realität zu einer Ethik der Bescheidenheit gebracht. „Es gibt keinen Laplaceschen Geist omnipotenter Berechenbarkeit“, sagt der Wissenschaftstheoretiker Professor Klaus Mainzer. Auch unsere Einfälle, unser Denken, menschliche Kreativität und Innovationen seien zufällig, spontan und unberechenbar. „Ohne Zufall entsteht nichts Neues“, betont Mainzer. Der unerschütterliche Glaube an Kausalzusammenhänge ist wohl der Knackpunkt im Netzdiskurs über die Frage der virtuellen Berechenbarkeit des Internet-Nutzers.

Und was sagt mein Algorithmus-Freund Red Robo zu dem ganzen Theater?

Behandelt mich Google wie einen Kunden?


Zur Sperrung des Google+-Accounts von Mirko Lange, die inzwischen rückgängig gemacht wurde, gab es ja gestern eine heftige Diskussion über die Vorgehensweise der Internetgiganten im Umgang mit ihren Nutzern. Ich habe dazu ja auch etwas beigetragen 🙂 Das ging dann weit über den Einzeltatbestand hinaus und mündete in eine sehr fruchtbare Auseinandersetzung. Die einen meinen, man müsse eben genau wissen, auf was man sich einlässt. Wer gegen die Spielregeln verstößt, wird eben kurzerhand ausgestoßen. Da alles automatisch laufe, könne es keine individuelle Sonderbehandlung geben. Ein Diskussionsteilnehmer umriss das mit dem Prinzip „Shoot first, ask later“. Andere wiederum fordern von Google und Co. mehr Feingefühl und eine differenziertere Strategie, die sich sicherlich auch über Algorithmen abbilden lässt. Schließlich reden wir ja seit einigen Jahren darüber, dass sich Automatisierung und persönlicher Service nicht ausschließen. Zur letzteren Position neige ich auch. Silvan Rehberger hat diesen Faden aufgenommen und zur Fortsetzung der Debatte auf Google+ beigetragen. Hier mein Posting:

Also ich bin weit davon entfernt, Google-Bashing betreiben zu wollen oder Verstöße gegen AGBs oder sonstige Richtlinien zu rechtfertigen. Ich sehe mich in der Inanspruchnahme der Dienste von Google allerdings als Kunde – auch wenn ich außer Zeit und Nerven – nichts investieren muss. Schließlich ist Google nichts anderes als eine gigantische Werbemaschine – die Dienste sind nur Mittel zum Zweck: Werbeeinnahmen zu generieren. Das ist überhaupt nicht verwerflich – es hat nur nichts mit Altruismus zu tun. Deshalb wäre es doch mehr als selbstverständlich, Eskalationsstufen in den Google-Automaten einzubauen. Eine Art Ampelsystem: grün-gelb-rot, um dem Nutzer Handlungsspielräume zu lassen.

Schließlich wirbt ja Google auch mit den unendlichen Möglichkeiten, die die Cloud-Services bieten – auch für die Geschäftswelt. Was macht denn ein Freiberufler, der über mehrere Jahre seine komplette Büroorganisation in die Cloud von Google verlagert und ohne Angabe von Gründen abgenabelt wird. Er kann sich einen Wolf laufen in dem anonymen Google-Kosmos und wird dann noch angeranzt, wenn er an irgendeiner Hotline mal jemanden erreicht, weil die automatisierten Anfragen im Sande verlaufen sind. Das ist ja bereits Realität. Siehe den tn3-Bericht und auch meine Abhandlung.

Wir fluchen in der normalen Geschäftswelt über Servicebürokratie, über das Wanninger-Syndrom von Hotlines, über unkulantes Verhalten von Dienstleistern, nervige Werbeanrufe, unseriöse Vertriebspraktiken, ignorantes Verhalten von Konzernen und bejubeln die Ökonomie der Beteiligung, die neue Macht der Kunden in der Social Media-Welt und lassen uns aber von den Internet-Giganten wie Leibeigene behandeln. Da sollten wir dann mit gleicher Elle messen. Auch die Services von Google, Facebook und Co. sollten kritisch beleuchtet werden. Und wenn es dann um Hardware geht, wie beim ersten Start des Nexus One, dann sieht man, wie die Servicephilosophie von Google gnadenlos scheitert. Da gibt es dann keine Toleranz mehr, wenn ich einige hundert Euro für ein Smartphone bezahlen muss und nur dümmlichen Algorithmus-Service serviert bekomme.

Ein Blick in den Google-Maschinenraum

Die Unterwelt der Google-Benutzeroberfläche zählt wohl für Persönlichkeiten wie Frank Schirrmacher von der FAZ zu Welträtseln, die dringend entschlüsselt werden müssen: Die Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. Jetzt berichtet der seo-united-Blog zumindest von einem Experiment von amerikanischen Studenten, den Google-Algorithmus nachzubauen.

„Umfasst der Algorithmus von Google angeblich mehr als 200 Bewertungskriterien, war es den Mitgliedern der Northwestern Network Group mit Hilfe von nur 17 Rankingfaktoren möglich, in immerhin 80 Prozent der trainierten Fälle 8 der in den Top 10 von Google gelisteten Webseiten ebenfalls auszugeben. Auffällig ist, dass fast alle der 17 Faktoren lediglich das Vorkommen des Suchwortes (Title, H1 usw.) untersuchen bzw. dass es mit derart einfachen Kriterien überhaupt möglich war, den Algorithmus von Google so genau nachzubilden. Dass wahrscheinlich genau die bei Anwendung lediglich einer Handvoll Rankingfaktoren fehlenden 20 Prozent der Übereinstimmung mit den Ergebnissen von Google deren letztendliche Qualität ausmachen, außen vor gelassen, funktioniert Google wahrscheinlich einfacher als so mancher denkt. Der Google-Algoritmus mag zwar insgesamt 200 Faktoren beinhalten, bei 90 Prozent der Suchanfragen aber womöglich kommt es nur auf einige wenige davon an…“. Vielleicht ist das Geheimnis von Google doch mehr Marketing und weniger technologische Innovation.

Was netzpolitisch noch zu den Maschinenräumen von Google, Facebook und Apple zu sagen wäre, habe ich heute in meiner The European-Kolumne aufgegriffen.