
In Delphi befand sich die berühmteste griechische Orakelstätte. Dort erteilte die Priesterin Pythia in ekstatischem Rausch auf einem Dreifuß sitzend ihre scheinbar widersinnigen Orakel, zu denen sie Apollon inspirierte. Die Antworten von Pythia wurden in Versen verkündet und zumeist zweideutig formuliert. Ähnlich kryptisch klingen die Verheißungen der KI-Hohepriester, etwa wenn die KI die Zukunft der KI vorhersagen soll.
In Welterklärungsmaschinen sollen gar Empfehlungen zur Bewältigung des Klimawandels und Frühwarnungen ausgespuckt werden – selbst Befunde zur Bewältigung von Finanzkrisen stellen die KI-Konstrukteure in Aussicht. Vielleicht erleben wir auch nur die letzte Schlacht des Controllings, um in den Zeiten des Kontrollverlustes die alte Logik des Industriezeitalters in die vernetzte Welt zu retten. Die Schaffung von neuer Übersichtlichkeit im chaotischen Universum des Cyberspace. Der Wunsch nach Rückgewinnung der Deutungshoheit und die Sehnsucht nach maschinengesteuerten Entscheidungen auf dem Fundament der Ratio.
Das Ganze wird begleitet von utopischen und dystopischen Szenarien Rhetorik. Beide Fraktionen sitzen im selben Schützengraben und glauben an die vermeintlichen Zahlen-Zauberstücke, die ihnen Analysten und so genannte Experten mit bedeutungsschweren Gesten vorführen. Häufig handelt es sich um Physiker oder Mathematiker, die zur Sozialwissenschaft konvertiert sind. Und das wiederum ist kein Zufall. Schaut man in ihre Zauberkästen hinein, findet man recht simple Formeln. So hat Professor Michael Feindt den NeuroBayes-Algorithmus erfunden. Sein Ziel war es, ein Werkzeug für exakte Prognosen zu schaffen – sowohl für die wissenschaftliche Forschung als auch für unterschiedliche Wirtschaftszweige und Entscheidungsproblemen in Unternehmen.Das Feindt-Szenario klingt so: Man habe beispielsweise irgendeine App mit einer Entscheidungskompetenz, wie häufig ein bestimmter Artikel der Bekleidungsindustrie verkauft wird. Etwa ein Anzug oder eine Krawatte. Das sei eine wichtige Information für Disponenten von Mode.
„Ich selbst würde sagen: Ich habe keine Ahnung. Unsere Software schon. Sie macht eine Prognose und die Prognose hat einen Erwartungswert, einen Mittelwert, aber das ist eine ganze Wahrscheinlichkeitsverteilung. Vieles ist eben nicht durch einfache Zahlen darstellbar, vieles ist auch sehr unsicher. Es kann nur durch eine Wahrscheinlichkeitsverteilung beschrieben werden. Diese Unsicherheit mag sehr groß sein. Es gibt Artikel, die eine höhere Wahrscheinlichkeit richtig zum Mode Renner zu werden als andere. Und das kann man eben vorhersagen”, glaubt der Teilchenphysiker Feindt.
Mit der bekannten Unsicherheit könnte man die optimale Entscheidung treffen. Entscheidungsmaschinen seien besser als menschliche Experten. Denn der Mensch, das wisse man aus der Biologie, neige zu Verhaltensweisen, die nicht zu rationalen Entscheidungen beitragen. Eine Maschine könne bessere Entscheidungen treffen. Sie sei in der Lage, für eine Versicherung den günstigsten Tarif zu berechnen, der zu einer niedrigen Schadensquote beiträgt. Es werden also zwei Ziele gleichzeitig erreicht, die sich eigentlich ausschließen. Manager würden vielleicht den Tarif zu teuer oder zu billig anbieten. „Aufgrund von historischen Daten mit individualisierten Algorithmen erreicht man beide Ziele gleichzeitig”, meint Feindt.
Er würde sogar am liebsten auf Menschen bei diesen Anwendungen verzichten. Besser wäre es, wenn eine Dispositionsmaschine automatisch die Bestellungen auslöst. Also für den Einkauf von Modeartikeln, für Mettwurst und Schinken oder eben für die Berechnung des optimalen Tarifs bei einer Versicherung. Im Groben kann das sinnvoll sein, um die Menge an Hackfleisch besser zu kalkulieren, die täglich über die Verkaufstheke geht. So wären Einzelhändler in der Lage, weniger Fleisch wegzuwerfen. Verbessert sich dadurch aber der Verkauf von Fleisch- und Wurstware? Was steckt hinter den Durchschnittswerten, die man ermittelt?
Was Algorithmen leisten, sind Optionen, Wahrscheinlichkeiten, Vorschläge, Hinweise und Anregungen – gesteuert von Menschen, die mit Annahmen und Gewichtungen für ihre Prognose-Rechnungen operieren. Und die können Unternehmen, Volkswirtschaften, Konsumenten, Wähler und Politiker auch völlig in die Irre führen. Selbst bei Textilwaren: „Hier kann eine Maschine nicht vorhersagen, ob ich eine bestimmte Art von Bikini in der nächsten Sommersaison kaufen werde. In der Vorsaison galten vielleicht andere Regeln oder ein anderes Modebewusstsein. Die Maschinen müssen also immer wieder Neues in ihre Analysen einbeziehen, um das Interesse der Konsumenten zu testen. Genauso ist es mit politischen Ereignissen. Wenn etwa Themen wie die Sarrazin-Debatte oder der Fukushima-Atomunfall in den Nachrichten auftauchen, ist es für Maschinen nicht möglich zu sagen, was der Nutzer tun soll. Diese Ereignisse sind einzigartig“, erklärt der Jurist und Informatiker Christoph Kappes.
Es gebe immer wieder Modewellen, die die Analysierbarkeit komplexer Systeme versprechen, betont der Organisationswissenschaftler Gerhard Wohland. Es sei der monokausale Glaube, dass das was in der Gegenwart geschieht, seinen Grund in der Vergangenheit hat. „Wenn ich die Vergangenheit umfangreich und schnell genug auswerte, weiß ich, was die Zukunft bringt. Und genau das ist die Illusion. Das ist zwar möglich. Aber ich muss dann für sehr triviale Strukturen sorgen. In der Physik nennt man das Labor. Die Welt, wie sie ist, wird ausgeblendet. Mit den wenigen Wirkungszusammenhängen, die übrig bleiben, entwickelt man Gesetzmäßigkeiten. Für soziale Systeme ist das aber albern“, so Wohland. Ein Modell müsse einfacher sein als das, was es modelliert. Wenn das nicht so wäre, könnte man ja direkt den Untersuchungsgegenstand heranziehen. Modelle müssen also immer simplifizieren. Aspekte der Wirklichkeit werden ausgeblendet. Das gelingt aber nur, wenn zwischen wichtig und unwichtig unterschieden wird. Komplexe Systeme, also auch die menschliche Gesellschaft, kennen aber diese Unterscheidung überhaupt nicht. „Welches Ereignis nun eine Wirkung in der Zukunft erzeugt, kann man in der Gegenwart nicht wissen“, sagt Wohland. Die kleinsten Ursachen, die von Daten-Maschinen in Echtzeit-Analysen noch gar nicht als wichtig erachtet werden, könnten enorme Wirkungen erzeugen und die Simulationen ad absurdum führen. Am Ende bleibe Frust und Enttäuschung übrig. Insofern sei es fragwürdig, Maschinen, Software und Algorithmen in ihrer Wirkung und Bedeutung in ungeahnte Fallhöhen zu schrauben:
„Wenn neue Technik in die Welt kommt, gibt es immer zwei Tendenzen: Die Technik und das Potenzial der neuen Technik zu übertreiben oder zu verteufeln. Organisationen haben beides im Bauch. Sie übertreiben den Einsatz von Technik, wenn es um Steuerung und Prozesse geht. Man tut so, als sei alles durchschaubar. Gefragt ist nur die richtige Software und schon funktioniert das alles. Bei hoher Dynamik braucht man allerdings auch Menschen und ihre Kompetenzen, um Wertschöpfung zu erzielen. Dieser Punkt wird häufig übersehen. Auf der anderen Seite macht man Dinge, die längst von einer Maschine bewältigt werden können. Etwa bei der Unterscheidung einer Beschwerde und einer Adressänderung“, erläutert Wohland.
Vielleicht sollten die KI-Marktschreier einfach ein wenig bescheidener auftreten: Ansonsten könnten sie ein ähnliches Debakel wie Krösus erleben, der gegen Persien in den Krieg ziehen wollte und das Orakel von Delphi um Rat fragte. Die Pythia antwortete ihm, wenn er nach Persien zöge, würde ein großes Reich zerstört werden. Krösus war begeistert von der Antwort und zog gleich mit seinem Heer los. Leider war das große Reich, das dabei zerstört wurde, sein eigenes.
Siehe auch: