Faktencheck zur Digitalen Agenda: Watson übernehmen Sie! Vom Nutzen einer Vetomaschine

Vielleicht gibt es ja dann bald Watson-Brillen.
Vielleicht gibt es ja dann bald Watson-Brillen.

Der IBM-Rechner „Watson“ ist ein ziemlich schlaues Kerlchen. Nicht erst seit seinem legendären Sieg über die Champions des Ratespiels Jeopardy. Er kann noch viel mehr. Watson ist ein Fakten-Checker:

„Heute, drei Jahre nach dem Sieg der KI-Software bei der Quizshow Jeopardy, ist Watson bereits bei Behörden, Institutionen und Unternehmen in den USA im Einsatz. Die Software unterstützt dort Onkologen bei der Behandlung von Krebspatienten, führt natürlichsprachliche Verkaufsberatungen bei einer Bekleidungsmarke oder leitet aus der permanenten Analyse digitaler Medien (Blogs, Facebook, Zeitungen, Foren) ab, welche Themen sich als gesellschaftliches Mem abzeichnen und welche davon auf die Agenda der Wirtschaft gehoben werden sollten“, erläutert Konrad Buck in einem Gastbeitrag für Brightons.

Watson könnte nach Ansicht von brightone-Analyst Stefan Holtel auch den Politikbetrieb dramatisch verändern, da er Aussagen von Politikern einem Echtzeit-Faktencheck unterziehen kann.

Etwa parallel zu Bundespressekonferenzen, wie bei der Präsentation der „Digitalen Agenda“ der Bundesregierung.

Oder bei Wahlkampfreden, wenn mal wieder irgendein Sündenbock-Thema aufgetischt wird, beispielsweise bei der CSU-Kampagne „Wer betrügt, der fliegt“.

Inhaltsleere Polit-Rhetorik und polemischer Alarmismus könnten mit einer Veto-Maschine fundierter sowie schneller entlarvt werden. Damit wird Watson nicht zum Gestalter von Politik. Er könnte mit seinen Echtzeit-Analysen allerdings die Barrieren für dümmliche Agitation erhöhen. Als Recherchehilfe wäre Watson überaus nützlich. Was denkt Ihr?

Heute Abend nach der Tagesschau, also um 20:15 Uhr, machen wir bei Bloggercamp.tv schon mal einen digitalen Fitnesstest für Deutschland – noch ohne Watson. Für Zwischenrufe während der Liveübertragung Hashtag #bloggercamp verwenden.

Siehe auch:

Ihr habt ja bestimmt vom IT-Sicherheitsgesetz gehört.

Agenda ohne Plan.

Breitbandausbau: Die Internet-Lüge.

Wer zu Open Data nicht bereit ist, sollte von Big Data schweigen #Datability #Cebit #Systemtheorie #Schirrmacher

Automatisierte Kontrollgesellschaft?
Automatisierte Kontrollgesellschaft?

„We don’t know how the human brain works.“ Mit diesem Satz macht Patrick Breitenbach auf einen Artikel aufmerksam, der sich mit den Thesen von Kurzweil beschäftigt: „Why Ray Kurzweil is Wrong: Computers Won’t Be Smarter Than Us Anytime Soon“.

Es sind letztlich völlig überdrehte, anmaßende und werbegetriebene Thesen, die man mit Big Data, Künstliche Intelligenz und Neurowissenschaften verbindet. Das wirkt sich vielleicht positiv auf den Verkauf von Büchern über das Ende des Zufalls aus oder über Neuro-Leadership, Neuro-Marketing und Maschinen-Intelligenz. Es ist auch eine beliebte Methode, um milliardenschwere Forschungsbudgets und Beratungsaufträge zu kapern, wie beim Human Brain Project. Beim öffentlichen Diskurs sollte man die wirtschaftlichen Interessen dieser Akteure nicht aus den Augen verlieren. Siehe dazu auch: „Die große Neuro-Show – Was wurde aus den Verheißungen der Hirnforschung? Wissenschaftler ziehen Bilanz. Sie fällt dürftig aus“.

Die Systeme können nur das, was Menschen programmiert haben und daraus ableiten. Es sind hoch manipulative, konstruierte und erfundene Welten, die immer zu richtigen Ergebnissen kommen. Richtig im Sinne des Erfinders, Konstrukteurs, System-Ingenieurs, Mathematikers, Software-Entwicklers, Hirnforschers oder KI-Wissenschaftlers: Die Logik sei nur ein Beschreibungsapparat, so wie die Grammatik für Sprache, sagt Systemtheoretiker Heinz von Foerster im Fernsehinterview mit Lutz Dammbeck.

„Die Logik ist ja nur eine Maschine, um mit gewissen Aussagen gewisse andere Aussagen machen und entwickeln zu können. Der Übergang von A nach B, das ist, was die Logik kontrolliert….also die Logik bringt ja gar nichts Neues….die Logik macht es nur möglich, dass Sie von einem Satz, der etwas verschwommen ist, etwas ableiten können, oder Sätze, die ähnlich verschwommen sind, ordentlich beweisen können.“ In diesen weltweit funktionierenden Maschinensystemen seien alle Aussagen richtig – im Sinne der Ableitungen.

Heinz von Foerster
Heinz von Foerster

Wenn sich auf diesem wackligen Fundament die Big Data-Neuroklecks-KI-Hohepriester aufschwingen, das Leben anderer Menschen zu beeinflussen, zu kontrollieren, zu steuern und zu bestimmen, müssen sie ihre Ableitungen offenlegen. An diesem Punkt stimme ich FAZ-Herausgeber Frank Schirrmacher zu, der fordert, dass die offene Gesellschaft neue Freunde braucht.

Er beschreibt in seinem FAZ-Leitartikel den Fall einer Amazon-Lageristin in Allentown, die nach mehreren 11-Stunden-Arbeitstagen eine automatisierte SMS des „employee-tagging“- Systems bekam. Botschaft: Sie sei „mehrere Minuten“ unproduktiv gewesen und wurde kurz darauf gefeuert. Droht hier ein neuer Optimierungswahn, der in den Pionierzeiten des Industriekapitalismus von Henry Ford etabliert wurde?

„Die Erkenntnis, dass die IT-Industrie Teil der wohl bedeutendsten gesellschaftlichen Debatte sein muss, nimmt auch die jetzt beginnende Cebit ernst, die weltgrößte Computermesse. Unter dem Titel ‚Datability‘ – dem ’nachhaltigen‘ Umgang mit Daten – will sie sich, aufgeschreckt vor allem durch die Snowden-Enthüllungen, an einem Diskurs beteiligen, der sich den Chancen und den Risiken der digitalen Moderne widmet. Schon das ist ein Fortschritt. Es signalisiert, dass die Branche verstanden hat, dass die Zeiten vorbei sind, in denen technische Geräte die entsprechenden Sozialtechniken gleichsam mitproduzieren und einfordern – unter Ausschaltung jeder politischen Willensbildung“, schreibt Schirrmacher.

Das sei eine politische Aufgabe, keine technologische. „Anders gesagt: man kann die Festlegung gesellschaftlicher und politischer Normen nicht einer Mathematik überlassen, die systematisch Kausalitäten und Korrelationen erzeugt, deren Effekte wir spüren, aber deren Zustandekommen wir nicht nachvollziehen können.“

Diesen Satz sollten sich die Richter des Bundesgerichtshofs hinter die Ohren kleben. Stichwort: Schufa-Urteil.

Wer eine falsche Stromrechnung bekomme, der rechnet nach. Wer eine falsche Rechnung über seine Lebens- und Karrierechancen, seine Talente, seine Effizienz und Kondition, seine Gesundheitsprognose oder seine Kreditwürdigkeit bekommt, der könne nur noch glauben.

„Heute gelten die Algorithmen, die beispielsweise die Reputation oder Kreditwürdigkeit von Menschen berechnen, als Geschäftsgeheimnis“, so Schirrmacher.

Wer nicht nur Stauwarnungen ausspricht, sondern auch das Wohl und Wehe von einzelnen Menschen beeinträchtigt und zu Open Data nicht bereit ist, sollte Big Data nicht anwenden dürfen. Die Entwickler von diesen Systemen werden ohne politische Regeln dazu nicht freiwillig bereit sein, wie mir ein Informatiker klar zu verstehen gab. Er habe eine Software für Kliniken entwickelt, um „gute“ von „schlechten“ Patienten zu trennen. Das Auswertungstool soll aufzeigen, wo Ärzte Geld verballern. Und was ist mit den Patienten, fragte ich nach. Müsste so etwas nicht öffentlich verhandelt werden? Antwort: Offenlegungspflichten sieht er nur gegenüber seinen Auftraggebern. Wenn dieser Mann dazu nicht bereit ist, muss er mit rechtsstaatlichen Mitteln dazu gezwungen werden, wenn die betroffenen Patienten es verlangen.

Siehe auch die Rede von Google-Manager Eric Schmidt auf der Tech-Konferenz SXSW und sein merkwürdiges Verständnis von Selbstzensur.

Entlarvung der Neo-Kybernetiker.

Liebwerteste Gichtlinge der Internet-Konzerne, wo bleibt der ehrliche Datenpakt mit der Netzgesellschaft?

„Vous êtes mon ami“: Die Kempelen-Wundermaschine und Sprachdialog-Systeme für Kundenservice #gforce13

Kempelen und die Sprechmaschine

Wird über Sprachautomatisierung debattiert, fallen sicherlich jedem Konsumenten sofort eine Reihe nerviger Hotline-Ansagetexte ein, die den Blutdruck in Wallung bringen. Legendär hat das der Werbefilm von Yello Strom auf die Schippe genommen mit dem roboterhaften Obstverkäufer: „Interessieren Sie sich für unsere Bananen, sagen Sie ‚Bananen’……“

Den Forschungsarbeiten für die künstliche Nachahmung menschlicher Stimmen wird das nicht gerecht. So war schon im 18. Jahrhundert der Hofkammerrat Wolfgang von Kempelen unter Maria Theresia und ihres Sohnes Joseph II. davon beseelt, eine Sprechmaschine zu erfinden, die dem Menschen nützt: Der aufklärerisch gesinnte Beamte konstruierte einen Apparat, der gehörlose Menschen zur Lautsprache führen konnte. Die Maschinen-Sprache sollte nicht nur hörbar, sondern vor allem für das Auge verständlich werden.

Kempelen äußerte sich optimistisch, „dass die Maschine ohne sonderliche Kunst mit Tasten, wie ein Klavier oder eine Orgel einzurichten wäre, dass Spielen auf derselben, gegen die dermalige Art Jedermann viel leichter fallen würde“, berichtet 1792 das „Magazin für das Neueste aus der Physik und Naturgeschichte“ (Band 8, Seite 101). Das mechanische Stimm-Wunder funktionierte sogar polyglott und beglückte das staundende Publikum mit Sätzen wie „vous êtes mon ami – je vous aime de tout mon Cœur“. Es glänzte auch in lateinischer Sprache: „Leopoldus Secundus – Romanum Imperator – Semper Augustus“.

Forschung im 18. Jahrhundert

Die Idee, dass ein lebendiger Organismus nach physikalischen Gesetzen funktioniert und prinzipiell mit Mitteln der Mechanik simuliert werden kann, war spätestens seit dem 17. Jahrhundert nicht länger unklar und verdächtig, sondern wissenschaftliche Hypothese. Die Pionierarbeit von Kempelen wirkte bis ins 20. Jahrhundert auf Persönlichkeiten wie Charles Babbage, dem „Father of computing“, Homer Dudley, der den Voice Operation Demonstrator (VODER) baute oder auf Mathematiker wie John von Neumann und Norbert Wiener, die sich mit Sprache und Logik beschäftigten.

Durch die Sprachsteuerung per Computer ist die mechanische Kempelen-Konstruktion heute nicht mehr relevant.

„Wissenschaftsgeschichtlich jedoch ist es nach wie vor von Bedeutung, ebenso seine Ansichten und seine philosophische Betrachtungsweise“, erläutert die Kempelen-Expertin Alice Reininger von der Universität für angewandte Kunst in Wien.

G-Force in Wien

Die natürliche Sprache zur Steuerung von Geräten, beim Diktieren von Texten und zur Abfrage von Standardinformationen zu nutzen, ist längst Realität und funktioniert erstaunlich gut, auch wenn viele Hotline-Betreiber immer noch auf die veralteten Tastenwahl-Systeme „Drücken Sie die 1, 2 oder 3“ setzen.

„Viele Firmen haben die Kosten gescheut und sich auf das Drücken von Knöpfchen konzentriert. Aber immer mehr entscheiden sich für Sprachdialog-Systeme. Der Kunde erwartet personalisierte Services. Und wenn er dann schon mit der einer Maschine reden soll, dann sollte es auch zu Ergebnissen führen. Beim Knöpchen drücken ist das eben nicht der Fall, weil die dahinter liegende Struktur ein Spiegel der inneren Organisation des Kundendienstes ist“, erläutert Heinrich Welter von HFN Medien auf der Technologiekonferenz G-Force in Wien.

In welches Schubfach der Anbieter welchen Service gelegt hat, könne der Kunden bei den alten Systemen nur mit einem Ratespiel beantworten.

„Bei einer Sprachdialog-Anwendung kann ich das konkreter äußern. Ich habe ein Problem mit dem Rechnungsbetrag oder der Rechnungsadresse oder mit der Rechnung generell. Bei den Tastenkombinationen kann man das nicht genau eintüten“, so Welter.

Sprachsteuerung werde immer populärer durch die Erfolge von Apple und Google.

„Die Spracherkennung ist wesentlich besser geworden. Die Hardware ist mittlerweile nicht mehr so teuer und auch die smantischen Analyseverfahren, um den Sinnzusammenhang von Sprache zu deuten, wurden verfeinert. Auf dieser Basis gibt es jetzt Standard-Angebote, die für die Unternehmenswelt erschwinglich sind – ohne großen Schulungs- und Anpassungsbedarf wie früher“, betont der Service-Experte.

Mit dem Voice Content Management sei das ohne Expertenwissen beherrschbar – ohne das Gängelband der Tastenwahl. Interessante Einsatzmöglichkeiten sieht Welter bei der mobilen Kommunikation über Applikationen – etwa die Identitätsüberprüfung via Stimme. Auf Passworte könne man dann verzichten:

„Ist die Überprüfung abgeschlossen kann ich meiner App über die Sprachsteuerung sagen, was sie machen soll. Das ist bei kleinen Geräten mit den Beschränkungen der Tastatur ein großer Vorteil und erleichtert die Navigation.“

Generell gebe es noch sehr viel Nachholbedarf, die Personalsiierung in der Werbung und im Service zu einem echten Erlebnis zu machen.

Das zog sich wie ein Roter Faden durch die Sessions der diesjährigen G-Force in Wien.

G-Force Session in Wien

Besonders in der Service-Kommunikation hapert es immer noch am Wissensmanagement, um an jedem Kontaktpunkt das gleiche Kundenerlebnis hervorzubringen und die Silos der internen Organisation abzubauen, so das Credo von Genesys-Vorstandschef Paul Segre.

Das mechanische Kempelen-Meisterwerk kann man übrigens im Deutschen Museum in München bewundern.

Sprachdialogsysteme und das Bananen-Problem #gforce13

Sprachdialogsysteme leiden immer noch unter dem schlechten Image der alten Tonwahl-Systeme „Drücken Sie die 1, 2 oder 3 und warten dreitausend Jahre auf einen Hotline-Agenten“.

Dabei geht schon vieles mit natürlicher Sprache – ohne die Restriktionen durch die Vorgaben des Anbieters. Auf der G-Force in Wien sprach ich mit Heinrich Welter vom Spezialisten für Sprachdialogsysteme HFN über die Anwendungsmöglichkeiten von automatischen Systemen und über die Personalisierung im Kundenservice.

Google Glass: Stasi-Brille oder nützlicher Assistent? Ausblick auf meine morgige Kolumne

Feldtest auf der #rp13

Noch ist die Datenbrille „Google Glass“ nicht auf dem Markt, da erklingen in Deutschland schon die Alarmglocken. Die staatlichen Datenschützer bringen sich in Position und warnen vor dem so genannten „Lifelogging“, also dem unbemerkten Aufzeichnen von vertraulichen Gesprächen. Das Rechtssystem sei auf das Ausspähen der Umgebung nicht vorbereitet.

Selbst auf der Berliner Digitalkonferenz re:publica, die sich für neue technologische Entwicklungen zu begeistern pflegt, stößt das smarte Brillengestell des Suchmaschinen-Giganten auf Skepsis, wie mein Bloggercamp-Kollege Hannes Schleeh in einem Feldtest feststellte.

Drei Tage beglückte er das Nerd-Treffen mit einem Replikat und provozierte nicht nur wohlwollende Kommentare. So fragte der Chef der Gastronomie erbost:

„Nimmst Du mich jetzt auf, oder was?“

Auf Twitter gab es eine Flut von Reaktionen. Hier nur drei Beispiele:

„Ob den Leuten, die ihre ‪#googleglass‬ aufm Kopf tragen, bewusst ist, wie bescheuert das aussieht?“

„Habe jemandem auf der ‪#rp13‬ die Brille aus dem Gesicht gerissen und zertreten. War leider gar kein Google Glass.“

„Irgendwie fühle ich immer ein Unbehagen, wenn mir jemand mit ‪#googleglass‬ entgegenkommt, wie auf der ‪#rp13‬, etwa als wäre es Röntgenbrille.“

Führte das Street View-Projekt von Google zu höchst bizarren Abwehrkämpfen von Hausfassaden, Gartenzwergen im Vorgarten und Verpixelungs-Initiativen zur Unkenntlichmachung von Jägerzäunen, wird die Brillenvariante zu einem noch größeren Sturm der Empörung beitragen: Schlagzeilen wie „Stasi-Brille belästigt Otto-Normal-Verbraucher“ oder „Spionage-Spielzeug für Stalker und Spanner“ sind vorprogrammiert.

Liebwerteste Gichtlinge der Bild-Zeitung, für diese Schlagzeilen beantrage ich übrigens Leistungsschutzrecht!

Aber selbst Google-Chairman Eric Schmidt und Google Ideas-Direktor Jared Cohen greifen in ihrem neuen Opus „Die Vernetzung der Welt“ zum Vokabular von billigen Agenten-Filmen, um den Nutzen der Wunder-Brille zu beschreiben. So könnte man in Kombination mit einer Armbanduhr frühzeitig Religionswächter oder Agenten der Geheimpolizei verorten. Kein Scherz, das haben die beiden Autoren so formuliert. Die Uhr kommuniziert über GPS-Daten den Standort ihres Trägers und die Datenbrille stellt fest, aus welcher Richtung ein Agent kommt. Mehr ist den Google-Topmanagern auf 441 Seiten nicht eingefallen. Kein Wunder, dass die Phantasie wuchert.

Damit der Nutzen von elektronischen Assistenten (ich wollte schon Agenten schreiben) nicht vollends vor die Hunde geht, sollten potenzielle Anwender von intelligenten Gadgets schon jetzt über neue Formen der Höflichkeit nachdenken, fordert der Blogger Gerhard Schröder im ichsagmal.com-Interview.

Wir können darauf warten, was der Gesetzgeber zu Google Glass sagt. Besser wäre es, als Zivilgesellschaft über freiwillige Regeln nachzudenken. Wer bei der Blogparade bis Ende Mai mitmachen möchte, findet hier die nötigen Infos: Glassiquette statt Glasshole.

Ausführlich ist das in meiner morgigen The European-Kolumne nachzulesen.

Weitere Hangout-Interviews mit Fachleuten sind in der Planung. Wer sich dazu äußern möchte, ist herzlich eingeladen.

Übrigens sind auch Skype-Chats anfällig für „Spionage“: Vorsicht beim Skypen – Microsoft liest mit.