Google-Killer oder: Wer Antworten will, braucht auch Fragen

Auch die NZZ hat sich mit dem vermeintlichen Google-Killer beschäftigt, der zur Zeit über Blogs kräftig ins Rampenlicht gerückt wird. „Derjenige, der da Google übertrumpfen und mittels künstlicher Intelligenz allem Unwissen den Garaus machen will, wurde als wissenschaftliches Wunderkind bekannt, hat sich an den besten Universitäten hervorgetan und hat als Programmierer eine technisch komplexe, kommerziell erfolgreiche Software geschaffen. Es ist der Ruhm des britischen Physikers Stephen Wolfram, der dieser Tage unzählige Online-Journalisten und Blogger dazu bringt, die Begriffe Google-Killer, neuartige Suchmaschine, künstliche Intelligenz wieder einmal in einem Satz zusammenzubringen“, so die NZZ. Ob Wolfram-Alpha halten kann, was Blogger vermuten, steht auf einem anderen Blatt. Der Suchmschinen-Genius selbst beschreibt die neue Suchmaschine als „computational knowledge system“, als Wissensberechnungsmaschine. „Ausserhalb von Wolfram Research, der Firma, die Mathematica und Alpha entwickelt, hat bis jetzt nur ein einziger Mensch – Nova Spivack – die neue Suchmaschine ausprobieren können“, schreibt die NZZ. Das ist doch ein kluger PR-Schachzug. Spivack ist so euphorisch, als sei eben gerade eine neue bewusstseinserweiternde Droge entdeckt worden: Wolfram Alpha sei nicht eine Suchmaschine, sondern eine Antwort-Maschine. Das ist aber keine Sensation. Denn auch KI-Forscher wie Professor Wolfgang Wahlster vom DFKI oder das Fraunhofer Institut drehen an dieser Schraube. Darüber habe ich schon mehrfach berichtet. Und auch die Semantic Web-Experten von Google verweilen nicht im Tiefschlaf. Mit Mike Cohen, seinen früheren Nuance-Mitarbeitern, Franz Och und vielen anderen Spezialisten hat Google einige gute Leute an Bord.

Schon jetzt sei Google gar nicht so schlecht, meint die NZZ. Auch diese Suchmaschine kann schwierige Fragen mit wenigen Ziffern beantworten. Füttert man Google beispielsweise mit der Frage aller Fragen, der allerletzten Frage, und schreibt: ‚The answer to life, the universe and everything‘, erhält man als Antwort: ’42‘. Wie man beim englischen Science-Fiction-Autor Douglas Adams nachlesen kann, ist diese Antwort korrekt, dies sei tatsächlich die allerletzte Antwort“. Allerdings gerate in Vergessenheit, welches die dazu passende allerletzte Frage war. So werde man dann halt vielleicht Wolframs Answer Machine eine Frage-Maschine zur Seite stellen müssen, orakelt die NZZ und hat nicht ganz Unrecht. Siehe auch meinen Blog-Beitrag vor ein paar Tagen.

Sie haben semantische Post – Wie man den E-Mail-Verkehr schlauer organisieren könnte

Mit dem semantischen Web sollen sich Google und Co. ja in intelligente Antwortmaschinen verwandeln. Davon ist man noch weit entfernet. Aber die Idee hat Charme: Inhalte im Web sollen so angereichert werden, dass sie nicht nur für Menschen verständlich sind, sondern auch von Maschinen soweit erfasst werden können, dass Automatisierung auch mit künstlicher Intelligenz abläuft. In Stanford arbeiten jetzt Forscher daran, wie das auch beim Versenden von E-Mails eingesetzt werden können. Was noch möglich ist, beschreibt der Technology Review-Blog.

Pfannkuchenmenschen im Netz-Zeitalter: Das Denken wird breiter und flacher, glaubt Trendletter-Chefredakteur Axel Glogler

Der Soziologe Niklas Luhmann http://www.luhmann-online.de hat sich mit den kulturellen Umbrüchen beschäftigt, die von der Erfindung der Schrift, des Buchdrucks und der Computerkommunikation ausgegangen sind. Er stellt sie sich als „Katastrophen“ im mathematischen Sinne vor, als brutale Sprünge, die es einem System ermöglichen zu überleben, wenn es eigentlich aufhören müsste zu existieren. Mit der Computerkommunikation wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert. Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift nach Ansicht von Luhmann die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen.

Die neuen Medien beeinflussen auch die Art, wie wir denken. Diese These stellte der Medienwissenschaftler Marshall McLuhan schon in den 1960er Jahren auf. Der Leser eines Mediums sucht heute nach dem schnellen Nutzen, nicht nach dem guten Argument. Lange Texte werden nur wenig goutiert: „Nach zwei, drei Seiten schweife ich ab, werde unruhig und verliere schließlich den Faden. Mein eigensinniges Gehirn wehrt sich gegen den Text“, beschreibt der Wissenschaftler Nicholas Carr http://www.nicholasgcarr.com seine Selbstbeobachtungen. Das Internet treibt diese Veränderung an: „Kommunikation, auch die von Unternehmen zu ihren Kunden und Mitarbeitern, muss sich diesem Verhalten anpassen. Wer zu lange braucht, um seine Botschaft herüberzubringen, wird im Geschäft nicht mehr gehört“, so Axel Gloger, Chefredakteur des Bonner Fachdienstes Trendletter http://www.trendletter.de. Eine weitere Entwicklung: Die starke Nutzung des Internets fördert eine punktuelle, zeitlich begrenzte Konzentration. „Der Verstand erwartet von mir, dass ich ihm Informationen auf die gleiche Weise zuführe wie das Internet“, berichtet Carr aus seinem Selbstversuch. Der Info-Nutzer tauche nicht mehr in einen Ozean der Worte, sondern springt von Welle zu Welle, als fahre er einen Jetski. „Mein Denken findet manchmal in einem Stakkato statt – als würde ich online verschiedene Quellen heranziehen und von Fenster zu Fenster springen“, sagt Carr.

Das begünstigt das, was Filmregisseure als Pfannkuchenmenschen bezeichnen: „Das Denken wird breiter, aber dafür flacher. Auch die Mobilfunknachricht SMS gehört zu den Antreibern dieser Entwicklung. Der kurze, maximal 160 Zeichen umfassende Text prägt auch den Kommunikationsstil des geschäftlichen Alltags“, erklärt Gloger. Klares Indiz für diese These:: Die Telefongesellschaften machen mit SMS mittlerweile dreimal so viel Umsatz wie Hollywood mit dem Verkauf von Kinokarten. „E-Mail und SMS werden die Formalisierung, den reinen Info-Austausch weiter beschleunigen. Damit digital präsentierte Inhalte von Ihren Adressaten überhaupt gefunden werden, wird die Google-Optimierung immer wichtiger. Ein Text muss künftig so aufgebaut sein, dass die Such-Algorithmen ihn finden und möglichst weit oben auf die Trefferliste setzen. Derzeit findet Google nur Textstellen. Aber es sind bereits Systeme in der Entwicklung, die auch Gesichter auf Bildern und in Videos sowie Stichworte in gesprochenem Text erkennen“, weiß Gloger. I

In Zukunft werden intuitive Nutzerschnittstellen auf den Markt kommen, die aus den Suchmaschinen nutzerfreundliche Antwortmaschinen machen. Dabei werde die Spracherkennung eine größere Rolle spielen, so die Einschätzung von Lupo Pape, Geschäftsführer von SemanticEdge http://www.semanticedge.de in Berlin: „Die Informationen werden viel besser aufbereitet und verschlagwortet sein, so dass man konkrete Fragen stellen kann. Je nach Bedarf bekommt man Texte zum Lesen oder auch Audiofiles zum Anhören. Fragen wie ‚Wer war der 43. Präsident der Vereinigten Staaten?’ werden dann direkt beantwortet. Bei Informationsanfragen wie ‚Ursachen der Wirtschaftskrise 2008’ wird man Text, Audio- oder Videofiles zur Auswahl erhalten, die sehr viel genauer das Thema betreffen als die aktuelle Ergebnisliste bei Google.“ Das Semantische Web mache Text, Audio und Video zu gleichberechtigten Medien. „Die Redaktion einer Zeitung oder einer Zeitschrift wird nicht substituiert. Der Medienkonsum ändert sich allerdings. Jeder wird sein eigener Programmmanager und steuert autonom seinen Informations- und Unterhaltungsbedarf“, prognostiziert Sprachdialogexperte Pape.

Semantisches Web und das Ende der Google-Erfolgsstory – Suchmaschinen sollen mit Alltagswissen ausgestattet werden

Vision und Praxis von so genannter Semantik- und Web-2.0-Technologie thematisierte die Konferenz Triple-I in Graz: Mit der Einbindung von Alltagswissen will Henry Lieberman vom MIT dafür sorgen, dass Computer Menschen tatsächlich verstehen.

„Wenn wir wollen, dass Computer Menschen wirklich helfen, dann brauchen die Rechner Zugriff zu Alltagswissen“, so Henry Lieberman, Leiter der Software Agent Gruppe am Massachusetts Institute of Technology MIT, auf der Wissensmanagement-Konferenz Triple-I.

Dazu sammelt sein Team grundlegende triviale Informationen und entwickelt daraus Ontologien, um beispielsweise die den Satz „Ich bin gefeuert worden“ richtig zu deuten. Mit deren Hilfe wird das Wissen in maschinenlesbare Informationen übersetzt.

Entsprechende Systeme könnten Anwender nach einem Bericht der Computer Zeitung (die es ja schon seit einiger Zeit nicht mehr gibt, gs) zum Beispiel bei der Terminplanung unterstützen. Die Software erkennt etwa, dass der Nutzer für eine bestimmte Verabredung einen Routenplaner oder eine Hotelreservierung benötigt. Dies kann das System verstehen, da es die grundlegende Information hat, dass ein Termin den Aufenthalt an einem anderen Ort erfordert.

„Solche Technologien können laut Lieberman auch in anderen Szenarien zum Einsatz kommen wie etwa bei der Kundenbetreuung oder beim Helpdesk. Ebenso gibt es Versuche, Suchmaschinen mit Alltagswissen auszustatten. Anwender könnten dann Anfragen in natürlicher Sprache eingeben. Damit verheißt der Wissenschaftler das Einlösen des Versprechens, das die semantischen Technologien von Beginn an begleitet: Die Möglichkeit, dass Computer ihre menschlichen Nutzer tatsächlich verstehen“, so die Computer Zeitung.

„Mit der semantischen Suche versucht man die Ergebnisse der Sprachforschung zu nutzen, um Suchbegriffe oder natürlich-sprachliche Suchanfragen tiefer zu analysieren und semantisch anzureichern. Suchergebnisse sollen am Ende präziser und besser strukturiert herausgegeben sowie um viele andere, nahe liegende Themengebiete angereichert werden. Idealerweise kann eine gestellte Frage dann auch in einem Satz beantwortet werden“, erklärt Sprachdialogexperte Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Diesem Trend entgegen komme die immer stärkere semantische Aufbereitung der Webinhalte in vielen Suchbereichen durch Internetnutzer, die weltweit in Netzwerken aktiv seien. Das beste Beispiel hierfür sei Wikipedia. Und genau da setzt die von Microsoft übernommene Firma Powerset an.

„Sie versucht, diese schon strukturiert eingegebenen Inhalte noch besser ‚suchbar’ zu machen und dabei auch natürlich-sprachliche Eingaben zu interpretieren. Das Ergebnis ist sehr viel spannender als die Google-Suche mit den endlosen Trefferlisten“, meint Pape gegenüber NeueNachricht. Das sei genau der richtige Weg und könnte der Anfang vom Ende der Google-Erfolgsstory werden.

Gekoppelt mit Spracherkennung und Sprachsynthese komme man zu ganz neuen Sucherfahrungen.

„Eine gesprochene Frage zu einem beliebigen Thema wird auch durch einen gesprochenen Satz beantwortet. Dieses Szenario ist keinesfalls Science-Fiction, denn parallel zu den Fortschritten in der Suchtechnologie macht auch die Spracherkennung Entwicklungssprünge. Auch die Dialogtechnologie spielt hier ein bedeutende Rolle, da bei vielen Anfragen weiterführende Fragen und Präzisierungen erforderlich sind, die einen intelligenten Dialog erforderlich machen“, sagt Pape.

Die Frage „Wie komme ich jetzt am schnellsten nach Berlin?” mache die Klärung erforderlich, ob man mit dem Zug, dem Auto oder dem Flugzeug reisen möchte.

„Es wird noch lange dauern, bis die vielen Fragen, die irgendjemand zu irgendeinem Zeitpunkt hat. beantwortet werden können. Aber in vielen Domänen, in denen die Informationen semantisch schon sehr gut erschlossen und die wichtigsten Nutzungsszenarien klar sind, ist jetzt schon vieles möglich. Beispielsweise Fahrplaninformationen und Navigationssysteme, um von A nach B zu kommen. Oder Wissensfragen, die über Dienste wie Wikipedia beantwortet werden“, resümiert Pape.

Update vom 26. August 2013: Die Prognose über das Ende der Google-Erfolgsstory lag wohl etwas daneben. Auch beim semantischen Web wartet man ja noch auf dem Durchbruch im Massenmarkt…..

Semantisches Web verspricht bessere Werkzeuge gegen die Informationsüberflutung

Sprachdialogexperte Lupo Pape
Sprachdialogexperte Lupo Pape

Mitarbeiter verschwenden oft wertvolle Arbeitszeit mit dem Durchforsten von Suchergebnissen, Projekte geraten ins Stocken, weil wichtige Ansprechpartner nicht aus den Dokumenten hervorgehen, und Expertenwissen verstaubt ungenutzt in Dateien, die schlicht und einfach nicht gefunden wurden. Die unstrukturierte Suche nach Informationen kostet nicht nur Zeit, sie verursacht für jedes Unternehmen auch unnötige Kosten.

„Das Fraunhofer IGD hat eine Suchmaschine entwickelt, die übergreifend auf unterschiedliche Datenquellen zugreifen und selbsttätig Stichworte um Synonyme, Übersetzungen oder thematisch ähnliche Sachverhalte ergänzen kann“, berichtet das Fraunhofer-Kundenmagazin Innovisions.

Eine einzige Eingabe genügt und die Software ConWeaver durchsucht alle verschiedenen Datenquellen eines Unternehmens. Dabei bezieht ConWeaver nicht nur den vom Nutzer eingegebenen Begriff in die Suche ein, sondern auch dessen Übersetzung in andere Sprachen sowie thematische Zusammenhänge. Zudem erzeugt die Software aus den Unternehmensdaten automatisch ein semantisches Wissensnetz. Die darin enthaltenen Datenverknüpfungen ermöglichen es, nach der Bedeutung eines Wortes zu suchen.

So erkennt ConWeaver beispielsweise selbstständig, dass das Wort „Kunde“ in der Vertriebsdatenbank gleichbedeutend ist mit dem Wort „customer“ im E-Mail-Archiv und „Auftraggeber“ in der Projektdokumentation.

„Im Gegensatz zu herkömmlichen Suchmaschinen erzeugt ConWeaver einen Zusammenhang zwischen den unterschiedlichsten Datenformaten. Dadurch kann die Software sowohl unstrukturierte als auch strukturierte Informationsquellen effizient absuchen“, erläutert Dr. Thomas Kamps, Leiter des ConWeaver-Teams am Fraunhofer-Institut für Graphische Datenverarbeitung IGD in Darmstadt.

Durch die Kombination verschiedener Module, so genannter Workflows, können die Fraunhofer-Forscher ConWeaver gezielt an die Bedürfnisse des Unternehmens anpassen. Ähnliches hat auch Radar Networks aus San Francisco im Angebot. Die Firma stellt gratis ein Onlinewerkzeug mit dem Namen Twine bereit, um die tägliche Informationsflut besser zu bewältigen. Das Programm analysiert Daten und sortiert sie in Kategorien, um E-Mails, Web-Suche, Kalender, Notizen, Tabellen, Texte oder Präsentationen leichter zu nutzen.

„Derzeit dominieren Konzerne wie Google, Microsoft oder Yahoo mit eigenen oder zugekauften Diensten und Techniken die Angebote und Geschäftsmodelle im Internet. Hinzu kommt ein Schar von Angeboten, die vor allem durch die Aktivität ihrer Nutzer leben wie der Internettreffpunkt Facebook oder das Onlinelexikon Wikipedia – so genannte Web 2.0-Portale“, berichtet die Financial Times Deutschland.

Im künftigen Internet, dem Web 3.0 sollen so genannte semantische Techniken das weltweite Datennetz revolutionieren. Diese neuen digitalen Werkzeuge sollen nicht wie bislang nur einzelne Wörter in Texten erkennen, sondern vielmehr ganze Inhalte verstehen, interpretieren, mit standardisierten Schlagworten versehen und mit weiteren Informationen verknüpfen. Gleiches soll für digitale Fotos, Videos oder Musikdateien möglich werden. Die neue Wunderwelt soll auch über mobile Geräte wie Handys nutzbar sein. Gerade erst hat die Bundesregierung auf dem IT-Gipfel auf die Chancen einer Vorreiterrolle der Bundesrepublik bei der Schaffung wissensbasierter Dienstleistungen, Produkte und Geschäftsmodelle hingewiesen. Es geht bei alledem „um die Semantik, also den Sinn und die Bedeutung von Inhalten, die über das World Wide Web transportiert werden. Im Web 2.0 gebe es eine Informations- beziehungsweise Linküberflutung, da beispielsweise Textdokumente letztlich auf eine sinnfreie Kombination aus Buchstaben reduziert werden. Fotos und Videos sind nur Ansammlungen von verschiedenfarbigen Pixeln. Die semantische Wende aber führe zu einem hochpräzisen Antwortverhalten in einem Web, das Sinnzusammenhänge in den Mittelpunkt stellt“, schreibt Focus-Online.

„Wenn es also gelingt, die Semantik von Texten, Bildern, Gesten und künstlerischen Darbietungen durch standardisierte Begriffe zu formalisieren, sodass die gewonnenen Daten maschinenlesbar sind, dann könnte die Vision der Antwortmaschine Realität werden. Eine Suchmaschine wie Google wäre dann überflüssig. Der Nutzer stellt stattdessen einfach seinem Handy eine Frage und es antwortet, anstatt eine Liste von unzähligen Suchergebnissen anzubieten“, so das Magazin.

Viele Informationen würden bereits strukturiert vorliegen, wie Fahrplaninformationen, Telefonnummern, Sportergebnisse, bewertete Restaurants und sonstige Adressen.

„Was fehlt, ist eine Art Yahoo des ‚Voicewebs’, über das sich jeder personalisiert seine gewünschten Angebote zusammenstellen und über Sprache oder Multimodale Interfaces abfragen kann“, resümiert Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Update 2014:

Passiert ist auf diesem Feld wenig. Leere Versprechen.