Nexus One: Mit Spracherkennung die Hoheit über das mobile Web gewinnen

Das Google-Handy Nexus One hat viele Experten enttäuscht. Einzig die Spracherkennungsfunktion könne überzeugen. Ansonsten sei der Wow-Effekt, den man vom Suchmaschinen-Konzern gewöhnt ist, ausgeblieben. Der FAZ-Netzökonom Holger Schmidt hat allerdings einen wichtigen Aspekt in die Diskussion gebracht. Viel wichtiger als der kurzfristige Verkaufserfolg sei für Google die langfristige Strategie dahinter.

„Das mobile Internet wird in einigen Jahren größer als das stationäre Web sein, weil es zusätzlich den lokalen Bezug hat. Google treibt diesen Markt wie kein anderes großes Internetunternehmen voran. Die Entwicklung des frei verfügbaren Handy-Betriebssystems Android war der erste Schritt, der jetzige Einstieg in den Verkauf der Geräte sicher nicht der letzte. Schon bald wird es viele (günstige) Google-Geräte mit vielen (kostenlosen) Google-Programmen geben, in denen das Unternehmen seine Werbung plazieren kann“, schreibt Schmidt. Das Ziel sei der Aufbau eines mobilen Werbenetzes, das ähnliche Dimensionen wie im stationären Web hat. „Konkurrent Apple will in dieselbe Richtung; andere Gerätehersteller scheinen in diesem Wettbewerb der Technikgiganten schon heute nicht mehr mithalten zu können. Wenn Google aber erst anfängt, Geräte mit Werbeeinnahmen zu subventionieren, wird es für die Konkurrenz erst richtig düster“, resümiert Schmidt. Einen weiteren Punkt kann man anfügen. Das die Spracherkennung bei der Nexus One-Präsentation den Genius von Google aufblitzen ließ, ist kein Zufall. Das System ermöglicht das Diktieren von E-Mails, Navigationsbefehlen und anderen anderen Eingaben ermöglicht. Nach Auffassung von Holger Schmidt könnte damit das mühsame Tippen auf den Smartphones weitgehend überflüssig gemacht werden. Das ist der Plan von Google, die dafür die besten Sprachtechnologie-Entwickler vorweisen kann:

„Mit dem Handy kommen Menschen ins Internet, die den Weg über den PC nie genutzt haben oder nutzen werden. Aufgrund des Formfaktors, den Screengrößen, Bedienungslimitierungen und verfügbaren Bandbreiten muss die Suche, also der primäre Zugang zu allen Inhalten und Diensten, auf dem Handy erschwerten Anforderungen gerecht werden. Sie muss sich zur Antwortmaschine weiter entwickeln, die aus der Verknüpfung von Web 2.0 und dem Semantischen Web richtige ‚Antworten’ produziert, statt lange Linklisten auszuspucken. Zudem muss die mobile Suche einfach zu bedienen sein“, weiß Voice Days plus-Sprecher Bernhard Steimel.

Hier habe Google die Nase vorn. Es sei eine geniale Strategie, mit GOOG411 im weltgrößten ‚Freiland-Versuch’ das eigene Sprachmodell zu validieren und mit einer exzellenten Qualität aufzuwarten.

Antwortmaschinen, Entscheidungsmaschinen und Google-Killer: Die Verheißungen des semantischen Webs bleiben bislang aus

Die "Entscheidungsmaschine"Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.

Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.

Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.

Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.

Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.

Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.

Luhmann, semantische Technologien und die Internet-Kommunikation: Web 3.0 soll Internet-Nutzer besser verstehen

Das Computer-Vermächtnis des Soziologen Niklas Luhmann
Das Computer-Vermächtnis des Soziologen Niklas Luhmann
Das Unternehmen iQser hat ehrgeizige Ziele, die landläufig unter dem Schlagwort Web 3.0 laufen. Es setzt auf semantischen, um die Flut von Informationen durch eine automatische inhaltliche Analyse zu bewältigen. Semantische Verfahren waren lange Zeit nur ein Experimentierfeld der Wissenschaftler, berichtet die FAZ und zitiert den iQser-Chef Jörg Wurzer mit der Aussage: „Jetzt hat die Semantik die Wissenschaft verlassen. Es gibt viele Startpus, die sich damit beschäftigen“. Und damit sei nicht nur das Großprojekt Theseus gemeint, das vor allem von großen Unternehmen getragen wird. „Unternehmen stehen vor der Herausforderung, eine Fülle von Informationen zu verarbeiten, die von Jahr zu Jahr wächst. Die hohe Verfügbarkeit von Informationen im Internet und immer mehr Anwender sowie Organisationen, die an der Produktion von Informationen beteiligt sind, tragen zu diesem Prozess bei“, teilt iQser in einer Presseerklärung mit.

Mit einer Software wolle man alle wichtigen internen und externen Informationen automatisch vernetzen. Jedes Dokument, jede E-Mail und jede Nachricht werde Projekten, Aufgaben oder Personen zugeordnet. Man solle nicht mehr nach Informationen suchen, sondern ihren Kontext auswählen und automatisch alle Informationen geliefert bekommen, die zu diesem Kontext gehört. Das könnten neue Forschungsberichte oder aktuellen Nachrichten sein.

Gute Idee: Reiseportale mit Nutzerkommentaren aus dem Social Web kombinieren
Gute Idee: Reiseportale mit Nutzerkommentaren aus dem Social Web kombinieren
So könnten Reiseziele auf Portalen wie Triptivity mit passenden Nutzerkommentaren aus sozialen Netzwerken oder mit Reisebeschreibungen angereichert werden. „Ein zweites Analyse-Ergebnis gibt einen Überblick darüber, welche Themen in den Artikeln behandelt werden, in welche Aspekte sie sich auffächern und welche grundlegenden Fakten vermittelt werden. Das dafür automatisch ermittelte Begriffsnetz wird in Form eine Baumes dargestellt, den der Anwender nutzen kann, um sein Interesse einzugrenzen und eine entsprechende Artikelauswahl vorzunehmen“, so iQser.

Mitarbeiter würden einen Überblick über die verfügbaren unstrukturierten Informationen erhalten, ohne diese zuerst sichten zu müssen. Anschließend sei eine Auswahl nach Interessenschwerpunkten möglich. Mit einem Web-Monitoring könne man erkennen, in welchem Zusammenhang im Internet über ein Unternehmen und seine Produkte diskutiert wird.

Experten für Künstliche Intelligenz sind sich einig, dass bei den neuen Projekten des semantischen Webs die Sprache eine ganz entscheidende Rolle spielen muss. „Beim Web 3.0 versucht man die Ergebnisse der Sprachforschung zu nutzen, um Suchbegriffe oder natürlich-sprachliche Suchanfragen tiefer zu analysieren und semantisch anzureichern. Suchergebnissen sollen am Ende präziser, besser strukturiert und um viele andere, nahe liegende Themengebiete angereichert werden. Idealerweise kann eine gestellte Frage dann auch in einem Satz beantwortet werden“, so die Erkenntnis des Sprachdialogexperten Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Diesem Trend entgegen komme die immer stärkere semantische Aufbereitung der Webinhalte in vielen Suchbereichen durch Internetnutzer, auch „Prosumer“ genannt, die in weltweiten Netzwerke aktiv sind. Das beste Beispiel hierfür sei Wikipedia. „Bisher musste das Wissen weitestgehend manuell in sogenannten Ontologien oder Taxonomien erstellt werden, welche die Begriffe zu einander in Beziehung setzen und daraus Wissensrepräsentationen unterschiedlichster Domänen bilden. Firmen wir iQser versuchen nun, das Wissen im Intranet oder Internet automatisch aufzubereiten. Das Ergebnis sollte eine Antwort und keine ewig lange Ergebnisliste mit vielen irrelevanten Texten sein“, erläutert Pape.

Sprachdialogsysteme machen das Web 3.0 zu einer Antwortmaschine
Sprachdialogsysteme machen das Web 3.0 zu einer Antwortmaschine
Gekoppelt mit Spracherkennung und Sprachsynthese könne dieser Weg zu ganz neuen Sucherfahrungen führen. Eine gesprochene Frage zu einem beliebigen Thema werde dann auch mit einem gesprochenen Satz beantwortet. „Dieses Szenario ist keinesfalls Science-Fiction, denn parallel zu den Fortschritten in der Suchtechnologie macht auch die Spracherkennung enorme Fortschritte. Auch die Dialogtechnologie spielt hier ein bedeutende Rolle, da bei vielen Anfragen weiterführende Fragen und Präzisierungen erforderlich sind“, sagt Pape. Die Frage „Wie komme ich jetzt am schnellsten nach Berlin?“ macht die Klärung erforderlich, ob man mit Zug, Auto oder Flugzeug reisen möchte. Es werde nach Ansicht des SemanticEdge-Chefs noch lange dauern, bis die vielen Informationen semantisch erschlossen und die wichtigsten Nutzungsszenarien klar sind. Bei Fahrplaninformationen, Navigation oder Adressdaten sei jetzt schon vieles möglich. Frei nach dem Soziologen Niklas Luhmann muss das semantische Web drei Komponenten der Kommunikation erfüllen: Mitteilung, Information und Verstehen.

Der Geist in der Maschine: Über digitale Assistenzsysteme

dsc_00031Fast 96 Milliarden Anfragen tippten Internetnutzer allein im Februar in die Suchfelder von Google und Co. Ein Jahr zuvor waren 67 Milliarden. Zu diesem Befund gelangte der Informationsprovider Comscore. Das ständige Senden, Beantworten und Weiterleiten von teilweise völlig belanglosen Informationen wird von Kulturkritikern mittlerweile als semantische Umweltverschmutzung bezeichnet. Etwa 50-mal pro Tag öffnet ein typischer „Informationsarbeiter“ sein E-Mail-Fenster, 77-mal wendet er sich dem Instant-Messaging-Programm für den schnellen Versand von Nachrichten zu, nebenbei werden noch etwa 40 Web-Sites besucht. So hat es die US-Beratungsfirma RescueTime auf Basis von 40.000 Nutzerprofilen in der Berufswelt untersucht.

Herman Maurer, Professor für Informatik an der Technischen Universität Graz, lässt sich von solchen Schreckenszenarien nicht beeindrucken. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.

„Ich habe schon vor vielen Jahren den allgegenwärtigen Computer prognostiziert: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät“, erläutert Maurer. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so Maurer weiter.

Die Cyborg-Visionen von Maurer erscheinen vielleicht utopisch. Einen Evolutionssprung versprechen sich Internetexperten nach einem Bericht der Financial Times Deutschland (FTD) zumindest von Fortschritten in der Entwicklung semantischer Technologien – landläufig auch als Web 3.0 bezeichnet. Plumb agierende Computer sollen verstehen, was für Inhalte sie hin und her verschieben oder gespeichert haben. „Erst dann werden Nutzer auf ihre Fragen tatsächliche Antworten erhalten und nicht nur eine mehr oder weniger passende Aufreihung von Weblinks“, so die FTD. Das Ziel von Google ist eine Suchmaschine, mit der man sich normal unterhalten kann und die dabei aus dem gesamten Wissen der Welt schöpft. Eine ähnliche Zielsetzung verfolgt auch das derzeitig größte deutsche IT-Forschungsprojekt mit dem Namen THESEUS, benannt nach dem attischen Helden und angeblichen Ur-Vater der Demokratie. Für den Dialog zwischen Mensch und Maschine will THESEUS multimodale Benutzeroberflächen entwickeln, die durch Sprache und Gestik bedient werden können. Anfragen könnte man dann intuitiv formulieren und im Dialog mit dem System verfeinern. Ein semantischer Mediator fungiert im Computer als Schnittstelle zwischen der Benutzeroberfläche und den verschiedenen Metadatenquellen. Er wandelt eine gesprochene Anfrage in einen semantisch korrekten Datensatz um, der für eine Suche nötig ist.

Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.

Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“

160px-l-waage5Selbst das Markenzeichen seiner Firma, die allseits aus dem Lebensmitteleinzelhandel bekannten Waagen, haben nur noch wenig mit der von Philipp Matthäus Hahn im 18. Jahrhundert erfundene „Wand-Neigungswaage“ zu tun.

Die neuesten Bizerba-Geschäftswaagen sind die wiegenden und druckenden Endstationen der Computernetze. Die jüngste Generation verlangt nicht einmal mehr einen Tastendruck, sondern kann dank optischer Bildverarbeitung Äpfel und Birnen selbst unterscheiden. Und wenn es gilt, Tomaten mit und ohne Stiel vom Strauch zu unterscheiden, dann fragt so eine Waage eben beim Kunden mit knapper Menüauswahl zurück. Auch die altehrwürdige Wägetechnik fungiert nunmehr als digitaler Einkaufsberater. So zeigt das Kundendisplay den Namen der Verkäuferin, aktuelle Kaufangebote, informiert über Nährwerte, Zusatzstoffe, Herkunft, Allergene, vermittelt Empfehlungen für die korrekte Lagerung der Lebensmittel, macht Rezept- und Menüvorschläge.

Hightech-Waage
Hightech-Waage

Google-Killer oder: Wer Antworten will, braucht auch Fragen

Auch die NZZ hat sich mit dem vermeintlichen Google-Killer beschäftigt, der zur Zeit über Blogs kräftig ins Rampenlicht gerückt wird. „Derjenige, der da Google übertrumpfen und mittels künstlicher Intelligenz allem Unwissen den Garaus machen will, wurde als wissenschaftliches Wunderkind bekannt, hat sich an den besten Universitäten hervorgetan und hat als Programmierer eine technisch komplexe, kommerziell erfolgreiche Software geschaffen. Es ist der Ruhm des britischen Physikers Stephen Wolfram, der dieser Tage unzählige Online-Journalisten und Blogger dazu bringt, die Begriffe Google-Killer, neuartige Suchmaschine, künstliche Intelligenz wieder einmal in einem Satz zusammenzubringen“, so die NZZ. Ob Wolfram-Alpha halten kann, was Blogger vermuten, steht auf einem anderen Blatt. Der Suchmschinen-Genius selbst beschreibt die neue Suchmaschine als „computational knowledge system“, als Wissensberechnungsmaschine. „Ausserhalb von Wolfram Research, der Firma, die Mathematica und Alpha entwickelt, hat bis jetzt nur ein einziger Mensch – Nova Spivack – die neue Suchmaschine ausprobieren können“, schreibt die NZZ. Das ist doch ein kluger PR-Schachzug. Spivack ist so euphorisch, als sei eben gerade eine neue bewusstseinserweiternde Droge entdeckt worden: Wolfram Alpha sei nicht eine Suchmaschine, sondern eine Antwort-Maschine. Das ist aber keine Sensation. Denn auch KI-Forscher wie Professor Wolfgang Wahlster vom DFKI oder das Fraunhofer Institut drehen an dieser Schraube. Darüber habe ich schon mehrfach berichtet. Und auch die Semantic Web-Experten von Google verweilen nicht im Tiefschlaf. Mit Mike Cohen, seinen früheren Nuance-Mitarbeitern, Franz Och und vielen anderen Spezialisten hat Google einige gute Leute an Bord.

Schon jetzt sei Google gar nicht so schlecht, meint die NZZ. Auch diese Suchmaschine kann schwierige Fragen mit wenigen Ziffern beantworten. Füttert man Google beispielsweise mit der Frage aller Fragen, der allerletzten Frage, und schreibt: ‚The answer to life, the universe and everything‘, erhält man als Antwort: ’42‘. Wie man beim englischen Science-Fiction-Autor Douglas Adams nachlesen kann, ist diese Antwort korrekt, dies sei tatsächlich die allerletzte Antwort“. Allerdings gerate in Vergessenheit, welches die dazu passende allerletzte Frage war. So werde man dann halt vielleicht Wolframs Answer Machine eine Frage-Maschine zur Seite stellen müssen, orakelt die NZZ und hat nicht ganz Unrecht. Siehe auch meinen Blog-Beitrag vor ein paar Tagen.