Luhmann, semantische Technologien und die Internet-Kommunikation: Web 3.0 soll Internet-Nutzer besser verstehen

Das Computer-Vermächtnis des Soziologen Niklas Luhmann
Das Computer-Vermächtnis des Soziologen Niklas Luhmann
Das Unternehmen iQser hat ehrgeizige Ziele, die landläufig unter dem Schlagwort Web 3.0 laufen. Es setzt auf semantischen, um die Flut von Informationen durch eine automatische inhaltliche Analyse zu bewältigen. Semantische Verfahren waren lange Zeit nur ein Experimentierfeld der Wissenschaftler, berichtet die FAZ und zitiert den iQser-Chef Jörg Wurzer mit der Aussage: „Jetzt hat die Semantik die Wissenschaft verlassen. Es gibt viele Startpus, die sich damit beschäftigen“. Und damit sei nicht nur das Großprojekt Theseus gemeint, das vor allem von großen Unternehmen getragen wird. „Unternehmen stehen vor der Herausforderung, eine Fülle von Informationen zu verarbeiten, die von Jahr zu Jahr wächst. Die hohe Verfügbarkeit von Informationen im Internet und immer mehr Anwender sowie Organisationen, die an der Produktion von Informationen beteiligt sind, tragen zu diesem Prozess bei“, teilt iQser in einer Presseerklärung mit.

Mit einer Software wolle man alle wichtigen internen und externen Informationen automatisch vernetzen. Jedes Dokument, jede E-Mail und jede Nachricht werde Projekten, Aufgaben oder Personen zugeordnet. Man solle nicht mehr nach Informationen suchen, sondern ihren Kontext auswählen und automatisch alle Informationen geliefert bekommen, die zu diesem Kontext gehört. Das könnten neue Forschungsberichte oder aktuellen Nachrichten sein.

Gute Idee: Reiseportale mit Nutzerkommentaren aus dem Social Web kombinieren
Gute Idee: Reiseportale mit Nutzerkommentaren aus dem Social Web kombinieren
So könnten Reiseziele auf Portalen wie Triptivity mit passenden Nutzerkommentaren aus sozialen Netzwerken oder mit Reisebeschreibungen angereichert werden. „Ein zweites Analyse-Ergebnis gibt einen Überblick darüber, welche Themen in den Artikeln behandelt werden, in welche Aspekte sie sich auffächern und welche grundlegenden Fakten vermittelt werden. Das dafür automatisch ermittelte Begriffsnetz wird in Form eine Baumes dargestellt, den der Anwender nutzen kann, um sein Interesse einzugrenzen und eine entsprechende Artikelauswahl vorzunehmen“, so iQser.

Mitarbeiter würden einen Überblick über die verfügbaren unstrukturierten Informationen erhalten, ohne diese zuerst sichten zu müssen. Anschließend sei eine Auswahl nach Interessenschwerpunkten möglich. Mit einem Web-Monitoring könne man erkennen, in welchem Zusammenhang im Internet über ein Unternehmen und seine Produkte diskutiert wird.

Experten für Künstliche Intelligenz sind sich einig, dass bei den neuen Projekten des semantischen Webs die Sprache eine ganz entscheidende Rolle spielen muss. „Beim Web 3.0 versucht man die Ergebnisse der Sprachforschung zu nutzen, um Suchbegriffe oder natürlich-sprachliche Suchanfragen tiefer zu analysieren und semantisch anzureichern. Suchergebnissen sollen am Ende präziser, besser strukturiert und um viele andere, nahe liegende Themengebiete angereichert werden. Idealerweise kann eine gestellte Frage dann auch in einem Satz beantwortet werden“, so die Erkenntnis des Sprachdialogexperten Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Diesem Trend entgegen komme die immer stärkere semantische Aufbereitung der Webinhalte in vielen Suchbereichen durch Internetnutzer, auch „Prosumer“ genannt, die in weltweiten Netzwerke aktiv sind. Das beste Beispiel hierfür sei Wikipedia. „Bisher musste das Wissen weitestgehend manuell in sogenannten Ontologien oder Taxonomien erstellt werden, welche die Begriffe zu einander in Beziehung setzen und daraus Wissensrepräsentationen unterschiedlichster Domänen bilden. Firmen wir iQser versuchen nun, das Wissen im Intranet oder Internet automatisch aufzubereiten. Das Ergebnis sollte eine Antwort und keine ewig lange Ergebnisliste mit vielen irrelevanten Texten sein“, erläutert Pape.

Sprachdialogsysteme machen das Web 3.0 zu einer Antwortmaschine
Sprachdialogsysteme machen das Web 3.0 zu einer Antwortmaschine
Gekoppelt mit Spracherkennung und Sprachsynthese könne dieser Weg zu ganz neuen Sucherfahrungen führen. Eine gesprochene Frage zu einem beliebigen Thema werde dann auch mit einem gesprochenen Satz beantwortet. „Dieses Szenario ist keinesfalls Science-Fiction, denn parallel zu den Fortschritten in der Suchtechnologie macht auch die Spracherkennung enorme Fortschritte. Auch die Dialogtechnologie spielt hier ein bedeutende Rolle, da bei vielen Anfragen weiterführende Fragen und Präzisierungen erforderlich sind“, sagt Pape. Die Frage „Wie komme ich jetzt am schnellsten nach Berlin?“ macht die Klärung erforderlich, ob man mit Zug, Auto oder Flugzeug reisen möchte. Es werde nach Ansicht des SemanticEdge-Chefs noch lange dauern, bis die vielen Informationen semantisch erschlossen und die wichtigsten Nutzungsszenarien klar sind. Bei Fahrplaninformationen, Navigation oder Adressdaten sei jetzt schon vieles möglich. Frei nach dem Soziologen Niklas Luhmann muss das semantische Web drei Komponenten der Kommunikation erfüllen: Mitteilung, Information und Verstehen.

Der Geist in der Maschine: Über digitale Assistenzsysteme

dsc_00031Fast 96 Milliarden Anfragen tippten Internetnutzer allein im Februar in die Suchfelder von Google und Co. Ein Jahr zuvor waren 67 Milliarden. Zu diesem Befund gelangte der Informationsprovider Comscore. Das ständige Senden, Beantworten und Weiterleiten von teilweise völlig belanglosen Informationen wird von Kulturkritikern mittlerweile als semantische Umweltverschmutzung bezeichnet. Etwa 50-mal pro Tag öffnet ein typischer „Informationsarbeiter“ sein E-Mail-Fenster, 77-mal wendet er sich dem Instant-Messaging-Programm für den schnellen Versand von Nachrichten zu, nebenbei werden noch etwa 40 Web-Sites besucht. So hat es die US-Beratungsfirma RescueTime auf Basis von 40.000 Nutzerprofilen in der Berufswelt untersucht.

Herman Maurer, Professor für Informatik an der Technischen Universität Graz, lässt sich von solchen Schreckenszenarien nicht beeindrucken. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.

„Ich habe schon vor vielen Jahren den allgegenwärtigen Computer prognostiziert: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät“, erläutert Maurer. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so Maurer weiter.

Die Cyborg-Visionen von Maurer erscheinen vielleicht utopisch. Einen Evolutionssprung versprechen sich Internetexperten nach einem Bericht der Financial Times Deutschland (FTD) zumindest von Fortschritten in der Entwicklung semantischer Technologien – landläufig auch als Web 3.0 bezeichnet. Plumb agierende Computer sollen verstehen, was für Inhalte sie hin und her verschieben oder gespeichert haben. „Erst dann werden Nutzer auf ihre Fragen tatsächliche Antworten erhalten und nicht nur eine mehr oder weniger passende Aufreihung von Weblinks“, so die FTD. Das Ziel von Google ist eine Suchmaschine, mit der man sich normal unterhalten kann und die dabei aus dem gesamten Wissen der Welt schöpft. Eine ähnliche Zielsetzung verfolgt auch das derzeitig größte deutsche IT-Forschungsprojekt mit dem Namen THESEUS, benannt nach dem attischen Helden und angeblichen Ur-Vater der Demokratie. Für den Dialog zwischen Mensch und Maschine will THESEUS multimodale Benutzeroberflächen entwickeln, die durch Sprache und Gestik bedient werden können. Anfragen könnte man dann intuitiv formulieren und im Dialog mit dem System verfeinern. Ein semantischer Mediator fungiert im Computer als Schnittstelle zwischen der Benutzeroberfläche und den verschiedenen Metadatenquellen. Er wandelt eine gesprochene Anfrage in einen semantisch korrekten Datensatz um, der für eine Suche nötig ist.

Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.

Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“

160px-l-waage5Selbst das Markenzeichen seiner Firma, die allseits aus dem Lebensmitteleinzelhandel bekannten Waagen, haben nur noch wenig mit der von Philipp Matthäus Hahn im 18. Jahrhundert erfundene „Wand-Neigungswaage“ zu tun.

Die neuesten Bizerba-Geschäftswaagen sind die wiegenden und druckenden Endstationen der Computernetze. Die jüngste Generation verlangt nicht einmal mehr einen Tastendruck, sondern kann dank optischer Bildverarbeitung Äpfel und Birnen selbst unterscheiden. Und wenn es gilt, Tomaten mit und ohne Stiel vom Strauch zu unterscheiden, dann fragt so eine Waage eben beim Kunden mit knapper Menüauswahl zurück. Auch die altehrwürdige Wägetechnik fungiert nunmehr als digitaler Einkaufsberater. So zeigt das Kundendisplay den Namen der Verkäuferin, aktuelle Kaufangebote, informiert über Nährwerte, Zusatzstoffe, Herkunft, Allergene, vermittelt Empfehlungen für die korrekte Lagerung der Lebensmittel, macht Rezept- und Menüvorschläge.

Hightech-Waage
Hightech-Waage

Google-Killer oder: Wer Antworten will, braucht auch Fragen

Auch die NZZ hat sich mit dem vermeintlichen Google-Killer beschäftigt, der zur Zeit über Blogs kräftig ins Rampenlicht gerückt wird. „Derjenige, der da Google übertrumpfen und mittels künstlicher Intelligenz allem Unwissen den Garaus machen will, wurde als wissenschaftliches Wunderkind bekannt, hat sich an den besten Universitäten hervorgetan und hat als Programmierer eine technisch komplexe, kommerziell erfolgreiche Software geschaffen. Es ist der Ruhm des britischen Physikers Stephen Wolfram, der dieser Tage unzählige Online-Journalisten und Blogger dazu bringt, die Begriffe Google-Killer, neuartige Suchmaschine, künstliche Intelligenz wieder einmal in einem Satz zusammenzubringen“, so die NZZ. Ob Wolfram-Alpha halten kann, was Blogger vermuten, steht auf einem anderen Blatt. Der Suchmschinen-Genius selbst beschreibt die neue Suchmaschine als „computational knowledge system“, als Wissensberechnungsmaschine. „Ausserhalb von Wolfram Research, der Firma, die Mathematica und Alpha entwickelt, hat bis jetzt nur ein einziger Mensch – Nova Spivack – die neue Suchmaschine ausprobieren können“, schreibt die NZZ. Das ist doch ein kluger PR-Schachzug. Spivack ist so euphorisch, als sei eben gerade eine neue bewusstseinserweiternde Droge entdeckt worden: Wolfram Alpha sei nicht eine Suchmaschine, sondern eine Antwort-Maschine. Das ist aber keine Sensation. Denn auch KI-Forscher wie Professor Wolfgang Wahlster vom DFKI oder das Fraunhofer Institut drehen an dieser Schraube. Darüber habe ich schon mehrfach berichtet. Und auch die Semantic Web-Experten von Google verweilen nicht im Tiefschlaf. Mit Mike Cohen, seinen früheren Nuance-Mitarbeitern, Franz Och und vielen anderen Spezialisten hat Google einige gute Leute an Bord.

Schon jetzt sei Google gar nicht so schlecht, meint die NZZ. Auch diese Suchmaschine kann schwierige Fragen mit wenigen Ziffern beantworten. Füttert man Google beispielsweise mit der Frage aller Fragen, der allerletzten Frage, und schreibt: ‚The answer to life, the universe and everything‘, erhält man als Antwort: ’42‘. Wie man beim englischen Science-Fiction-Autor Douglas Adams nachlesen kann, ist diese Antwort korrekt, dies sei tatsächlich die allerletzte Antwort“. Allerdings gerate in Vergessenheit, welches die dazu passende allerletzte Frage war. So werde man dann halt vielleicht Wolframs Answer Machine eine Frage-Maschine zur Seite stellen müssen, orakelt die NZZ und hat nicht ganz Unrecht. Siehe auch meinen Blog-Beitrag vor ein paar Tagen.

Antwortmaschine als Google-Killer? Aufregung in der Blogosphäre

Eine neue Suchmaschine versetzt angeblich die Blogosphäre in Aufregung. Das berichtet die Financial Times Deutschland. Der Wissenschaftler Stephen Wolfram soll einen „Google-Killer“ entwickelt haben. „Doch den glaubten vor ihm schon viele erfunden zu haben“, so die FTD.

„Da schreibt Nova Spivack, Suchmaschinenexperte aus San Francisco, einen begeisterten Blogeintrag über Professor Wolframs neueste Entwicklung. Über eine Suchmaschine, die angeblich spezifische, sachbezogene Fragen viel präziser beantworten kann als jede andere Suchmaschine“, berichtet die FTD.

Sein Dienst könnte nach Meinung von Suchmaschinenexperten nicht nur sehr nützlich, sondern im Internet auch einflussreich werden. „Aber ein Google ist Wolfram Alpha deswegen noch nicht, auch wenn Spivack seinen Blogeintrag vollmundig mit ‚Wolfram Alpha kommt – und es könnte so wichtig wie Google sein‘ überschreibt. Was genau kommt, wird die Welt erst im Mai wissen, wenn die Website an den Start geht“, führt die FTD weiter aus.

Das Rätsel ist auch schnell entlüftet, denn das Ganze soll als Antwortmaschine funktionieren – läuft also auf den Pfaden von semantischen Technologien. Sie wird, anders als Google, auf eine Suchanfrage nicht einfach Links auflisten, die eine Antwort auf die Frage des Nutzers enthalten könnten. Stattdessen analysiert die Technologie Fragen, auf die es sachbezogene Antworten gibt – und liefert diese. Sie soll eine große Auswahl in „natürlicher“ Sprache gestellter Fragen beantworten können, schreibt Spivack, der vergangene Woche zwei Stunden mit Wolfram gesprochen hat und sich dessen Onlineservice vorführen ließ. Ja toll. Konzepte für die so genannte Antwortmaschine werden an vielen Stellen zur Zeit entwickelt. In Deutschland arbeitet das Deutsche Forschungszentrum für Künstliche Intelligenz am Web 3.0-Standard. Mit dem von der Bundesregierung geförderten Projekt Theseus soll die Marktreife erreicht werden. Auch bei Google. Ich habe darüber schon mehrfach berichtet. So einfach lassen sich die Google-Forscher nicht die Butter vom Brot nehmen. Bei der Sprachsteuerung sind die Jungs nur schwer zu toppen. Weiteres hier.