Antwortmaschinen, Entscheidungsmaschinen und Google-Killer: Die Verheißungen des semantischen Webs bleiben bislang aus

Die "Entscheidungsmaschine"Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.

Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.

Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.

Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.

Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.

Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.

Mehrwertforum in Berlin: Virtuelle Call Center, digitale Innovationen durch Künstliche Intelligenz und die Zukunft der Kommunikation

Software verbindet immer mehr den privaten Lebensraum mit dem Geschäft: Arbeit ist Teil des Privatlebens und das Private vermischt sich mit Beruflichem. Das gilt mittlerweile auch für die Call Center-Branche. In einer vernetzten Welt müssen sich besonders die Anbieter im Kundenservice ständig neu ausrichten. Den Aufbau und Ablauf einer Organisation in Beton zu gießen, um sie auf Effizienz zu trimmen, gelingt immer weniger.

ThTlabs_005In der Telekom-Forschungseinrichtung T-Labs in Berlin wird deshalb nicht der Mensch, sondern der Arbeitsplatz mobil – das Büro steckt quasi in der Hosentasche: „Wir möchten nicht das Büro abschaffen, sondern es allgegenwärtig machen“, so die Visionen von Hermann Hartenthaler von T-Labs. Wo immer man sich gerade aufhalte, soll überall und jederzeit die Möglichkeit bestehen, sich in dem vertrauten Arbeitsumfeld zu bewegen. Call Center-Agenten arbeiten immer häufiger an wechselnden Standorten und Arbeitsplätzen für ein- und dieselbe Hotline. Moderne Softwarelösungen wie die webbasierte Automatic Call Distribution (ACD) der Deutschen Telekom verbinden dabei Anrufer automatisch mit dem richtigen Ansprechpartner – und das ohne teure Investitionen in Technik vor Ort.

Ungenutzte Ressourcen könne man besser ausschöpfen und eine optimale Erreichbarkeit von Services sicherstellen. Mitarbeiter könnten sich selbstständig und zu jeder Zeit am ACD-System anmelden – unabhängig von ihrem Aufenthaltsort. Das heißt: Obwohl räumlich von einander entfernt, werden die Agenten Teilnehmer eines großen virtuellen Call Centers. Anrufer wählen eine Servicenummer und erreichen stets einen Gesprächspartner – ganz egal, wo dieser sitzt.

Der Anwender benötigt allerdings ausgefeilte Instrumente für die Steuerung und das Monitoring des Telekommunikationsverkehrs. Diese Instrumente müssten so zeitnah wie möglich greifen und ständig verfügbar sein – nur auf dieser Basis kann das Servicemanagement schnell und gezielt agieren. Die Notwendigkeit dieser Qualitätskontrolle belegt der „Customer Self Service Report“ des Marktforschungsinstituts Harris Interacitve: In einer Umfrage gaben 59 Prozent der Verbraucher zu Protokoll, dass sie Unternehmen nach einer negativen Call Center-Erfahrung dauerhaft den Rücken kehren. Der Einfluss telefonischer Dienste auf das Ansehen der Firmen ist also erheblich. Entsprechend wichtig sind Erfolgskontrollen des Serviceniveaus. Um für die ACD ein flexibles Echtzeit-Monitoring zu realisieren, hat das Dortmunder Softwareunternehmen VoicInt Telecommunications sein „Web Enterprise Monitoring“ an die Call- Center-Plattform der Deutschen Telekom angebunden. „So stehen Kunden umfassende Informationen, Statistiken und Kennzahlen parallel zu den laufenden Prozessen bereit. Über einen beliebigen Webbrowser und sogar über Mobilfunkgeräte wie das iPhone können die Verantwortlichen beispielsweise Informationen zur Anzahl der Anrufe und Gespräche, zur Erreichbarkeit, zu Gesprächsdauer oder Service Level abrufen“, erläutert Peter Nowack, Geschäftsführer von VoicInt.

Mit dem Tool erweitere die Deutsche Telekom ihre erfolgreiche Call Center-Lösung aus dem Netz um eine zentrale Funktion. Echtzeitinformationen seien für die effiziente Steuerung eines Call Centers unabdingbar. Genau so wichtig sei es, die Daten und Indikatoren übersichtlich darzustellen. Das werde etwa mit einer professionellen grafischen Aufbereitung der Informationen durch das Web Enterprise Monitoring ermöglicht. Manager und Teamleiter könnten auf einen Blick den Status und das Service Level erfassen, um die Ressourcenauslastung zu optimieren.

Mehrwertforum im Axica Kongresscenter am Brandenburger Tor
Mehrwertforum im Axica Kongresscenter am Brandenburger Tor
„Die netzbasierte ACD ist ein Highlight unter der Mehrwertlösungen der Deutschen Telekom“, sagt Lars Völkering, Leiter Produktmanagement Managed Services bei der Telekom im Vorfeld des Mehrwertforums https://mwl.telekom.de/mehrwertforum in Berlin. Das Echtzeit-Monitoring von VoicInt steigere den Nutzwert der Lösung noch einmal deutlich. Das System wird auf dem Mehrwertforum vom 13. bis 14. Mai in Berlin präsentiert. Weitere Themen: Dieter Brandes, ehemaliger Aldi-Manager äußert sich zur Kunst der Einfachheit. Andreas Klug von der ITyX Solutions AG und Michael Schneider vom Bosch Communication Center zeigen auf, wie digitale Innovationen auf Künstliche Intelligenz treffen. Hiogi-Chef Björn Behrendt präsentiert Geschäftsmodelle im Zeitalter von intelligenten Web und Social Communities. Perspektiven von Internet-TV und Mehrwertlösungen der Zukunft beleuchten Dr. Randolph Nikutta von T-Labs und Johannes Nünning, Leiter Strategie Mehrwertlösungen der Deutschen Telekom.

Semantisches Web verspricht bessere Werkzeuge gegen die Informationsüberflutung

Sprachdialogexperte Lupo Pape
Sprachdialogexperte Lupo Pape

Mitarbeiter verschwenden oft wertvolle Arbeitszeit mit dem Durchforsten von Suchergebnissen, Projekte geraten ins Stocken, weil wichtige Ansprechpartner nicht aus den Dokumenten hervorgehen, und Expertenwissen verstaubt ungenutzt in Dateien, die schlicht und einfach nicht gefunden wurden. Die unstrukturierte Suche nach Informationen kostet nicht nur Zeit, sie verursacht für jedes Unternehmen auch unnötige Kosten.

„Das Fraunhofer IGD hat eine Suchmaschine entwickelt, die übergreifend auf unterschiedliche Datenquellen zugreifen und selbsttätig Stichworte um Synonyme, Übersetzungen oder thematisch ähnliche Sachverhalte ergänzen kann“, berichtet das Fraunhofer-Kundenmagazin Innovisions.

Eine einzige Eingabe genügt und die Software ConWeaver durchsucht alle verschiedenen Datenquellen eines Unternehmens. Dabei bezieht ConWeaver nicht nur den vom Nutzer eingegebenen Begriff in die Suche ein, sondern auch dessen Übersetzung in andere Sprachen sowie thematische Zusammenhänge. Zudem erzeugt die Software aus den Unternehmensdaten automatisch ein semantisches Wissensnetz. Die darin enthaltenen Datenverknüpfungen ermöglichen es, nach der Bedeutung eines Wortes zu suchen.

So erkennt ConWeaver beispielsweise selbstständig, dass das Wort „Kunde“ in der Vertriebsdatenbank gleichbedeutend ist mit dem Wort „customer“ im E-Mail-Archiv und „Auftraggeber“ in der Projektdokumentation.

„Im Gegensatz zu herkömmlichen Suchmaschinen erzeugt ConWeaver einen Zusammenhang zwischen den unterschiedlichsten Datenformaten. Dadurch kann die Software sowohl unstrukturierte als auch strukturierte Informationsquellen effizient absuchen“, erläutert Dr. Thomas Kamps, Leiter des ConWeaver-Teams am Fraunhofer-Institut für Graphische Datenverarbeitung IGD in Darmstadt.

Durch die Kombination verschiedener Module, so genannter Workflows, können die Fraunhofer-Forscher ConWeaver gezielt an die Bedürfnisse des Unternehmens anpassen. Ähnliches hat auch Radar Networks aus San Francisco im Angebot. Die Firma stellt gratis ein Onlinewerkzeug mit dem Namen Twine bereit, um die tägliche Informationsflut besser zu bewältigen. Das Programm analysiert Daten und sortiert sie in Kategorien, um E-Mails, Web-Suche, Kalender, Notizen, Tabellen, Texte oder Präsentationen leichter zu nutzen.

„Derzeit dominieren Konzerne wie Google, Microsoft oder Yahoo mit eigenen oder zugekauften Diensten und Techniken die Angebote und Geschäftsmodelle im Internet. Hinzu kommt ein Schar von Angeboten, die vor allem durch die Aktivität ihrer Nutzer leben wie der Internettreffpunkt Facebook oder das Onlinelexikon Wikipedia – so genannte Web 2.0-Portale“, berichtet die Financial Times Deutschland.

Im künftigen Internet, dem Web 3.0 sollen so genannte semantische Techniken das weltweite Datennetz revolutionieren. Diese neuen digitalen Werkzeuge sollen nicht wie bislang nur einzelne Wörter in Texten erkennen, sondern vielmehr ganze Inhalte verstehen, interpretieren, mit standardisierten Schlagworten versehen und mit weiteren Informationen verknüpfen. Gleiches soll für digitale Fotos, Videos oder Musikdateien möglich werden. Die neue Wunderwelt soll auch über mobile Geräte wie Handys nutzbar sein. Gerade erst hat die Bundesregierung auf dem IT-Gipfel auf die Chancen einer Vorreiterrolle der Bundesrepublik bei der Schaffung wissensbasierter Dienstleistungen, Produkte und Geschäftsmodelle hingewiesen. Es geht bei alledem „um die Semantik, also den Sinn und die Bedeutung von Inhalten, die über das World Wide Web transportiert werden. Im Web 2.0 gebe es eine Informations- beziehungsweise Linküberflutung, da beispielsweise Textdokumente letztlich auf eine sinnfreie Kombination aus Buchstaben reduziert werden. Fotos und Videos sind nur Ansammlungen von verschiedenfarbigen Pixeln. Die semantische Wende aber führe zu einem hochpräzisen Antwortverhalten in einem Web, das Sinnzusammenhänge in den Mittelpunkt stellt“, schreibt Focus-Online.

„Wenn es also gelingt, die Semantik von Texten, Bildern, Gesten und künstlerischen Darbietungen durch standardisierte Begriffe zu formalisieren, sodass die gewonnenen Daten maschinenlesbar sind, dann könnte die Vision der Antwortmaschine Realität werden. Eine Suchmaschine wie Google wäre dann überflüssig. Der Nutzer stellt stattdessen einfach seinem Handy eine Frage und es antwortet, anstatt eine Liste von unzähligen Suchergebnissen anzubieten“, so das Magazin.

Viele Informationen würden bereits strukturiert vorliegen, wie Fahrplaninformationen, Telefonnummern, Sportergebnisse, bewertete Restaurants und sonstige Adressen.

„Was fehlt, ist eine Art Yahoo des ‚Voicewebs’, über das sich jeder personalisiert seine gewünschten Angebote zusammenstellen und über Sprache oder Multimodale Interfaces abfragen kann“, resümiert Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Update 2014:

Passiert ist auf diesem Feld wenig. Leere Versprechen.