Was passiert, wenn man Star Wars, Facebook und semantische Technologien kombiniert?

Als Jugendlicher war der Physiker Michio Kaku von der Aussicht begeistert, auf Zeitreise zu gehen, Strahlenpistolen zu haben oder Kraftfelder, Paralleluniversen und dergleichen zu erforschen. „Magie, phantastische Literatur und Science-Fiction-Geschichten regten meine Vorstellungskraft an, und so begann meine lebenslange Liebe zum Unmöglichen“, schreibt Kaku in seinem Opus „Die Physik des Unmöglichen – Beamer, Phaser, Zeitmaschinen“, erschienen im Rowohlt Verlag. Als Naturwissenschaftler hat er gelernt, dass sich das „Unmögliche“ häufig als relativer Begriff erweist. 1863 erwies sich Jules Verne in seinem Roman „Paris im 20. Jahrhundert“ als äußerst weitsichtig. Darin stellte er sich vor, wie es in der französischen Hauptstadt des Jahres 1960 aussehen würde. Verne bringt eine Technik zum Einsatz, „die im 19. Jahrhundert zweifellos als unmöglich betrachtet wurde, nämlich Faxgeräte, ein weltumspannendes Kommunikationsnetzwerk, Wolkenkratzer aus Glas, benzinbetriebene Autos und Hochgeschwindigkeitszüge auf Stelzen“, so Kaku. Da Verne großes Verständnis für die Grundlagen der Wissenschaft aufbrachte, gelang ihm dieser bemerkenswerte Blick in die Zukunft. Im Gegensatz zu Lord Kelvin, der Flugapparate, die schwerer als Luft sind, für undenkbar hielt. Röntgenstrahlen betrachtete er als Schwindel und für das Radio sah er keine guten Erfolgsaussichten. Lord Rutherford, der den Atomkern entdeckte, verwarf die Möglichkeit einer Atombombe. „Es ist noch gar nicht so lange her, da wurden Schwarze Löcher als Science-Fiction betrachtet“, führt Kaku aus.

Wie man aus der Vergangenheit die Zukunft ableiten lässt, könne man sehr schön an Star Wars erkennen, sagte Bernd Stahl vom Netzwerkspezialisten Nash Technologies in einem Vortrag über die Entwicklung der Sprachkommunikation. Was könnte passieren mit einer Kombination aus Star Wars, Facebook und semantische Technologien. „Stellen Sie sich vor, es hätte bei Star Wars schon ein Facebook gegeben und der Kanzler Kanzler Palpatine, Count Dooku, Jabba the Hut und andere Bösewichte wären miteinander befreundet gewesen. Da hätte Obi-Wan Kenobi sofort herausgefunden, wer hinter der großen Verschwörung steckte und das Ganze wäre geplatzt. Wir gehen in unserem Zukunftsszenario über Star Wars hinaus. Damals gab es noch kein Facebook, keine Suchmaschinen oder semantische Technologien. Es gab zwar R2D2, den bekommen wir aber auch bald“, so Stahl in seiner launigen Rede in Stuttgart.

Wie er sich die Kommunikationswelten von morgen vorstellt, berichte ich in einem Beitrag für den Düsseldorfer Fachdienst Service Insiders.

Hoffe, die Spannung steigt jetzt ins Unerträgliche…..:-)

Einen kleinen Vorgeschmack habe ich in einem kurzen Interview mit Bernd Stahl erörtert:

Topsy, Crowdeye, Hunch oder Eyeplorer: Auf der Suche nach der Suchmaschine von morgen

logo_ask_new_2Anders als in den vergangenen Jahren, in denen auch qualitativ hochwertige Suchdienste wie Ask.com beharrlich ignoriert wurden, scheint die Bereitschaft zu wachsen, bei Suchmaschinen sich auf etwas Neues einzulassen. Das schreibt Spiegel-Online-Redakteur Frank Patalong: „Was auch daran liegen könnte, dass wahrgenommen wird, dass Google nicht in jeder Hinsicht das Rad erfunden hat. So wird eifrig über die Entwicklung einer Twitter-Suchmaschine im Hause Google spekuliert. Die müsste dann aber wohl gegen den Twitter-Suchdienst CrowdEye.com des langjährigen Microsoft-Suchdienstentwicklers Ken Moss antreten“. Moss sei kein Frühstarter.
„Längst haben sich mit OneRiot und Topsy zwei Twitter-Suchdienste etabliert. Der Vorgang ist typisch: Erst, wenn sich die Großen bewegen, entsteht auch Aufmerksamkeit für die Leistungen der Kleinen. Während die Tech-Presse erneut über semantische Suche diskutiert, probieren Dienste wie Hunch.com neue Ansätze, das Web intelligenter zu erschließen. Hunch versucht, Suchanfragen durch thematische Einengung näher zu definieren, um zu treffsichereren Ergebnissen zu kommen. Mitunter klappt das ganz prächtig und zeigt viel Potenzial, mitunter grenzt es an Realsatire“, so Patalong.

Internet intelligenter erschließen
Internet intelligenter erschließen
Hunch sei das Gegenstück zu Wolfram Alpha (WA), dem Dienst, der wenig, das aber sehr genau weiß: „WA ist stark, wo es um Sachliches geht, Hunch dort, wo es nach Pop riecht – sie sind E- und U-Suchmaschinen, wenn man so will. Aber Hunch lebt vom Konzept, durch seine Nutzer zu lernen. Man muss der Sache also Zeit geben. Das sind die Dinge, die dafür sorgen, dass die wirklich großen Suchdienste populär bleiben. Mitunter haben die Kleinen mehr Klasse, doch es fehlt an Masse“, führt Patalong aus. Bemerkenswertes verortet er in Berlin: Eyeplorer.com sei ein Dienst, der für semantische Verbindungen sorgt. Auf Basis der erfassten Wikipedia-Daten visualisiere EyePlorer thematische Querverbindungen. Man komme zu überraschenden Ergebnissen. Der Nutzer wird auf Themenreisen durch Cluster von Artikeln geführt, die thematisch verknüpft sind. „So etwas für das gesamte Web umzusetzen, statt ‚nur’ für die Inhalte der Wikipedia, würde dem Traum vom semantischen Web schon sehr nahe kommen. Denn da geht die Reise hin, für alle Player auf dem Markt: Keine Frage, dass auch Google, Yahoo oder nun Bing versuchen werden, immer mehr solche semantischen Features in ihre Dienste zu integrieren“, resümiert Patalong.

Die Inhalte im World Wide Web wachsen allerdings mit einer schnellen Geschwindigkeit. In Zukunft werde eine Indexierung immer schwieriger, selbst wenn man neuartige Methoden auf Basis von semantischen Verbindungen oder künstlicher Intelligenz auf den Markt bringt, meint Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi. „Wirklich mächtige Suchmaschinen können meiner Ansicht nach erst dann entstehen und Zusatznutzen stiften, wenn sich die Spezifikationen des World Wide Web Consortium (W3C) in der Breite durchsetzen. Mit anderen Worten müssen die großen Softwareanbieter bei der programmiertechnischen Kennzeichnung semantisch verwertbarer Inhalte eine Vorreiterrolle übernehmen“, erklärt Internetexperte Behrendt.

Neue Dienste durchs mobile Internet
Neue Dienste durchs mobile Internet

Impulse erwartet Sprachdialogexperte Lupo Pape vom mobilen Internet: „Das mobile Internet ist erst in Ansätzen erkennbar. Da ist vor allen Dingen in Europa noch sehr viel Marktpotenzial vorhanden. So kann niemand vorhersagen, was passiert, wenn beispielsweise ortbasierte Services auf auf Web 2.0-Communities treffen. Natürlich hat das eine enorme Sprengkraft wenn Giganten wie Apple, Google, Microsoft und Nokia aufeinander treffen und gleichzeitig noch Heerscharen von Applikationsentwicklern auf deren freigegebenen Plattformen innovative Dienste für den mobilen Nutzer entwickeln und täglich neue Dienste auf den Downloadcharts vom Apple-Store oder OVI stehen“, erläutert Pape, Geschäftsführer von SemanticEdge in Berlin.

Die Innovationsgeschwindigkeit verlaufe zur Zeit ungehemmt, keiner weiß, wo das hinführen wird und wie sich unser Leben und wie sich insbesondere auch die Wertschöpfungsketten in der Wirtschaft verändern werden. „Interessant ist, dass trotz der ganzen Vielfalt der Software, Hardware und Anwendungen, die sich dahinter verbergenden Nutzungsszenarien der Endverbraucher meist sehr einfach bleiben: ‚Wo ist der nächste Fahrradladen?’; ‚Welche Freunde sind gerade in der Nähe?’; ‚Wie gut ist der Inder dort an der Ecke?’; ‚Gibt es die Kamera noch irgendwo billiger?’“, so der Sprachdialogexperte Pape. Das seien Nutzungsszenarien, die nach einer Spracherkennung und einem Sprachdialog geradezu schreien.

„Wenn es gelingt, den Sprachdialog in die mobilen Anwendungen einzubinden, dann wird die ganze Entwicklung noch einmal eine neue Dimension bekommen. Spracherkennung und Sprachdialog werden auch der Schlüssel dafür sein, Bevölkerungsgruppen an der Entwicklung teilhaben zu lassen, die von der neuen Technologie bisher ausgeschlossen sind“, resümiert Pape. Das müssten die großen Anbieter in ihren Strategien für das mobile Internet berücksichtigen.

Antwortmaschinen, Entscheidungsmaschinen und Google-Killer: Die Verheißungen des semantischen Webs bleiben bislang aus

Die "Entscheidungsmaschine"Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.

Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.

Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.

Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.

Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.

Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.

Luhmann, semantische Technologien und die Internet-Kommunikation: Web 3.0 soll Internet-Nutzer besser verstehen

Das Computer-Vermächtnis des Soziologen Niklas Luhmann
Das Computer-Vermächtnis des Soziologen Niklas Luhmann
Das Unternehmen iQser hat ehrgeizige Ziele, die landläufig unter dem Schlagwort Web 3.0 laufen. Es setzt auf semantischen, um die Flut von Informationen durch eine automatische inhaltliche Analyse zu bewältigen. Semantische Verfahren waren lange Zeit nur ein Experimentierfeld der Wissenschaftler, berichtet die FAZ und zitiert den iQser-Chef Jörg Wurzer mit der Aussage: „Jetzt hat die Semantik die Wissenschaft verlassen. Es gibt viele Startpus, die sich damit beschäftigen“. Und damit sei nicht nur das Großprojekt Theseus gemeint, das vor allem von großen Unternehmen getragen wird. „Unternehmen stehen vor der Herausforderung, eine Fülle von Informationen zu verarbeiten, die von Jahr zu Jahr wächst. Die hohe Verfügbarkeit von Informationen im Internet und immer mehr Anwender sowie Organisationen, die an der Produktion von Informationen beteiligt sind, tragen zu diesem Prozess bei“, teilt iQser in einer Presseerklärung mit.

Mit einer Software wolle man alle wichtigen internen und externen Informationen automatisch vernetzen. Jedes Dokument, jede E-Mail und jede Nachricht werde Projekten, Aufgaben oder Personen zugeordnet. Man solle nicht mehr nach Informationen suchen, sondern ihren Kontext auswählen und automatisch alle Informationen geliefert bekommen, die zu diesem Kontext gehört. Das könnten neue Forschungsberichte oder aktuellen Nachrichten sein.

Gute Idee: Reiseportale mit Nutzerkommentaren aus dem Social Web kombinieren
Gute Idee: Reiseportale mit Nutzerkommentaren aus dem Social Web kombinieren
So könnten Reiseziele auf Portalen wie Triptivity mit passenden Nutzerkommentaren aus sozialen Netzwerken oder mit Reisebeschreibungen angereichert werden. „Ein zweites Analyse-Ergebnis gibt einen Überblick darüber, welche Themen in den Artikeln behandelt werden, in welche Aspekte sie sich auffächern und welche grundlegenden Fakten vermittelt werden. Das dafür automatisch ermittelte Begriffsnetz wird in Form eine Baumes dargestellt, den der Anwender nutzen kann, um sein Interesse einzugrenzen und eine entsprechende Artikelauswahl vorzunehmen“, so iQser.

Mitarbeiter würden einen Überblick über die verfügbaren unstrukturierten Informationen erhalten, ohne diese zuerst sichten zu müssen. Anschließend sei eine Auswahl nach Interessenschwerpunkten möglich. Mit einem Web-Monitoring könne man erkennen, in welchem Zusammenhang im Internet über ein Unternehmen und seine Produkte diskutiert wird.

Experten für Künstliche Intelligenz sind sich einig, dass bei den neuen Projekten des semantischen Webs die Sprache eine ganz entscheidende Rolle spielen muss. „Beim Web 3.0 versucht man die Ergebnisse der Sprachforschung zu nutzen, um Suchbegriffe oder natürlich-sprachliche Suchanfragen tiefer zu analysieren und semantisch anzureichern. Suchergebnissen sollen am Ende präziser, besser strukturiert und um viele andere, nahe liegende Themengebiete angereichert werden. Idealerweise kann eine gestellte Frage dann auch in einem Satz beantwortet werden“, so die Erkenntnis des Sprachdialogexperten Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Diesem Trend entgegen komme die immer stärkere semantische Aufbereitung der Webinhalte in vielen Suchbereichen durch Internetnutzer, auch „Prosumer“ genannt, die in weltweiten Netzwerke aktiv sind. Das beste Beispiel hierfür sei Wikipedia. „Bisher musste das Wissen weitestgehend manuell in sogenannten Ontologien oder Taxonomien erstellt werden, welche die Begriffe zu einander in Beziehung setzen und daraus Wissensrepräsentationen unterschiedlichster Domänen bilden. Firmen wir iQser versuchen nun, das Wissen im Intranet oder Internet automatisch aufzubereiten. Das Ergebnis sollte eine Antwort und keine ewig lange Ergebnisliste mit vielen irrelevanten Texten sein“, erläutert Pape.

Sprachdialogsysteme machen das Web 3.0 zu einer Antwortmaschine
Sprachdialogsysteme machen das Web 3.0 zu einer Antwortmaschine
Gekoppelt mit Spracherkennung und Sprachsynthese könne dieser Weg zu ganz neuen Sucherfahrungen führen. Eine gesprochene Frage zu einem beliebigen Thema werde dann auch mit einem gesprochenen Satz beantwortet. „Dieses Szenario ist keinesfalls Science-Fiction, denn parallel zu den Fortschritten in der Suchtechnologie macht auch die Spracherkennung enorme Fortschritte. Auch die Dialogtechnologie spielt hier ein bedeutende Rolle, da bei vielen Anfragen weiterführende Fragen und Präzisierungen erforderlich sind“, sagt Pape. Die Frage „Wie komme ich jetzt am schnellsten nach Berlin?“ macht die Klärung erforderlich, ob man mit Zug, Auto oder Flugzeug reisen möchte. Es werde nach Ansicht des SemanticEdge-Chefs noch lange dauern, bis die vielen Informationen semantisch erschlossen und die wichtigsten Nutzungsszenarien klar sind. Bei Fahrplaninformationen, Navigation oder Adressdaten sei jetzt schon vieles möglich. Frei nach dem Soziologen Niklas Luhmann muss das semantische Web drei Komponenten der Kommunikation erfüllen: Mitteilung, Information und Verstehen.

Der Geist in der Maschine: Über digitale Assistenzsysteme

dsc_00031Fast 96 Milliarden Anfragen tippten Internetnutzer allein im Februar in die Suchfelder von Google und Co. Ein Jahr zuvor waren 67 Milliarden. Zu diesem Befund gelangte der Informationsprovider Comscore. Das ständige Senden, Beantworten und Weiterleiten von teilweise völlig belanglosen Informationen wird von Kulturkritikern mittlerweile als semantische Umweltverschmutzung bezeichnet. Etwa 50-mal pro Tag öffnet ein typischer „Informationsarbeiter“ sein E-Mail-Fenster, 77-mal wendet er sich dem Instant-Messaging-Programm für den schnellen Versand von Nachrichten zu, nebenbei werden noch etwa 40 Web-Sites besucht. So hat es die US-Beratungsfirma RescueTime auf Basis von 40.000 Nutzerprofilen in der Berufswelt untersucht.

Herman Maurer, Professor für Informatik an der Technischen Universität Graz, lässt sich von solchen Schreckenszenarien nicht beeindrucken. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.

„Ich habe schon vor vielen Jahren den allgegenwärtigen Computer prognostiziert: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät“, erläutert Maurer. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so Maurer weiter.

Die Cyborg-Visionen von Maurer erscheinen vielleicht utopisch. Einen Evolutionssprung versprechen sich Internetexperten nach einem Bericht der Financial Times Deutschland (FTD) zumindest von Fortschritten in der Entwicklung semantischer Technologien – landläufig auch als Web 3.0 bezeichnet. Plumb agierende Computer sollen verstehen, was für Inhalte sie hin und her verschieben oder gespeichert haben. „Erst dann werden Nutzer auf ihre Fragen tatsächliche Antworten erhalten und nicht nur eine mehr oder weniger passende Aufreihung von Weblinks“, so die FTD. Das Ziel von Google ist eine Suchmaschine, mit der man sich normal unterhalten kann und die dabei aus dem gesamten Wissen der Welt schöpft. Eine ähnliche Zielsetzung verfolgt auch das derzeitig größte deutsche IT-Forschungsprojekt mit dem Namen THESEUS, benannt nach dem attischen Helden und angeblichen Ur-Vater der Demokratie. Für den Dialog zwischen Mensch und Maschine will THESEUS multimodale Benutzeroberflächen entwickeln, die durch Sprache und Gestik bedient werden können. Anfragen könnte man dann intuitiv formulieren und im Dialog mit dem System verfeinern. Ein semantischer Mediator fungiert im Computer als Schnittstelle zwischen der Benutzeroberfläche und den verschiedenen Metadatenquellen. Er wandelt eine gesprochene Anfrage in einen semantisch korrekten Datensatz um, der für eine Suche nötig ist.

Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.

Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“

160px-l-waage5Selbst das Markenzeichen seiner Firma, die allseits aus dem Lebensmitteleinzelhandel bekannten Waagen, haben nur noch wenig mit der von Philipp Matthäus Hahn im 18. Jahrhundert erfundene „Wand-Neigungswaage“ zu tun.

Die neuesten Bizerba-Geschäftswaagen sind die wiegenden und druckenden Endstationen der Computernetze. Die jüngste Generation verlangt nicht einmal mehr einen Tastendruck, sondern kann dank optischer Bildverarbeitung Äpfel und Birnen selbst unterscheiden. Und wenn es gilt, Tomaten mit und ohne Stiel vom Strauch zu unterscheiden, dann fragt so eine Waage eben beim Kunden mit knapper Menüauswahl zurück. Auch die altehrwürdige Wägetechnik fungiert nunmehr als digitaler Einkaufsberater. So zeigt das Kundendisplay den Namen der Verkäuferin, aktuelle Kaufangebote, informiert über Nährwerte, Zusatzstoffe, Herkunft, Allergene, vermittelt Empfehlungen für die korrekte Lagerung der Lebensmittel, macht Rezept- und Menüvorschläge.

Hightech-Waage
Hightech-Waage