„R2D2 sitzt in Australien“

Hier ist der komplette Vortrag als Audioaufzeichnung (auch zum Herunterladen):
http://twitter.com/#!/gsohn/statuses/48781948373565440

Oder hier:

Der Nutzen von Facebook für Obi-Wan Kenobi und die Star Wars-Kommunikation von morgen

http://twitter.com/#!/gsohn/statuses/48718459491713024

Über Retweets, Facebook-Verlinkungen und Kommentare würde ich mich sehr freuen.
Hoffe, die Story gefällt Euch.

Was passiert, wenn man Star Wars, Facebook und semantische Technologien kombiniert?

Als Jugendlicher war der Physiker Michio Kaku von der Aussicht begeistert, auf Zeitreise zu gehen, Strahlenpistolen zu haben oder Kraftfelder, Paralleluniversen und dergleichen zu erforschen. „Magie, phantastische Literatur und Science-Fiction-Geschichten regten meine Vorstellungskraft an, und so begann meine lebenslange Liebe zum Unmöglichen“, schreibt Kaku in seinem Opus „Die Physik des Unmöglichen – Beamer, Phaser, Zeitmaschinen“, erschienen im Rowohlt Verlag. Als Naturwissenschaftler hat er gelernt, dass sich das „Unmögliche“ häufig als relativer Begriff erweist. 1863 erwies sich Jules Verne in seinem Roman „Paris im 20. Jahrhundert“ als äußerst weitsichtig. Darin stellte er sich vor, wie es in der französischen Hauptstadt des Jahres 1960 aussehen würde. Verne bringt eine Technik zum Einsatz, „die im 19. Jahrhundert zweifellos als unmöglich betrachtet wurde, nämlich Faxgeräte, ein weltumspannendes Kommunikationsnetzwerk, Wolkenkratzer aus Glas, benzinbetriebene Autos und Hochgeschwindigkeitszüge auf Stelzen“, so Kaku. Da Verne großes Verständnis für die Grundlagen der Wissenschaft aufbrachte, gelang ihm dieser bemerkenswerte Blick in die Zukunft. Im Gegensatz zu Lord Kelvin, der Flugapparate, die schwerer als Luft sind, für undenkbar hielt. Röntgenstrahlen betrachtete er als Schwindel und für das Radio sah er keine guten Erfolgsaussichten. Lord Rutherford, der den Atomkern entdeckte, verwarf die Möglichkeit einer Atombombe. „Es ist noch gar nicht so lange her, da wurden Schwarze Löcher als Science-Fiction betrachtet“, führt Kaku aus.

Wie man aus der Vergangenheit die Zukunft ableiten lässt, könne man sehr schön an Star Wars erkennen, sagte Bernd Stahl vom Netzwerkspezialisten Nash Technologies in einem Vortrag über die Entwicklung der Sprachkommunikation. Was könnte passieren mit einer Kombination aus Star Wars, Facebook und semantische Technologien. „Stellen Sie sich vor, es hätte bei Star Wars schon ein Facebook gegeben und der Kanzler Kanzler Palpatine, Count Dooku, Jabba the Hut und andere Bösewichte wären miteinander befreundet gewesen. Da hätte Obi-Wan Kenobi sofort herausgefunden, wer hinter der großen Verschwörung steckte und das Ganze wäre geplatzt. Wir gehen in unserem Zukunftsszenario über Star Wars hinaus. Damals gab es noch kein Facebook, keine Suchmaschinen oder semantische Technologien. Es gab zwar R2D2, den bekommen wir aber auch bald“, so Stahl in seiner launigen Rede in Stuttgart.

Wie er sich die Kommunikationswelten von morgen vorstellt, berichte ich in einem Beitrag für den Düsseldorfer Fachdienst Service Insiders.

Hoffe, die Spannung steigt jetzt ins Unerträgliche…..:-)

Einen kleinen Vorgeschmack habe ich in einem kurzen Interview mit Bernd Stahl erörtert:

Topsy, Crowdeye, Hunch oder Eyeplorer: Auf der Suche nach der Suchmaschine von morgen

logo_ask_new_2Anders als in den vergangenen Jahren, in denen auch qualitativ hochwertige Suchdienste wie Ask.com beharrlich ignoriert wurden, scheint die Bereitschaft zu wachsen, bei Suchmaschinen sich auf etwas Neues einzulassen. Das schreibt Spiegel-Online-Redakteur Frank Patalong: „Was auch daran liegen könnte, dass wahrgenommen wird, dass Google nicht in jeder Hinsicht das Rad erfunden hat. So wird eifrig über die Entwicklung einer Twitter-Suchmaschine im Hause Google spekuliert. Die müsste dann aber wohl gegen den Twitter-Suchdienst CrowdEye.com des langjährigen Microsoft-Suchdienstentwicklers Ken Moss antreten“. Moss sei kein Frühstarter.
„Längst haben sich mit OneRiot und Topsy zwei Twitter-Suchdienste etabliert. Der Vorgang ist typisch: Erst, wenn sich die Großen bewegen, entsteht auch Aufmerksamkeit für die Leistungen der Kleinen. Während die Tech-Presse erneut über semantische Suche diskutiert, probieren Dienste wie Hunch.com neue Ansätze, das Web intelligenter zu erschließen. Hunch versucht, Suchanfragen durch thematische Einengung näher zu definieren, um zu treffsichereren Ergebnissen zu kommen. Mitunter klappt das ganz prächtig und zeigt viel Potenzial, mitunter grenzt es an Realsatire“, so Patalong.

Internet intelligenter erschließen
Internet intelligenter erschließen
Hunch sei das Gegenstück zu Wolfram Alpha (WA), dem Dienst, der wenig, das aber sehr genau weiß: „WA ist stark, wo es um Sachliches geht, Hunch dort, wo es nach Pop riecht – sie sind E- und U-Suchmaschinen, wenn man so will. Aber Hunch lebt vom Konzept, durch seine Nutzer zu lernen. Man muss der Sache also Zeit geben. Das sind die Dinge, die dafür sorgen, dass die wirklich großen Suchdienste populär bleiben. Mitunter haben die Kleinen mehr Klasse, doch es fehlt an Masse“, führt Patalong aus. Bemerkenswertes verortet er in Berlin: Eyeplorer.com sei ein Dienst, der für semantische Verbindungen sorgt. Auf Basis der erfassten Wikipedia-Daten visualisiere EyePlorer thematische Querverbindungen. Man komme zu überraschenden Ergebnissen. Der Nutzer wird auf Themenreisen durch Cluster von Artikeln geführt, die thematisch verknüpft sind. „So etwas für das gesamte Web umzusetzen, statt ‚nur’ für die Inhalte der Wikipedia, würde dem Traum vom semantischen Web schon sehr nahe kommen. Denn da geht die Reise hin, für alle Player auf dem Markt: Keine Frage, dass auch Google, Yahoo oder nun Bing versuchen werden, immer mehr solche semantischen Features in ihre Dienste zu integrieren“, resümiert Patalong.

Die Inhalte im World Wide Web wachsen allerdings mit einer schnellen Geschwindigkeit. In Zukunft werde eine Indexierung immer schwieriger, selbst wenn man neuartige Methoden auf Basis von semantischen Verbindungen oder künstlicher Intelligenz auf den Markt bringt, meint Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi. „Wirklich mächtige Suchmaschinen können meiner Ansicht nach erst dann entstehen und Zusatznutzen stiften, wenn sich die Spezifikationen des World Wide Web Consortium (W3C) in der Breite durchsetzen. Mit anderen Worten müssen die großen Softwareanbieter bei der programmiertechnischen Kennzeichnung semantisch verwertbarer Inhalte eine Vorreiterrolle übernehmen“, erklärt Internetexperte Behrendt.

Neue Dienste durchs mobile Internet
Neue Dienste durchs mobile Internet

Impulse erwartet Sprachdialogexperte Lupo Pape vom mobilen Internet: „Das mobile Internet ist erst in Ansätzen erkennbar. Da ist vor allen Dingen in Europa noch sehr viel Marktpotenzial vorhanden. So kann niemand vorhersagen, was passiert, wenn beispielsweise ortbasierte Services auf auf Web 2.0-Communities treffen. Natürlich hat das eine enorme Sprengkraft wenn Giganten wie Apple, Google, Microsoft und Nokia aufeinander treffen und gleichzeitig noch Heerscharen von Applikationsentwicklern auf deren freigegebenen Plattformen innovative Dienste für den mobilen Nutzer entwickeln und täglich neue Dienste auf den Downloadcharts vom Apple-Store oder OVI stehen“, erläutert Pape, Geschäftsführer von SemanticEdge in Berlin.

Die Innovationsgeschwindigkeit verlaufe zur Zeit ungehemmt, keiner weiß, wo das hinführen wird und wie sich unser Leben und wie sich insbesondere auch die Wertschöpfungsketten in der Wirtschaft verändern werden. „Interessant ist, dass trotz der ganzen Vielfalt der Software, Hardware und Anwendungen, die sich dahinter verbergenden Nutzungsszenarien der Endverbraucher meist sehr einfach bleiben: ‚Wo ist der nächste Fahrradladen?’; ‚Welche Freunde sind gerade in der Nähe?’; ‚Wie gut ist der Inder dort an der Ecke?’; ‚Gibt es die Kamera noch irgendwo billiger?’“, so der Sprachdialogexperte Pape. Das seien Nutzungsszenarien, die nach einer Spracherkennung und einem Sprachdialog geradezu schreien.

„Wenn es gelingt, den Sprachdialog in die mobilen Anwendungen einzubinden, dann wird die ganze Entwicklung noch einmal eine neue Dimension bekommen. Spracherkennung und Sprachdialog werden auch der Schlüssel dafür sein, Bevölkerungsgruppen an der Entwicklung teilhaben zu lassen, die von der neuen Technologie bisher ausgeschlossen sind“, resümiert Pape. Das müssten die großen Anbieter in ihren Strategien für das mobile Internet berücksichtigen.

Antwortmaschinen, Entscheidungsmaschinen und Google-Killer: Die Verheißungen des semantischen Webs bleiben bislang aus

Die "Entscheidungsmaschine"Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.

Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.

Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.

Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.

Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.

Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.

Der Geist in der Maschine: Über digitale Assistenzsysteme

dsc_00031Fast 96 Milliarden Anfragen tippten Internetnutzer allein im Februar in die Suchfelder von Google und Co. Ein Jahr zuvor waren 67 Milliarden. Zu diesem Befund gelangte der Informationsprovider Comscore. Das ständige Senden, Beantworten und Weiterleiten von teilweise völlig belanglosen Informationen wird von Kulturkritikern mittlerweile als semantische Umweltverschmutzung bezeichnet. Etwa 50-mal pro Tag öffnet ein typischer „Informationsarbeiter“ sein E-Mail-Fenster, 77-mal wendet er sich dem Instant-Messaging-Programm für den schnellen Versand von Nachrichten zu, nebenbei werden noch etwa 40 Web-Sites besucht. So hat es die US-Beratungsfirma RescueTime auf Basis von 40.000 Nutzerprofilen in der Berufswelt untersucht.

Herman Maurer, Professor für Informatik an der Technischen Universität Graz, lässt sich von solchen Schreckenszenarien nicht beeindrucken. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.

„Ich habe schon vor vielen Jahren den allgegenwärtigen Computer prognostiziert: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät“, erläutert Maurer. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so Maurer weiter.

Die Cyborg-Visionen von Maurer erscheinen vielleicht utopisch. Einen Evolutionssprung versprechen sich Internetexperten nach einem Bericht der Financial Times Deutschland (FTD) zumindest von Fortschritten in der Entwicklung semantischer Technologien – landläufig auch als Web 3.0 bezeichnet. Plumb agierende Computer sollen verstehen, was für Inhalte sie hin und her verschieben oder gespeichert haben. „Erst dann werden Nutzer auf ihre Fragen tatsächliche Antworten erhalten und nicht nur eine mehr oder weniger passende Aufreihung von Weblinks“, so die FTD. Das Ziel von Google ist eine Suchmaschine, mit der man sich normal unterhalten kann und die dabei aus dem gesamten Wissen der Welt schöpft. Eine ähnliche Zielsetzung verfolgt auch das derzeitig größte deutsche IT-Forschungsprojekt mit dem Namen THESEUS, benannt nach dem attischen Helden und angeblichen Ur-Vater der Demokratie. Für den Dialog zwischen Mensch und Maschine will THESEUS multimodale Benutzeroberflächen entwickeln, die durch Sprache und Gestik bedient werden können. Anfragen könnte man dann intuitiv formulieren und im Dialog mit dem System verfeinern. Ein semantischer Mediator fungiert im Computer als Schnittstelle zwischen der Benutzeroberfläche und den verschiedenen Metadatenquellen. Er wandelt eine gesprochene Anfrage in einen semantisch korrekten Datensatz um, der für eine Suche nötig ist.

Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.

Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“

160px-l-waage5Selbst das Markenzeichen seiner Firma, die allseits aus dem Lebensmitteleinzelhandel bekannten Waagen, haben nur noch wenig mit der von Philipp Matthäus Hahn im 18. Jahrhundert erfundene „Wand-Neigungswaage“ zu tun.

Die neuesten Bizerba-Geschäftswaagen sind die wiegenden und druckenden Endstationen der Computernetze. Die jüngste Generation verlangt nicht einmal mehr einen Tastendruck, sondern kann dank optischer Bildverarbeitung Äpfel und Birnen selbst unterscheiden. Und wenn es gilt, Tomaten mit und ohne Stiel vom Strauch zu unterscheiden, dann fragt so eine Waage eben beim Kunden mit knapper Menüauswahl zurück. Auch die altehrwürdige Wägetechnik fungiert nunmehr als digitaler Einkaufsberater. So zeigt das Kundendisplay den Namen der Verkäuferin, aktuelle Kaufangebote, informiert über Nährwerte, Zusatzstoffe, Herkunft, Allergene, vermittelt Empfehlungen für die korrekte Lagerung der Lebensmittel, macht Rezept- und Menüvorschläge.

Hightech-Waage
Hightech-Waage

Google-Killer oder: Wer Antworten will, braucht auch Fragen

Auch die NZZ hat sich mit dem vermeintlichen Google-Killer beschäftigt, der zur Zeit über Blogs kräftig ins Rampenlicht gerückt wird. „Derjenige, der da Google übertrumpfen und mittels künstlicher Intelligenz allem Unwissen den Garaus machen will, wurde als wissenschaftliches Wunderkind bekannt, hat sich an den besten Universitäten hervorgetan und hat als Programmierer eine technisch komplexe, kommerziell erfolgreiche Software geschaffen. Es ist der Ruhm des britischen Physikers Stephen Wolfram, der dieser Tage unzählige Online-Journalisten und Blogger dazu bringt, die Begriffe Google-Killer, neuartige Suchmaschine, künstliche Intelligenz wieder einmal in einem Satz zusammenzubringen“, so die NZZ. Ob Wolfram-Alpha halten kann, was Blogger vermuten, steht auf einem anderen Blatt. Der Suchmschinen-Genius selbst beschreibt die neue Suchmaschine als „computational knowledge system“, als Wissensberechnungsmaschine. „Ausserhalb von Wolfram Research, der Firma, die Mathematica und Alpha entwickelt, hat bis jetzt nur ein einziger Mensch – Nova Spivack – die neue Suchmaschine ausprobieren können“, schreibt die NZZ. Das ist doch ein kluger PR-Schachzug. Spivack ist so euphorisch, als sei eben gerade eine neue bewusstseinserweiternde Droge entdeckt worden: Wolfram Alpha sei nicht eine Suchmaschine, sondern eine Antwort-Maschine. Das ist aber keine Sensation. Denn auch KI-Forscher wie Professor Wolfgang Wahlster vom DFKI oder das Fraunhofer Institut drehen an dieser Schraube. Darüber habe ich schon mehrfach berichtet. Und auch die Semantic Web-Experten von Google verweilen nicht im Tiefschlaf. Mit Mike Cohen, seinen früheren Nuance-Mitarbeitern, Franz Och und vielen anderen Spezialisten hat Google einige gute Leute an Bord.

Schon jetzt sei Google gar nicht so schlecht, meint die NZZ. Auch diese Suchmaschine kann schwierige Fragen mit wenigen Ziffern beantworten. Füttert man Google beispielsweise mit der Frage aller Fragen, der allerletzten Frage, und schreibt: ‚The answer to life, the universe and everything‘, erhält man als Antwort: ’42‘. Wie man beim englischen Science-Fiction-Autor Douglas Adams nachlesen kann, ist diese Antwort korrekt, dies sei tatsächlich die allerletzte Antwort“. Allerdings gerate in Vergessenheit, welches die dazu passende allerletzte Frage war. So werde man dann halt vielleicht Wolframs Answer Machine eine Frage-Maschine zur Seite stellen müssen, orakelt die NZZ und hat nicht ganz Unrecht. Siehe auch meinen Blog-Beitrag vor ein paar Tagen.

Antwortmaschine als Google-Killer? Aufregung in der Blogosphäre

Eine neue Suchmaschine versetzt angeblich die Blogosphäre in Aufregung. Das berichtet die Financial Times Deutschland. Der Wissenschaftler Stephen Wolfram soll einen „Google-Killer“ entwickelt haben. „Doch den glaubten vor ihm schon viele erfunden zu haben“, so die FTD.

„Da schreibt Nova Spivack, Suchmaschinenexperte aus San Francisco, einen begeisterten Blogeintrag über Professor Wolframs neueste Entwicklung. Über eine Suchmaschine, die angeblich spezifische, sachbezogene Fragen viel präziser beantworten kann als jede andere Suchmaschine“, berichtet die FTD.

Sein Dienst könnte nach Meinung von Suchmaschinenexperten nicht nur sehr nützlich, sondern im Internet auch einflussreich werden. „Aber ein Google ist Wolfram Alpha deswegen noch nicht, auch wenn Spivack seinen Blogeintrag vollmundig mit ‚Wolfram Alpha kommt – und es könnte so wichtig wie Google sein‘ überschreibt. Was genau kommt, wird die Welt erst im Mai wissen, wenn die Website an den Start geht“, führt die FTD weiter aus.

Das Rätsel ist auch schnell entlüftet, denn das Ganze soll als Antwortmaschine funktionieren – läuft also auf den Pfaden von semantischen Technologien. Sie wird, anders als Google, auf eine Suchanfrage nicht einfach Links auflisten, die eine Antwort auf die Frage des Nutzers enthalten könnten. Stattdessen analysiert die Technologie Fragen, auf die es sachbezogene Antworten gibt – und liefert diese. Sie soll eine große Auswahl in „natürlicher“ Sprache gestellter Fragen beantworten können, schreibt Spivack, der vergangene Woche zwei Stunden mit Wolfram gesprochen hat und sich dessen Onlineservice vorführen ließ. Ja toll. Konzepte für die so genannte Antwortmaschine werden an vielen Stellen zur Zeit entwickelt. In Deutschland arbeitet das Deutsche Forschungszentrum für Künstliche Intelligenz am Web 3.0-Standard. Mit dem von der Bundesregierung geförderten Projekt Theseus soll die Marktreife erreicht werden. Auch bei Google. Ich habe darüber schon mehrfach berichtet. So einfach lassen sich die Google-Forscher nicht die Butter vom Brot nehmen. Bei der Sprachsteuerung sind die Jungs nur schwer zu toppen. Weiteres hier.

Sie haben semantische Post – Wie man den E-Mail-Verkehr schlauer organisieren könnte

Mit dem semantischen Web sollen sich Google und Co. ja in intelligente Antwortmaschinen verwandeln. Davon ist man noch weit entfernet. Aber die Idee hat Charme: Inhalte im Web sollen so angereichert werden, dass sie nicht nur für Menschen verständlich sind, sondern auch von Maschinen soweit erfasst werden können, dass Automatisierung auch mit künstlicher Intelligenz abläuft. In Stanford arbeiten jetzt Forscher daran, wie das auch beim Versenden von E-Mails eingesetzt werden können. Was noch möglich ist, beschreibt der Technology Review-Blog.

Pfannkuchenmenschen im Netz-Zeitalter: Das Denken wird breiter und flacher, glaubt Trendletter-Chefredakteur Axel Glogler

Der Soziologe Niklas Luhmann http://www.luhmann-online.de hat sich mit den kulturellen Umbrüchen beschäftigt, die von der Erfindung der Schrift, des Buchdrucks und der Computerkommunikation ausgegangen sind. Er stellt sie sich als „Katastrophen“ im mathematischen Sinne vor, als brutale Sprünge, die es einem System ermöglichen zu überleben, wenn es eigentlich aufhören müsste zu existieren. Mit der Computerkommunikation wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert. Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift nach Ansicht von Luhmann die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen.

Die neuen Medien beeinflussen auch die Art, wie wir denken. Diese These stellte der Medienwissenschaftler Marshall McLuhan schon in den 1960er Jahren auf. Der Leser eines Mediums sucht heute nach dem schnellen Nutzen, nicht nach dem guten Argument. Lange Texte werden nur wenig goutiert: „Nach zwei, drei Seiten schweife ich ab, werde unruhig und verliere schließlich den Faden. Mein eigensinniges Gehirn wehrt sich gegen den Text“, beschreibt der Wissenschaftler Nicholas Carr http://www.nicholasgcarr.com seine Selbstbeobachtungen. Das Internet treibt diese Veränderung an: „Kommunikation, auch die von Unternehmen zu ihren Kunden und Mitarbeitern, muss sich diesem Verhalten anpassen. Wer zu lange braucht, um seine Botschaft herüberzubringen, wird im Geschäft nicht mehr gehört“, so Axel Gloger, Chefredakteur des Bonner Fachdienstes Trendletter http://www.trendletter.de. Eine weitere Entwicklung: Die starke Nutzung des Internets fördert eine punktuelle, zeitlich begrenzte Konzentration. „Der Verstand erwartet von mir, dass ich ihm Informationen auf die gleiche Weise zuführe wie das Internet“, berichtet Carr aus seinem Selbstversuch. Der Info-Nutzer tauche nicht mehr in einen Ozean der Worte, sondern springt von Welle zu Welle, als fahre er einen Jetski. „Mein Denken findet manchmal in einem Stakkato statt – als würde ich online verschiedene Quellen heranziehen und von Fenster zu Fenster springen“, sagt Carr.

Das begünstigt das, was Filmregisseure als Pfannkuchenmenschen bezeichnen: „Das Denken wird breiter, aber dafür flacher. Auch die Mobilfunknachricht SMS gehört zu den Antreibern dieser Entwicklung. Der kurze, maximal 160 Zeichen umfassende Text prägt auch den Kommunikationsstil des geschäftlichen Alltags“, erklärt Gloger. Klares Indiz für diese These:: Die Telefongesellschaften machen mit SMS mittlerweile dreimal so viel Umsatz wie Hollywood mit dem Verkauf von Kinokarten. „E-Mail und SMS werden die Formalisierung, den reinen Info-Austausch weiter beschleunigen. Damit digital präsentierte Inhalte von Ihren Adressaten überhaupt gefunden werden, wird die Google-Optimierung immer wichtiger. Ein Text muss künftig so aufgebaut sein, dass die Such-Algorithmen ihn finden und möglichst weit oben auf die Trefferliste setzen. Derzeit findet Google nur Textstellen. Aber es sind bereits Systeme in der Entwicklung, die auch Gesichter auf Bildern und in Videos sowie Stichworte in gesprochenem Text erkennen“, weiß Gloger. I

In Zukunft werden intuitive Nutzerschnittstellen auf den Markt kommen, die aus den Suchmaschinen nutzerfreundliche Antwortmaschinen machen. Dabei werde die Spracherkennung eine größere Rolle spielen, so die Einschätzung von Lupo Pape, Geschäftsführer von SemanticEdge http://www.semanticedge.de in Berlin: „Die Informationen werden viel besser aufbereitet und verschlagwortet sein, so dass man konkrete Fragen stellen kann. Je nach Bedarf bekommt man Texte zum Lesen oder auch Audiofiles zum Anhören. Fragen wie ‚Wer war der 43. Präsident der Vereinigten Staaten?’ werden dann direkt beantwortet. Bei Informationsanfragen wie ‚Ursachen der Wirtschaftskrise 2008’ wird man Text, Audio- oder Videofiles zur Auswahl erhalten, die sehr viel genauer das Thema betreffen als die aktuelle Ergebnisliste bei Google.“ Das Semantische Web mache Text, Audio und Video zu gleichberechtigten Medien. „Die Redaktion einer Zeitung oder einer Zeitschrift wird nicht substituiert. Der Medienkonsum ändert sich allerdings. Jeder wird sein eigener Programmmanager und steuert autonom seinen Informations- und Unterhaltungsbedarf“, prognostiziert Sprachdialogexperte Pape.