Der Geist in der Maschine: Über digitale Assistenzsysteme

dsc_00031Fast 96 Milliarden Anfragen tippten Internetnutzer allein im Februar in die Suchfelder von Google und Co. Ein Jahr zuvor waren 67 Milliarden. Zu diesem Befund gelangte der Informationsprovider Comscore. Das ständige Senden, Beantworten und Weiterleiten von teilweise völlig belanglosen Informationen wird von Kulturkritikern mittlerweile als semantische Umweltverschmutzung bezeichnet. Etwa 50-mal pro Tag öffnet ein typischer „Informationsarbeiter“ sein E-Mail-Fenster, 77-mal wendet er sich dem Instant-Messaging-Programm für den schnellen Versand von Nachrichten zu, nebenbei werden noch etwa 40 Web-Sites besucht. So hat es die US-Beratungsfirma RescueTime auf Basis von 40.000 Nutzerprofilen in der Berufswelt untersucht.

Herman Maurer, Professor für Informatik an der Technischen Universität Graz, lässt sich von solchen Schreckenszenarien nicht beeindrucken. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.

„Ich habe schon vor vielen Jahren den allgegenwärtigen Computer prognostiziert: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät“, erläutert Maurer. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so Maurer weiter.

Die Cyborg-Visionen von Maurer erscheinen vielleicht utopisch. Einen Evolutionssprung versprechen sich Internetexperten nach einem Bericht der Financial Times Deutschland (FTD) zumindest von Fortschritten in der Entwicklung semantischer Technologien – landläufig auch als Web 3.0 bezeichnet. Plumb agierende Computer sollen verstehen, was für Inhalte sie hin und her verschieben oder gespeichert haben. „Erst dann werden Nutzer auf ihre Fragen tatsächliche Antworten erhalten und nicht nur eine mehr oder weniger passende Aufreihung von Weblinks“, so die FTD. Das Ziel von Google ist eine Suchmaschine, mit der man sich normal unterhalten kann und die dabei aus dem gesamten Wissen der Welt schöpft. Eine ähnliche Zielsetzung verfolgt auch das derzeitig größte deutsche IT-Forschungsprojekt mit dem Namen THESEUS, benannt nach dem attischen Helden und angeblichen Ur-Vater der Demokratie. Für den Dialog zwischen Mensch und Maschine will THESEUS multimodale Benutzeroberflächen entwickeln, die durch Sprache und Gestik bedient werden können. Anfragen könnte man dann intuitiv formulieren und im Dialog mit dem System verfeinern. Ein semantischer Mediator fungiert im Computer als Schnittstelle zwischen der Benutzeroberfläche und den verschiedenen Metadatenquellen. Er wandelt eine gesprochene Anfrage in einen semantisch korrekten Datensatz um, der für eine Suche nötig ist.

Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.

Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“

160px-l-waage5Selbst das Markenzeichen seiner Firma, die allseits aus dem Lebensmitteleinzelhandel bekannten Waagen, haben nur noch wenig mit der von Philipp Matthäus Hahn im 18. Jahrhundert erfundene „Wand-Neigungswaage“ zu tun.

Die neuesten Bizerba-Geschäftswaagen sind die wiegenden und druckenden Endstationen der Computernetze. Die jüngste Generation verlangt nicht einmal mehr einen Tastendruck, sondern kann dank optischer Bildverarbeitung Äpfel und Birnen selbst unterscheiden. Und wenn es gilt, Tomaten mit und ohne Stiel vom Strauch zu unterscheiden, dann fragt so eine Waage eben beim Kunden mit knapper Menüauswahl zurück. Auch die altehrwürdige Wägetechnik fungiert nunmehr als digitaler Einkaufsberater. So zeigt das Kundendisplay den Namen der Verkäuferin, aktuelle Kaufangebote, informiert über Nährwerte, Zusatzstoffe, Herkunft, Allergene, vermittelt Empfehlungen für die korrekte Lagerung der Lebensmittel, macht Rezept- und Menüvorschläge.

Hightech-Waage
Hightech-Waage

Internet der Dinge: Blabla-Tsunami oder mehr?

semprom-logo_o1Ein Konsortium unter Federführung des Deutschen Forschungszentrums für Künstliche Intelligenz hat es sich zur Aufgabe gemacht, Produkte mit Gedächtnis zu entwickeln. Das Projekt trägt den Namen „Semantic Product Memory“ (SemProM). „Die Forscher beschreiben einige Szenarien, in denen tagebuchschreibende Produkte zum Einsatz kommen könnten, etwa ein Einkaufsassistent für eine alte Dame, die schon ein wenig schusselig ist und manchmal etwas vergisst. Dem sollen merkfähige Dinge abhelfen. Wenn Oma nicht mehr weiß, was sie wollte, wird künftig ihr kluger Rollator die Kaufentscheidungen treffen. Erzeugnisse sollen bald ganz genau wissen, wem sie gehören und was sie schon alles erlebt haben, um auf diese Weise beispielsweise Produktpiraten entgegenzutreten“, so Technology Review-Blogger Peter Glaser.

Der trostlose Anhauch des Anorganischen, unter dem die meisten Objekte bislang zu leiden hatten, könnte einer Art von Intelligenz weichen, die uns als eine neue, vielfältig hilfreiche mikromaschinelle Umwelt umgeben soll. „Dabei streift mich eine Vorstellung von murmelnden Schachtelreihen im Supermarkt, ein Geräusch wie in einem gut gefüllten Restaurant, zwischendrin ein paar übellaunige Dübel in der Elektroabteilung – mir wird schon jetzt zu viel kommuniziert. Sollten nun auch noch die Dinge äußerungsfähig werden, und ich meine nicht einfach nur einen piepsenden Sensor, sehe ich einen Blabla-Tsunami auf uns zufluten“, befürchtet Glaser.

Unstrittig sind die logistischen Vorteile beim Internet der Dinge, denn Unternehmen können nur managen, was sie auch messen können. Dieser im Prinzip einfache Grundsatz, stellt sich in der Praxis häufig als Problem dar. Wenn etwa ein Einzelhändler nicht in der Lage ist, den Füllstand seiner Regale genau zu messen, dann wird er auch nicht in der Lage sein, die Verfügbarkeit seiner Handelsware in der Filiale zu erhöhen: So gehen bis zu acht Prozent des Umsatzes durch so genannte Out-of-Stock-Situationen (OOS) http://de.wikipedia.org/wiki/Regallücke verloren. Mit der RFID-Funktechnologie bekommen Informationssysteme erstmals „Augen“ und „Ohren“ und damit die Fähigkeit zur kostengünstigen Messung ihrer Umwelt. Sie haben das Potenzial, den Medienbruch zwischen physischen Prozessen und deren Informationsverarbeitung zu vermeiden. Sie ermöglichen eine vollautomatisierbare Maschine-Maschine-Beziehung. Die RFID-„Minicomputer“ übernehmen die Aufgaben eines Mediators zwischen realer und virtueller Welt. Physische Ressourcen wie Schachteln, Paletten, Lagerplätze, Regale und einzelne Produkte können ohne menschliche Eingriffe über die unternehmensinternen und externen Rechnernetze kommunizieren.

Sobald eine mit einem RFID-Etikett versehene Ware von einem Kunden gekauft und ausgebucht wird, zeigt das System diese Information je nach Konfiguration im Lager und im Backoffice an. Das Servicepersonal kann zielgerichtet entstandene Lücken in den Regalen beseitigen und neue Ware einsortieren. Selbst falsch zurückgestellte Ware lässt sich lokalisieren und kann wieder an den richtigen Platz gebracht werden. Aber nicht nur das OOS-Management kann deutlich verbessert werden. Die gesamte Logistikkette im Einzelhandel steht durch RFID vor einem Paradigmenwechsel:

Neben der Erfassung des Gewichtes gewinnt auch die Bestimmung der Größe von Packstücken mehr und mehr an Bedeutung. Ob mit Blick auf das Versandvolumen oder für die Optimierung von Lager- und Transportvolumen – Länge, Breite und Höhe spielen eine immer größere Rolle.Der Logistikmarkt mit seiner kontinuierlich wachsenden Nachfrage setzt zunehmend auf RFID-Systeme, die mit einer Einheit gleichzeitig Gewicht und Volumen erfassen sowie die Packstücke erkennen und kennzeichnen. Eine solche Lösung bietet die von Bizerba entwickelte Systemkombination aus Gewichts- und Volumenmessung, Etikettierung und Barcode-Scanning. Sie kann nach Angaben des Herstellers sowohl als komplexes Gesamtsystem als auch in einzelnen Funktionseinheiten unabhängig voneinander betrieben werden. Ebenso bieten sich auch nahezu alle Kombinationen der Einzelsysteme an.

Smart LabelMatthias Harsch, Mitglied der Bizerba-Geschäftsführung, erklärt eine mögliche Anwendung des Systems: „In der Produktion werden Kisten meist sortenrein mit jeweils einer Artikelgruppe befüllt. Damit sie während der Kommissionierung auch bei chaotischer Reihenfolge entsprechend des Produktionsauftrags auf die richtige Wäge- und Auszeichnungslinie gelangen, werden Transponder an die Kisten angebracht. Ein RFID-Reader liest die Artikelnummern aus und veranlasst die richtige Weichenstellung“. Anschließend werden die Kisten verwogen. Der GLP-Drucker erhält vom Host die variablen Daten und kann die aufzubringenden RFID-Etiketten sofort ausdrucken und codieren. „Die Kisten gelangen somit sortenrein ins Tiefkühllager oder zur Kommissionierung. Das Smart-Label an jeder Kiste rationalisiert die weitere Logistik enorm“, ist sich Harsch sicher.

IT-Auslagerung kein Allheilmittel in der Krise – cioforum: „Wer sein Handwerk beherrscht, braucht externe Dienstleister nicht zu fürchten“

„Insource core, outsource context“, so lautete das Motto der IT-Branche in den vergangenen zehn Jahre. Die Erklärung ist klar: Der Context ist austauschbar. Wer würde heute ein Textverarbeitungsprogramm selbst schreiben oder eine Anwendungssoftware für Enterprise Resource Planning ( ERP). „Wir müssen uns die Frage stellen, aus welchem Grund wir bestimmte Leistungen nicht mehr selbst machen wollen. Und die Gründe sind vielfältig: Sind es die Kosten, die uns ein Service kostet? Oder muss eher formuliert werden: Ist es einem Unternehmen möglich, alle notwendigen Services optimiert und effizient durchzuführen“, fragt sich Andreas Rebetizky, Sprecher des cioforums in München.

Das Betreiben eines Servers sei „commodity“ – hier komme es auf Effizienz an, auf Kosten pro Server. Der Betrieb eines Geschäftsprozesses, dessen Optimierung, Gestaltung, Re-Engineering – das könne „Core“ sein, also zum Kern gehören: „Ein Logistik-Unternehmen tut gut daran, eigene Experten für die Themen rund um das Supply Chain Management zu haben. Ein Fertigungsunternehmen sollte Kenntnisse in Fertigungsprozessen, Variantenkonfigurationen und Materiallogistik haben. Das ist ihr Core-Business. Wir erleben eine Transformation dessen, was als ‚Core‘ bezeichnet wird. IT gehört für viele Unternehmen dazu. Ohne IT werden keine neuen Produkte entworfen. Die Produktion ist optimiert mit Hilfe von Produktionsplanungs- und Steuerungssystemen (PPS), der Vertrieb hat mit CRM eine 360 Grad-Sicht auf seine Kunden. IT ist in vielen prozessbezogenen Aufgabenstellungen nicht nur ein ‚Muss‘, sondern eine überlebenskritische Komponente geworden“, so die Erfahrung von Rebetzky, CIO des Balinger Technologieanbieters Bizerba.

Es sei zu kurz gegriffen, wenn Analysten den Outsourcing-Markt als Gewinner der Wirtschaftskrise ausrufen. „Viele CIOs sind skeptisch – sie rechnen eher mit einer Stärkung der internen Ressourcen. Klar ist nur: Projekte mit schnellem Sparpotenzial haben dieses Jahr Priorität. Anwender sollten hier auch ihre Lieferanten in die Pflicht nehmen“, berichtet die Computer Zeitung. „Selten lässt sich ein Problem dadurch lösen, dass man es per Outsourcing an Dritte vergibt. Wir sollten besser Wege finden, die internen Strukturen zu verändern und die Effizienz zu erhöhen“, bestätigt Rebetzky.

Die IT im Untenehmen müsse sich emanzipieren. Der CIO habe die Aufgabe und Verantwortung, sinnvolle Schritte zum Outsourcing einzuleiten, aber noch mehr die Motivation dafür zu liefern, dass die IT zum Kerngeschäft wesentlich beiträgt. „Dazu muss sich die IT zu einem Businesspartner mit hoher Kompetenz in den zugrundeliegenden Geschäftsprozessen wandeln“, fordert Rebetzky. Wenn das erfolgt sei, werde beispielsweise die Debatte über das Outsourcing eines Servers obsolet. „Diese Commodity ist die Pflichtübung für die IT. Wer sein Handwerk beherrscht, braucht den Wettbewerb mit den externen Dienstleistern nicht zu fürchten. Wer seine Core Business-Aktivitäten auslagert, verliert die Fähigkeit der Transformation. Denn auslagern lassen sich nur die Services, die zu keinem Wettbewerbsvorteil mehr führen“, sagt der Bizerba-Manager. Fatal sei es, nur wegen der Fehlerträchtigkeit der IT an Auslagerung zu denken. Die Software habe eine Komplexität erreicht, dass sie kurz davor steht, ein Eigenleben zu beginnen: Sie tue sonderliche Dinge – unerwartete Ereignisse führen zu unerwarteten Aktionen. Es si doch viel leichter, einen Outsourcing-Partner zur Verantwortung zu ziehen, als den Mitarbeiter und Kollegen. „Damit kannibalisiert man allerdings den Status der IT im Unternehmen“, so die Warnung von cioforum-Vorstand Rebetzky.