Die Entdeckung der Einfachheit: Technik, die funktioniert, tut auch der Wirtschaft gut.

Auch im Einzelhandel entdeckt man die Einfachheit
Auch im Einzelhandel entdeckt man die Einfachheit

Im vergangenen Jahr hatte ich einen längeren Artikel für die absatzwirtschaft geschrieben über die Entdeckung der Einfachheit. Können die Alleskönner tatsächlich zu viel? Oder sind wir ein Volk von Technikfeinden? Verderben die Tücken der Technik die Freude am Fortschritt? Gibt es die Angst des Nutzers beim Lesen der Gebrauchsanweisung? Einerseits gibt es Produkte, die – Stichwort „Tripleplay“ – Telefonie, Fernsehen und Internet vereinen. Andererseits will längst nicht jeder Kunde diese Kombination und fühlt sich überfordert. Die rasante Entwicklung der Informationstechnik bestimmt zunehmend das tägliche Leben, das in der Folge f lexibler, dynamischer und individueller geworden ist. Ein möglicher Fehler im System: Nutzerfreundliche Technik kreist in der Warteschleife und wird nur selten als Bestandteil von
Technikinnovation gesehen.
Auch das muss sich ändern und kann positiv auf die Konjunktur wirken.

US-Experte: Computer zwingen uns zu einem Dasein als Aktenknecht

Computer und Computersoftware sind immer noch unausgereift: „Die Betriebssysteme von Microsoft, Linux und in geringerem Maße auch von Apple sind zu kompliziert, schlecht gemacht und nicht intuitiv. Da hat sich in den vergangenen zwanzig Jahren kaum etwas gebessert. Ich beobachte viele hochintelligente Leute, die es gerade noch so knapp schaffen, einen Computer zu bedienen. Viele geben sich selber die Schuld – dabei liegt es an der lausigen Software. Anstatt dass Computer unseren Alltag erleichtern, sind sie eine einzige Quelle des Ärgers“, kritisiert der US-Computerexperte David Gelernter im Interview mit dem Magazin GDI Impuls.

Während die Hardware immer besser wurde, blieb das Grundprinzip der Software – die Benutzeroberfläche – in den 1970er-Jahren stehen: Hierarchisches Filesystem, Icons, Desktop-Interface, die Maus, all das wurde in den späten 1970ern von Xerox und Bell erfunden. Apple brachte es dann 1984 als erstes kommerzielles Produkt auf den Markt. „Seitdem entwickelte sich die Software kaum weiter, obwohl sich unser Nutzerverhalten radikal verändert hat. Anfang der 1980er-Jahre war es ungewöhnlich, einen Computer zu Hause zu haben. Computer wurden von professionellen Usern bedient; das Internet war praktisch nicht existent. Heute ist das Web allgegenwärtig und jedermann nutzt Computer. Die Grafik hat sich extrem verbessert – aber wir arbeiten immer noch mit den gleichen Benutzeroberflächen wie in den 1970er-Jahren“, so Gelernter, der mit seinen Thesen Widerspruch erntet: „Prinzipiell hat Gelernter recht. Betrachten wir aber die Bandbreite der Oberflächen, so bemerken wir Fortschritte. Der Erfolg von Apple basiert hauptsächlich auf der Ergonomie des ‚Desktops’. Auf die Spitze getrieben im iPhone. Also es gibt Fortschritte – und die fangen in der Regel in Nischen an“, sagt Andreas Rebetzky, Sprecher des cioforums.

Nach Meinung von Gelernter sind die Benutzeroberflächen immer noch die Achillesferse und zwingen den Anwender zu einem „Dasein als Aktenknecht“, der seine Zeit damit verplempert, Dateien zu beschriften und einzuordnen. „Das Desktop-Interface wurde nach dem Vorbild des Büroschreibtischs entwickelt: Man sitzt an einem Tisch mit Akten, und es gibt Schubladen und Ordner, in die man sie ablegt“, führt der amerikanische Spezialist für Künstliche Intelligenz aus. So arbeitete man bereits vor 80 Jahren. In den 1970ern sei dieses System dann einfach auf den Computer übertragen. Man verfolge dabei eine nicht mehr zeitgemäße Logik – sie entspreche nicht mehr der Funktion von Computern. „Ein Schreibtisch ist passiv, der Computer ist aktiv – er kann Dokumente selber beschriften, suchen und ordnen. Die Idee, dass wir jedem Dokument einen Namen geben sollen, ist schlicht lachhaft. Wenn Sie drei Hunde haben, ist das sinnvoll. Besitzen Sie aber 10.000 Schafe, ist es Irrsinn“, bemängelt Gelernter. Rebetzky sieht das ähnlich. Damals geizte man noch mit Bits und Bytes – eine Festplatte mit 10 MByte kostete mehrere tausend Euros. „Daher kam die Entwicklung des Dateinamens – das ist eine sehr kanonische Entwicklung. Heute gibt es bereits Systeme, die in Workflows und Timeflows arbeiten. Systeme, die Metadaten zulassen, volltextorientierte Suchmechanismen, die sogar zum Teil auf unscharfen Pattern basieren. Wir müssen das nur nutzen. Und das erfordert Zeit, den die tradierten Anwender werden zunächst erst mal in den bekannten Ordnern suchen“, glaubt Rebetzky, CIO des Technologieherstellers Bizerba.

Gelernter entwickelte eine Software, die Informationen auf völlig neue Art strukturiert. Jedes Dokument will er in einer Zeitachse anordnen – einem „Lifestream“. Informationen werden zeitlich strukturiert statt räumlich in Ordnern. So korrespondiert die Anordnung der Information mit den Ereignissen des Lebens. „Unser erstes Dokument ist die elektronische Geburtsurkunde, und jedes Dokument, das hinzukommt, wird chronologisch bis zur Gegenwart eingeordnet. Dabei spielt es keine Rolle, ob es sich um E-Mails, Fotos, MP3s oder den Entwurf eines Buchkapitels handelt – alles wird einfach in den Lifestream geworfen“, erläutert Gelernter. Dateien müsse man dann mehr mit Namen bezeichnen, da sie sich selbstständig nach Inhalten, Stichworten, Ort und Zeit vernetzen. Ordner werden überflüssig. Der Lifestream erstrecke sich auch in die Zukunft: Man könne ein Dokument an jene Stelle auf der Zeitachse kopieren, an der es wieder auftauchen soll.

Für den IT-Fachmann Rebetzky ist das eine nette Idee, aber zu eindimensional: „Bilden wir dadurch nicht alles auf einer Perlenschnur ab? Ich glaube, wir müssen Informationen aus dem Cyberpool filtern, indem wir sie in einen Kontext stellen. Zum Beispiel können wir den Kontext ‚Globalisierung’ mit dem Kontext ‚Offshore Softwareentwicklung’ kombinieren und damit im Cyberpool suchen. Ich bin der festen Überzeugung, dass Google und Co. genau diesen Weg beschreiten werden. Derzeit ist die Suche immer noch zu unspezifisch“. Gelernter setzt auf Assoziationen. Wer eine Stimme höre, denke an ein Gesicht. „Damit ist eine zeitliche Information verbunden: Wann habe ich die Person das letzte Mal gesehen? Eine Kombination aus assoziativer Vernetzung und zeitlicher Strukturierung ist die natürliche Art, Information in einer Software zu speichern“. Leider könnten die meisten Softwaresysteme nicht assoziativ „denken“, bemängelt Rebetzky: „Darin unterscheiden sich Computer noch von Menschen. Höchstwahrscheinlich werden die assoziativen Fähigkeiten von Softwaresystemen in den nächsten 20 bis 30 Jahren extrem zunehmen, was unsere Interaktionsmöglichkeiten mit dem Cyberspace erheblich beeinflussen wird. Vorhersehen kann das aus meiner Sicht niemand: Selbst Computergrößen wie Bill Gates dachten ja einst, dass 640 kByte für jeden völlig ausreichen. Welch ein Irrtum“, stellt Rebetzky fest.

Gelernter geht in Zukunft von dreidimensionalen Benutzeroberflächen aus. Das Interface ähnele dann mehr einem Videospiel: „Statt auf den Screen werden wir durch ihn auf eine beliebig große virtuelle Welt sehen. Der Bildschirm wird wie eine Art Fenster sein. Wenn Sie Ihren Computer anstellen, öffnet sich eine Cyberlandschaft vor Ihren Augen, in die Sie meilenweit hineinsehen können. Im Vergleich dazu ist die heutige Desktop-Benutzeroberfläche furchtbar limitiert und langweilig: Ein Hintergrund mit Dokumenten. Ich sehe lieber aus dem Fenster auf Bäume, Menschen und Verkehr als auf Akten auf einem Schreibtisch. Mit dem Lifestream erlauben Benutzeroberflächen virtuelle Zeitreisen: Wir fliegen dann durch die Cyberlandschaft in die Zukunft und die Vergangenheit“. 3D sei nicht der Stein der Weisen, kontert Bizerba-CIO Rebetzky. „Die virtuelle Welt des Business bedeutet Meeting, Prioritäten, Projekte in ständigem Wandel. Wenn mir mein Kalender einmal für die Tagesbesprechungen die Referenzen zu den Dokumenten vorlegt, die für die folgenden Meetings sinnvoll sind, dann haben wir einen ersten Fortschritt. Stand heute: Miles away”.

Gestalter statt Verwalter: CIO der Zukunft braucht Managementqualitäten

Andreas Rebetzky, neu gewähltes Vorstandsmitglied des cioforums http://www.cioforum.de, fordert ein neues Rollenverständnis der IT-Führungskräfte. „Wir sind heute mehr denn gefordert, die Geschäftsprozesse von der Produktentstehung bis zum Vertrieb und den Services intensiv mitzugestalten“, so Rebetzky. Da könne man sich nicht mehr in irgendeiner Technikecke verstecken.

Ein Warnzeichen sei die aktuelle CIO-Umfrage des IT-Beratungshauses Harvey Nash http://www.harveynash.com/de. Danach habe die Bedeutung von IT-Führungskräften in den vergangenen Jahren abgenommen. Das wichtigste Schwerpunktthema, das die Geschäftsführung für die Informationstechnologie vorsieht, ist eher die Steigerung der operativen Effizienz und weniger die Entwicklung neuer Produkte oder die Erschließung neuer Märkte. In 17 Prozent der Unternehmen wird nicht einmal erwartet, dass die IT neue innovative Technologien entwickelt, um den Wettbewerbsvorteil zu verbessern. In 55 Prozent der Unternehmen, die Innovationen erwarten, hat man noch nicht einmal konkrete Ziele gesetzt. 73 Prozent der IT-Führungskräfte sind nach der Harvey Nash-Umfrage der Auffassung, dass der CIO eine größere Rolle im Unternehmen spielen sollte. Um das zu erreichen, müssten CIOs ihre Management- und Kommunikationsqualitäten verbessern.

Der Anteil derjenigen, die ihre Rolle im Unternehmen als erfüllend oder sehr erfüllend empfinden, ist im Vergleich zum Jahr 2006 stetig gefallen – von 84 auf 74 Prozent in diesem Jahr. Zugleich stieg der Anteil derjenigen, die ihre Rolle als nicht sehr erfüllend oder überhaupt nicht erfüllend empfinden, von 17 auf 25 Prozent. Entsprechend hoch fällt die Bereitschaft aus, den Arbeitsplatz zu wechseln. Nur sieben Prozent der Befragten streben keinen Job in einem anderen Unternehmen an. 72 Prozent haben bereits einen Headhunter kontaktiert oder selbständig nach einer neuen Tätigkeit Ausschau gehalten. 63 Prozent der IT-Führungskräfte gehen davon aus, in den nächsten zwei Jahren nicht mehr bei ihrem jetzigen Arbeitgeber zu sein – das sind fünf Prozent mehr als im vergangenen Jahr. „Die Abnahme des Einflusses im Unternehmen steht in direkter Beziehung zum Nachlassen der Berufszufriedenheit und letztendlich zu einem Ansteigen der Wechselbereitschaft“, kommentiert Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf, die Ergebnisse.

Die abnehmende Bedeutung der IT-Abteilungen unter dem strategischen Gesichtspunkt dürfte das Ergebnis vergangener Arbeitsleistungen und nachlassender Wahrnehmung sein. Über ein Viertel der Befragten ist der Meinung, dass die IT-Systeme innerhalb des Unternehmens nicht als Komponente für die Wertsteigerung des Unternehmens betrachtet werden können. Jede zweite IT-Führungskraft ist davon überzeugt, dass die IT kein wirksames Mittel ist, um die Geschäftseinnahmen zu steigern. „IT-Führungskräfte müssen kräftig an ihren Business-Kompetenzen arbeiten. Es ist offensichtlich, dass der ideale IT-Mitarbeiter beides haben muss: technologische und unternehmerische Fähigkeiten“, so die Erfahrung von Nadolski.

„Mit Scheuklappen kann ein CIO seine Position im Unternehmen nicht mehr festigen“, bestätigt Rebetzky. Eine IT-Führungskraft brauche heute Kompetenzen für die kompletten Geschäftsprozesse seiner Firma, um beispielsweise das Engineering von Produktkomponenten in Prozesskostenanalysen zu modellieren. „Ohne dezidiertes Prozesswissen wird ein CIO zum Verwalter degradiert mit wenig rosigen Zukunftsaussichten. Wir sollten in unseren Unternehmen jedoch Gestalter sein“, fordert Rebetzky, Director Global Information der Firma Bizerba http://www.bizerba.de/de.

Das cioforum vertrete die Interessen der IT nicht zum Selbstzweck, sondern indem es die Sachlage differenziert betrachtet und Handlungsempfehlungen veröffentlicht. Sei es, um die Stellung der IT in den Unternehmen zu festigen oder Kosten im Unternehmen einzusparen. „Bizerba als Technologieunternehmen investiert kräftig in neue Produkte und Produktinnovationen. Die IT spielt hierbei eine wachsende Rolle. Es gibt fast keine Projekte mehr ohne IT. Umso mehr wollen wir die Wertsteigerung erhöhen – die Hebel dazu sind vorhanden“, erklärt IT-Interessenvertreter Rebetzky. Ein wichtiges Thema im Verband sei derzeit die Erhöhung der SAP-Wartungspreise: „Wir sehen enorme Belastungen auf die Unternehmen zukommen. Betroffen ist besonders der Mittelstand. Er hat häufig weitaus schlechtere Konditionen. Dadurch wirkt sich die Erhöhung der Wartungskosten negativ für innovative Investitionen aus. Wir werden als Verband den Druck auf SAP erhöhen, damit diese Belastungen gemildert werden“, kündigt Rebetzky an.

„Nur vom Nutzen wird die Welt regiert“: Mit disruptiven Innovationen die Krise überwinden – Neustart für Wirtschaftssystem statt Reparaturbetrieb

Die herannahende Rezession blockiert das stark vernetzte Wirtschaftssystem in weiten Teilen. Nicht nur die Finanzströme stocken, auch die gesamten Warenströme sind fließen nicht mehr reibungslos. Man legt Produktionen still und kann Mitarbeiter gar nicht oder nur teilweise auslasten. Diese Denkpause sollten Firmen nutzen, um vom kurzfristigen und reaktiven in ein strategisches Handeln umzuschwenken, so der Ratschlag des Schweizer Systemarchitekten Bruno Weisshaupt http://www.origonet.ch. „Statt lediglich unbefriedigende Entwicklungsstände bei den aktuell am Markt angebotenen Produkten zu korrigieren, zu reparieren oder marginal zu verbessern, muss fundamental umgedacht werden. Jedes Unternehmen, das jetzt diese Zeit nicht für die eigene Rollenfindung nutzt, gerät bald in Rückstand. Die in dieser Situation gefragte Fähigkeit, mit disruptiven Innovationen aus dem intimen Verständnis des Marktes heraus zu handeln, wurde in den vergangenen Jahren sträflich vernachlässigt“, beklagt Weisshaupt. Das vor allen Dingen die Autoindustrie von der Finanzkrise so gebeutelt wird, sei kein Wunder. „Das hängt nicht nur mit dem Konjunkturzyklus zusammen, sondern auch mit der Produktpolitik. Es ist doch sehr auffällig, dass in der Automobilindustrie technologisch schon lange kein großer Sprung nach vorne gelungen ist. Im Grunde fahren wir schon seit hundert Jahren mit den gleichen, wenn auch optimierten Vehikeln herum“, sagt Weisshaupt.

Der Finanzcrash beschleunige nur die Tatsache, dass man am Ende des natürlichen Entwicklungszyklus angekommen sei. Mit einer linearen Weiterentwicklung der Produkte komme man nicht weiter. Überlieferte Lösungen seien geprägt von aufgeblähten Funktionen und überbordender Technik. So sieht das auch Alexander Horn, Autor der Frankfurter Zeitschrift Novo http://www.novo-argumente.com: „Die gegenwärtigen Absatzprobleme der Automobilhersteller resultieren nicht aus der Not der am Abgrund stehenden Finanzwirtschaft – beide Krisen haben vielmehr die gleichen Wurzeln. Die Lösung kann nur darin liegen, dass wieder Autos gebaut werden, die die Kundschaft auch ohne nachgeworfenes Geld haben will“.

Weisshaupt fordert neue Systeme und Geschäftsmodelle, um das On-Demand-Verhalten der Menschen zu unterstützen und ihnen die Technik unauffällig zur Verfügung zu stellen. „Urbanität, Identität, Mobilität, Interaktion, Integration, Individualität, Automatisierung sind die zukunftsfähigen Infrastrukturen und die Basis für jede Systeminnovation.“ Produkte, die man irgendwo auf der Welt als Module herstellt, würden zu Gunsten von Applikationen an Marktbedeutung verlieren. Worauf es ankomme, sei die Konfiguration. „Zwar wird die bessere Technologie auch in Zukunft ein wesentlicher Grundstein für den Erfolg einer neuen Anwendung sein. Wer würde bezweifeln, dass man mit der Entwicklung einer funktionierenden Brennstoffzelle nicht gute Geschäfte machen kann. Der Erfolg am Markt wird aber nicht an der Technologie hängen, sondern an ihrer kundenorientierten Umsetzung“, sagt Weisshaupt gegenüber pressetext. Wer sich auf die Produktion der Basisprodukte konzentriere, werde das Ausscheidungsrennen gegen Länder wie China oder Indien nicht gewinnen. „Im täglichen Geschäft verlieren das fordistische Geschäft und das tayloristische Prinzip längst an Bedeutung, was beileibe nicht nur für die Internetwirtschaft gilt“, schreibt Zeit-Redakteur Götz Hamann in einem Beitrag für das Buch „Die Kunst, loszulassen – Enterprise 2.0“ (Rhombos-Verlag) http://www.diekunstloszulassen.de.

Wer sich aber die Strukturen von Konzernen und straff organisierter Mittelständler anschaue, werde erkennen, dass das Erbe von Ford und Taylor noch sehr lebendig sei: Vertrieb, Marketing, Entwicklung, Produktion, Buchhaltung, Innenverwaltung, IT-Abteilung – und natürlich der Vorstand. Die meisten Unternehmen würden aus Schubladen bestehen und wer in einer von ihnen stecke, habe in den anderen meist nichts zu suchen. „Die traditionelle Arbeitsteilung gilt noch immer als sicherste Form der Herrschaftsausübung und als wirkungsvollste Methode, um eine Organisation zu kontrollieren“, bemängelt Hamann.

Andreas Rebetzky, Vorstandsmitglied des cioforums http://www.cioforum.de, verweist auf ein Zitat von Schiller: „Nur vom Nutzen wird die Welt regiert“. So müsse ein IT-Chef aus seiner verträumten Technikecke rauskriechen und sich als Gestalter und nicht als Verwalter im Unternehmen profilieren. „Das tradierte Wissen aus dem vergangenen Jahrhundert sitzt oft starr in den Köpfen der IT-Entscheider. Hier erwarte ich Impulse von der jungen Generation, die als Digital Natives auch die Berufswelt umpflügen werden“, prognostiziert Rebetzky, Director Global Information der Firma Bizerba, die Systemlösungen der Wäge-, Informations- und Food-Servicetechnik anbietet. Mit der gegenwärtigen Sparhysterie werde die Wettbewerbsfähigkeit vieler Firmen eher negativ beeinflusst. „Es sollte mehr investiert werden in wirkliche Prozessinnovationen“, fordert der IT-Interessenvertreter des cioforums.


 

IT-Dienstleister beurteilen ihre Geschäftslage so optimistisch wie im Boomjahr 2000

Die Einschätzung der Geschäftslage der IT-Dienstleister ist nach einer Umfrage des DIHK zur Zeit genauso gut wie im Boomjahr 2000. Im Vergleich Mit einem Lagesaldo von 38 Prozentpunkten reduziert die IT-Branche zwar ihre Lageeinschätzung um zwölf Prozentpunkte gegenüber dem Frühjahr 2008. Nach wie vor verspüren die Serviceanbieter den Nachfragesog vor allem durch Unternehmen und Behörden, die ihre Abläufe weiter digitalisieren.46 Prozent der Unternehmen schätzen ihre Geschäftslage als „gut“ ein, ebenfalls 46 Prozent bewerten die Lage als „befriedigend“ und acht Prozent bekunden eine Lageverschlechterung. Im Frühjahr schätzte mehr als jeder zweite IT-Dienstleister seine Geschäftslage als „gut“ ein – eine Verschlechterung gaben zu diesem Zeitpunkt sechs Prozent zu Protokoll.

Im Herbst 2008 blicken 36 Prozent der befragten Unternehmen optimistisch in die Zukunft. Bei der Vorumfrage erwarteten 43 Prozent bessere Geschäfte in den nächsten zwölf Monaten. Die Anzahl der Pessimisten ist von sieben Prozent im Frühjahr auf derzeit zwölf Prozent angestiegen. Die Unternehmen gehen davon aus, dass der Markt für IT-Dienstleistungen weiter wächst und dass der Digitalisierungstrend von Geschäftsprozessen auch im nächsten Jahr weiter anhält.

Das Auslandsgeschäft wird im nächsten Jahr erneut zulegen. Mit einem Ausfuhrsaldo von 28 Prozentpunkten weist die IT-Branche zwar vergleichsweise gute Exporterwartungen aus. Jedoch ist der Abwärtstrend des Ausfuhrsaldos seit dem Frühjahr 2006, anfangs langsam und in kleinen Schritten, nun in einem größeren Schritt erkennbar. Gegenüber dem Frühjahr verzeichnet der Saldo einen Rückgang in Höhe von zehn Prozentpunkten. 35 Prozent der Unternehmen rechnen mit höheren Exporten, gegenüber 43 Prozent im Frühjahr 2008. Aktuell erwarten sieben Prozent der Unternehmen einen Exportrückgang, vor sechs Monaten waren es noch fünf Prozent.

Auch im nächsten Jahr gehen von der IT-Branche Impulse für Investitionen aus. Ein Viertel der Unternehmen beabsichtigt in den nächsten Monaten mehr zu investieren – nach 31 Prozent im Frühjahr und 34 Prozent vor einem Jahr. Dagegen bekunden nur 13 Prozent der Betriebe restriktive Investitionspläne – nach ebenfalls 13 Prozent vor sechs Monaten und zwölf Prozent vor einem Jahr. 43 Prozent der IT-Dienstleister beabsichtigen im nächsten Jahr in Produktinnovationen zu investieren, 51 Prozent geben an, dass sie in neue Anlagen investieren werden.  

Der Dienstleistungsreport kann unter folgender URL runtergeladen werden: http://www.dihk.de/inhalt/download/dienstleistungsreport_herbst_2008.pdf



Elektronische Nasen erschnüffeln Krankheiten, Plagiate, Parodontose und Sprengstoff – Mikrosensoren als Alleskönner

Elektronische Nasen“ halten Einzug in das Geschäfts- und Wirtschaftsleben. Die Lebensmittelbranche ist nach einem Bericht des Bonner Fachdienstes Zukunftsletter http://www.zukunftsletter.de ebenso brennend an Geruchsgeräten interessiert wie die pharmazeutische Industrie einschließlich der Kosmetikfirmen, der Automobilhersteller, der Bauindustrie und des Umweltschutzes. Die Einsatzmöglichkeiten reichen vom Schnüffeln nach verstecktem Sprengstoff bis zur Kasse im Supermarkt. Sensoren, die auf Gase in der Luft chemisch reagieren und die Reaktion elektrisch weiterleiten, sind seit den 90er Jahren auf dem Markt und im industriellen Einsatz.

„Jetzt aber werden die E-Nasen immer billiger und für jeden Kühlschrank verfügbar. 2020 könnten die Preise für durchaus anspruchsvoll arbeitende Geruchs-Sensoren bei unter einem US-Dollar liegen. Der Grund dafür liegt in der Weiterentwicklung von Drucktechnologien. Als Basis für die Geruchssensoren dienen elektrisch leitfähige Polymere. Sie lassen sich durch neue Technologien schneller, einfacher und billiger auftragen – vor allem auf einem Chip. Ein spezieller Mikrochip wird uns beispielsweise schon morgens beim Zähneputzen sagen, ob wir von Parodontose, Mundfäule oder einer Zahnfleischinfektion befallen sind“, so Zukunftsletter-Chefredakteur Matthias Horx.

Möglich wird das durch die „Karlsruher Mikronase” von Joachim Goschnick vom Forschungszentrum  Karlsruhe (FZK) http://www.fzk.de: ein Chip so groß wie eine Cent-Münze mit 38 graduell unterschiedlichen Gas-Sensor-Segmenten. Für eine interessante Anwendung hat sich der amerikanische Kassen-Hersteller NCR ein Patent gesichert. Das Unternehmen will E-Nasen in Supermarktkassen  einbauen. Produkte, die nicht verpackt und mit Preisen ausgezeichnet sind, also beispielsweise Früchte und Gemüse, werden kurz in eine Kammer gelegt. Dort werden sie nicht nur gewogen, sondern eine  elektronische Nase erschnüffelt auch ihre Identität. Ein Computer zeigt anschließend den Preis an und  verbucht die Ware.

Als erster Automobilhersteller überprüft Ford die Ausdünstungen der Innenraum-Materialien mithilfe einer elektronischen Nase und setzt sie auch für die Routinekontrolle im  Produktionsprozess ein. Eingearbeitete Mikrokapseln melden über Duftsignale die Abnutzung von Maschinenteilen. So müssen Produktionsmaschinen nicht mehr regelmäßig angehalten werden, um deren Abrieb zu  kontrollieren. Solche „intelligenten“ Sensor-Schichten können auf Scharniere, Lager, Kugellager oder  Motorenteile aufgetragen werden. CDs und Designermode werden bald mit Duftstoffen besprüht, die sie von Piratenware unterscheiden. Die Bundesdruckerei in Berlin hat eine „elektronische Nase“ vorgestellt,  mit deren Hilfe Originale von Fälschungen unterschieden werden können. „Die verfeinerten E-Nasen sind mittlerweile sogar in der Lage, unterirdische Stoffe zu erschnüffeln: Landminen oder versteckte Kampfstoffe, aber auch versickertes Altöl oder andere Verunreinigungen“, weiß Trendforscher Horx. Im Krankenhaus sollen E-Nasen in Zukunft „Superbugs“ erspüren, also lebensgefährliche  Infektionen mit resistenten Bakterien wie etwa Staphylokokken. Der Geruchstest soll helfen, eine  drohende Infektionswelle schneller einzudämmen, denn die Geruchsanalyse dauert nun nicht mehr Tage,  sondern nur eine Viertelstunde.

E-Nasen könnten in Zukunft auch als Schlüsselkomponente eines  telemedizinischen Systems dienen. Via Computer und Datenleitung könnten nicht nur Töne und Bilder,  sondern auch Gerüche von einem Krankenhaus zum anderen zu übertragen werden. Die E-Nase erschnüffelt außerdem bösartige Veränderungen der Haut. Wenn die Tumore sehr früh erkannt werden,  bestehen meist gute Heilungschancen. Die Diagnose wird heute durch eine Untersuchung von  entnommenem Gewebe gestellt. Das könnte sich künftig ändern, denn Wissenschaftler haben ein  Verfahren entwickelt, um Basaliome anhand ihres charakteristischen Geruchs aufzuspüren. „Verfeinerte Sensortechnik und neue Messprinzipien sind nicht der einzige Grund für die großen Fortschritte beim apparativen Schnüffeln. Wesentlichen Anteil hat die Computertechnologie. Sie wird in den nächsten 10 bis 15 Jahren einen Riesenschub bei der E-Technologie auslösen“, so der Ausblick von Horx. 

Virtuelles Fräulein vom Amt – Sprachgesteuerte Handys als Tipping Point des Internets

Die Sprachsteuerung des iPhones mit „Google Mobile App“ http://googlemobile.blogspot.com wird von Web 2.0-Pionier Tim O’Reilly als „Tipping Point“ gewertet: Der Begriff  bezeichnet jenen Moment, in dem etwas Einzigartiges zum Normalzustand wird und einen qualitativen Umschlagspunkt markiert. „Es ist es an der Zeit, Telefone als erstklassige Geräte zu sehen, um auf das Internet zugreifen zu können, und nicht nur als Möglichkeit, Inhalte und Anwendungen umzuwidmen, die ursprünglich dazu gedacht waren, mit einer Tastatur und einem Bildschirm gelesen zu werden“, schreibt O’Reilly in seinem Blog http://radar.oreilly.com. Mit der Sprachsteuerungsfunktion werde ein neuer Weg für Computerdienstleistungen beschritten. „Apple begeisterte uns mit dem iPhone-Touchscreen, aber die Einbeziehung des Beschleunigungsmessers war fast ebenso wichtig; und jetzt hat Google uns gezeigt, wie dieser als Hauptkomponente einer Benutzeroberflächenanwendung eingesetzt werden kann. Legen Sie das Telefon ans Ohr und die Anwendung fängt an mitzuhören; eher durch eine natürliche Geste als durch ein künstliches Klopfen oder Klicken ausgelöst. Ja, der Beschleunigungsmesser wurde bereits in Spielen wie tilt oder the iPint verwendet, aber Google hat das Ganze noch etwas weiter getrieben durch die Integration des Telefon-Hauptsensors: das Mikrofon“, so O’Reilly. Nach seiner Ansicht liegt hier die Zukunft von Mobiltelefonen: eine Benutzeroberfläche zu entwickeln, die alle bisherigen Generationen über Bord wirft. Zeigen und klicken war ein Durchbruch für Computer, aber eine Sackgasse für das Design von Benutzeroberflächen.  

Mittlerweile haben das iPhone und ähnliche Smartphones eine Vielzahl an Sensoren: Mikrofon, Kamera, Touchscreen, Beschleunigungsmesser, und Standortortung. Neue Anwendungen und Kombinationen werden zu weiteren Überraschungen führen. „Künftige Geräte werden eine immer größere Anzahl an Sinnen haben, um darauf zu achten, was wir wollen. Könnte ein Telefon die Bewegung erkennen, die wir machen, wenn wir eine Kamera vor uns hochhalten, damit wir die Einstellungen festlegen können? Könnten wir mit dem Telefon reden um Kameraeinstellungen zu verändern? Könnte ein Telefon automatisch die Bewegung eines Autos erkennen und auf Sprachwahl umstellen? Und dann gibt es natürlich noch alle weitere Interaktionen mit anderen Geräten die möglich sind, wenn wir das Telefon als Steuerteil betrachten – ähnlich der Wii-Konsole von Nintendo“, erklärt O’Reilly. 

Auch in der ITK-Branche erwartet man Impulse über die Sprachsteuerung: „Computer werden heute immer noch primär über eine Tastatur bedient, die aus der Schreibmaschine entstanden ist, so als ob jeder Tastendruck einen mechanischen Hebel in Bewegung setzt. Selbst der Zeilenvorschub und Wagenrücklauf alias Carriage return ist uns erhalten geblieben, obwohl damit schon lange kein Papier mehr transportiert wird. Telefone haben zwar die Revolution von der Wählscheibe hin zur – in der Regel – 3×4 Tastatur gemacht, standardisiert nach ITU E.161, das erfolgte aber bereits in den 70er Jahren. Selbst moderne Handys und Smartphones halten sich noch an den Tastenwahlblock, entweder in mechanischer Ausführung oder als Icon-Darstellung auf einem Touchscreen“, weiß Andreas Latzel, Deutschland-Chef des ITK-Spezialisten Aastra http://www.aastra.de, der viel Wert auf die Benutzerfreundlichkeit seiner Systeme legt. Die Technikentwicklung sei zwar rasant schnell und ein gutes User-Interface inzwischen intelligent sowie kontextbezogen – im Kern aber immer noch traditionell. Vorhersehbar sei, dass der Tastaturblock an seine Grenzen stoße – spätestens mit der breiten Einführung der SIP-Telefonie und der SIP-Teilnehmeradressen.

„Anders als bei professionellen Tischgeräten kommt die Ausstattung von Handys mit alphanumerischen Tastaturen zwar auch vor, ist aber in der Regel wegen der beschränkten Abmessungen nicht befriedigend. Da bietet sich der Weg zum Sprachinterface an: der Ansage von Adressen oder Einträgen des Telefonbuchs in normaler Sprachform. Sinnvoll ist das beim Autofahren oder anderen Tätigkeiten, die beide Hände verlangen. Ein gutes Beispiel im professionellen Umfeld ist die Pflege in Altenheimen mit der Aastra-Branchenlösung OPAS. Hier kann beispielsweise mittels Telefon und Sprache die erbrachte Leistung dokumentiert werden – das Pflegepersonal gewinnt viel mehr Zeit für die Bewohner“, sagt Latzel. Übrigens schlage die Technik mit der Sprachwahl den Bogen zurück zu den Anfängen des Telefons vor der Einführung des Selbstwählsystems: damals aktivierte man den Telefonapparat durch Erzeugung einer Rufspannung über den Kurbelinduktor und sagte dem „Fräulein vom Amt“, mit welchem Teilnehmer man sprechen möchte. „Im modernen Telefon mit Sprachinteraktion wird das Fräulein von einer Software ersetzt“, so Latzel. In Kombination mit den Datenwolken von Google ergeben sich nach Prognosen von O’Reilly ungeahnte Möglichkeiten. „Sensorenreiche Geräte mit Anwendungen, die diese Sensoren nutzen, um mit Datenwolkendiensten zu interagieren und sie zu füttern. Der Standortsensor weiß, wo man sich befindet; das Mikrofon erkennt den Klang der Stimme, so dass es persönliche Daten in der Datenwolke frei setzt; die Kamera nimmt Objekte und Personen auf und sendet ein Bild zu einer abgelegenen Anwendung, die diese erkennt und die entsprechenden Informationen abruft“, führt O’Reilly aus. Viele Durchbrüche würden bereits vor der Tür stehen. Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung seien nur der Anfang. Der gleichen Meinung ist der Berliner Sprachdialogexperte Lupo Pape: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, resümiert SemanticEdge-Geschäftsführer Pape.

 

Siehe auch:

http://de.youtube.com/watch?v=y3z7Tw1K17A&eurl=http://googlemobile.blogspot.com/

http://googleblog.blogspot.com/2008/11/now-you-can-speak-to-google-mobile-app.html

 

Mobilfunker blockieren Voice over IP – Next Generation Networks führt zu mehr Wahlfreiheiten für Kunden

Medienberichten zufolge überprüft die EU-Kommission die Rechtmäßigkeit der Blockade von Telefonaten über das Internet Protokoll (VoIP) im Mobilfunk. „In Deutschland untersagen alle vier großen Netzbetreiber VoIP-Telefonate über ihr Mobilfunknetz, T-Mobile und Vodafone verbieten auch Chats. Teilweise blockieren sie durch ein eigenes Branding der Handys auch die Funktion, mit der die Nutzer per WLAN Internet-Telefonate führen können. Um ihren Verboten Nachdruck zu verleihen, werden die Ports gesperrt, über die VoIP-Anwendungen wie fring, Nimbuzz oder truphone kommunizieren, oder der Zugang zu bestimmten Telefonnummern eingeschränkt“, berichtet PC-Welt http://www.pcwelt.de.

Das Unternehmen O2 habe eine Protestwelle ausgelöst, weil der Netzbetreiber den Zugang zu den deutschen Festnetznummern des VoIP-Anbieters Rebtel „limitierte“. „Von hundert Versuchen brachte nur einer eine Verbindung zustande. Eine vollständige Blockade war nicht möglich, weil die Kunden von ihrem Vertrag zurücktreten können, wenn Anrufe zu bestimmten Festnetznummern nicht durchgestellt werden. Nach zwei Wochen hob O2 die Sperre aufgrund massiver Kundenbeschwerden wieder auf“, so PC-Welt.

In der TK-Branche stößt die Geschäftspolitik der Mobilfunkunternehmen auf Unverständnis. „Gerade in Deutschland zeigt sich, dass der Mobilfunk eher als Oligopol denn als Wettbewerb funktioniert. Im Festnetz gab und gibt es keine Blockaden der IP-Telefonie. Das Ganze ist eine heißes Eisen, denn mit den schnellen UMTS-Verbindungen wollen die Mobilfunknetzbetreiber konkurrierende Angebote zum DSL-Angebot im Festnetz etablieren. Solange aber das Geschäftsmodell im Mobilfunk auf der Subventionierung der Endgeräte und entsprechenden Minutenpreisen beruht, unterlaufen VoIP-Verbindungen dieses Modell“, weiß Bernhard Steimel von der Düsseldorfer Unternehmensberatung Mind Business http://www.mind-consult.net. Mittel- bis langfristig werde aber die Netzkonvergenz über Next Generation Networks zum generellen Einsatz von IP-Telefonie führen – aus Sicht der Netzbetreiber als Netzbetreiberservice.

„Dafür sprechen neben dem Druck aus Brüssel zwei starke aktuelle Entwicklungstendenzen: Erstens verlagern die Mobilfunknetzbetreiber ihren Schwerpunkt zunehmend von Sprach- zu Datendiensten hin und zweitens wird im NGN-Umfeld zunehmend die Trennung des Transports und der Dienste voranschreiten. Insofern werden bei den Mobilfunknetzbetreibern Anschluss und Dienste bald entkoppelt“, resümiert Omar Khorshed, Vorstandschef von acoreus http://www.acoreus.de. Dauerhaft werde es nicht gelingen, Mobilfunkkunden Wahlfreiheiten vorzuenthalten. 

Computer Intelligence equals that of a lesser house fly: Telecommunication in need of a new artificial intelligence concep

In order to achieve a tangible cutting edge in the telecommunications sector, a new appreciation and overhauled concept of artificial intelligence is called for. This is the viewpoint expressed by Lars Thomsen, trend researcher at the Agency Future Matters http://www.future-matters.com. Only when appliances can boost a notably enhanced intelligence will system leaps become a feasible reality. At the moment we are still in the infancy stage of such a process“, explains Thomsen. At present the intelligence level of a computer equals that of a common house fly. Within about five years it would be realistic to assume that one has reached the intelligence level of a dog and it would take a further ten years to come up to the intelligence level of a human being. “At that time both storage/memory and bandwidth will be moving in spheres that by today´s standards is still far beyond imagination – approximately 200,000 times more efficient than today. The access to the internet will then be as ubiquitously second to nature as electricity is today. And what is more we will be in a position to delegate the great bulk of organizational tasks to Personal Assistants, thereby gaining more time to concentrate on the more pressing issues“, Thomsen expounds. 

For the television programmes this vision has already become reality. One good example to this end is the software “TV Digital Personal“ which has the capacity of connecting personalized TV-Channels based on the conventional television programme with all the internet offerings available. The programme will be generated automatically and will reflect the individual preferences and respective attitudes and behavioural patterns of the TV-viewer. “My prognosis is that all industries, whose corporate processes can be presented on the internet and all kinds of everyday life situations, in which internet-based appliances are being employed, will be governed by electronical assistants. When all appliances surrounding us will be equipped with permanent internet connections, ranging from the Intercity Express seats via motorcars, mobile phones, living room television sets, child´s beds right through to the briefcase, from that moment on at the very latest will each and everyone of us have a small intelligent assistant ready for personal use“, confirms Sven Gábor Jánszky of forward2Business-Trend Office http://www.forward2business.com. 

“Within the scope of ten years most of the service requests via voice entry will be dealt with in just one sentence“, predicts speech dialogue expert Lupo Pape, Managing Director of SemanticEdge http://www.semanticedge.de in Berlin: The future scenario would then present itself as follows: “SMS to Anne: My flight is delayed and I will not arrive until 21:00 hrs.“. And the SMS will be forwarded immediately. “Please reserve me a seat on the next train to Berlin.“ The back end systems of the Personal Assistant will then make the online-reservation and send a SMS detailling the respective connection times, the booked seat number as well as a reservation code. Yet another example: “I still need three litres of milk, three pieces of butter as well as a pumpkin seed bread“ and the retailer at the corner shop schedules the goods to be picked up or alternatively delivers the goods to the home address. With the Personal Assistant each customer has the opportunity to compilate the individual services he himself wishes to use. For the companies it will be vital to adjust to this trend by having a presence in the personalized compilation of the respective services“, predicts Pape. 

 

Visionäre Computer-Wolken von Google und die Warnung vor neuen Monopolen

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager. 

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. 

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. 

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus. 

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman http://www.stallman.org offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.