Leere VoIP-Versprechen und überforderte „Softwarebubis“

Warum Unternehmer mit der Kommunikation über das Internet Protokoll hadern

VoIP für Mutti?
VoIP für Mutti?
Voice over IP ist ein Dauerbrenner in den Fachmedien für Informationstechnik und Telekommunikation. Von der Realität der Kommunikation in Privathaushalten und der Geschäftswelt erfährt der geneigte Leser wenig. Umfragen, Analysten und Branchenvertreter gehen in ihren VoIP-Prognosen häufig nur von Optionen und Wünschen aus. In Studien werden dann Fragen gestellt „Wird sich VoIP“ in den nächsten fünf Jahren durchsetzen“ oder „Halten Sie VoIP für sinnvoll“. Das sind die berühmten und empirisch höchst unseriösen Fragetechniken nach dem Prinzip „Wollen Sie arm oder reich sein?“. Schaut man sich das nackte Zahlenmaterial der Bundesnetzagentur an, bleibt von dem VoIP-Wortschwall der ITK-Szene nicht mehr viel übrig. Nach dem aktuellen Tätigkeitsbericht der Bundesnetzagentur kann man Ableitungen für 2007 vornehmen. Danach liegt der Anteil der VoIP-Nutzung bei mickrigen 8,6 Prozent. Für das vergangene Jahr schätzt das Wissenschaftliche Institut für Infrastruktur und Kommunikationsdienste (WIK) den Wert auf rund 10 Prozent.

„Für Geschäftskunden, die sehr häufig Nebenstellenanlagen betreiben, deren weitere Wartung durch die Lieferanten zu Ende geht, erwarte ich persönlich eine schnellere Migration zu VoIP als bei den Privatkunden, wenngleich die Nachfrage nach Lösungen für VoIP-Centrex dem Vernehmen der Anbieter nach enttäuschend ist. Hier liegen uns belastbare Zahlen jedoch nicht vor“, so WIK-Senior Consultant Dr. Thomas Plückebaum gegenüber NeueNachricht. Die Übertragung von Sprache, Bild und Daten über das Internet Protokoll ist kein Kinderspiel und mit reinen Modephrasen bewegt sich der Markt keinen Millimeter. Wenn man jeden Tag mit PR-Texten von Firmen bombardiert wird, die eine „nachhaltige und ganzheitliche VoIP-Strategie garantieren, Prozesse optimieren und implementieren, eine Vielzahl von Synergien realisieren und mit leistungsfähigen Tools basierend auf einem Netzwerk von Applikationen für geringere Kosten und einer höheren Effizienz sorgen“, darf man sich über die starre Haltung der Unternehmer gegenüber neuen Kommunikationstechnologien nicht wundern.

Spielzeug für Vati
Spielzeug für Vati
Und wenn man jetzt schon auf jedem sich bietenden Fachkongress vom Trend zur Unified Communications spricht, fehlt den Branchenexperten augenscheinlich eine gehörige Portion Wahrnehmungskompetenz: In neun von zehn Unternehmen dominiert nach wie vor die klassische Festnetz-Telefonie. Das belegt eine aktuelle Umfrage der Experton Group, die fast punktgenau die Erkenntnisse der Bundesnetzagentur wiederspiegelt. Entwickler und Hersteller der Telekom-Branche sowie Anwender müssen noch einen dornenreichen Weg zurücklegen, um VoIP auf breiter Front durchzusetzen. Man benötigt Anbieter mit Sachverstand, fundiertem Praxiswissen und einer exzellenten Expertise in der Telekommunikation. VoIP stellt langjährig eingeübte Telefongewohnheiten in Frage. „Über den Computer zu telefonieren und mit dem Telefon im Web suchen, das muss ein Anwender erst einmal verdauen“, so Dr. Jörg Fischer, Autor des Buches „VoIP-Praxisleitfaden“ (Hanser Verlag).

Ähnlich sieht es Andreas Rebetzky, Sprecher des cioforums in München: „Es ist ein weiter Weg von der Idee zur Umsetzung. Zudem verschieben sich notwendige Investitionen für VoIP durch die angespannte Wirtschaftslage. Die alte Telefonanlage tut es noch ein Jährchen, vielleicht mit ein wenig höheren Reparaturkosten“, sagt Rebetzky. Daher sei VoIP in den Vorstandsetagen erst einmal in die zweite Reihe gerückt. „Man konzentriert sich eher auf Prozessoptimierungen in der Logistik oder Bestellabwicklung. Dennoch: Die Zeit wird wiederkommen und wohl denen, die schon mit gereiften Konzepten in den Startlöchern stehen“, resümiert Rebetzky, CIO des Lebensmitteltechnologie-Spezialisten Bizerba.

Folgt man den Analysen des Beratungshauses Berlecon, hält zwar eine große Mehrheit der Entscheider in deutschen Unternehmen die Integration verschiedener Kommunikationskanäle und deren Einbindung in Geschäftsanwendungen für sinnvoll. Allerdings sind in vielen Unternehmen die notwendigen technischen Voraussetzungen gar nicht vorhanden: „Nur ein geringer Teil verfügt bisher über eine VoIP-Infrastruktur, wie etwa IP PBX oder gemeinsame Netze für Daten und Sprache. Von einer Sättigung ist der deutsche VoIP-Markt demnach noch weit entfernt und für die Anbieter gibt es noch erhebliche ungenutzte Potenziale zu aktivieren“, so Berlecon. „Was nutzen mir die effektvollen Powerpoint-Präsentationen über Unified Communications und die Versprechen einer schöneren Kommunikationswelt im IP-Zeitalter, wenn die Softwarebubis mit meiner alten TK-Anlage nichts anfangen können. Ich schmeiße doch meine gesamte Infrastruktur nicht über Bord“, klagt ein mittelständischer Firmenchef im Gespräch mit NeueNachricht.

Der Deutschland-Chef des ITK-Unternehmens Aastra, Andreas Latzel, kann den Unmut vieler Unternehmer verstehen. „Man sollte nicht das Blaue vom Himmel versprechen oder eierlegende Wollmilchsäue verkaufen. Wer die alte TK-Welt nicht versteht, besitzt keine Kompetenz, um Firmen in die IP-Welt zu transformieren. Der Philosoph Odo Marquard hat die technische Herausforderung treffend formuliert: Zukunft braucht Herkunft. Deswegen scheitern VoIP-Strategien, die den dritten vor dem ersten Schritt machen, wie es zur Zeit in der Software-Branche zu beobachten ist. Es geht um eine sehr komplexe Integrationsaufgabe. Innovation und Kontinuität gehören zusammen“, so das Credo von Latzel. Zunächst müsse man einige Hürde überwinden, um mit VoIP die gleiche Qualität und Sicherheit wie bei der klassischen Telefonie zu bieten.

dsc_0011„Das klingt zunächst trivial, ist es aber nicht. Bei der Integration der Sprachkommunikation in die IT-Infrastruktur sind besondere Dinge zu berücksichtigen, wie etwa die Echtzeitanforderung und hohe Verfügbarkeit. Die klassische Telefonie bietet Leistungsmerkmale, an die sich die Anwender in vielen Jahren gewöhnt haben und so in der IT nicht vorkommen: Vermittlungsarbeitsplätze, verkettete Anrufweiterschaltung, Chefsekretärin-Funktion und ähnliches. Viele reine IP-Lösungen haben heute genau mit diesen Funktionen ihre Schwachstellen. Ob der Anwender hingegen die vielgerühmten neuen Funktionen der Unified Communications immer nutzen kann und möchte, steht auf einem ganz anderen Blatt. Das unterscheidet sich deutlich von Unternehmen zu Unternehmen, hängt von Firmenkultur, Demokratie der Arbeit, Hierarchie- und Entscheidungsmodell, von Branche und dem Arbeitsplatz selbst ab. Stark virtualisierte Unternehmen der Beratungsbranche, die mit wenigen festen Büroarbeitsplätzen und Desk Sharing auskommen, stehen eher klassisch arbeitenden Produktions- und Verwaltungsbetriebe gegenüber, wo das Telefon zum Telefonieren benutzt wird und es wenig bis gar nichts mit der IT zu tun hat“, erläutert Latzel.

Einen Trägheitsmoment bei Geschäftskunden sieht auch Bernhard Steimel von Mind Business Consultants. „Bei bereits getätigten TK-Investitionen sowie Miet- und Wartungsverträgen mit Laufzeiten von bis zu zehn Jahren geht man konservativ vor. Zudem wird die Kommunikation als unternehmenskritische Funktion angesehen und das Misstrauen in die Zuverlässigkeit der VoIP-Technik ist besonders im Mittelstand weit verbreitet. VoIP wird sich sicherlich durchsetzen. Die Frage ist nur, wie schnell“, so Steimel.

Cebit: IT-Champions für den Mittelstand gekürt

Die Initiative Mittelstand hat auf der Cebit die Gewinner für den INNOVATIONSPREIS-IT 2009 bekannt gegeben. Vor mehreren hundert Gästen aus Politik, Wirtschaft und Wirtschaft wurden die innovativsten und am besten für den Mittelstand geeigneten IT-Lösungen aus 2000 Bewerbungen geehrt. Zu den Gewinnern gehören Unternehmen wie Google, Grundig, QSC, Aastra oder Lancom Systems. So kürte die 60-köpfige Fachjury den Kommunikations-Server Aastra 800 zur besten Lösung in der Kategorie VoIP. „Mit dieser Prämierung hat auch die Initiative Mittelstand die besondere Leistungsfähigkeit, Flexibilität und Offenheit unseres Call Managers anerkannt. Aastra hat sich auf die Fahnen geschrieben, seine Kunden mit Hilfe offener Lösungen bestmöglich beim Optimieren ihrer Prozesse zu unterstützen – und hat dabei früher als andere Hersteller konsequent auf Standards wie VoIP und SIP gesetzt. In Krisenzeiten spielt die Garantie des Investitionsschutzes eine Hauptrolle. Die Ansprüche des Mittelstands an umfassende Lösungen für Unified Communications steigen. Die Software Aastra 800 macht sämtliche technische Möglichkeiten individuell angepasster Lösungen, die bislang großen Kunden vorbehalten waren, auch für klein- und mitteständische Unternehmen nutzbar“, so Thomas Stephan, Head of Product Management von Aastra. Die Kategorie Business Intelligence konnte das Steinbeis-Transferzentrum mit dem Management Monitor für sich entscheiden.

Bereits im sechsten Jahr haben die Initiative Mittelstand und der Huber Verlag für Neue Medien den INNOVATIONSPREIS-IT verliehen. TV-Moderator Markus Brock (SWR) führte durch die Veranstaltung aus dem NORD/LB-Forum. Die Hauptrede hielt Internet-Publizist Tim Cole und erklärte unter dem Titel „Das Ende der Eintagsfliege“ warum der Mittelstand nachhaltige IT-Innovationen braucht. Stellvertretend für alle von der Jury ermittelten 34 Kategorie- und 18 Landessieger wurden anschließend auf der Bühne die Preise in den Kategorien Green-IT, Telekommunikation, On Demand und IT-Security überreicht. Professor Norbert Pohlmann von der Fachhochschule Gelsenkirchen und Boris Groth, Geschäftsführer des Fraunhofer-Verbund Informations- und Kommunikationstechnik (IuK) repräsentierten die Jury aus Wissenschaftlern, Fachjournalisten und IT-Experten.

Gestalter statt Verwalter: Warum auch ein CIO Managementqualitäten braucht

Andreas Rebetzky, Sprecher des cioforums, fordert ein neues Rollenverständnis der IT-Führungskräfte. „Wir sind heute mehr denn gefordert, die Geschäftsprozesse von der Produktentstehung bis zum Vertrieb und den Services intensiv mitzugestalten“, so Rebetzky. Da könne man sich nicht mehr in irgendeiner Technikecke verstecken. Ein Warnzeichen sei die aktuelle CIO-Umfrage des IT-Beratungshauses Harvey Nash. Danach habe die Bedeutung von IT-Führungskräften in den vergangenen Jahren abgenommen. Das wichtigste Schwerpunktthema, das die Geschäftsführung für die Informationstechnologie vorsieht, ist eher die Steigerung der operativen Effizienz und weniger die Entwicklung neuer Produkte oder die Erschließung neuer Märkte. In 17 Prozent der Unternehmen wird nicht einmal erwartet, dass die IT neue innovative Technologien entwickelt, um den Wettbewerbsvorteil zu verbessern. In 55 Prozent der Unternehmen, die Innovationen erwarten, hat man noch nicht einmal konkrete Ziele gesetzt. 73 Prozent der IT-Führungskräfte sind nach der Harvey Nash-Umfrage der Auffassung, dass der CIO eine größere Rolle im Unternehmen spielen sollte. Um das zu erreichen, müssten CIOs ihre Management- und Kommunikationsqualitäten verbessern.

Der Anteil derjenigen, die ihre Rolle im Unternehmen als erfüllend oder sehr erfüllend empfinden, ist im Vergleich zum Jahr 2006 stetig gefallen – von 84 auf 74 Prozent in diesem Jahr. Zugleich stieg der Anteil derjenigen, die ihre Rolle als nicht sehr erfüllend oder überhaupt nicht erfüllend empfinden, von 17 auf 25 Prozent. Entsprechend hoch fällt die Bereitschaft aus, den Arbeitsplatz zu wechseln. Nur sieben Prozent der Befragten streben keinen Job in einem anderen Unternehmen an. 72 Prozent haben bereits einen Headhunter kontaktiert oder selbständig nach einer neuen Tätigkeit Ausschau gehalten. 63 Prozent der IT-Führungskräfte gehen davon aus, in den nächsten zwei Jahren nicht mehr bei ihrem jetzigen Arbeitgeber zu sein – das sind fünf Prozent mehr als im vergangenen Jahr. „Die Abnahme des Einflusses im Unternehmen steht in direkter Beziehung zum Nachlassen der Berufszufriedenheit und letztendlich zu einem Ansteigen der Wechselbereitschaft“, kommentiert Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf, die Ergebnisse.

Die abnehmende Bedeutung der IT-Abteilungen unter dem strategischen Gesichtspunkt dürfte das Ergebnis vergangener Arbeitsleistungen und nachlassender Wahrnehmung sein. Über ein Viertel der Befragten ist der Meinung, dass die IT-Systeme innerhalb des Unternehmens nicht als Komponente für die Wertsteigerung des Unternehmens betrachtet werden können. Jede zweite IT-Führungskraft ist davon überzeugt, dass die IT kein wirksames Mittel ist, um die Geschäftseinnahmen zu steigern. „IT-Führungskräfte müssen kräftig an ihren Business-Kompetenzen arbeiten. Es ist offensichtlich, dass der ideale IT-Mitarbeiter beides haben muss: technologische und unternehmerische Fähigkeiten“, so die Erfahrung von Nadolski.

„Mit Scheuklappen kann ein CIO seine Position im Unternehmen nicht mehr festigen“, bestätigt Rebetzky. Eine IT-Führungskraft brauche heute Kompetenzen für die kompletten Geschäftsprozesse seiner Firma, um beispielsweise das Engineering von Produktkomponenten in Prozesskostenanalysen zu modellieren. „Ohne dezidiertes Prozesswissen wird ein CIO zum Verwalter degradiert mit wenig rosigen Zukunftsaussichten. Wir sollten in unseren Unternehmen jedoch Gestalter sein“, fordert Rebetzky, Director Global Information der Firma Bizerba.

Das cioforum vertrete die Interessen der IT nicht zum Selbstzweck, sondern indem es die Sachlage differenziert betrachtet und Handlungsempfehlungen veröffentlicht. Sei es, um die Stellung der IT in den Unternehmen zu festigen oder Kosten im Unternehmen einzusparen. „Bizerba als Technologieunternehmen investiert kräftig in neue Produkte und Produktinnovationen. Die IT spielt hierbei eine wachsende Rolle. Es gibt fast keine Projekte mehr ohne IT. Umso mehr wollen wir die Wertsteigerung erhöhen – die Hebel dazu sind vorhanden“, erklärt IT-Interessenvertreter Rebetzky. Ein wichtiges Thema im Verband sei derzeit die Erhöhung der SAP-Wartungspreise: „Wir sehen enorme Belastungen auf die Unternehmen zukommen. Betroffen ist besonders der Mittelstand. Er hat häufig weitaus schlechtere Konditionen. Dadurch wirkt sich die Erhöhung der Wartungskosten negativ für innovative Investitionen aus. Wir werden als Verband den Druck auf SAP erhöhen, damit diese Belastungen gemildert werden“, kündigt Rebetzky an.

IT-Auslagerung kein Allheilmittel in der Krise – cioforum: „Wer sein Handwerk beherrscht, braucht externe Dienstleister nicht zu fürchten“

„Insource core, outsource context“, so lautete das Motto der IT-Branche in den vergangenen zehn Jahre. Die Erklärung ist klar: Der Context ist austauschbar. Wer würde heute ein Textverarbeitungsprogramm selbst schreiben oder eine Anwendungssoftware für Enterprise Resource Planning ( ERP). „Wir müssen uns die Frage stellen, aus welchem Grund wir bestimmte Leistungen nicht mehr selbst machen wollen. Und die Gründe sind vielfältig: Sind es die Kosten, die uns ein Service kostet? Oder muss eher formuliert werden: Ist es einem Unternehmen möglich, alle notwendigen Services optimiert und effizient durchzuführen“, fragt sich Andreas Rebetizky, Sprecher des cioforums in München.

Das Betreiben eines Servers sei „commodity“ – hier komme es auf Effizienz an, auf Kosten pro Server. Der Betrieb eines Geschäftsprozesses, dessen Optimierung, Gestaltung, Re-Engineering – das könne „Core“ sein, also zum Kern gehören: „Ein Logistik-Unternehmen tut gut daran, eigene Experten für die Themen rund um das Supply Chain Management zu haben. Ein Fertigungsunternehmen sollte Kenntnisse in Fertigungsprozessen, Variantenkonfigurationen und Materiallogistik haben. Das ist ihr Core-Business. Wir erleben eine Transformation dessen, was als ‚Core‘ bezeichnet wird. IT gehört für viele Unternehmen dazu. Ohne IT werden keine neuen Produkte entworfen. Die Produktion ist optimiert mit Hilfe von Produktionsplanungs- und Steuerungssystemen (PPS), der Vertrieb hat mit CRM eine 360 Grad-Sicht auf seine Kunden. IT ist in vielen prozessbezogenen Aufgabenstellungen nicht nur ein ‚Muss‘, sondern eine überlebenskritische Komponente geworden“, so die Erfahrung von Rebetzky, CIO des Balinger Technologieanbieters Bizerba.

Es sei zu kurz gegriffen, wenn Analysten den Outsourcing-Markt als Gewinner der Wirtschaftskrise ausrufen. „Viele CIOs sind skeptisch – sie rechnen eher mit einer Stärkung der internen Ressourcen. Klar ist nur: Projekte mit schnellem Sparpotenzial haben dieses Jahr Priorität. Anwender sollten hier auch ihre Lieferanten in die Pflicht nehmen“, berichtet die Computer Zeitung. „Selten lässt sich ein Problem dadurch lösen, dass man es per Outsourcing an Dritte vergibt. Wir sollten besser Wege finden, die internen Strukturen zu verändern und die Effizienz zu erhöhen“, bestätigt Rebetzky.

Die IT im Untenehmen müsse sich emanzipieren. Der CIO habe die Aufgabe und Verantwortung, sinnvolle Schritte zum Outsourcing einzuleiten, aber noch mehr die Motivation dafür zu liefern, dass die IT zum Kerngeschäft wesentlich beiträgt. „Dazu muss sich die IT zu einem Businesspartner mit hoher Kompetenz in den zugrundeliegenden Geschäftsprozessen wandeln“, fordert Rebetzky. Wenn das erfolgt sei, werde beispielsweise die Debatte über das Outsourcing eines Servers obsolet. „Diese Commodity ist die Pflichtübung für die IT. Wer sein Handwerk beherrscht, braucht den Wettbewerb mit den externen Dienstleistern nicht zu fürchten. Wer seine Core Business-Aktivitäten auslagert, verliert die Fähigkeit der Transformation. Denn auslagern lassen sich nur die Services, die zu keinem Wettbewerbsvorteil mehr führen“, sagt der Bizerba-Manager. Fatal sei es, nur wegen der Fehlerträchtigkeit der IT an Auslagerung zu denken. Die Software habe eine Komplexität erreicht, dass sie kurz davor steht, ein Eigenleben zu beginnen: Sie tue sonderliche Dinge – unerwartete Ereignisse führen zu unerwarteten Aktionen. Es si doch viel leichter, einen Outsourcing-Partner zur Verantwortung zu ziehen, als den Mitarbeiter und Kollegen. „Damit kannibalisiert man allerdings den Status der IT im Unternehmen“, so die Warnung von cioforum-Vorstand Rebetzky.

Studie: Kollaborieren oder kollabieren? – Organisationen im Netzwerkstress

„Von einem Ameisenhaufen können wir mehr über Organisationsformen und Prozesse lernen als durch Rechenmodelle“, postulierte der Internet-Pionier Kevin Kelly schon vor rund 15 Jahren. Die Wirtschaft ist ein komplexes, dynamisches System: Alle Ereignisse werden permanent durch das Zusammenspiel von Ordnung und Chaos, Gesetz und Zufall, Freiheit und Strukturierung beeinflusst. Rationale Berechnung zukünftiger Ereignisse, letzte Gewissheit für Voraussagen sind nicht möglich – Zukunft ist nicht berechenbar – was man an der Finanzkrise schmerzlich erkennt. Die zukünftige Gestalt von Unternehmen und Großorganisationen sollte nach Auffassung von Kelly daher folgende Eigenschaften haben: verteilt, dezentralisiert, auf Zusammenarbeit bedacht und anpassungsfähig. „Ein sehr großes globales Unternehmen, das ganz die Form eines Netzwerks annehmen würde, kann als ein System von Zellen mit jeweils einem Dutzend Personen angesehen werden, das folgendes umfasst: Kleinfabriken mit einem Dutzend Leuten, eine Zentrale mit einem Stab von zwölf Menschen, Profit Centers, die von acht Personen geleitet werden, und Zuliefererbetriebe, bei denen zehn Menschen arbeiten“, empfiehlt Kelly.

Aber wie organisiert man Netzwerke? „Die Zunahme vernetzter und kooperativer Organisationen, die man unter dem Begriff ‚Team Collaboration’ zusammen fassen kann, stellt Führungskräfte vor neue Herausforderungen“, so Karl-Heinz Land, Chairman der Düsseldorfer Beratungsfirma Mind. Das Unternehmen hat in Zusammenarbeit mit den Agenturen Wort + Welt und Projektkomplex.net die Studie „Kollaborieren oder Kollabieren? Team Collaboration in der Enterprise 2.0“ erstellt. Viele Organisationen würden unter Netzwerkstress leiden: Überforderung der Mitarbeiter, Projektverzögerungen durch „Entscheidungsstaus“ oder technische Pannen. Mangelhafte Soft- oder Hardwarekomponenten können erschwerend hinzukommen: „Die massenhafte Bearbeitung von kollaborativen und kommunikativen Aufgaben hält mittlerweile bis zu 30 Prozent des Managements von der Erledigung der wichtigsten Dinge ab“, Studienautor Sebastian Paulke, Geschäftsführer von Wort + Welt.

In einer Online-Befragung, an der über 150 Managern aus verschiedenen Wirtschaftsbranchen teilnahmen, geht die Studie der Frage nach, ob sich die aktuellen IT-Werkzeuge für die Projektarbeit eignen. Mind-Geschäftsführer Bernhard Steimel sieht seine Einschätzung durch die Umfrage-Ergebnisse bestätigt: „Wissensarbeiter fühlen sich von den ihnen zur Verfügung gestellten Arbeitsmitteln nicht ausreichend unterstützt: Für 84 Prozent der befragten Entscheider aus Großunternehmen und Dienstleistungsbranchen wird der Büroalltag stressiger. Die Erledigung der wichtigsten Aufgaben kommt bei 73 Prozent der Befragten zu kurz. Emails, Meetings und unwichtige Aufgaben sind die wichtigsten ‚Zeit-Killer’“. Klassische Kommunikationsplattformen wie MS Outlook, Excel oder Project eigneten sich nur eingeschränkt als Kollaborationstools.

„Auch Intranets und Wikis unterstützen nicht für alle Befragten optimal das Wissensmanagement im Unternehmen. Dokumenten-Management ist in vielen Unternehmen noch ein Fremdwort, nur jedes vierte Unternehmen setzt es ein“, fasst Steimel die Befragungsergebnisse zusammen. „Echte“ Tools für die Kollaboration wie MS Sharepoint werden nur von 29 Prozent der Befragten genutzt. Aber knapp 90 Prozent geben zu Protokoll, dass solche Tools die Zusammenarbeit verbessern könnte. „Sie sollen durch attraktive, intuitive und leicht zu bedienende Nutzerschnittstellen die Informations-, Kommunikations- und Kooperations- sowie Koordinationsprozesse entschlacken, beschleunigen und wertschöpfender gestalten“, erklärt Medienberater Stefan Simons von Projektkomplex.net. Solche Lösungen sollten das Management unterstützen, jeweils den aktuellen, „synchronen“ Projektstatus zu identifizieren, Aufgaben zu verteilen, ihre Erledigung zu verfolgen und das Geleistete zu dokumentieren.

Die Studienautoren argumentieren, dass Unternehmen zugleich neue Organisationskonzepte einführen sollten, damit die neuen Technologien ihre Wirkung voll entfalten können. Dafür sprechen vier „Megatrends“, die bereits „in voller Blüte“ stehen: Die „Demokratisierung“ der Arbeit, die wachsende Bedeutung der Verbraucher für den Unternehmenserfolg, die zunehmende Beschleunigung der Information, Kommunikation, Kooperation sowie Koordination und die sinkende Bedeutung von Unternehmen und „starren“ Organisationen für die volkswirtschaftliche Wertschöpfung. „Starre Strukturen weichen flexiblen Organisationsformen. Der Unternehmenszweck verändert sich radikal. Schon ab 2010 wird man sich mit den Themen kollektive Unternehmensintelligenz, semantische Technologien, nicht-deterministische, ereignisgetriebene Prozesse und Software basierte Antizipation von Marktentwicklungen befassen müssen“, prognostiziert Land. Das sei der eigentliche Kern der Enterprise 2.0-Philosophie. Um fit für die Zukunft zu sein, müssten Unternehmen offen für Open Source-Systemarchitekturen sein, Kompetenzen im permanenten Change Management erwerben und neue projektorientierte Arbeitsformen entwickeln. „Ohne tiefgreifende Wandlungen der Unternehmensorganisation, seiner Prozesse und seiner Kultur nutzen neue Softwaretools und Anwendungen nichts. Im Gegenteil, sie hemmen nur etablierte Betriebsabläufe und werden für die Mitarbeiter zum Stressfaktor“, bestätigt IT-Experte Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Das werde mit der Studienthese von der „Demokratisierung der Arbeit“ gut beschrieben. „Es betrifft sowohl die Arbeit im Unternehmen als auch die Arbeit mit den Kunden. Team-Kollaboration steht gegen rigide Strukturen. Diese Dissonanz erfahren auch häufig große Weltunternehmen, die einerseits auf global einheitliche Strukturen und Prozesse setzen, andererseits aber ihre Mitarbeiter stärker ermächtigen und emanzipieren wollen. Dieser Gegensatz lässt sich nur aufheben, wenn ein irgendeiner Stelle im Unternehmen eine Trennlinie gezogen wird, zwischen globaler Dominanz und lokaler Verantwortung. Ansonsten besteht die Gefahr, dass Team-Kollaboration und seine Anwendungen zu einem noch höheren internen Kommunikations- und Abstimmungsbedarf führen – und zum Zeitkiller werden“, weiß Sprachdialogexperte Pape.

Das ganze Thema sei in hohem Maße eine Frage der Unternehmenskultur. Baut die Unternehmenskultur auf einem hohen Maß an lokaler Selbständigkeit und Verantwortung auf, sei das kooperative Organisationsmodell schon inhärent vorhanden, und neue Kommunikations- und Informationsaustauschprozesse könnten alte Prozesse und Anwendungen ersetzen. „Klein- und mittelständische Unternehmen haben hier grundsätzliche Vorteile, wenn gleichzeitig eine ‚Unternehmenskultur 2.0’ vorhanden ist“, so das Fazit von Pape.

Eigensinnige Technik: Gescheiterte Innovationen und Prognosen für die Zukunft

Der technische Fortschritt ist unberechenbar und eigensinnig, meint der FAZ-Redakteur Michael Spehr und analysiert die Tops und Flops des vergangenen Jahres: In Fachzeitschriften war die Rede vom Siegeszug der OLED-Displays, die ein sehr kontrastreiches Bild liefern, von Brennstoffzellen als alternativer Stromversorgung elektronischer Kleingeräte, von der Durchsetzung des DVB-H-Standards für mobilen Fernsehempfang mit dem Handy. Dann sollte die Bluray-Scheibe der DVD den Garaus machen und USB 3.0 mehr Tempo bei der Datenübertragung bieten. Die Handy-Magazine präsentierten Nokias „iPhone-Killer“ mit berührungsempfindlichem Display, und die PC-Zeitschriften beschworen in der Computerwelt das Credo von „noch mehr Leistung“ mit Achtkernprozessoren und dass natürlich alles immer schneller und besser wird.

„Keiner dieser Hellseher lag richtig, DVB-H wurde zum Technik-Flop des Jahres, USB 3.0 ist gerade mal angekündigt worden, und die Bluray verkauft sich nur sehr verhalten. Der Markt hat sich vollkommen anders entwickelt. Das Paradebeispiel ist der Überraschungserfolg der Netbooks, der kleinen Mini-Notebooks in der Preisklasse von um die 400 Euro, die allemal genug Leistung für Internet, E-Mail und Textverarbeitung bieten und ausnahmslos unter Windows XP laufen. Für Standardaufgaben am PC braucht kein Mensch einen Achtkernprozessor, und das ressourcenhungrige Vista hat paradoxerweise nicht zu dem erwarteten Ansturm auf neue PCs mit mehr Rechenleistung und Speicher geführt, sondern zu einem neuen Trend, der sich besinnt auf Werte wie Nachhaltigkeit und Effizienz“, so Spehr. Das erkläre auch den Erfolg der Mac-Rechner von Apple: Sie sind schick, schnuckelig, schnell, sicher, selbsterklärend und werden auch in diesem Jahr ihren Marktanteil gewaltig vergrößern.

„Auch bei der Software lief alles anders als vorhergesehen: weg von der Opulenz überdimensionierter Pakete hin zu kompakten und schlichten Programmen, die genau das tun, was sie sollen, und auf nervigen Schnickschnack verzichten. Solche Anwendungen kommen meist aus der Open-Source-Bewegung, wie der Firefox-Browser 3 oder das Büropaket Open Office 3, das sich hinter einem Microsoft Office nicht zu verstecken braucht. Alle diese Programme sind kostenlos, klar dokumentiert und haben keine Falltüren à la Zwangsregistrierung oder Kopierschutz“, erklärt Spehr. Generell werde Mammut-Software aussterben und mit ihr jene Unternehmen, die das nicht begreifen. Man müsse nicht mehr alles mitmachen, was die Industrie als „neu“ oder „modern“ anpreist. Einfache, faire und überschaubare Produkte seien stärker denn je gefragt, etwa die Flatrate fürs Telefonieren und in diesem Jahr die Datenflatrate, die einen endlich unabhängig macht vom DSL-Anschluss der Telekom. Zudem wachse das Unbehagen gegenüber Gängelungen.

„Die Macht der Meinungen im Internet wird stärker. Bewertungsportale, Foren und private Seiten legen Finger in die Wunden und werden von potentiellen Käufern um so mehr gelesen, wie der Technikjournalismus der Fachzeitschriften seine Jubelarien mit hübschen Produktbildern und halbnackten Mädels garniert“, resümiert Spehr.

Nach Ansicht von Udo Nadolski, Geschäftsführer des Düsseldorfer Beratungshauses Harvey Nash, hängt der Markterfolg neuer Technologien nicht vom Featurismus ab: „Der iPod von Apple in Verbindung mit iTunes ist ein gutes Beispiel hierfür, ebenso das iPhone und der iPod Touch, die ja auch über den iTunes-Store Musik, Videos und Software herunterladen können. Nach nur etwa einem Jahr hat das iPhone den Spitzenplatz unter den verkauften Smartphones eingenommen, da Komfort wie auch Inhalte den überzeugend sind. Sollte Apple tatsächlich einen XXL-iPod Touch mit 9 bis 10 Zoll Display bringen, könnte das den Markt der so genannten Netbooks noch stärker beflügeln“, prognostiziert der IT-Experte Nadolski.

Innovationen wie HDSPA, Blu-ray und USB 3.0 seien wirkungslos, solange sie nicht auf tragfähigen Geschäftsmodellen beruhen und attraktive Dienste für Anwender erbringen. „Das Dilemma bei Mobile TV in Deutschland belegt diese These genauso wie das Scheitern des digitalen Radio-Standards DAB. Wenn sich für den Anwender keine Vorteile hinsichtlich Inhalt, Komfort und Qualität in einem Maße ergeben, dass er bereit ist, dafür extra zu bezahlen, bleibt nur noch eine Finanzierung über Dritte durch Werbung, Kunden-Profiling und andere Dienste. Hat die Anwendung aber noch keine kritische Masse im Markt erreicht, wird auch die Drittfinanzierung nicht funktionieren“, sagt Nadolski.

Das Problem der Tragfähigkeit der Geschäftsmodelle stelle sich auch den Online Communities, die oft als typische Beispiele für das Web 2.0 genannt werden. „Mit Ausnahme von Xing ist vermutlich keine der vielfältigen Communities von Facebook bis Wer-kennt-wen? heute profitabel. Der Nutzen gerade der privat orientierten Communities ist zwar für Anwender greifbar, aber die Akzeptanz und Verbreitung beruht in hohem Maße darauf, dass sie kostenlos sind. Die Drittfinanzierung funktioniert bisher nicht ausreichend. Das dürfte auch das Problem des Open Source-Betriebssystems Linux sein. Mit allen Distributionen hat Linux heute einen Marktanteil von weniger als einem Prozent bei Desktop oder mobilen Computern. Ein akzeptables Geschäftsmodell fehlt bislang“, meint der Harvey Nash-Chef.

Online Communities werden sich nach Marktanalysen von Mind-Geschäftsführer Bernhard Steimel weiter ausbreiten mit einer stärkeren Spezialisierung. Ein gutes Beispiel ist ‚World of Warcraft‘. Die Erweiterung des System unter dem Namen ‚Wrath of the Lich King‘ verkaufte sich am ersten Tag 2,8 Millionen mal und die Spielteilnahme kostet pro Monat 11 bis 13 Euro“, erläutert Steimel. Cloud Computing, also die Nutzung von Applikationen über das Netz, wurde schon oft propagiert, wird sich nach Expertenansicht auch mit den Netbooks für Standard-Anwendungen wie Office-Applikationen nicht durchsetzen. „Warum soll der Anwender für die Nutzung einer Software bezahlen, die er ebenso gut kostenlos als Open Source installieren kann, und die dabei immer – unabhängig vom Online-Zugang – verfügbar ist“, so Nadolski.

Internet-Telefonie – mittlerweile in der SIP-Variante – werde sich nach seiner Erfahrung durchsetzen, wenn die Netzbetreiber eine direkte SIP-Anbindung bieten. „Es ist davon auszugehen, dass in diesem oder im nächsten Jahr derartige Dienste massiv angeboten werden. Mobile Breitbandzugänge, HSDPA oder später LTE (Long Term Evolution) werden dann interessant, wenn die Flat Rate-Tarife marktgerecht sind und SIP-Telefonie gleich mit angeboten wird. Auch die Anbieter von Breitbandzugängen werden noch einmal neu sortiert, wobei wenige Anbieter mit xDSL- und 3G-Portfolio übrig bleiben“, vermutet Nadolski.

US-Experte: Computer zwingen uns zu einem Dasein als Aktenknecht

Computer und Computersoftware sind immer noch unausgereift: „Die Betriebssysteme von Microsoft, Linux und in geringerem Maße auch von Apple sind zu kompliziert, schlecht gemacht und nicht intuitiv. Da hat sich in den vergangenen zwanzig Jahren kaum etwas gebessert. Ich beobachte viele hochintelligente Leute, die es gerade noch so knapp schaffen, einen Computer zu bedienen. Viele geben sich selber die Schuld – dabei liegt es an der lausigen Software. Anstatt dass Computer unseren Alltag erleichtern, sind sie eine einzige Quelle des Ärgers“, kritisiert der US-Computerexperte David Gelernter im Interview mit dem Magazin GDI Impuls.

Während die Hardware immer besser wurde, blieb das Grundprinzip der Software – die Benutzeroberfläche – in den 1970er-Jahren stehen: Hierarchisches Filesystem, Icons, Desktop-Interface, die Maus, all das wurde in den späten 1970ern von Xerox und Bell erfunden. Apple brachte es dann 1984 als erstes kommerzielles Produkt auf den Markt. „Seitdem entwickelte sich die Software kaum weiter, obwohl sich unser Nutzerverhalten radikal verändert hat. Anfang der 1980er-Jahre war es ungewöhnlich, einen Computer zu Hause zu haben. Computer wurden von professionellen Usern bedient; das Internet war praktisch nicht existent. Heute ist das Web allgegenwärtig und jedermann nutzt Computer. Die Grafik hat sich extrem verbessert – aber wir arbeiten immer noch mit den gleichen Benutzeroberflächen wie in den 1970er-Jahren“, so Gelernter, der mit seinen Thesen Widerspruch erntet: „Prinzipiell hat Gelernter recht. Betrachten wir aber die Bandbreite der Oberflächen, so bemerken wir Fortschritte. Der Erfolg von Apple basiert hauptsächlich auf der Ergonomie des ‚Desktops’. Auf die Spitze getrieben im iPhone. Also es gibt Fortschritte – und die fangen in der Regel in Nischen an“, sagt Andreas Rebetzky, Sprecher des cioforums.

Nach Meinung von Gelernter sind die Benutzeroberflächen immer noch die Achillesferse und zwingen den Anwender zu einem „Dasein als Aktenknecht“, der seine Zeit damit verplempert, Dateien zu beschriften und einzuordnen. „Das Desktop-Interface wurde nach dem Vorbild des Büroschreibtischs entwickelt: Man sitzt an einem Tisch mit Akten, und es gibt Schubladen und Ordner, in die man sie ablegt“, führt der amerikanische Spezialist für Künstliche Intelligenz aus. So arbeitete man bereits vor 80 Jahren. In den 1970ern sei dieses System dann einfach auf den Computer übertragen. Man verfolge dabei eine nicht mehr zeitgemäße Logik – sie entspreche nicht mehr der Funktion von Computern. „Ein Schreibtisch ist passiv, der Computer ist aktiv – er kann Dokumente selber beschriften, suchen und ordnen. Die Idee, dass wir jedem Dokument einen Namen geben sollen, ist schlicht lachhaft. Wenn Sie drei Hunde haben, ist das sinnvoll. Besitzen Sie aber 10.000 Schafe, ist es Irrsinn“, bemängelt Gelernter. Rebetzky sieht das ähnlich. Damals geizte man noch mit Bits und Bytes – eine Festplatte mit 10 MByte kostete mehrere tausend Euros. „Daher kam die Entwicklung des Dateinamens – das ist eine sehr kanonische Entwicklung. Heute gibt es bereits Systeme, die in Workflows und Timeflows arbeiten. Systeme, die Metadaten zulassen, volltextorientierte Suchmechanismen, die sogar zum Teil auf unscharfen Pattern basieren. Wir müssen das nur nutzen. Und das erfordert Zeit, den die tradierten Anwender werden zunächst erst mal in den bekannten Ordnern suchen“, glaubt Rebetzky, CIO des Technologieherstellers Bizerba.

Gelernter entwickelte eine Software, die Informationen auf völlig neue Art strukturiert. Jedes Dokument will er in einer Zeitachse anordnen – einem „Lifestream“. Informationen werden zeitlich strukturiert statt räumlich in Ordnern. So korrespondiert die Anordnung der Information mit den Ereignissen des Lebens. „Unser erstes Dokument ist die elektronische Geburtsurkunde, und jedes Dokument, das hinzukommt, wird chronologisch bis zur Gegenwart eingeordnet. Dabei spielt es keine Rolle, ob es sich um E-Mails, Fotos, MP3s oder den Entwurf eines Buchkapitels handelt – alles wird einfach in den Lifestream geworfen“, erläutert Gelernter. Dateien müsse man dann mehr mit Namen bezeichnen, da sie sich selbstständig nach Inhalten, Stichworten, Ort und Zeit vernetzen. Ordner werden überflüssig. Der Lifestream erstrecke sich auch in die Zukunft: Man könne ein Dokument an jene Stelle auf der Zeitachse kopieren, an der es wieder auftauchen soll.

Für den IT-Fachmann Rebetzky ist das eine nette Idee, aber zu eindimensional: „Bilden wir dadurch nicht alles auf einer Perlenschnur ab? Ich glaube, wir müssen Informationen aus dem Cyberpool filtern, indem wir sie in einen Kontext stellen. Zum Beispiel können wir den Kontext ‚Globalisierung’ mit dem Kontext ‚Offshore Softwareentwicklung’ kombinieren und damit im Cyberpool suchen. Ich bin der festen Überzeugung, dass Google und Co. genau diesen Weg beschreiten werden. Derzeit ist die Suche immer noch zu unspezifisch“. Gelernter setzt auf Assoziationen. Wer eine Stimme höre, denke an ein Gesicht. „Damit ist eine zeitliche Information verbunden: Wann habe ich die Person das letzte Mal gesehen? Eine Kombination aus assoziativer Vernetzung und zeitlicher Strukturierung ist die natürliche Art, Information in einer Software zu speichern“. Leider könnten die meisten Softwaresysteme nicht assoziativ „denken“, bemängelt Rebetzky: „Darin unterscheiden sich Computer noch von Menschen. Höchstwahrscheinlich werden die assoziativen Fähigkeiten von Softwaresystemen in den nächsten 20 bis 30 Jahren extrem zunehmen, was unsere Interaktionsmöglichkeiten mit dem Cyberspace erheblich beeinflussen wird. Vorhersehen kann das aus meiner Sicht niemand: Selbst Computergrößen wie Bill Gates dachten ja einst, dass 640 kByte für jeden völlig ausreichen. Welch ein Irrtum“, stellt Rebetzky fest.

Gelernter geht in Zukunft von dreidimensionalen Benutzeroberflächen aus. Das Interface ähnele dann mehr einem Videospiel: „Statt auf den Screen werden wir durch ihn auf eine beliebig große virtuelle Welt sehen. Der Bildschirm wird wie eine Art Fenster sein. Wenn Sie Ihren Computer anstellen, öffnet sich eine Cyberlandschaft vor Ihren Augen, in die Sie meilenweit hineinsehen können. Im Vergleich dazu ist die heutige Desktop-Benutzeroberfläche furchtbar limitiert und langweilig: Ein Hintergrund mit Dokumenten. Ich sehe lieber aus dem Fenster auf Bäume, Menschen und Verkehr als auf Akten auf einem Schreibtisch. Mit dem Lifestream erlauben Benutzeroberflächen virtuelle Zeitreisen: Wir fliegen dann durch die Cyberlandschaft in die Zukunft und die Vergangenheit“. 3D sei nicht der Stein der Weisen, kontert Bizerba-CIO Rebetzky. „Die virtuelle Welt des Business bedeutet Meeting, Prioritäten, Projekte in ständigem Wandel. Wenn mir mein Kalender einmal für die Tagesbesprechungen die Referenzen zu den Dokumenten vorlegt, die für die folgenden Meetings sinnvoll sind, dann haben wir einen ersten Fortschritt. Stand heute: Miles away”.

Anschwellende Floskeln in der Pressearbeit

In Bilanzpressekonferenzen, Broschüren, Pressemitteilungen und Vorstandserklärungen wird zu häufig mit Leerformeln gearbeitet. „Wettbewerbstool mit Fokussierung der Komponenten der Implementierungsbreite“, meldet ein Unternehmen der Informationstechnik. Bei „variable Sequentierungsstrukturen und deren hardwareunterstützte Realisierung“ legen sich selbst Fachleute die Karten. Harmlos klingt da noch der tägliche Wortschwall: Man müsse sich neu aufstellen, umstrukturieren, aufs Kerngeschäft fokussieren, Synergien nutzen, effizient und effektiv an seinem Alleinstellungsmerkmal arbeiten. Diese Erklärungen sind leider kein Alleinstellungsmerkmal. Mit Formulierungen wie „der weltweit führende Anbieter“ (ein Klassiker in fast jeder Pressemitteilung) oder „mit unserer neuen Applikation wollen wir uns auf neue Kundensegmente fokussieren“ bewirkt man in den Redaktionen nur ein müdes Lächeln. Eine Journalistenumfrage des Kölner Marktforschungsunternehmens Smart-Research im Auftrag der PR-Agentur Storymaker http://www.storymaker.de unter 900 Journalisten von Wirtschafts-, Fach- und Publikumsmedien bestätigt die wachsende Aversion gegen die anschwellenden Floskeln bei Unternehmen der Telekommunikation und Informationstechnik.

Fast jeder zweite Befragte bemängelt, dass es der Presse- und Öffentlichkeitsarbeit selten gelänge, wirklich spannende Informationen zu vermitteln. 42 Prozent kritisieren eine zunehmende Betriebsblindheit, da es immer nur um Produkte der Unternehmen gehe. 37 Prozent der Journalisten klagen über uninteressante Pressetexte mit zu viel Marketing-Blabla und Fachchinesisch gespickt mit unverständlichen technischen Details und Anglizismen. Knapp ein Drittel moniert, dass zu langsam auf Anfragen reagiert werde und die Pressearbeit zu passiv sei.

„Die Reden und Kommentare von Wirtschaftsführern, Geschäftsberichte und Pressemitteilungen stehen allzu häufig mit der deutschen Sprache auf Kriegsfuß. Die Folge ist, dass man wirtschaftliche Zusammenhänge der Öffentlichkeit schon deshalb nicht erklären kann, weil es an der Sprachkompetenz mangelt, das heißt, an der Fähigkeit, Sachverhalte unterschiedlichen Schwierigkeitsgrades in schlichten Worten auszudrücken“, so der FAZ-Autor Erhard Glogowski. Statt ständig zu kommunizieren, wie innovativ doch das neue Produkt sei, sollten Firmen lieber so konkret wie möglich erklären, worin die Innovation besteht. Bei IT-Unternehmen wimmelt es von Bekundungen wie „Kundenorientierung“, „kompetente Teams“, „innovative und maßgeschneiderte Lösungen“, oder „anwenderorientierte Applikationen“: Semantik-Müll werde in Redaktionen mit Nichtbeachtung bestraft.

IT-Dienstleister beurteilen ihre Geschäftslage so optimistisch wie im Boomjahr 2000

Die Einschätzung der Geschäftslage der IT-Dienstleister ist nach einer Umfrage des DIHK zur Zeit genauso gut wie im Boomjahr 2000. Im Vergleich Mit einem Lagesaldo von 38 Prozentpunkten reduziert die IT-Branche zwar ihre Lageeinschätzung um zwölf Prozentpunkte gegenüber dem Frühjahr 2008. Nach wie vor verspüren die Serviceanbieter den Nachfragesog vor allem durch Unternehmen und Behörden, die ihre Abläufe weiter digitalisieren.46 Prozent der Unternehmen schätzen ihre Geschäftslage als „gut“ ein, ebenfalls 46 Prozent bewerten die Lage als „befriedigend“ und acht Prozent bekunden eine Lageverschlechterung. Im Frühjahr schätzte mehr als jeder zweite IT-Dienstleister seine Geschäftslage als „gut“ ein – eine Verschlechterung gaben zu diesem Zeitpunkt sechs Prozent zu Protokoll.

Im Herbst 2008 blicken 36 Prozent der befragten Unternehmen optimistisch in die Zukunft. Bei der Vorumfrage erwarteten 43 Prozent bessere Geschäfte in den nächsten zwölf Monaten. Die Anzahl der Pessimisten ist von sieben Prozent im Frühjahr auf derzeit zwölf Prozent angestiegen. Die Unternehmen gehen davon aus, dass der Markt für IT-Dienstleistungen weiter wächst und dass der Digitalisierungstrend von Geschäftsprozessen auch im nächsten Jahr weiter anhält.

Das Auslandsgeschäft wird im nächsten Jahr erneut zulegen. Mit einem Ausfuhrsaldo von 28 Prozentpunkten weist die IT-Branche zwar vergleichsweise gute Exporterwartungen aus. Jedoch ist der Abwärtstrend des Ausfuhrsaldos seit dem Frühjahr 2006, anfangs langsam und in kleinen Schritten, nun in einem größeren Schritt erkennbar. Gegenüber dem Frühjahr verzeichnet der Saldo einen Rückgang in Höhe von zehn Prozentpunkten. 35 Prozent der Unternehmen rechnen mit höheren Exporten, gegenüber 43 Prozent im Frühjahr 2008. Aktuell erwarten sieben Prozent der Unternehmen einen Exportrückgang, vor sechs Monaten waren es noch fünf Prozent.

Auch im nächsten Jahr gehen von der IT-Branche Impulse für Investitionen aus. Ein Viertel der Unternehmen beabsichtigt in den nächsten Monaten mehr zu investieren – nach 31 Prozent im Frühjahr und 34 Prozent vor einem Jahr. Dagegen bekunden nur 13 Prozent der Betriebe restriktive Investitionspläne – nach ebenfalls 13 Prozent vor sechs Monaten und zwölf Prozent vor einem Jahr. 43 Prozent der IT-Dienstleister beabsichtigen im nächsten Jahr in Produktinnovationen zu investieren, 51 Prozent geben an, dass sie in neue Anlagen investieren werden.  

Der Dienstleistungsreport kann unter folgender URL runtergeladen werden: http://www.dihk.de/inhalt/download/dienstleistungsreport_herbst_2008.pdf



Virtuelles Fräulein vom Amt – Sprachgesteuerte Handys als Tipping Point des Internets

Die Sprachsteuerung des iPhones mit „Google Mobile App“ http://googlemobile.blogspot.com wird von Web 2.0-Pionier Tim O’Reilly als „Tipping Point“ gewertet: Der Begriff  bezeichnet jenen Moment, in dem etwas Einzigartiges zum Normalzustand wird und einen qualitativen Umschlagspunkt markiert. „Es ist es an der Zeit, Telefone als erstklassige Geräte zu sehen, um auf das Internet zugreifen zu können, und nicht nur als Möglichkeit, Inhalte und Anwendungen umzuwidmen, die ursprünglich dazu gedacht waren, mit einer Tastatur und einem Bildschirm gelesen zu werden“, schreibt O’Reilly in seinem Blog http://radar.oreilly.com. Mit der Sprachsteuerungsfunktion werde ein neuer Weg für Computerdienstleistungen beschritten. „Apple begeisterte uns mit dem iPhone-Touchscreen, aber die Einbeziehung des Beschleunigungsmessers war fast ebenso wichtig; und jetzt hat Google uns gezeigt, wie dieser als Hauptkomponente einer Benutzeroberflächenanwendung eingesetzt werden kann. Legen Sie das Telefon ans Ohr und die Anwendung fängt an mitzuhören; eher durch eine natürliche Geste als durch ein künstliches Klopfen oder Klicken ausgelöst. Ja, der Beschleunigungsmesser wurde bereits in Spielen wie tilt oder the iPint verwendet, aber Google hat das Ganze noch etwas weiter getrieben durch die Integration des Telefon-Hauptsensors: das Mikrofon“, so O’Reilly. Nach seiner Ansicht liegt hier die Zukunft von Mobiltelefonen: eine Benutzeroberfläche zu entwickeln, die alle bisherigen Generationen über Bord wirft. Zeigen und klicken war ein Durchbruch für Computer, aber eine Sackgasse für das Design von Benutzeroberflächen.  

Mittlerweile haben das iPhone und ähnliche Smartphones eine Vielzahl an Sensoren: Mikrofon, Kamera, Touchscreen, Beschleunigungsmesser, und Standortortung. Neue Anwendungen und Kombinationen werden zu weiteren Überraschungen führen. „Künftige Geräte werden eine immer größere Anzahl an Sinnen haben, um darauf zu achten, was wir wollen. Könnte ein Telefon die Bewegung erkennen, die wir machen, wenn wir eine Kamera vor uns hochhalten, damit wir die Einstellungen festlegen können? Könnten wir mit dem Telefon reden um Kameraeinstellungen zu verändern? Könnte ein Telefon automatisch die Bewegung eines Autos erkennen und auf Sprachwahl umstellen? Und dann gibt es natürlich noch alle weitere Interaktionen mit anderen Geräten die möglich sind, wenn wir das Telefon als Steuerteil betrachten – ähnlich der Wii-Konsole von Nintendo“, erklärt O’Reilly. 

Auch in der ITK-Branche erwartet man Impulse über die Sprachsteuerung: „Computer werden heute immer noch primär über eine Tastatur bedient, die aus der Schreibmaschine entstanden ist, so als ob jeder Tastendruck einen mechanischen Hebel in Bewegung setzt. Selbst der Zeilenvorschub und Wagenrücklauf alias Carriage return ist uns erhalten geblieben, obwohl damit schon lange kein Papier mehr transportiert wird. Telefone haben zwar die Revolution von der Wählscheibe hin zur – in der Regel – 3×4 Tastatur gemacht, standardisiert nach ITU E.161, das erfolgte aber bereits in den 70er Jahren. Selbst moderne Handys und Smartphones halten sich noch an den Tastenwahlblock, entweder in mechanischer Ausführung oder als Icon-Darstellung auf einem Touchscreen“, weiß Andreas Latzel, Deutschland-Chef des ITK-Spezialisten Aastra http://www.aastra.de, der viel Wert auf die Benutzerfreundlichkeit seiner Systeme legt. Die Technikentwicklung sei zwar rasant schnell und ein gutes User-Interface inzwischen intelligent sowie kontextbezogen – im Kern aber immer noch traditionell. Vorhersehbar sei, dass der Tastaturblock an seine Grenzen stoße – spätestens mit der breiten Einführung der SIP-Telefonie und der SIP-Teilnehmeradressen.

„Anders als bei professionellen Tischgeräten kommt die Ausstattung von Handys mit alphanumerischen Tastaturen zwar auch vor, ist aber in der Regel wegen der beschränkten Abmessungen nicht befriedigend. Da bietet sich der Weg zum Sprachinterface an: der Ansage von Adressen oder Einträgen des Telefonbuchs in normaler Sprachform. Sinnvoll ist das beim Autofahren oder anderen Tätigkeiten, die beide Hände verlangen. Ein gutes Beispiel im professionellen Umfeld ist die Pflege in Altenheimen mit der Aastra-Branchenlösung OPAS. Hier kann beispielsweise mittels Telefon und Sprache die erbrachte Leistung dokumentiert werden – das Pflegepersonal gewinnt viel mehr Zeit für die Bewohner“, sagt Latzel. Übrigens schlage die Technik mit der Sprachwahl den Bogen zurück zu den Anfängen des Telefons vor der Einführung des Selbstwählsystems: damals aktivierte man den Telefonapparat durch Erzeugung einer Rufspannung über den Kurbelinduktor und sagte dem „Fräulein vom Amt“, mit welchem Teilnehmer man sprechen möchte. „Im modernen Telefon mit Sprachinteraktion wird das Fräulein von einer Software ersetzt“, so Latzel. In Kombination mit den Datenwolken von Google ergeben sich nach Prognosen von O’Reilly ungeahnte Möglichkeiten. „Sensorenreiche Geräte mit Anwendungen, die diese Sensoren nutzen, um mit Datenwolkendiensten zu interagieren und sie zu füttern. Der Standortsensor weiß, wo man sich befindet; das Mikrofon erkennt den Klang der Stimme, so dass es persönliche Daten in der Datenwolke frei setzt; die Kamera nimmt Objekte und Personen auf und sendet ein Bild zu einer abgelegenen Anwendung, die diese erkennt und die entsprechenden Informationen abruft“, führt O’Reilly aus. Viele Durchbrüche würden bereits vor der Tür stehen. Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung seien nur der Anfang. Der gleichen Meinung ist der Berliner Sprachdialogexperte Lupo Pape: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, resümiert SemanticEdge-Geschäftsführer Pape.

 

Siehe auch:

http://de.youtube.com/watch?v=y3z7Tw1K17A&eurl=http://googlemobile.blogspot.com/

http://googleblog.blogspot.com/2008/11/now-you-can-speak-to-google-mobile-app.html