Leere VoIP-Versprechen und überforderte „Softwarebubis“

Warum Unternehmer mit der Kommunikation über das Internet Protokoll hadern

VoIP für Mutti?
VoIP für Mutti?
Voice over IP ist ein Dauerbrenner in den Fachmedien für Informationstechnik und Telekommunikation. Von der Realität der Kommunikation in Privathaushalten und der Geschäftswelt erfährt der geneigte Leser wenig. Umfragen, Analysten und Branchenvertreter gehen in ihren VoIP-Prognosen häufig nur von Optionen und Wünschen aus. In Studien werden dann Fragen gestellt „Wird sich VoIP“ in den nächsten fünf Jahren durchsetzen“ oder „Halten Sie VoIP für sinnvoll“. Das sind die berühmten und empirisch höchst unseriösen Fragetechniken nach dem Prinzip „Wollen Sie arm oder reich sein?“. Schaut man sich das nackte Zahlenmaterial der Bundesnetzagentur an, bleibt von dem VoIP-Wortschwall der ITK-Szene nicht mehr viel übrig. Nach dem aktuellen Tätigkeitsbericht der Bundesnetzagentur kann man Ableitungen für 2007 vornehmen. Danach liegt der Anteil der VoIP-Nutzung bei mickrigen 8,6 Prozent. Für das vergangene Jahr schätzt das Wissenschaftliche Institut für Infrastruktur und Kommunikationsdienste (WIK) den Wert auf rund 10 Prozent.

„Für Geschäftskunden, die sehr häufig Nebenstellenanlagen betreiben, deren weitere Wartung durch die Lieferanten zu Ende geht, erwarte ich persönlich eine schnellere Migration zu VoIP als bei den Privatkunden, wenngleich die Nachfrage nach Lösungen für VoIP-Centrex dem Vernehmen der Anbieter nach enttäuschend ist. Hier liegen uns belastbare Zahlen jedoch nicht vor“, so WIK-Senior Consultant Dr. Thomas Plückebaum gegenüber NeueNachricht. Die Übertragung von Sprache, Bild und Daten über das Internet Protokoll ist kein Kinderspiel und mit reinen Modephrasen bewegt sich der Markt keinen Millimeter. Wenn man jeden Tag mit PR-Texten von Firmen bombardiert wird, die eine „nachhaltige und ganzheitliche VoIP-Strategie garantieren, Prozesse optimieren und implementieren, eine Vielzahl von Synergien realisieren und mit leistungsfähigen Tools basierend auf einem Netzwerk von Applikationen für geringere Kosten und einer höheren Effizienz sorgen“, darf man sich über die starre Haltung der Unternehmer gegenüber neuen Kommunikationstechnologien nicht wundern.

Spielzeug für Vati
Spielzeug für Vati
Und wenn man jetzt schon auf jedem sich bietenden Fachkongress vom Trend zur Unified Communications spricht, fehlt den Branchenexperten augenscheinlich eine gehörige Portion Wahrnehmungskompetenz: In neun von zehn Unternehmen dominiert nach wie vor die klassische Festnetz-Telefonie. Das belegt eine aktuelle Umfrage der Experton Group, die fast punktgenau die Erkenntnisse der Bundesnetzagentur wiederspiegelt. Entwickler und Hersteller der Telekom-Branche sowie Anwender müssen noch einen dornenreichen Weg zurücklegen, um VoIP auf breiter Front durchzusetzen. Man benötigt Anbieter mit Sachverstand, fundiertem Praxiswissen und einer exzellenten Expertise in der Telekommunikation. VoIP stellt langjährig eingeübte Telefongewohnheiten in Frage. „Über den Computer zu telefonieren und mit dem Telefon im Web suchen, das muss ein Anwender erst einmal verdauen“, so Dr. Jörg Fischer, Autor des Buches „VoIP-Praxisleitfaden“ (Hanser Verlag).

Ähnlich sieht es Andreas Rebetzky, Sprecher des cioforums in München: „Es ist ein weiter Weg von der Idee zur Umsetzung. Zudem verschieben sich notwendige Investitionen für VoIP durch die angespannte Wirtschaftslage. Die alte Telefonanlage tut es noch ein Jährchen, vielleicht mit ein wenig höheren Reparaturkosten“, sagt Rebetzky. Daher sei VoIP in den Vorstandsetagen erst einmal in die zweite Reihe gerückt. „Man konzentriert sich eher auf Prozessoptimierungen in der Logistik oder Bestellabwicklung. Dennoch: Die Zeit wird wiederkommen und wohl denen, die schon mit gereiften Konzepten in den Startlöchern stehen“, resümiert Rebetzky, CIO des Lebensmitteltechnologie-Spezialisten Bizerba.

Folgt man den Analysen des Beratungshauses Berlecon, hält zwar eine große Mehrheit der Entscheider in deutschen Unternehmen die Integration verschiedener Kommunikationskanäle und deren Einbindung in Geschäftsanwendungen für sinnvoll. Allerdings sind in vielen Unternehmen die notwendigen technischen Voraussetzungen gar nicht vorhanden: „Nur ein geringer Teil verfügt bisher über eine VoIP-Infrastruktur, wie etwa IP PBX oder gemeinsame Netze für Daten und Sprache. Von einer Sättigung ist der deutsche VoIP-Markt demnach noch weit entfernt und für die Anbieter gibt es noch erhebliche ungenutzte Potenziale zu aktivieren“, so Berlecon. „Was nutzen mir die effektvollen Powerpoint-Präsentationen über Unified Communications und die Versprechen einer schöneren Kommunikationswelt im IP-Zeitalter, wenn die Softwarebubis mit meiner alten TK-Anlage nichts anfangen können. Ich schmeiße doch meine gesamte Infrastruktur nicht über Bord“, klagt ein mittelständischer Firmenchef im Gespräch mit NeueNachricht.

Der Deutschland-Chef des ITK-Unternehmens Aastra, Andreas Latzel, kann den Unmut vieler Unternehmer verstehen. „Man sollte nicht das Blaue vom Himmel versprechen oder eierlegende Wollmilchsäue verkaufen. Wer die alte TK-Welt nicht versteht, besitzt keine Kompetenz, um Firmen in die IP-Welt zu transformieren. Der Philosoph Odo Marquard hat die technische Herausforderung treffend formuliert: Zukunft braucht Herkunft. Deswegen scheitern VoIP-Strategien, die den dritten vor dem ersten Schritt machen, wie es zur Zeit in der Software-Branche zu beobachten ist. Es geht um eine sehr komplexe Integrationsaufgabe. Innovation und Kontinuität gehören zusammen“, so das Credo von Latzel. Zunächst müsse man einige Hürde überwinden, um mit VoIP die gleiche Qualität und Sicherheit wie bei der klassischen Telefonie zu bieten.

dsc_0011„Das klingt zunächst trivial, ist es aber nicht. Bei der Integration der Sprachkommunikation in die IT-Infrastruktur sind besondere Dinge zu berücksichtigen, wie etwa die Echtzeitanforderung und hohe Verfügbarkeit. Die klassische Telefonie bietet Leistungsmerkmale, an die sich die Anwender in vielen Jahren gewöhnt haben und so in der IT nicht vorkommen: Vermittlungsarbeitsplätze, verkettete Anrufweiterschaltung, Chefsekretärin-Funktion und ähnliches. Viele reine IP-Lösungen haben heute genau mit diesen Funktionen ihre Schwachstellen. Ob der Anwender hingegen die vielgerühmten neuen Funktionen der Unified Communications immer nutzen kann und möchte, steht auf einem ganz anderen Blatt. Das unterscheidet sich deutlich von Unternehmen zu Unternehmen, hängt von Firmenkultur, Demokratie der Arbeit, Hierarchie- und Entscheidungsmodell, von Branche und dem Arbeitsplatz selbst ab. Stark virtualisierte Unternehmen der Beratungsbranche, die mit wenigen festen Büroarbeitsplätzen und Desk Sharing auskommen, stehen eher klassisch arbeitenden Produktions- und Verwaltungsbetriebe gegenüber, wo das Telefon zum Telefonieren benutzt wird und es wenig bis gar nichts mit der IT zu tun hat“, erläutert Latzel.

Einen Trägheitsmoment bei Geschäftskunden sieht auch Bernhard Steimel von Mind Business Consultants. „Bei bereits getätigten TK-Investitionen sowie Miet- und Wartungsverträgen mit Laufzeiten von bis zu zehn Jahren geht man konservativ vor. Zudem wird die Kommunikation als unternehmenskritische Funktion angesehen und das Misstrauen in die Zuverlässigkeit der VoIP-Technik ist besonders im Mittelstand weit verbreitet. VoIP wird sich sicherlich durchsetzen. Die Frage ist nur, wie schnell“, so Steimel.

Cebit: IT-Champions für den Mittelstand gekürt

Die Initiative Mittelstand hat auf der Cebit die Gewinner für den INNOVATIONSPREIS-IT 2009 bekannt gegeben. Vor mehreren hundert Gästen aus Politik, Wirtschaft und Wirtschaft wurden die innovativsten und am besten für den Mittelstand geeigneten IT-Lösungen aus 2000 Bewerbungen geehrt. Zu den Gewinnern gehören Unternehmen wie Google, Grundig, QSC, Aastra oder Lancom Systems. So kürte die 60-köpfige Fachjury den Kommunikations-Server Aastra 800 zur besten Lösung in der Kategorie VoIP. „Mit dieser Prämierung hat auch die Initiative Mittelstand die besondere Leistungsfähigkeit, Flexibilität und Offenheit unseres Call Managers anerkannt. Aastra hat sich auf die Fahnen geschrieben, seine Kunden mit Hilfe offener Lösungen bestmöglich beim Optimieren ihrer Prozesse zu unterstützen – und hat dabei früher als andere Hersteller konsequent auf Standards wie VoIP und SIP gesetzt. In Krisenzeiten spielt die Garantie des Investitionsschutzes eine Hauptrolle. Die Ansprüche des Mittelstands an umfassende Lösungen für Unified Communications steigen. Die Software Aastra 800 macht sämtliche technische Möglichkeiten individuell angepasster Lösungen, die bislang großen Kunden vorbehalten waren, auch für klein- und mitteständische Unternehmen nutzbar“, so Thomas Stephan, Head of Product Management von Aastra. Die Kategorie Business Intelligence konnte das Steinbeis-Transferzentrum mit dem Management Monitor für sich entscheiden.

Bereits im sechsten Jahr haben die Initiative Mittelstand und der Huber Verlag für Neue Medien den INNOVATIONSPREIS-IT verliehen. TV-Moderator Markus Brock (SWR) führte durch die Veranstaltung aus dem NORD/LB-Forum. Die Hauptrede hielt Internet-Publizist Tim Cole und erklärte unter dem Titel „Das Ende der Eintagsfliege“ warum der Mittelstand nachhaltige IT-Innovationen braucht. Stellvertretend für alle von der Jury ermittelten 34 Kategorie- und 18 Landessieger wurden anschließend auf der Bühne die Preise in den Kategorien Green-IT, Telekommunikation, On Demand und IT-Security überreicht. Professor Norbert Pohlmann von der Fachhochschule Gelsenkirchen und Boris Groth, Geschäftsführer des Fraunhofer-Verbund Informations- und Kommunikationstechnik (IuK) repräsentierten die Jury aus Wissenschaftlern, Fachjournalisten und IT-Experten.

Sixtus vs. Lobo 4: Frei oder proprietär – Amüsanter Disput

Neue Streitkultur
Neue Streitkultur
Hier zu sehen.

Freiheit für die Unternehmenssoftware – netzwertiges Plädoyer für neue Geschäftsmodelle

Das Internet ändert nach Auffassung von Andreas Göldi, Autor des Blogs netzwertig die meisten Variablen des Softwaregeschäfts fundamental: „Das fängt schon beim Entwicklungsprozess an: Wer früher ein hochstehendes Softwareprodukt schreiben wollte, brauchte erst einmal teure Lizenzen für Datenbanken, Entwicklungstools, Komponentenbibliotheken und dergleichen. Das Produkt wurde in komplexen Hochsprachen wie C++ oder Java geschrieben, und dafür braucht man sehr hochqualifizierte Programmierer“, so Göldi.

Die Basissoftware für internet-basierte Produkte sei heute dank Open Source faktisch gratis. „Für Produkte mit der heutigen Leistungsfähigkeit von Linux, Eclipse oder MySQL hätte man vor zehn Jahren noch fünf- oder sechsstellige Beträge ausgegeben. Nützliche Libraries mit umfassender Funktionalität gibt es ebenfalls wie Sand am Meer. Und dazu kann man dank immer leistungsfähigerer Hardware größere Projekte auch in interpretierten, schlanken Sprachen wie Python, Ruby oder gar PHP schreiben, ohne einen wesentlichen Qualitätsverlust zu erleiden. Grob geschätzt fallen damit die Entwicklungskosten um einen Faktor 10 oder mehr“, schreibt der netzwertig-Blogger.

Auch die Distribution und Installation sei erheblich einfacher geworden. Während früher Enterprise Software praktisch immer lokal auf eigens angeschafften Servern installiert werden musste, reiche heute für Software as a Service-Kunden (SaaS) ein Webbrowser und eine anständige Internetverbindung. Der Gewinn an Geschwindigkeit und Kosteneffizienz sei kaum auszudrücken. Dank Diensten wie Amazon EC2 brauche der Anbieter dabei nicht mal unbedingt eine eigene Hosting-Infrastruktur, sondern kann Serverkapazität recht billig mieten. „Aus den Fehlern der Enterprise-Software-Ära haben die heutigen Softwareanbieter gelernt, und oft sind die Internet-basierten Tools zwar flexibel, aber nicht so extrem verbiegbar wie die traditionelle Software. Auch die Kunden wissen nämlich inzwischen, dass man oft besser einen internen Prozess etwas anpasst, statt ein Softwareprodukt mit hohen Kosten hinzubiegen. Allerdings sind SaaS-Produkte bisher nur selten in wirklich großen Firmen vollständig unternehmensweit im Einsatz, weshalb sich das noch ändern könnte“, glaubt Göldi.

Beim Software-Anbieter Nuance sieht man das differenzierter: „Die Argumente des Autoren sind richtig und wichtig, gelten jedoch kaum für große Unternehmen. Diese legen immer noch sehr viel Wert auf ausgereifte Lösungen und professionelle Kundenbetreuung“, so die Markterfahrung von Nuance General Manager Michael-Maria Bommer. Investitionen in Enterprise-Software würden sich nach wie vor rechnen, denn man zahle nicht nur das Produkt, sondern Upgrade, Wartung, Erfahrung oder Wissen. „Eigene Server sind auch nicht mehr relevant. Die Alternative sind Hosting-Lösungen: sie sind günstiger als eine Inhouse-Lösung und qualitativ besser als Freeware“, resümiert Bommer.

IT-Auslagerung kein Allheilmittel in der Krise – cioforum: „Wer sein Handwerk beherrscht, braucht externe Dienstleister nicht zu fürchten“

„Insource core, outsource context“, so lautete das Motto der IT-Branche in den vergangenen zehn Jahre. Die Erklärung ist klar: Der Context ist austauschbar. Wer würde heute ein Textverarbeitungsprogramm selbst schreiben oder eine Anwendungssoftware für Enterprise Resource Planning ( ERP). „Wir müssen uns die Frage stellen, aus welchem Grund wir bestimmte Leistungen nicht mehr selbst machen wollen. Und die Gründe sind vielfältig: Sind es die Kosten, die uns ein Service kostet? Oder muss eher formuliert werden: Ist es einem Unternehmen möglich, alle notwendigen Services optimiert und effizient durchzuführen“, fragt sich Andreas Rebetizky, Sprecher des cioforums in München.

Das Betreiben eines Servers sei „commodity“ – hier komme es auf Effizienz an, auf Kosten pro Server. Der Betrieb eines Geschäftsprozesses, dessen Optimierung, Gestaltung, Re-Engineering – das könne „Core“ sein, also zum Kern gehören: „Ein Logistik-Unternehmen tut gut daran, eigene Experten für die Themen rund um das Supply Chain Management zu haben. Ein Fertigungsunternehmen sollte Kenntnisse in Fertigungsprozessen, Variantenkonfigurationen und Materiallogistik haben. Das ist ihr Core-Business. Wir erleben eine Transformation dessen, was als ‚Core‘ bezeichnet wird. IT gehört für viele Unternehmen dazu. Ohne IT werden keine neuen Produkte entworfen. Die Produktion ist optimiert mit Hilfe von Produktionsplanungs- und Steuerungssystemen (PPS), der Vertrieb hat mit CRM eine 360 Grad-Sicht auf seine Kunden. IT ist in vielen prozessbezogenen Aufgabenstellungen nicht nur ein ‚Muss‘, sondern eine überlebenskritische Komponente geworden“, so die Erfahrung von Rebetzky, CIO des Balinger Technologieanbieters Bizerba.

Es sei zu kurz gegriffen, wenn Analysten den Outsourcing-Markt als Gewinner der Wirtschaftskrise ausrufen. „Viele CIOs sind skeptisch – sie rechnen eher mit einer Stärkung der internen Ressourcen. Klar ist nur: Projekte mit schnellem Sparpotenzial haben dieses Jahr Priorität. Anwender sollten hier auch ihre Lieferanten in die Pflicht nehmen“, berichtet die Computer Zeitung. „Selten lässt sich ein Problem dadurch lösen, dass man es per Outsourcing an Dritte vergibt. Wir sollten besser Wege finden, die internen Strukturen zu verändern und die Effizienz zu erhöhen“, bestätigt Rebetzky.

Die IT im Untenehmen müsse sich emanzipieren. Der CIO habe die Aufgabe und Verantwortung, sinnvolle Schritte zum Outsourcing einzuleiten, aber noch mehr die Motivation dafür zu liefern, dass die IT zum Kerngeschäft wesentlich beiträgt. „Dazu muss sich die IT zu einem Businesspartner mit hoher Kompetenz in den zugrundeliegenden Geschäftsprozessen wandeln“, fordert Rebetzky. Wenn das erfolgt sei, werde beispielsweise die Debatte über das Outsourcing eines Servers obsolet. „Diese Commodity ist die Pflichtübung für die IT. Wer sein Handwerk beherrscht, braucht den Wettbewerb mit den externen Dienstleistern nicht zu fürchten. Wer seine Core Business-Aktivitäten auslagert, verliert die Fähigkeit der Transformation. Denn auslagern lassen sich nur die Services, die zu keinem Wettbewerbsvorteil mehr führen“, sagt der Bizerba-Manager. Fatal sei es, nur wegen der Fehlerträchtigkeit der IT an Auslagerung zu denken. Die Software habe eine Komplexität erreicht, dass sie kurz davor steht, ein Eigenleben zu beginnen: Sie tue sonderliche Dinge – unerwartete Ereignisse führen zu unerwarteten Aktionen. Es si doch viel leichter, einen Outsourcing-Partner zur Verantwortung zu ziehen, als den Mitarbeiter und Kollegen. „Damit kannibalisiert man allerdings den Status der IT im Unternehmen“, so die Warnung von cioforum-Vorstand Rebetzky.

Studie: Kollaborieren oder kollabieren? – Organisationen im Netzwerkstress

„Von einem Ameisenhaufen können wir mehr über Organisationsformen und Prozesse lernen als durch Rechenmodelle“, postulierte der Internet-Pionier Kevin Kelly schon vor rund 15 Jahren. Die Wirtschaft ist ein komplexes, dynamisches System: Alle Ereignisse werden permanent durch das Zusammenspiel von Ordnung und Chaos, Gesetz und Zufall, Freiheit und Strukturierung beeinflusst. Rationale Berechnung zukünftiger Ereignisse, letzte Gewissheit für Voraussagen sind nicht möglich – Zukunft ist nicht berechenbar – was man an der Finanzkrise schmerzlich erkennt. Die zukünftige Gestalt von Unternehmen und Großorganisationen sollte nach Auffassung von Kelly daher folgende Eigenschaften haben: verteilt, dezentralisiert, auf Zusammenarbeit bedacht und anpassungsfähig. „Ein sehr großes globales Unternehmen, das ganz die Form eines Netzwerks annehmen würde, kann als ein System von Zellen mit jeweils einem Dutzend Personen angesehen werden, das folgendes umfasst: Kleinfabriken mit einem Dutzend Leuten, eine Zentrale mit einem Stab von zwölf Menschen, Profit Centers, die von acht Personen geleitet werden, und Zuliefererbetriebe, bei denen zehn Menschen arbeiten“, empfiehlt Kelly.

Aber wie organisiert man Netzwerke? „Die Zunahme vernetzter und kooperativer Organisationen, die man unter dem Begriff ‚Team Collaboration’ zusammen fassen kann, stellt Führungskräfte vor neue Herausforderungen“, so Karl-Heinz Land, Chairman der Düsseldorfer Beratungsfirma Mind. Das Unternehmen hat in Zusammenarbeit mit den Agenturen Wort + Welt und Projektkomplex.net die Studie „Kollaborieren oder Kollabieren? Team Collaboration in der Enterprise 2.0“ erstellt. Viele Organisationen würden unter Netzwerkstress leiden: Überforderung der Mitarbeiter, Projektverzögerungen durch „Entscheidungsstaus“ oder technische Pannen. Mangelhafte Soft- oder Hardwarekomponenten können erschwerend hinzukommen: „Die massenhafte Bearbeitung von kollaborativen und kommunikativen Aufgaben hält mittlerweile bis zu 30 Prozent des Managements von der Erledigung der wichtigsten Dinge ab“, Studienautor Sebastian Paulke, Geschäftsführer von Wort + Welt.

In einer Online-Befragung, an der über 150 Managern aus verschiedenen Wirtschaftsbranchen teilnahmen, geht die Studie der Frage nach, ob sich die aktuellen IT-Werkzeuge für die Projektarbeit eignen. Mind-Geschäftsführer Bernhard Steimel sieht seine Einschätzung durch die Umfrage-Ergebnisse bestätigt: „Wissensarbeiter fühlen sich von den ihnen zur Verfügung gestellten Arbeitsmitteln nicht ausreichend unterstützt: Für 84 Prozent der befragten Entscheider aus Großunternehmen und Dienstleistungsbranchen wird der Büroalltag stressiger. Die Erledigung der wichtigsten Aufgaben kommt bei 73 Prozent der Befragten zu kurz. Emails, Meetings und unwichtige Aufgaben sind die wichtigsten ‚Zeit-Killer’“. Klassische Kommunikationsplattformen wie MS Outlook, Excel oder Project eigneten sich nur eingeschränkt als Kollaborationstools.

„Auch Intranets und Wikis unterstützen nicht für alle Befragten optimal das Wissensmanagement im Unternehmen. Dokumenten-Management ist in vielen Unternehmen noch ein Fremdwort, nur jedes vierte Unternehmen setzt es ein“, fasst Steimel die Befragungsergebnisse zusammen. „Echte“ Tools für die Kollaboration wie MS Sharepoint werden nur von 29 Prozent der Befragten genutzt. Aber knapp 90 Prozent geben zu Protokoll, dass solche Tools die Zusammenarbeit verbessern könnte. „Sie sollen durch attraktive, intuitive und leicht zu bedienende Nutzerschnittstellen die Informations-, Kommunikations- und Kooperations- sowie Koordinationsprozesse entschlacken, beschleunigen und wertschöpfender gestalten“, erklärt Medienberater Stefan Simons von Projektkomplex.net. Solche Lösungen sollten das Management unterstützen, jeweils den aktuellen, „synchronen“ Projektstatus zu identifizieren, Aufgaben zu verteilen, ihre Erledigung zu verfolgen und das Geleistete zu dokumentieren.

Die Studienautoren argumentieren, dass Unternehmen zugleich neue Organisationskonzepte einführen sollten, damit die neuen Technologien ihre Wirkung voll entfalten können. Dafür sprechen vier „Megatrends“, die bereits „in voller Blüte“ stehen: Die „Demokratisierung“ der Arbeit, die wachsende Bedeutung der Verbraucher für den Unternehmenserfolg, die zunehmende Beschleunigung der Information, Kommunikation, Kooperation sowie Koordination und die sinkende Bedeutung von Unternehmen und „starren“ Organisationen für die volkswirtschaftliche Wertschöpfung. „Starre Strukturen weichen flexiblen Organisationsformen. Der Unternehmenszweck verändert sich radikal. Schon ab 2010 wird man sich mit den Themen kollektive Unternehmensintelligenz, semantische Technologien, nicht-deterministische, ereignisgetriebene Prozesse und Software basierte Antizipation von Marktentwicklungen befassen müssen“, prognostiziert Land. Das sei der eigentliche Kern der Enterprise 2.0-Philosophie. Um fit für die Zukunft zu sein, müssten Unternehmen offen für Open Source-Systemarchitekturen sein, Kompetenzen im permanenten Change Management erwerben und neue projektorientierte Arbeitsformen entwickeln. „Ohne tiefgreifende Wandlungen der Unternehmensorganisation, seiner Prozesse und seiner Kultur nutzen neue Softwaretools und Anwendungen nichts. Im Gegenteil, sie hemmen nur etablierte Betriebsabläufe und werden für die Mitarbeiter zum Stressfaktor“, bestätigt IT-Experte Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Das werde mit der Studienthese von der „Demokratisierung der Arbeit“ gut beschrieben. „Es betrifft sowohl die Arbeit im Unternehmen als auch die Arbeit mit den Kunden. Team-Kollaboration steht gegen rigide Strukturen. Diese Dissonanz erfahren auch häufig große Weltunternehmen, die einerseits auf global einheitliche Strukturen und Prozesse setzen, andererseits aber ihre Mitarbeiter stärker ermächtigen und emanzipieren wollen. Dieser Gegensatz lässt sich nur aufheben, wenn ein irgendeiner Stelle im Unternehmen eine Trennlinie gezogen wird, zwischen globaler Dominanz und lokaler Verantwortung. Ansonsten besteht die Gefahr, dass Team-Kollaboration und seine Anwendungen zu einem noch höheren internen Kommunikations- und Abstimmungsbedarf führen – und zum Zeitkiller werden“, weiß Sprachdialogexperte Pape.

Das ganze Thema sei in hohem Maße eine Frage der Unternehmenskultur. Baut die Unternehmenskultur auf einem hohen Maß an lokaler Selbständigkeit und Verantwortung auf, sei das kooperative Organisationsmodell schon inhärent vorhanden, und neue Kommunikations- und Informationsaustauschprozesse könnten alte Prozesse und Anwendungen ersetzen. „Klein- und mittelständische Unternehmen haben hier grundsätzliche Vorteile, wenn gleichzeitig eine ‚Unternehmenskultur 2.0’ vorhanden ist“, so das Fazit von Pape.

US-Experte: Computer zwingen uns zu einem Dasein als Aktenknecht

Computer und Computersoftware sind immer noch unausgereift: „Die Betriebssysteme von Microsoft, Linux und in geringerem Maße auch von Apple sind zu kompliziert, schlecht gemacht und nicht intuitiv. Da hat sich in den vergangenen zwanzig Jahren kaum etwas gebessert. Ich beobachte viele hochintelligente Leute, die es gerade noch so knapp schaffen, einen Computer zu bedienen. Viele geben sich selber die Schuld – dabei liegt es an der lausigen Software. Anstatt dass Computer unseren Alltag erleichtern, sind sie eine einzige Quelle des Ärgers“, kritisiert der US-Computerexperte David Gelernter im Interview mit dem Magazin GDI Impuls.

Während die Hardware immer besser wurde, blieb das Grundprinzip der Software – die Benutzeroberfläche – in den 1970er-Jahren stehen: Hierarchisches Filesystem, Icons, Desktop-Interface, die Maus, all das wurde in den späten 1970ern von Xerox und Bell erfunden. Apple brachte es dann 1984 als erstes kommerzielles Produkt auf den Markt. „Seitdem entwickelte sich die Software kaum weiter, obwohl sich unser Nutzerverhalten radikal verändert hat. Anfang der 1980er-Jahre war es ungewöhnlich, einen Computer zu Hause zu haben. Computer wurden von professionellen Usern bedient; das Internet war praktisch nicht existent. Heute ist das Web allgegenwärtig und jedermann nutzt Computer. Die Grafik hat sich extrem verbessert – aber wir arbeiten immer noch mit den gleichen Benutzeroberflächen wie in den 1970er-Jahren“, so Gelernter, der mit seinen Thesen Widerspruch erntet: „Prinzipiell hat Gelernter recht. Betrachten wir aber die Bandbreite der Oberflächen, so bemerken wir Fortschritte. Der Erfolg von Apple basiert hauptsächlich auf der Ergonomie des ‚Desktops’. Auf die Spitze getrieben im iPhone. Also es gibt Fortschritte – und die fangen in der Regel in Nischen an“, sagt Andreas Rebetzky, Sprecher des cioforums.

Nach Meinung von Gelernter sind die Benutzeroberflächen immer noch die Achillesferse und zwingen den Anwender zu einem „Dasein als Aktenknecht“, der seine Zeit damit verplempert, Dateien zu beschriften und einzuordnen. „Das Desktop-Interface wurde nach dem Vorbild des Büroschreibtischs entwickelt: Man sitzt an einem Tisch mit Akten, und es gibt Schubladen und Ordner, in die man sie ablegt“, führt der amerikanische Spezialist für Künstliche Intelligenz aus. So arbeitete man bereits vor 80 Jahren. In den 1970ern sei dieses System dann einfach auf den Computer übertragen. Man verfolge dabei eine nicht mehr zeitgemäße Logik – sie entspreche nicht mehr der Funktion von Computern. „Ein Schreibtisch ist passiv, der Computer ist aktiv – er kann Dokumente selber beschriften, suchen und ordnen. Die Idee, dass wir jedem Dokument einen Namen geben sollen, ist schlicht lachhaft. Wenn Sie drei Hunde haben, ist das sinnvoll. Besitzen Sie aber 10.000 Schafe, ist es Irrsinn“, bemängelt Gelernter. Rebetzky sieht das ähnlich. Damals geizte man noch mit Bits und Bytes – eine Festplatte mit 10 MByte kostete mehrere tausend Euros. „Daher kam die Entwicklung des Dateinamens – das ist eine sehr kanonische Entwicklung. Heute gibt es bereits Systeme, die in Workflows und Timeflows arbeiten. Systeme, die Metadaten zulassen, volltextorientierte Suchmechanismen, die sogar zum Teil auf unscharfen Pattern basieren. Wir müssen das nur nutzen. Und das erfordert Zeit, den die tradierten Anwender werden zunächst erst mal in den bekannten Ordnern suchen“, glaubt Rebetzky, CIO des Technologieherstellers Bizerba.

Gelernter entwickelte eine Software, die Informationen auf völlig neue Art strukturiert. Jedes Dokument will er in einer Zeitachse anordnen – einem „Lifestream“. Informationen werden zeitlich strukturiert statt räumlich in Ordnern. So korrespondiert die Anordnung der Information mit den Ereignissen des Lebens. „Unser erstes Dokument ist die elektronische Geburtsurkunde, und jedes Dokument, das hinzukommt, wird chronologisch bis zur Gegenwart eingeordnet. Dabei spielt es keine Rolle, ob es sich um E-Mails, Fotos, MP3s oder den Entwurf eines Buchkapitels handelt – alles wird einfach in den Lifestream geworfen“, erläutert Gelernter. Dateien müsse man dann mehr mit Namen bezeichnen, da sie sich selbstständig nach Inhalten, Stichworten, Ort und Zeit vernetzen. Ordner werden überflüssig. Der Lifestream erstrecke sich auch in die Zukunft: Man könne ein Dokument an jene Stelle auf der Zeitachse kopieren, an der es wieder auftauchen soll.

Für den IT-Fachmann Rebetzky ist das eine nette Idee, aber zu eindimensional: „Bilden wir dadurch nicht alles auf einer Perlenschnur ab? Ich glaube, wir müssen Informationen aus dem Cyberpool filtern, indem wir sie in einen Kontext stellen. Zum Beispiel können wir den Kontext ‚Globalisierung’ mit dem Kontext ‚Offshore Softwareentwicklung’ kombinieren und damit im Cyberpool suchen. Ich bin der festen Überzeugung, dass Google und Co. genau diesen Weg beschreiten werden. Derzeit ist die Suche immer noch zu unspezifisch“. Gelernter setzt auf Assoziationen. Wer eine Stimme höre, denke an ein Gesicht. „Damit ist eine zeitliche Information verbunden: Wann habe ich die Person das letzte Mal gesehen? Eine Kombination aus assoziativer Vernetzung und zeitlicher Strukturierung ist die natürliche Art, Information in einer Software zu speichern“. Leider könnten die meisten Softwaresysteme nicht assoziativ „denken“, bemängelt Rebetzky: „Darin unterscheiden sich Computer noch von Menschen. Höchstwahrscheinlich werden die assoziativen Fähigkeiten von Softwaresystemen in den nächsten 20 bis 30 Jahren extrem zunehmen, was unsere Interaktionsmöglichkeiten mit dem Cyberspace erheblich beeinflussen wird. Vorhersehen kann das aus meiner Sicht niemand: Selbst Computergrößen wie Bill Gates dachten ja einst, dass 640 kByte für jeden völlig ausreichen. Welch ein Irrtum“, stellt Rebetzky fest.

Gelernter geht in Zukunft von dreidimensionalen Benutzeroberflächen aus. Das Interface ähnele dann mehr einem Videospiel: „Statt auf den Screen werden wir durch ihn auf eine beliebig große virtuelle Welt sehen. Der Bildschirm wird wie eine Art Fenster sein. Wenn Sie Ihren Computer anstellen, öffnet sich eine Cyberlandschaft vor Ihren Augen, in die Sie meilenweit hineinsehen können. Im Vergleich dazu ist die heutige Desktop-Benutzeroberfläche furchtbar limitiert und langweilig: Ein Hintergrund mit Dokumenten. Ich sehe lieber aus dem Fenster auf Bäume, Menschen und Verkehr als auf Akten auf einem Schreibtisch. Mit dem Lifestream erlauben Benutzeroberflächen virtuelle Zeitreisen: Wir fliegen dann durch die Cyberlandschaft in die Zukunft und die Vergangenheit“. 3D sei nicht der Stein der Weisen, kontert Bizerba-CIO Rebetzky. „Die virtuelle Welt des Business bedeutet Meeting, Prioritäten, Projekte in ständigem Wandel. Wenn mir mein Kalender einmal für die Tagesbesprechungen die Referenzen zu den Dokumenten vorlegt, die für die folgenden Meetings sinnvoll sind, dann haben wir einen ersten Fortschritt. Stand heute: Miles away”.

Strategien gegen das Account-Chaos – Software VoxOn bündelt Kommunikationswege im Internet

Die Internet-Revolution bringt nach einem Bericht von Technology Review http://www.heise.de/tr derart viele Kommunikationsmöglichkeiten mit sich, dass man leicht den Überblick verlieren kann. „Die vielen Wege, Freunde und Bekannte online und offline zu erreichen, sind allerdings nicht unbedingt bequem: Jeden einzelnen Dienst nach neuen Botschaften zu durchforsten, ist anstrengend und kostet Zeit. Fast jeder von uns verfügt inzwischen über mehrere Telefonnummern, E-Mail-Adressen und Instant-Messaging-Zugänge (IM), hinzu gesellen sich in letzter Zeit nicht selten diverse Identitäten in sozialen Netzwerken“, schreibt Technology Review. TelCentris, eine Firma aus dem kalifornischen San Diego, möchte das Account-Chaos lichten. Die Software VoxOX http://www.voxox.com solle dafür sorgen, mit den eigenen Kontakten auf verschiedensten Wegen zu kommunizieren.

„Solche ‚Unified Communicator’-Lösungen sind keineswegs eine neue Idee. In den letzten Jahren entwickelten mehrere populäre IM-Netzwerke Software, mit der es möglich war, auch mit Angehörigen anderer Netze zu kommunizieren. Mit der zunehmenden Verwendung von Handys entwickelten sich derweil Systeme, die mehrere Nummern auf eine umleiteten, heute sind etwa Google (‚Grand Central’) oder BT (‚Riddit’) auf dem Markt tätig. Der Ansatz ist insbesondere im geschäftlichen Bereich populär, wo Firmen Werkzeuge schaffen, die diverse Kommunikationswerkzeuge zusammenbringen – IBM beispielsweise IM, Voicemail und Web-Konferenzen in seiner Lösung Lotus Notes. VoxOx setzt diesen Trend fort, offeriert aber eine deutlich längere Liste unterstützter Dienste. Nutzer können E-Mails und IM-Botschaften verschicken, SMS absetzen, Videokonferenzen starten, Telefonate führen, Nachrichten an soziale Netzwerke schicken und Dateien mit anderen austauschen – alles von einem Ort aus und von diversen Serviceanbietern“, so Technology Review.

Eine Vorabversion von VoxOx ist für Mac- und Windows-Rechner kostenlos verfügbar. Nach der Erstellung eines Accounts erhält man eine kostenlose Rufnummer und konfiguriert den Rest des Dienstes, in dem man seine Nutzernamen und Passwörter für unterstützte IM-, E-Mail- und Social Networking-Services an die Anwendung übergibt. VoxOx zieht die Kontakte heraus und erlaubt es dem Nutzer, eine vollständige Liste durchzusehen, um auszuwählen, mit wem und über welche Wege künftig kommuniziert werden soll. Was VoxOx anbietet, ist ein SIP-Telefon-Account und dazu ein Software Client für den PC, um andere Message-Services zu nutzen. „In erster Linie aber ist es ein Service, wie wir ihn von Sipgate und anderen Anbietern von SIP-Telefonie kennen, mit einem benutzerfreundlichen, attraktiven Client für den PC oder Mac. Der Schritt zum SIP-Client ist richtig, aber der Erfolg ist weniger von der Anwendung selbst abhängig, sondern vom Angebot des SIP-Service“, erläutert Internetexperte Sebastian Paulke von der Agentur Wort+Welt http://www.wortundwelt.eu.

Zur Zeit seien das noch Nischenprodukte. Das werde sich ändern, wenn die großen Netzbetreiber SIP-Telefonanschlüsse zusätzlich zum DSL anbieten. „Ob sich aber die eigene Software eines kleinen Anbieters etwa gegen Microsoft durchsetzen wird, ist sehr fraglich. Insofern ist VoxOx noch als ein Produkt einer sehr frühen Marktphase zu betrachten“, vermutet Paulke. Für Geschäftskunden gehöre das Thema Web 2.0 und Social Networks noch lange nicht zu den üblichen Anforderungen an Kommunikationslösungen. „Wir werden in etwa zwei oder drei Jahren hier verstärkte Aktivitäten in innovativen Branchen sehen, die auch den Access zu Communities in die Lösungen für Unified Communications einbeziehen werden“, prognostiziert der Wort+Welt-Chef.

Schlagworte verdichten den Nebel: Kritischer Diskurs zur Cloud Computing-Strategie von Google

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager.

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. Für Google würden sich neue Möglichkeiten ergeben, die Suchfunktionen weiter zu verbessern.  „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. Darüber hinaus werden auch Übersetzungs- und Multi-Modal-Systeme technisch realisierbar werden. Wenn Menschen in einer bestimmten Sprache kommunizieren, könnten sie auf diese Weise automatisch und nahtlos mit Menschen und Informationen in anderen Sprachen interagieren. Die Auswirkungen solcher Systeme werden weit über das Google-System hinausgehen. „Forscher medizinischer und allgemein-wissenschaftlicher Bereiche erhalten so Zugang zu riesigen Datenmengen und können dadurch Analysen und Algorithmen zur Erkennung bestimmter Muster durchführen, die es bisher in dieser Ausprägung noch nicht gegeben hat“, prognostizieren Spector und Och. So könnte beispielsweise das Large Synoptic Survey Telescope (LSST) mehr als 15 Terabyte an neuen Daten pro Tag generieren.

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg  besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.

Die Technologien von Google bieten für den privaten und professionellen Sektor einen erheblichen Nutzen. Und man ist vielleicht geneigt, die Kapazitäten als Cloud zu bezeichnen. Man kennt ja das Gesetz von Metcalfe: Die Nützlichkeit eines Netzwerkes ist proportional zum Quadrat der Anzahl der Benutzer. Seitdem wissen wir, wie sich die bessere Vernetzung auf den Nutzen auswirkt. Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn  Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert der Bizerba-Director Global Informaton Andreas Rebetzky. Sie leide  immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der IT-Experte Rebetzky.