Sind wir immer noch Aktenknechte?

Nach Meinung des US-Computerexperten David Gelernter sind die Benutzeroberflächen immer noch die Achillesferse der Computer und zwingen den Anwender zu einem „Dasein als Aktenknecht“, der seine Zeit damit verplempert, Dateien zu beschriften und einzuordnen. „Das Desktop-Interface wurde nach dem Vorbild des Büroschreibtischs entwickelt: Man sitzt an einem Tisch mit Akten, und es gibt Schubladen und Ordner, in die man sie ablegt“, führt der amerikanische Spezialist für Künstliche Intelligenz aus. So arbeitete man bereits vor 80 Jahren. In den 1970ern sei dieses System dann einfach auf den Computer übertragen worden. Man verfolge dabei eine nicht mehr zeitgemäße Logik – sie entspreche nicht mehr der Funktion von Computern.

„Ein Schreibtisch ist passiv, der Computer ist aktiv – er kann Dokumente selber beschriften, suchen und ordnen. Die Idee, dass wir jedem Dokument einen Namen geben sollen, ist schlicht lachhaft. Wenn Sie drei Hunde haben, ist das sinnvoll. Besitzen Sie aber 10.000 Schafe, ist es Irrsinn“, bemängelt Gelernter. Cioforum-Sprecher Andreas Rebetzky sieht das ähnlich. Damals geizte man noch mit Bits und Bytes – eine Festplatte mit 10 MByte kostete mehrere tausend Euros: „Daher kam die Entwicklung des Dateinamens – das ist eine sehr kanonische Entwicklung. Heute gibt es bereits Systeme, die in Workflows und Timeflows arbeiten. Systeme, die Metadaten zulassen, volltextorientierte Suchmechanismen, die sogar zum Teil auf unscharfen Pattern basieren. Wir müssen das nur nutzen. Und das erfordert Zeit, den die tradierten Anwender werden zunächst erst mal in den bekannten Ordnern suchen“, glaubt Rebetzky, der hauptberuflich als CIO für den Lebensmitteltechnologie-Spezialisten Bizerba tätig ist.Bei Benutzeroberflächen sieht er Fortschritte. Der Erfolg von Apple basiere hauptsächlich auf der Ergonomie des ‚Desktops’. Auf die Spitze getrieben im iPhone.

Gelernter entwickelte eine Software, die Informationen auf völlig neue Art strukturiert. Jedes Dokument will er in einer Zeitachse anordnen – einem „Lifestream“. Informationen werden zeitlich strukturiert statt räumlich in Ordnern. So korrespondiert die Anordnung der Information mit den Ereignissen des Lebens. „Unser erstes Dokument ist die elektronische Geburtsurkunde, und jedes Dokument, das hinzukommt, wird chronologisch bis zur Gegenwart eingeordnet. Dabei spielt es keine Rolle, ob es sich um E-Mails, Fotos, MP3s oder den Entwurf eines Buchkapitels handelt – alles wird einfach in den Lifestream geworfen“, erläutert Gelernter. Dateien müsse man dann mehr mit Namen bezeichnen, da sie sich selbstständig nach Inhalten, Stichworten, Ort und Zeit vernetzen. Ordner werden überflüssig. Der Lifestream erstrecke sich auch in die Zukunft: Man könne ein Dokument an jene Stelle auf der Zeitachse kopieren, an der es wieder auftauchen soll.

Für den IT-Fachmann Rebetzky ist das eine nette Idee, aber zu eindimensional: „Bilden wir dadurch nicht alles auf einer Perlenschnur ab? Ich glaube, wir müssen Informationen aus dem Cyberpool filtern, indem wir sie in einen Kontext stellen. Zum Beispiel können wir den Kontext ‚Globalisierung’ mit dem Kontext ‚Offshore Softwareentwicklung’ kombinieren und damit im Cyberpool suchen. Ich bin der festen Überzeugung, dass Google und Co. genau diesen Weg beschreiten werden. Derzeit ist die Suche immer noch zu unspezifisch“. Gelernter setzt auf Assoziationen. Wer eine Stimme höre, denke an ein Gesicht. „Damit ist eine zeitliche Information verbunden: Wann habe ich die Person das letzte Mal gesehen? Eine Kombination aus assoziativer Vernetzung und zeitlicher Strukturierung ist die natürliche Art, Information in einer Software zu speichern“. Leider könnten die meisten Softwaresysteme nicht assoziativ „denken“, bemängelt Rebetzky: „Darin unterscheiden sich Computer noch von Menschen. Höchstwahrscheinlich werden die assoziativen Fähigkeiten von Softwaresystemen in den nächsten 20 bis 30 Jahren extrem zunehmen, was unsere Interaktionsmöglichkeiten mit dem Cyberspace erheblich beeinflussen wird. Vorhersehen kann das aus meiner Sicht niemand: Selbst Computergrößen wie Bill Gates dachten ja einst, dass 640 kByte für jeden völlig ausreichen. Welch ein Irrtum“, stellt Rebetzky fest.

Gelernter geht in Zukunft von dreidimensionalen Benutzeroberflächen aus. Das Interface ähnele dann mehr einem Videospiel: „Statt auf den Screen werden wir durch ihn auf eine beliebig große virtuelle Welt sehen. Der Bildschirm wird wie eine Art Fenster sein. Wenn Sie Ihren Computer anstellen, öffnet sich eine Cyberlandschaft vor Ihren Augen, in die Sie meilenweit hineinsehen können. Im Vergleich dazu ist die heutige Desktop-Benutzeroberfläche furchtbar limitiert und langweilig: Ein Hintergrund mit Dokumenten. Ich sehe lieber aus dem Fenster auf Bäume, Menschen und Verkehr als auf Akten auf einem Schreibtisch. Mit dem Lifestream erlauben Benutzeroberflächen virtuelle Zeitreisen: Wir fliegen dann durch die Cyberlandschaft in die Zukunft und die Vergangenheit“. 3D sei nicht der Stein der Weisen, kontert Rebetzky. „Die virtuelle Welt des Business bedeutet Meeting, Prioritäten, Projekte in ständigem Wandel. Wenn mir mein Kalender einmal für die Tagesbesprechungen die Referenzen zu den Dokumenten vorlegt, die für die folgenden Meetings sinnvoll sind, dann haben wir einen ersten Fortschritt. Stand heute: Miles away”.

Der Geist in der Maschine: Über digitale Assistenzsysteme

dsc_00031Fast 96 Milliarden Anfragen tippten Internetnutzer allein im Februar in die Suchfelder von Google und Co. Ein Jahr zuvor waren 67 Milliarden. Zu diesem Befund gelangte der Informationsprovider Comscore. Das ständige Senden, Beantworten und Weiterleiten von teilweise völlig belanglosen Informationen wird von Kulturkritikern mittlerweile als semantische Umweltverschmutzung bezeichnet. Etwa 50-mal pro Tag öffnet ein typischer „Informationsarbeiter“ sein E-Mail-Fenster, 77-mal wendet er sich dem Instant-Messaging-Programm für den schnellen Versand von Nachrichten zu, nebenbei werden noch etwa 40 Web-Sites besucht. So hat es die US-Beratungsfirma RescueTime auf Basis von 40.000 Nutzerprofilen in der Berufswelt untersucht.

Herman Maurer, Professor für Informatik an der Technischen Universität Graz, lässt sich von solchen Schreckenszenarien nicht beeindrucken. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.

„Ich habe schon vor vielen Jahren den allgegenwärtigen Computer prognostiziert: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät“, erläutert Maurer. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so Maurer weiter.

Die Cyborg-Visionen von Maurer erscheinen vielleicht utopisch. Einen Evolutionssprung versprechen sich Internetexperten nach einem Bericht der Financial Times Deutschland (FTD) zumindest von Fortschritten in der Entwicklung semantischer Technologien – landläufig auch als Web 3.0 bezeichnet. Plumb agierende Computer sollen verstehen, was für Inhalte sie hin und her verschieben oder gespeichert haben. „Erst dann werden Nutzer auf ihre Fragen tatsächliche Antworten erhalten und nicht nur eine mehr oder weniger passende Aufreihung von Weblinks“, so die FTD. Das Ziel von Google ist eine Suchmaschine, mit der man sich normal unterhalten kann und die dabei aus dem gesamten Wissen der Welt schöpft. Eine ähnliche Zielsetzung verfolgt auch das derzeitig größte deutsche IT-Forschungsprojekt mit dem Namen THESEUS, benannt nach dem attischen Helden und angeblichen Ur-Vater der Demokratie. Für den Dialog zwischen Mensch und Maschine will THESEUS multimodale Benutzeroberflächen entwickeln, die durch Sprache und Gestik bedient werden können. Anfragen könnte man dann intuitiv formulieren und im Dialog mit dem System verfeinern. Ein semantischer Mediator fungiert im Computer als Schnittstelle zwischen der Benutzeroberfläche und den verschiedenen Metadatenquellen. Er wandelt eine gesprochene Anfrage in einen semantisch korrekten Datensatz um, der für eine Suche nötig ist.

Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.

Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“

160px-l-waage5Selbst das Markenzeichen seiner Firma, die allseits aus dem Lebensmitteleinzelhandel bekannten Waagen, haben nur noch wenig mit der von Philipp Matthäus Hahn im 18. Jahrhundert erfundene „Wand-Neigungswaage“ zu tun.

Die neuesten Bizerba-Geschäftswaagen sind die wiegenden und druckenden Endstationen der Computernetze. Die jüngste Generation verlangt nicht einmal mehr einen Tastendruck, sondern kann dank optischer Bildverarbeitung Äpfel und Birnen selbst unterscheiden. Und wenn es gilt, Tomaten mit und ohne Stiel vom Strauch zu unterscheiden, dann fragt so eine Waage eben beim Kunden mit knapper Menüauswahl zurück. Auch die altehrwürdige Wägetechnik fungiert nunmehr als digitaler Einkaufsberater. So zeigt das Kundendisplay den Namen der Verkäuferin, aktuelle Kaufangebote, informiert über Nährwerte, Zusatzstoffe, Herkunft, Allergene, vermittelt Empfehlungen für die korrekte Lagerung der Lebensmittel, macht Rezept- und Menüvorschläge.

Hightech-Waage
Hightech-Waage

Leere VoIP-Versprechen und überforderte „Softwarebubis“

Warum Unternehmer mit der Kommunikation über das Internet Protokoll hadern

VoIP für Mutti?
VoIP für Mutti?
Voice over IP ist ein Dauerbrenner in den Fachmedien für Informationstechnik und Telekommunikation. Von der Realität der Kommunikation in Privathaushalten und der Geschäftswelt erfährt der geneigte Leser wenig. Umfragen, Analysten und Branchenvertreter gehen in ihren VoIP-Prognosen häufig nur von Optionen und Wünschen aus. In Studien werden dann Fragen gestellt „Wird sich VoIP“ in den nächsten fünf Jahren durchsetzen“ oder „Halten Sie VoIP für sinnvoll“. Das sind die berühmten und empirisch höchst unseriösen Fragetechniken nach dem Prinzip „Wollen Sie arm oder reich sein?“. Schaut man sich das nackte Zahlenmaterial der Bundesnetzagentur an, bleibt von dem VoIP-Wortschwall der ITK-Szene nicht mehr viel übrig. Nach dem aktuellen Tätigkeitsbericht der Bundesnetzagentur kann man Ableitungen für 2007 vornehmen. Danach liegt der Anteil der VoIP-Nutzung bei mickrigen 8,6 Prozent. Für das vergangene Jahr schätzt das Wissenschaftliche Institut für Infrastruktur und Kommunikationsdienste (WIK) den Wert auf rund 10 Prozent.

„Für Geschäftskunden, die sehr häufig Nebenstellenanlagen betreiben, deren weitere Wartung durch die Lieferanten zu Ende geht, erwarte ich persönlich eine schnellere Migration zu VoIP als bei den Privatkunden, wenngleich die Nachfrage nach Lösungen für VoIP-Centrex dem Vernehmen der Anbieter nach enttäuschend ist. Hier liegen uns belastbare Zahlen jedoch nicht vor“, so WIK-Senior Consultant Dr. Thomas Plückebaum gegenüber NeueNachricht. Die Übertragung von Sprache, Bild und Daten über das Internet Protokoll ist kein Kinderspiel und mit reinen Modephrasen bewegt sich der Markt keinen Millimeter. Wenn man jeden Tag mit PR-Texten von Firmen bombardiert wird, die eine „nachhaltige und ganzheitliche VoIP-Strategie garantieren, Prozesse optimieren und implementieren, eine Vielzahl von Synergien realisieren und mit leistungsfähigen Tools basierend auf einem Netzwerk von Applikationen für geringere Kosten und einer höheren Effizienz sorgen“, darf man sich über die starre Haltung der Unternehmer gegenüber neuen Kommunikationstechnologien nicht wundern.

Spielzeug für Vati
Spielzeug für Vati
Und wenn man jetzt schon auf jedem sich bietenden Fachkongress vom Trend zur Unified Communications spricht, fehlt den Branchenexperten augenscheinlich eine gehörige Portion Wahrnehmungskompetenz: In neun von zehn Unternehmen dominiert nach wie vor die klassische Festnetz-Telefonie. Das belegt eine aktuelle Umfrage der Experton Group, die fast punktgenau die Erkenntnisse der Bundesnetzagentur wiederspiegelt. Entwickler und Hersteller der Telekom-Branche sowie Anwender müssen noch einen dornenreichen Weg zurücklegen, um VoIP auf breiter Front durchzusetzen. Man benötigt Anbieter mit Sachverstand, fundiertem Praxiswissen und einer exzellenten Expertise in der Telekommunikation. VoIP stellt langjährig eingeübte Telefongewohnheiten in Frage. „Über den Computer zu telefonieren und mit dem Telefon im Web suchen, das muss ein Anwender erst einmal verdauen“, so Dr. Jörg Fischer, Autor des Buches „VoIP-Praxisleitfaden“ (Hanser Verlag).

Ähnlich sieht es Andreas Rebetzky, Sprecher des cioforums in München: „Es ist ein weiter Weg von der Idee zur Umsetzung. Zudem verschieben sich notwendige Investitionen für VoIP durch die angespannte Wirtschaftslage. Die alte Telefonanlage tut es noch ein Jährchen, vielleicht mit ein wenig höheren Reparaturkosten“, sagt Rebetzky. Daher sei VoIP in den Vorstandsetagen erst einmal in die zweite Reihe gerückt. „Man konzentriert sich eher auf Prozessoptimierungen in der Logistik oder Bestellabwicklung. Dennoch: Die Zeit wird wiederkommen und wohl denen, die schon mit gereiften Konzepten in den Startlöchern stehen“, resümiert Rebetzky, CIO des Lebensmitteltechnologie-Spezialisten Bizerba.

Folgt man den Analysen des Beratungshauses Berlecon, hält zwar eine große Mehrheit der Entscheider in deutschen Unternehmen die Integration verschiedener Kommunikationskanäle und deren Einbindung in Geschäftsanwendungen für sinnvoll. Allerdings sind in vielen Unternehmen die notwendigen technischen Voraussetzungen gar nicht vorhanden: „Nur ein geringer Teil verfügt bisher über eine VoIP-Infrastruktur, wie etwa IP PBX oder gemeinsame Netze für Daten und Sprache. Von einer Sättigung ist der deutsche VoIP-Markt demnach noch weit entfernt und für die Anbieter gibt es noch erhebliche ungenutzte Potenziale zu aktivieren“, so Berlecon. „Was nutzen mir die effektvollen Powerpoint-Präsentationen über Unified Communications und die Versprechen einer schöneren Kommunikationswelt im IP-Zeitalter, wenn die Softwarebubis mit meiner alten TK-Anlage nichts anfangen können. Ich schmeiße doch meine gesamte Infrastruktur nicht über Bord“, klagt ein mittelständischer Firmenchef im Gespräch mit NeueNachricht.

Der Deutschland-Chef des ITK-Unternehmens Aastra, Andreas Latzel, kann den Unmut vieler Unternehmer verstehen. „Man sollte nicht das Blaue vom Himmel versprechen oder eierlegende Wollmilchsäue verkaufen. Wer die alte TK-Welt nicht versteht, besitzt keine Kompetenz, um Firmen in die IP-Welt zu transformieren. Der Philosoph Odo Marquard hat die technische Herausforderung treffend formuliert: Zukunft braucht Herkunft. Deswegen scheitern VoIP-Strategien, die den dritten vor dem ersten Schritt machen, wie es zur Zeit in der Software-Branche zu beobachten ist. Es geht um eine sehr komplexe Integrationsaufgabe. Innovation und Kontinuität gehören zusammen“, so das Credo von Latzel. Zunächst müsse man einige Hürde überwinden, um mit VoIP die gleiche Qualität und Sicherheit wie bei der klassischen Telefonie zu bieten.

dsc_0011„Das klingt zunächst trivial, ist es aber nicht. Bei der Integration der Sprachkommunikation in die IT-Infrastruktur sind besondere Dinge zu berücksichtigen, wie etwa die Echtzeitanforderung und hohe Verfügbarkeit. Die klassische Telefonie bietet Leistungsmerkmale, an die sich die Anwender in vielen Jahren gewöhnt haben und so in der IT nicht vorkommen: Vermittlungsarbeitsplätze, verkettete Anrufweiterschaltung, Chefsekretärin-Funktion und ähnliches. Viele reine IP-Lösungen haben heute genau mit diesen Funktionen ihre Schwachstellen. Ob der Anwender hingegen die vielgerühmten neuen Funktionen der Unified Communications immer nutzen kann und möchte, steht auf einem ganz anderen Blatt. Das unterscheidet sich deutlich von Unternehmen zu Unternehmen, hängt von Firmenkultur, Demokratie der Arbeit, Hierarchie- und Entscheidungsmodell, von Branche und dem Arbeitsplatz selbst ab. Stark virtualisierte Unternehmen der Beratungsbranche, die mit wenigen festen Büroarbeitsplätzen und Desk Sharing auskommen, stehen eher klassisch arbeitenden Produktions- und Verwaltungsbetriebe gegenüber, wo das Telefon zum Telefonieren benutzt wird und es wenig bis gar nichts mit der IT zu tun hat“, erläutert Latzel.

Einen Trägheitsmoment bei Geschäftskunden sieht auch Bernhard Steimel von Mind Business Consultants. „Bei bereits getätigten TK-Investitionen sowie Miet- und Wartungsverträgen mit Laufzeiten von bis zu zehn Jahren geht man konservativ vor. Zudem wird die Kommunikation als unternehmenskritische Funktion angesehen und das Misstrauen in die Zuverlässigkeit der VoIP-Technik ist besonders im Mittelstand weit verbreitet. VoIP wird sich sicherlich durchsetzen. Die Frage ist nur, wie schnell“, so Steimel.

Die Netbook-Androiden kommen: Kampf zwischen Microsoft und Google um die Computer-Hoheit geht in eine neue Runde

Norbert Wiener, Mathematiker und "Vater der Kybernetik"In Kinofilmen und Romanen sind sie schon längst Realität: Maschinen, die reden, denken und fühlen wie Menschen, technisch optimierte Zwitterwesen, denen Neuroimplantate übermenschliche Kräfte und Fähigkeiten verleihen oder intelligente, allwissende Computersysteme. Wissenschaftler für Künstliche Intelligenz (KI) sind davon überzeugt, dass es eines Tages tatsächlich Cyborgs und Androiden geben wird – denkende Maschinenwesen. Künstliche Intelligenz soll auch das Google-Betriebssystems Android erlangen, das nach einer Ankündigung von Asus auf Netbooks installiert werden soll. Derzeit werde der Einsatz des bisher auf Handys zugeschnittenen Betriebssystems auf Netbook-Modellen der EeePC-Serie getestet, bestätigte Asus-Europachef Eric Chen der Nachrichtenagentur dpa auf der Cebit in Hannover. Noch sei das Projekt in der Versuchsphase, sagte Chen. Erste Ergebnisse werden laut Chen in ein bis zwei Monaten vorliegen. „Mit Preisen von 200 bis 600 Euro sind die kleinen und leichten Netbooks derzeit das einzige deutlich wachsende Segment im PC-Markt. Die Marktforscher von Gartner prognostizieren für dieses Jahr einen Absatzsprung von 11,7 auf 21 Millionen Geräte. Zugleich werde der PC-Markt insgesamt mit einem Absatzrückgang von 11,9 Prozent auf 257 Millionen Computer den stärksten Einbruch seiner Geschichte erleben“, berichtet Spiegel Online.

Wenn Asus Android-Netbooks auf den Markt bringt, werde das weitreichende Folgen haben: „Da Android auf Linux aufbaut, unterliegt es keinerlei Beschränkungen, was die Hardware angeht. Zudem ist Android bereits bestens auf mobile Kommunikation vorbereitet. Damit würde es sich perfekt für Netbooks mit eingebauter Mobilfunkkarte eignen. Diese neue Kategorie der UMTS-Netbooks ist noch vergleichsweise jung und rennt vor allem bei Mobilfunkanbietern offene Türen ein“, so Spiegel Online.

Ein günstiges und hübsches UMTS-Netbook mit guter Hardwareausstattung, integrierter Mobilfunkkarte und Android-Betriebssystem wäre ein fast sicherer Erfolg – auch für Google: „Nicht ungeschickt, die Stärken von Linux zu nutzen, und die Schwächen durch eine eigene Entwicklung auszumerzen. Was rauskommt, könnte ein Fancy-Mobile-Linux sein, Android eben. Für den Privatkundenmarkt wird dies aus meiner Sicht auch hohe Erfolgschancen haben, vielleicht nicht bei der Kundschaft für Computerspiele, aber bei den ‚allways on’ urbanen Anwendern schon“, prognostiziert Andreas Rebetzky, Sprecher des cioforums in München und CIO des Technologiespezialisten Bizerba. Damit werde der Kampf um die Computer-Hoheit zwischen Microsoft und Google neu und intensiv entfacht.

„Für Unternehmen sehe ich derzeitig keine Auswirkungen. Dort liegen die Kriterien und Messlatten an anderer Stelle: Administrative Einbindung in die Unternehmenssoftware, Verfügbarkeit von Unternehmenssoftware, Aufwandsbewertung für die Systemintegrationen. Dennoch könnte es in der Geschäftswelt auch Nischen geben, beispielsweise bei mobilen Anwendungen, wo bereits heute mit Sonderlösungen gearbeitet wird. Windows Mobile ist ein Betriebssystem, das durch Windows 7 oder Android mittelfristig ersetzt werden könnte. Denn ein E-Book ist eines Tages nichts anderes mehr als ein etwas zu groß geratenes Multifunktionshandy“, resümiert Rebetzy.

Gestalter statt Verwalter: Warum auch ein CIO Managementqualitäten braucht

Andreas Rebetzky, Sprecher des cioforums, fordert ein neues Rollenverständnis der IT-Führungskräfte. „Wir sind heute mehr denn gefordert, die Geschäftsprozesse von der Produktentstehung bis zum Vertrieb und den Services intensiv mitzugestalten“, so Rebetzky. Da könne man sich nicht mehr in irgendeiner Technikecke verstecken. Ein Warnzeichen sei die aktuelle CIO-Umfrage des IT-Beratungshauses Harvey Nash. Danach habe die Bedeutung von IT-Führungskräften in den vergangenen Jahren abgenommen. Das wichtigste Schwerpunktthema, das die Geschäftsführung für die Informationstechnologie vorsieht, ist eher die Steigerung der operativen Effizienz und weniger die Entwicklung neuer Produkte oder die Erschließung neuer Märkte. In 17 Prozent der Unternehmen wird nicht einmal erwartet, dass die IT neue innovative Technologien entwickelt, um den Wettbewerbsvorteil zu verbessern. In 55 Prozent der Unternehmen, die Innovationen erwarten, hat man noch nicht einmal konkrete Ziele gesetzt. 73 Prozent der IT-Führungskräfte sind nach der Harvey Nash-Umfrage der Auffassung, dass der CIO eine größere Rolle im Unternehmen spielen sollte. Um das zu erreichen, müssten CIOs ihre Management- und Kommunikationsqualitäten verbessern.

Der Anteil derjenigen, die ihre Rolle im Unternehmen als erfüllend oder sehr erfüllend empfinden, ist im Vergleich zum Jahr 2006 stetig gefallen – von 84 auf 74 Prozent in diesem Jahr. Zugleich stieg der Anteil derjenigen, die ihre Rolle als nicht sehr erfüllend oder überhaupt nicht erfüllend empfinden, von 17 auf 25 Prozent. Entsprechend hoch fällt die Bereitschaft aus, den Arbeitsplatz zu wechseln. Nur sieben Prozent der Befragten streben keinen Job in einem anderen Unternehmen an. 72 Prozent haben bereits einen Headhunter kontaktiert oder selbständig nach einer neuen Tätigkeit Ausschau gehalten. 63 Prozent der IT-Führungskräfte gehen davon aus, in den nächsten zwei Jahren nicht mehr bei ihrem jetzigen Arbeitgeber zu sein – das sind fünf Prozent mehr als im vergangenen Jahr. „Die Abnahme des Einflusses im Unternehmen steht in direkter Beziehung zum Nachlassen der Berufszufriedenheit und letztendlich zu einem Ansteigen der Wechselbereitschaft“, kommentiert Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf, die Ergebnisse.

Die abnehmende Bedeutung der IT-Abteilungen unter dem strategischen Gesichtspunkt dürfte das Ergebnis vergangener Arbeitsleistungen und nachlassender Wahrnehmung sein. Über ein Viertel der Befragten ist der Meinung, dass die IT-Systeme innerhalb des Unternehmens nicht als Komponente für die Wertsteigerung des Unternehmens betrachtet werden können. Jede zweite IT-Führungskraft ist davon überzeugt, dass die IT kein wirksames Mittel ist, um die Geschäftseinnahmen zu steigern. „IT-Führungskräfte müssen kräftig an ihren Business-Kompetenzen arbeiten. Es ist offensichtlich, dass der ideale IT-Mitarbeiter beides haben muss: technologische und unternehmerische Fähigkeiten“, so die Erfahrung von Nadolski.

„Mit Scheuklappen kann ein CIO seine Position im Unternehmen nicht mehr festigen“, bestätigt Rebetzky. Eine IT-Führungskraft brauche heute Kompetenzen für die kompletten Geschäftsprozesse seiner Firma, um beispielsweise das Engineering von Produktkomponenten in Prozesskostenanalysen zu modellieren. „Ohne dezidiertes Prozesswissen wird ein CIO zum Verwalter degradiert mit wenig rosigen Zukunftsaussichten. Wir sollten in unseren Unternehmen jedoch Gestalter sein“, fordert Rebetzky, Director Global Information der Firma Bizerba.

Das cioforum vertrete die Interessen der IT nicht zum Selbstzweck, sondern indem es die Sachlage differenziert betrachtet und Handlungsempfehlungen veröffentlicht. Sei es, um die Stellung der IT in den Unternehmen zu festigen oder Kosten im Unternehmen einzusparen. „Bizerba als Technologieunternehmen investiert kräftig in neue Produkte und Produktinnovationen. Die IT spielt hierbei eine wachsende Rolle. Es gibt fast keine Projekte mehr ohne IT. Umso mehr wollen wir die Wertsteigerung erhöhen – die Hebel dazu sind vorhanden“, erklärt IT-Interessenvertreter Rebetzky. Ein wichtiges Thema im Verband sei derzeit die Erhöhung der SAP-Wartungspreise: „Wir sehen enorme Belastungen auf die Unternehmen zukommen. Betroffen ist besonders der Mittelstand. Er hat häufig weitaus schlechtere Konditionen. Dadurch wirkt sich die Erhöhung der Wartungskosten negativ für innovative Investitionen aus. Wir werden als Verband den Druck auf SAP erhöhen, damit diese Belastungen gemildert werden“, kündigt Rebetzky an.

Cebit-Debatte über Cloud Computing: Wundermittel oder alter Wein in neuen Schläuchen?

Mehr als jeder zweite Manager und IT-Chef sieht in Cloud Computing eine nützliche Technologie-Option, um die Wirtschaftlichkeit in Unternehmen anzukurbeln. Das ist das Ergebnis einer global durchgeführten Umfrage des Beratungsunternehmens Avanade unter mehr als 500 Wirtschaftsentscheidern in Deutschland und 16 weiteren Ländern.

72 Prozent aller Befragten weltweit und 80 Prozent der Unternehmen in Deutschland vertrauen zur Zeit ihren eigenen Systemen und sehen die Nutzung von Software und Hardware als Internetservice von Drittanbietern noch skeptisch. Grund sind Sicherheitsbedenken und die Angst davor, die Kontrolle über Daten und Systeme zu verlieren. Gleichzeitig jedoch berichtet ein großer Teil der Unternehmen (42 Prozent weltweit, 25 Prozent deutschlandweit), dass ihre aktuellen internen Systeme zu teuer sind.

„Die globale Studie zeigt, dass Unternehmens- und IT-Manager die Vorteile von Cloud Computing bereits verstanden haben – sie wissen, dass die Systeme entscheidende Verbesserungen bedeuten können”, sagt der Avanade-Manager Tyson Hartman. Gleichzeitig blockieren jedoch Sicherheitsbedenken und die Angst vor einem Kontrollverlust über Daten eine weitere Verbreitung im Markt. „Unsere Branche steht nun vor der Herausforderung, mit diesen Bedenken aufzuräumen und handfeste Strategien und Wege aufzuzeigen. Cloud-basierte Services sollen schon heute implementiert und ein langfristiger Plan in die Wege geleitet werden, um einen wirtschaftlichen Nutzen für die Zukunft zu schaffen“, erklärt Hartmann.

Beim Cloud Computing zweifeln viele deutsche Unternehmen jedoch noch, ob es sich um eine zukunftsfähiges Konzept oder nur um einen „Hype“ handelt: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, so Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert Andreas Rebetzky, Sprecher des cioforums.

Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.

Nochmal zu Sascha Lobo: Facebook-Browser könnte soziale Netzwerke umpflügen – Skepsis beim cioforum

Millionen Deutsche sind mittlerweile in sozialen Netzwerken wie XING, Wer-kennt-wen, Facebook oder StudiVZ organisiert, haben ein Profil und präsentieren sich auf irgendeine Art im Web, ob mit Bildern, kurzen Texten, Blog-Beiträgen oder Links, die sie interessant finden. „Es lässt sich kaum leugnen: Wir sind zum Glück nicht mehr Papst, wir sind jetzt Netz. Die Menschen haben begonnen, wichtige Teile ihres gesellschaftlichen Treibens ins Internet zu verlagern. Unterhaltung, Information, Politik, Wirtschaft, Kommunikation, Arbeit, Kultur – in allen Bereichen der Gesellschaft wird das Netz relevanter und nimmt immer mehr Raum und Zeit ein, durchaus auch auf Kosten anderer Medienformen, wie etwa am aktuellen Zeitschriftensterben zu sehen ist“, so Buchautor und Blogger Sascha Lobo. Der interessantest Punkt dieser Entwicklungen ist für ihn der Trend zur halbautomatischen Kommunikation im Netz. Gemeint ist eine Weiterentwicklung der automatisierten Statusmeldung. „Wenn etwa mein Handy alle zehn Minuten die Position an den Server funkt, der dann eine Karte mit meinem Aufenthaltsort veröffentlicht. Wenn ich ein Konzert in meinen Online-Kalender eintrage und der von allein eine Mitteilung an diejenigen Freunde verschickt, die die Band in ihrer last.fm-Playlist haben. Wenn mein Browser merkt, dass zehn meiner Kontakte gerade ebenfalls auf einer bestimmten Website sind und deshalb einen Spontan-Chat eröffnet. Wenn mein XING-Account erkennt, dass ein passender Job irgendwo im Netz ausgeschrieben ist und eine automatisierte Vorab-Bewerbung mit Kurzlebenslauf schickt. Kurz: wenn eine intelligente, justierbare Automatik soziale Kommunikationsfunktionen übernimmt”, schreibt Sascha Lobo im O1Blog der CeBIT. Viele dieser Funktionen seien technisch längst vorhanden. Erforderlich sei noch eine Art Internet-Betriebssystem mit einer leicht verständlichen, grafischen Oberfläche, damit die Nutzer selbst präzise einstellen können, wo was wann wie und an wen halbautomatisch kommuniziert werden soll.

„Am nächsten an ein solches Web-Betriebssystem heran kommt derzeit Facebook. Erst vor einigen Monaten wurde mit Facebook Connect ein großer Schritt in diese Richtung getan – nämlich die Verknüpfung von Facebook mit anderen Seiten, die bewirkt, dass die Aktivitäten auf eben diesen Drittseiten halbautomatisch auf Facebook kommuniziert werden. Der logische nächste Schritt für Facebook wäre hier die Entwicklung eines echten eigenen Browsers, der ganz nebenbei dazu führen würde, dass man die Community überhaupt nicht mehr verlässt”, erläutert Lobo.

Teile des Redesigns würden darauf hindeuten: viele Navigationspunkte wurden in die nicht bewegliche Fußleiste verlagert. Die Redundanz mit der Navigation auf der Fläche sei nicht zufällig – sondern soll den Nutzer daran gewöhnen, Facebook auch dann zu benutzen, wenn auf der Fläche des Screens eine andere Seite dargestellt wird. Mit Cloud Computing würden Betriebssystem und Browser sowieso zusammenwachsen zu einem „Betriebsbrowser“. Die Office-Anwendungen von Google Docs beim Browser Chrome seien dabei richtungsweisend. „Mit einem echten eigenen Facebook-Browser würde die halbautomatische Kommunikation in Form eines umfassenden Lifestreams Realität, weil alles, was wir im Browser erledigen – bei mir wäre das ungefähr alles -, dann Teil unseres Kommunikationsstromes werden könnte“, spekuliert Lobo. „Das Praktische an einem halbautomatischen Kommunikationsstrom ist, dass ich nicht mehr aktiv eingreifen muss, sondern immer mehr reagieren kann – wenn man will. Ein tolles Szenario. Nicht ‘Big Brother is watching you’ sondern ‘Facegoogle is watching, tracking, analysing and predicting you’”, meint Marc-Christopher Schmidt, Geschäftsführer des Reiseportals Triptivity.

Zweifel äußert Andreas Rebetzky, Sprecher des cioforums in München. Die Offenheit werde zwar größer, besonders bei der jüngeren Generation. „Dennoch bleibt der Geschmack des Missbrauchs im Raum stehen. Gerade Facebook, die durch ihre aggressive Vermarktungsstrategie der enthaltenen Informationen von sich reden machen, wird als Frontrunner keine ethischen Skrupel entwickeln. Wenn dieses Unternehmen nun eine Browser entwickeln möchte, so muss und darf nach den Intentionen gefragt werden. Diese liegen in der größeren Kontrolle über die Funktionalität. Wozu ‘Chrome’ von Google? Wir haben schon sehr gute Browser. Und nun eventuell noch ein Browser? Aus meiner Sicht ist dies also mit Vorsicht zu genießen. Vertrauen schafft man sich durch Transparenz in den Zielsetzungen. Ehrlichkeit muss verdient werden. Und in beiden Dimensionen gehört Facebook nicht zu den Leadern“, kritisiert Rebetzky, CIO des Technologiespezialisten Bizerba. Die andere Dimension sei die Entscheidungsdelegation der halbautomatischen Kommunikation. „Überlässt man es dem Browser, automatisch auf Fragen zu antworten, obliegt es zu einem Teil dem Programmierer, die Schwelle der Automation festzulegen. Ich denke, wir sollten die Gefahren dieser Persönlichkeitsentblößung nicht unterschätzen. Finger weg von Spezialbrowsern mit unklaren Zielsetzungen“, rät Rebetzky.

IT-Auslagerung kein Allheilmittel in der Krise – cioforum: „Wer sein Handwerk beherrscht, braucht externe Dienstleister nicht zu fürchten“

„Insource core, outsource context“, so lautete das Motto der IT-Branche in den vergangenen zehn Jahre. Die Erklärung ist klar: Der Context ist austauschbar. Wer würde heute ein Textverarbeitungsprogramm selbst schreiben oder eine Anwendungssoftware für Enterprise Resource Planning ( ERP). „Wir müssen uns die Frage stellen, aus welchem Grund wir bestimmte Leistungen nicht mehr selbst machen wollen. Und die Gründe sind vielfältig: Sind es die Kosten, die uns ein Service kostet? Oder muss eher formuliert werden: Ist es einem Unternehmen möglich, alle notwendigen Services optimiert und effizient durchzuführen“, fragt sich Andreas Rebetizky, Sprecher des cioforums in München.

Das Betreiben eines Servers sei „commodity“ – hier komme es auf Effizienz an, auf Kosten pro Server. Der Betrieb eines Geschäftsprozesses, dessen Optimierung, Gestaltung, Re-Engineering – das könne „Core“ sein, also zum Kern gehören: „Ein Logistik-Unternehmen tut gut daran, eigene Experten für die Themen rund um das Supply Chain Management zu haben. Ein Fertigungsunternehmen sollte Kenntnisse in Fertigungsprozessen, Variantenkonfigurationen und Materiallogistik haben. Das ist ihr Core-Business. Wir erleben eine Transformation dessen, was als ‚Core‘ bezeichnet wird. IT gehört für viele Unternehmen dazu. Ohne IT werden keine neuen Produkte entworfen. Die Produktion ist optimiert mit Hilfe von Produktionsplanungs- und Steuerungssystemen (PPS), der Vertrieb hat mit CRM eine 360 Grad-Sicht auf seine Kunden. IT ist in vielen prozessbezogenen Aufgabenstellungen nicht nur ein ‚Muss‘, sondern eine überlebenskritische Komponente geworden“, so die Erfahrung von Rebetzky, CIO des Balinger Technologieanbieters Bizerba.

Es sei zu kurz gegriffen, wenn Analysten den Outsourcing-Markt als Gewinner der Wirtschaftskrise ausrufen. „Viele CIOs sind skeptisch – sie rechnen eher mit einer Stärkung der internen Ressourcen. Klar ist nur: Projekte mit schnellem Sparpotenzial haben dieses Jahr Priorität. Anwender sollten hier auch ihre Lieferanten in die Pflicht nehmen“, berichtet die Computer Zeitung. „Selten lässt sich ein Problem dadurch lösen, dass man es per Outsourcing an Dritte vergibt. Wir sollten besser Wege finden, die internen Strukturen zu verändern und die Effizienz zu erhöhen“, bestätigt Rebetzky.

Die IT im Untenehmen müsse sich emanzipieren. Der CIO habe die Aufgabe und Verantwortung, sinnvolle Schritte zum Outsourcing einzuleiten, aber noch mehr die Motivation dafür zu liefern, dass die IT zum Kerngeschäft wesentlich beiträgt. „Dazu muss sich die IT zu einem Businesspartner mit hoher Kompetenz in den zugrundeliegenden Geschäftsprozessen wandeln“, fordert Rebetzky. Wenn das erfolgt sei, werde beispielsweise die Debatte über das Outsourcing eines Servers obsolet. „Diese Commodity ist die Pflichtübung für die IT. Wer sein Handwerk beherrscht, braucht den Wettbewerb mit den externen Dienstleistern nicht zu fürchten. Wer seine Core Business-Aktivitäten auslagert, verliert die Fähigkeit der Transformation. Denn auslagern lassen sich nur die Services, die zu keinem Wettbewerbsvorteil mehr führen“, sagt der Bizerba-Manager. Fatal sei es, nur wegen der Fehlerträchtigkeit der IT an Auslagerung zu denken. Die Software habe eine Komplexität erreicht, dass sie kurz davor steht, ein Eigenleben zu beginnen: Sie tue sonderliche Dinge – unerwartete Ereignisse führen zu unerwarteten Aktionen. Es si doch viel leichter, einen Outsourcing-Partner zur Verantwortung zu ziehen, als den Mitarbeiter und Kollegen. „Damit kannibalisiert man allerdings den Status der IT im Unternehmen“, so die Warnung von cioforum-Vorstand Rebetzky.