Cebit-Debatte über Cloud Computing: Wundermittel oder alter Wein in neuen Schläuchen?

Mehr als jeder zweite Manager und IT-Chef sieht in Cloud Computing eine nützliche Technologie-Option, um die Wirtschaftlichkeit in Unternehmen anzukurbeln. Das ist das Ergebnis einer global durchgeführten Umfrage des Beratungsunternehmens Avanade unter mehr als 500 Wirtschaftsentscheidern in Deutschland und 16 weiteren Ländern.

72 Prozent aller Befragten weltweit und 80 Prozent der Unternehmen in Deutschland vertrauen zur Zeit ihren eigenen Systemen und sehen die Nutzung von Software und Hardware als Internetservice von Drittanbietern noch skeptisch. Grund sind Sicherheitsbedenken und die Angst davor, die Kontrolle über Daten und Systeme zu verlieren. Gleichzeitig jedoch berichtet ein großer Teil der Unternehmen (42 Prozent weltweit, 25 Prozent deutschlandweit), dass ihre aktuellen internen Systeme zu teuer sind.

„Die globale Studie zeigt, dass Unternehmens- und IT-Manager die Vorteile von Cloud Computing bereits verstanden haben – sie wissen, dass die Systeme entscheidende Verbesserungen bedeuten können”, sagt der Avanade-Manager Tyson Hartman. Gleichzeitig blockieren jedoch Sicherheitsbedenken und die Angst vor einem Kontrollverlust über Daten eine weitere Verbreitung im Markt. „Unsere Branche steht nun vor der Herausforderung, mit diesen Bedenken aufzuräumen und handfeste Strategien und Wege aufzuzeigen. Cloud-basierte Services sollen schon heute implementiert und ein langfristiger Plan in die Wege geleitet werden, um einen wirtschaftlichen Nutzen für die Zukunft zu schaffen“, erklärt Hartmann.

Beim Cloud Computing zweifeln viele deutsche Unternehmen jedoch noch, ob es sich um eine zukunftsfähiges Konzept oder nur um einen „Hype“ handelt: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, so Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert Andreas Rebetzky, Sprecher des cioforums.

Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.

Nochmal zu Sascha Lobo: Facebook-Browser könnte soziale Netzwerke umpflügen – Skepsis beim cioforum

Millionen Deutsche sind mittlerweile in sozialen Netzwerken wie XING, Wer-kennt-wen, Facebook oder StudiVZ organisiert, haben ein Profil und präsentieren sich auf irgendeine Art im Web, ob mit Bildern, kurzen Texten, Blog-Beiträgen oder Links, die sie interessant finden. „Es lässt sich kaum leugnen: Wir sind zum Glück nicht mehr Papst, wir sind jetzt Netz. Die Menschen haben begonnen, wichtige Teile ihres gesellschaftlichen Treibens ins Internet zu verlagern. Unterhaltung, Information, Politik, Wirtschaft, Kommunikation, Arbeit, Kultur – in allen Bereichen der Gesellschaft wird das Netz relevanter und nimmt immer mehr Raum und Zeit ein, durchaus auch auf Kosten anderer Medienformen, wie etwa am aktuellen Zeitschriftensterben zu sehen ist“, so Buchautor und Blogger Sascha Lobo. Der interessantest Punkt dieser Entwicklungen ist für ihn der Trend zur halbautomatischen Kommunikation im Netz. Gemeint ist eine Weiterentwicklung der automatisierten Statusmeldung. „Wenn etwa mein Handy alle zehn Minuten die Position an den Server funkt, der dann eine Karte mit meinem Aufenthaltsort veröffentlicht. Wenn ich ein Konzert in meinen Online-Kalender eintrage und der von allein eine Mitteilung an diejenigen Freunde verschickt, die die Band in ihrer last.fm-Playlist haben. Wenn mein Browser merkt, dass zehn meiner Kontakte gerade ebenfalls auf einer bestimmten Website sind und deshalb einen Spontan-Chat eröffnet. Wenn mein XING-Account erkennt, dass ein passender Job irgendwo im Netz ausgeschrieben ist und eine automatisierte Vorab-Bewerbung mit Kurzlebenslauf schickt. Kurz: wenn eine intelligente, justierbare Automatik soziale Kommunikationsfunktionen übernimmt”, schreibt Sascha Lobo im O1Blog der CeBIT. Viele dieser Funktionen seien technisch längst vorhanden. Erforderlich sei noch eine Art Internet-Betriebssystem mit einer leicht verständlichen, grafischen Oberfläche, damit die Nutzer selbst präzise einstellen können, wo was wann wie und an wen halbautomatisch kommuniziert werden soll.

„Am nächsten an ein solches Web-Betriebssystem heran kommt derzeit Facebook. Erst vor einigen Monaten wurde mit Facebook Connect ein großer Schritt in diese Richtung getan – nämlich die Verknüpfung von Facebook mit anderen Seiten, die bewirkt, dass die Aktivitäten auf eben diesen Drittseiten halbautomatisch auf Facebook kommuniziert werden. Der logische nächste Schritt für Facebook wäre hier die Entwicklung eines echten eigenen Browsers, der ganz nebenbei dazu führen würde, dass man die Community überhaupt nicht mehr verlässt”, erläutert Lobo.

Teile des Redesigns würden darauf hindeuten: viele Navigationspunkte wurden in die nicht bewegliche Fußleiste verlagert. Die Redundanz mit der Navigation auf der Fläche sei nicht zufällig – sondern soll den Nutzer daran gewöhnen, Facebook auch dann zu benutzen, wenn auf der Fläche des Screens eine andere Seite dargestellt wird. Mit Cloud Computing würden Betriebssystem und Browser sowieso zusammenwachsen zu einem „Betriebsbrowser“. Die Office-Anwendungen von Google Docs beim Browser Chrome seien dabei richtungsweisend. „Mit einem echten eigenen Facebook-Browser würde die halbautomatische Kommunikation in Form eines umfassenden Lifestreams Realität, weil alles, was wir im Browser erledigen – bei mir wäre das ungefähr alles -, dann Teil unseres Kommunikationsstromes werden könnte“, spekuliert Lobo. „Das Praktische an einem halbautomatischen Kommunikationsstrom ist, dass ich nicht mehr aktiv eingreifen muss, sondern immer mehr reagieren kann – wenn man will. Ein tolles Szenario. Nicht ‘Big Brother is watching you’ sondern ‘Facegoogle is watching, tracking, analysing and predicting you’”, meint Marc-Christopher Schmidt, Geschäftsführer des Reiseportals Triptivity.

Zweifel äußert Andreas Rebetzky, Sprecher des cioforums in München. Die Offenheit werde zwar größer, besonders bei der jüngeren Generation. „Dennoch bleibt der Geschmack des Missbrauchs im Raum stehen. Gerade Facebook, die durch ihre aggressive Vermarktungsstrategie der enthaltenen Informationen von sich reden machen, wird als Frontrunner keine ethischen Skrupel entwickeln. Wenn dieses Unternehmen nun eine Browser entwickeln möchte, so muss und darf nach den Intentionen gefragt werden. Diese liegen in der größeren Kontrolle über die Funktionalität. Wozu ‘Chrome’ von Google? Wir haben schon sehr gute Browser. Und nun eventuell noch ein Browser? Aus meiner Sicht ist dies also mit Vorsicht zu genießen. Vertrauen schafft man sich durch Transparenz in den Zielsetzungen. Ehrlichkeit muss verdient werden. Und in beiden Dimensionen gehört Facebook nicht zu den Leadern“, kritisiert Rebetzky, CIO des Technologiespezialisten Bizerba. Die andere Dimension sei die Entscheidungsdelegation der halbautomatischen Kommunikation. „Überlässt man es dem Browser, automatisch auf Fragen zu antworten, obliegt es zu einem Teil dem Programmierer, die Schwelle der Automation festzulegen. Ich denke, wir sollten die Gefahren dieser Persönlichkeitsentblößung nicht unterschätzen. Finger weg von Spezialbrowsern mit unklaren Zielsetzungen“, rät Rebetzky.

IT-Auslagerung kein Allheilmittel in der Krise – cioforum: „Wer sein Handwerk beherrscht, braucht externe Dienstleister nicht zu fürchten“

„Insource core, outsource context“, so lautete das Motto der IT-Branche in den vergangenen zehn Jahre. Die Erklärung ist klar: Der Context ist austauschbar. Wer würde heute ein Textverarbeitungsprogramm selbst schreiben oder eine Anwendungssoftware für Enterprise Resource Planning ( ERP). „Wir müssen uns die Frage stellen, aus welchem Grund wir bestimmte Leistungen nicht mehr selbst machen wollen. Und die Gründe sind vielfältig: Sind es die Kosten, die uns ein Service kostet? Oder muss eher formuliert werden: Ist es einem Unternehmen möglich, alle notwendigen Services optimiert und effizient durchzuführen“, fragt sich Andreas Rebetizky, Sprecher des cioforums in München.

Das Betreiben eines Servers sei „commodity“ – hier komme es auf Effizienz an, auf Kosten pro Server. Der Betrieb eines Geschäftsprozesses, dessen Optimierung, Gestaltung, Re-Engineering – das könne „Core“ sein, also zum Kern gehören: „Ein Logistik-Unternehmen tut gut daran, eigene Experten für die Themen rund um das Supply Chain Management zu haben. Ein Fertigungsunternehmen sollte Kenntnisse in Fertigungsprozessen, Variantenkonfigurationen und Materiallogistik haben. Das ist ihr Core-Business. Wir erleben eine Transformation dessen, was als ‚Core‘ bezeichnet wird. IT gehört für viele Unternehmen dazu. Ohne IT werden keine neuen Produkte entworfen. Die Produktion ist optimiert mit Hilfe von Produktionsplanungs- und Steuerungssystemen (PPS), der Vertrieb hat mit CRM eine 360 Grad-Sicht auf seine Kunden. IT ist in vielen prozessbezogenen Aufgabenstellungen nicht nur ein ‚Muss‘, sondern eine überlebenskritische Komponente geworden“, so die Erfahrung von Rebetzky, CIO des Balinger Technologieanbieters Bizerba.

Es sei zu kurz gegriffen, wenn Analysten den Outsourcing-Markt als Gewinner der Wirtschaftskrise ausrufen. „Viele CIOs sind skeptisch – sie rechnen eher mit einer Stärkung der internen Ressourcen. Klar ist nur: Projekte mit schnellem Sparpotenzial haben dieses Jahr Priorität. Anwender sollten hier auch ihre Lieferanten in die Pflicht nehmen“, berichtet die Computer Zeitung. „Selten lässt sich ein Problem dadurch lösen, dass man es per Outsourcing an Dritte vergibt. Wir sollten besser Wege finden, die internen Strukturen zu verändern und die Effizienz zu erhöhen“, bestätigt Rebetzky.

Die IT im Untenehmen müsse sich emanzipieren. Der CIO habe die Aufgabe und Verantwortung, sinnvolle Schritte zum Outsourcing einzuleiten, aber noch mehr die Motivation dafür zu liefern, dass die IT zum Kerngeschäft wesentlich beiträgt. „Dazu muss sich die IT zu einem Businesspartner mit hoher Kompetenz in den zugrundeliegenden Geschäftsprozessen wandeln“, fordert Rebetzky. Wenn das erfolgt sei, werde beispielsweise die Debatte über das Outsourcing eines Servers obsolet. „Diese Commodity ist die Pflichtübung für die IT. Wer sein Handwerk beherrscht, braucht den Wettbewerb mit den externen Dienstleistern nicht zu fürchten. Wer seine Core Business-Aktivitäten auslagert, verliert die Fähigkeit der Transformation. Denn auslagern lassen sich nur die Services, die zu keinem Wettbewerbsvorteil mehr führen“, sagt der Bizerba-Manager. Fatal sei es, nur wegen der Fehlerträchtigkeit der IT an Auslagerung zu denken. Die Software habe eine Komplexität erreicht, dass sie kurz davor steht, ein Eigenleben zu beginnen: Sie tue sonderliche Dinge – unerwartete Ereignisse führen zu unerwarteten Aktionen. Es si doch viel leichter, einen Outsourcing-Partner zur Verantwortung zu ziehen, als den Mitarbeiter und Kollegen. „Damit kannibalisiert man allerdings den Status der IT im Unternehmen“, so die Warnung von cioforum-Vorstand Rebetzky.