Cloud Computing: Big Switch oder doch nur Bullshit? Unternehmenswelt sollte gelassen auf Computerwolken reagieren

Provokateur vom Dienst
Provokateur vom Dienst
Cloud Computing zählt seit rund zweit Jahren zu den inflationär benutzten Schlagworten der IT-Branche. Die Bedeutung des Modethemas ist profan und alles andere als neu: Es beinhaltet die Möglichkeit, Speicherkapazitäten, Rechenleistung und Software über das Internet zu mieten. Der Nutzer zahlt je nach Funktionsumfang, Nutzungsdauer und Anzahl der Nutzer. Unternehmen können damit ihre IT-Kapazitäten ins Netz verlagern. Sie sparen Geld bei Investitionen für die IT-Infrastruktur und können flexibler agieren: Für den Vielschreiber und Dauerredner Nicholas Carr reicht das unspektakuläre Szenario aus, um das Zeitalter des „Big Switch“ auszurufen. Er prognostiziert, dass große Serverfarmen die heute gängigen PCs ablösen werden, so dass so gut wie keine Information und Rechenleistung mehr offline verfügbar sein werde. Alteingesessene Platzhirsche wie Dell oder Microsoft dürften dadurch in Bedrängnis geraten. Billige Rechenleistung verändere auch die Gesellschaft nachhaltig, wie die billig gewordene Elektrizität vor hundert Jahren. Die Simplifizierung des Phänomens Cloud Computing stößt bei Experten auf Widerspruch.

Bullshit„Carr braucht die Übertreibung, um seinen Marktwert als Redner zu bewahren. Seine Argumente pendeln allerdings häufig zwischen Big Switch und Bullshit. So war das schon bei seinem ersten medialen Scoop als er den Niedergang der IT-Abteilungen beschworen hat“, kritisiert IT-Fachmann Udo Nadolski vom Beratungshaus Harvey Nash. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, kontert IT-Fachmann Andreas Rebetzky, Sprecher des cioforums. Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.

„Die Argumentation von Carr und anderen Cloud Computing-Gurus unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Carr modifiziert diesen erfolglosen Ansatz nur insofern, als dass er den bloßen Applikationsbezug durch den Bezug einer Serviceleistung ersetzt“, erläutert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.

Seine Vergleiche mit der Stromversorgung aus Mega-Kraftwerken seien auf das Internet nicht anwendbar. „Im Web gibt es eine gegenläufige Tendenz. Wir erleben eine Dezentralisierung auf professioneller und organisatorischer Ebene“, so Latzel. So könne es nicht verwundern, dass in der Unternehmenswelt weniger Aufgeregtheit herrsche als in den Reden von Carr. Nach einer IDC-Studie hat erst ein Viertel der rund 800 befragten Unternehmen in Deutschland über die Nutzung der Datenwolke nachgedacht.
Ein Grund für die geringe Auseinandersetzung mit dem Thema ist die unklare Definition. „Viele Anwender können sich unter dem Begriff überhaupt nichts vorstellen“, sagt Matthias Kraus, IDC-Analyst und Verfasser der Studie. Eine allgemein gültige Definition von Cloud Computing gibt es nicht, verschiedene Anbieter legen den Begriff unterschiedlich aus.

Zudem müsse für viele Unternehmen noch die Frage beantwortet werden, für welche Funktionen oder Aufgaben Cloud Computing tatsächlich eine interessante Alternative zu lokal installierten Systemen sein kann. „Nur für Speicherplatz oder Rechenleistung ist Cloud Computing sicherlich kein interessantes Angebot, zumindest nicht für die Versorgung von Unternehmensstandorten“, meint Aastra-Deutschlandchef Latzel. Bei Funktionen für mobile Benutzer sehe das anders aus: „Wer vom PDA, Smartphone oder Sub-Notebook an wechselnden Orten arbeitet, für den machen Hosting-Dienste unter Umständen Sinn“, sagt Latzel. Das würde die Speicherung und Verarbeitung von Daten betreffen, aber noch mehr Kommunikationsdienste und Kollaborationstools: Unified Communiciations, Video Conferencing, Präsenzverwaltung und standortübergreifendes Arbeiten an einer Datei oder an einem Projekt – hier bieten sich nach Ansicht von Latzel gehostete Lösungen als mögliche Alternative an. „Es fehlen bislang Angebote und standardisierte Angebote für die Betriebssysteme der Unternehmen. Und die Anbieter müssen bekannt und vertrauenswürdig sein, sonst werden Firmen sich kaum darauf einlassen, vitale ITK-Aufgaben als virtuelle Dienste von externen Anbietern zu beziehen, zumal auch beim Nutzer installierte moderne Kommunikationssysteme heute den Leistungsumfang bieten, der ohne Komfortverlust mobiles Arbeiten ermöglicht.“, resümiert Latzel.

Cebit-Debatte über Cloud Computing: Wundermittel oder alter Wein in neuen Schläuchen?

Mehr als jeder zweite Manager und IT-Chef sieht in Cloud Computing eine nützliche Technologie-Option, um die Wirtschaftlichkeit in Unternehmen anzukurbeln. Das ist das Ergebnis einer global durchgeführten Umfrage des Beratungsunternehmens Avanade unter mehr als 500 Wirtschaftsentscheidern in Deutschland und 16 weiteren Ländern.

72 Prozent aller Befragten weltweit und 80 Prozent der Unternehmen in Deutschland vertrauen zur Zeit ihren eigenen Systemen und sehen die Nutzung von Software und Hardware als Internetservice von Drittanbietern noch skeptisch. Grund sind Sicherheitsbedenken und die Angst davor, die Kontrolle über Daten und Systeme zu verlieren. Gleichzeitig jedoch berichtet ein großer Teil der Unternehmen (42 Prozent weltweit, 25 Prozent deutschlandweit), dass ihre aktuellen internen Systeme zu teuer sind.

„Die globale Studie zeigt, dass Unternehmens- und IT-Manager die Vorteile von Cloud Computing bereits verstanden haben – sie wissen, dass die Systeme entscheidende Verbesserungen bedeuten können”, sagt der Avanade-Manager Tyson Hartman. Gleichzeitig blockieren jedoch Sicherheitsbedenken und die Angst vor einem Kontrollverlust über Daten eine weitere Verbreitung im Markt. „Unsere Branche steht nun vor der Herausforderung, mit diesen Bedenken aufzuräumen und handfeste Strategien und Wege aufzuzeigen. Cloud-basierte Services sollen schon heute implementiert und ein langfristiger Plan in die Wege geleitet werden, um einen wirtschaftlichen Nutzen für die Zukunft zu schaffen“, erklärt Hartmann.

Beim Cloud Computing zweifeln viele deutsche Unternehmen jedoch noch, ob es sich um eine zukunftsfähiges Konzept oder nur um einen „Hype“ handelt: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, so Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert Andreas Rebetzky, Sprecher des cioforums.

Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.