Cebit-Debatte über Cloud Computing: Wundermittel oder alter Wein in neuen Schläuchen?

Mehr als jeder zweite Manager und IT-Chef sieht in Cloud Computing eine nützliche Technologie-Option, um die Wirtschaftlichkeit in Unternehmen anzukurbeln. Das ist das Ergebnis einer global durchgeführten Umfrage des Beratungsunternehmens Avanade unter mehr als 500 Wirtschaftsentscheidern in Deutschland und 16 weiteren Ländern.

72 Prozent aller Befragten weltweit und 80 Prozent der Unternehmen in Deutschland vertrauen zur Zeit ihren eigenen Systemen und sehen die Nutzung von Software und Hardware als Internetservice von Drittanbietern noch skeptisch. Grund sind Sicherheitsbedenken und die Angst davor, die Kontrolle über Daten und Systeme zu verlieren. Gleichzeitig jedoch berichtet ein großer Teil der Unternehmen (42 Prozent weltweit, 25 Prozent deutschlandweit), dass ihre aktuellen internen Systeme zu teuer sind.

„Die globale Studie zeigt, dass Unternehmens- und IT-Manager die Vorteile von Cloud Computing bereits verstanden haben – sie wissen, dass die Systeme entscheidende Verbesserungen bedeuten können”, sagt der Avanade-Manager Tyson Hartman. Gleichzeitig blockieren jedoch Sicherheitsbedenken und die Angst vor einem Kontrollverlust über Daten eine weitere Verbreitung im Markt. „Unsere Branche steht nun vor der Herausforderung, mit diesen Bedenken aufzuräumen und handfeste Strategien und Wege aufzuzeigen. Cloud-basierte Services sollen schon heute implementiert und ein langfristiger Plan in die Wege geleitet werden, um einen wirtschaftlichen Nutzen für die Zukunft zu schaffen“, erklärt Hartmann.

Beim Cloud Computing zweifeln viele deutsche Unternehmen jedoch noch, ob es sich um eine zukunftsfähiges Konzept oder nur um einen „Hype“ handelt: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, so Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert Andreas Rebetzky, Sprecher des cioforums.

Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.

Cloud Computing und die neuen Maßstäbe der Google-Ära: Suchmaschinen-Gigant wird die Telekommunikation und Informationstechnik umpflügen

Im Softwaremarkt zählt „Cloud Computing“ zu den beherrschenden Trendthemen. Was in den Neunzigern als Application Service Providing (ASP) startete, wird heute unter dem Begriff „Cloud“ für online genutzte Software aufgewärmt. Dem Nutzer, egal ob Geschäftskunde oder Konsument, reicht zum Arbeiten ein leistungsschwächerer Computer mit Internetanschluss. Sämtliche Softwareanwendungen, Prozessorleistung und sogar der Speicherplatz wird von einem Dienstleister über das Netz angeboten, gepflegt und gesichert: „Alle IT-Größen reagieren auf die steigende Nachfrage und tüfteln bereits an tragfähigen Konzepten. Der Hardware-Riese Hewlett-Packard leistete sich einen 13 Milliarden Dollar schweren Einstieg beim IT-Infrastrukturspezialisten EDS, und Microsofts Chef Steve Ballmer will sein weltweites Rechnernetz für den Aufbau einer ‚Windows Cloud’ nutzen“, berichtet das Fachmagazin absatzwirtschaft in der Februar-Ausgabe. Amazon mit „Elastic Compute Cloud“ und Google mit „Google Apps“ seien etwas weiter. Der Amazon-Service biete Rechenleistung für webbasierte Applikationen, während der Suchmaschinenriese gleich ganze Anwendungen wie Textverarbeitung, Präsentations-Software und Tabellenkalkulation, E-Mail-Dienste und Sicherheitslösungen ins Netz gestellt hat.

„Experten sind sich sicher, dass die ‚Software aus der Wolke’ den Einsatz von IT-Anwendungen in den nächsten Jahren verändern wird. Verbrauchs- oder nutzerbasierte Geschäftsmodelle der Netzprogramme gefährden die Zukunft der etablierten Lizenzmodelle im Softwaregeschäft. Denn wo der Nutzer die Software nicht mehr auf seinem Rechner betreiben muss, bezahlt er beim Kauf der Hardware auch nicht mehr für deren Nutzung mit“, so die absatzwirtschaft. Bei der heutigen Konstellation würde der Branchenprimus Microsoft am meisten profitieren. Da die Bereitstellung von Applikationen und Dienstleistungen über das Internet erfolge, müssten auch die Geschäftsmodelle bereits auf dem Desktop der Kunden beginnen. „Mit seinem Explorer ist Microsoft bei mehr als 80 Prozent aller privaten Nutzer erste Wahl und hätte Macht über die Lesezeichen im Browser, so genannte Bookmarks. Wer dort per Schnellauswahl hinterlegt ist, der macht recht sicher das Geschäft“, führt die Düsseldorfer Marketing-Zeitschrift weiter aus. Wie stark sich Cloud Computing am Ende durchsetzen wird, ist noch offen. „Es gibt komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer. Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source-Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen“, erklärt Aastra-Deutschlandchef Andreas Latzel.

Cloud Computing sei nach Ansicht des cioforums-Sprecher Andreas Rebetky nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. „Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, so die Bedenken von Rebetzky, CIO des Technologiespezialisten Bizerba. Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der Bizerba-Manager.

Eine Abrundung des Produktportfolios erwartet die absatzwirtschaft bei Google. Der Internet-Gigant habe seinen eigenen Browser namens „Chrome“ entwickelt und eroberte schon mit der Beta-Version innerhalb weniger Wochen beachtliche Marktanteile. Wenn Chrome weit genug verbreitet sei, könnte sich Google neben Suchmaschinendiensten als Anbieter von On-Demand-Lösungen positionieren. Capgemini, General Electric und L’Oreal sollen schon Kunden von Google Apps sein. „Google denkt noch weiter: Weil der Explorer so fest in das alles beherrschende Betriebssystem Windows eingebunden ist, machen sich Konsumenten nicht viel Mühe und nutzen ihn mit. Google will auch das ändern und kommt mit ‚Spon’, einem heute schon Mythen umrankten Betriebssystem. Es kombiniert Cloud Computing mit der Rechenpower des heimischen Rechners und soll anspruchsvolle Anwendungen im Netz erst möglich machen“, prognostiziert die absatzwirtschaft.

Eine noch stärkere Google-Expansion prognostiziert die Zeitschrift PC-Praxis. Im Sonderheft „Google Praxis“, das ich Euch übrigens dringend ans Herz lege, spekuliert sie über eine Ausweitung des Suchmaschinen-Anbieter in die Telekommunikation: „Ähnlich wie mit Google Mail, das als zentrales Bindeglied zwischen allen weiteren Google-Diensten fungiert, könnte die Übernahme von GrandCentrals auf eine kommende Ausrichtung auf den Kommunikationsmarkt hindeuten. GrandCentrals verspricht dem Kunden eine einzige Telefonnummer für das gesamte Leben – für alle Telefone“. Forciert werden auch die Übernahmen im Mobilfunk. So solle der Spracherkennungsspezialist und frühere Microsoft-Manager Kai-Fu Lee die Bestrebungen vorantreiben, die Suchmaschine auch über das Mobiltelefon per Sprache befragen zu können. SemanticEdge-Chef Lupo Pape rechnet schon seit langem damit, dass Google mit der Sprachsteuerung aus dem Handy eine Steuerzentrale für Online-Inhalte machen will und damit eine komfortable Mensch-Maschine-Schnittstelle für den Massenmarkt etabliert. „Sprachdialogsysteme sind ein wichtiger Baustein für das Super-Handy der Zukunft“, so Pape

Waren vor ein paar Jahrzehnten noch Hardwarehersteller wie IBM und Sun die beherrschenden Größen im Markt, wurden sie in den Neunzigern vom Softwarehersteller Microsoft überholt. Jetzt werde Google den Takt vorgeben und eine neue Ära begründen, da sind sich die Autoren von absatzwirtschaft und PC-Praxis einig: „Google beherrscht den Markt von Suchmaschinen, Geosoftware und sozialen Netzen immer stärker“, sagt Professor Max Mühlhäuser von der TU Darmstadt: „Nun kommt der Angriff auf die Browser, und der Angriff auf Betriebssysteme und Standardsoftware sowie Mobiltelefone ist schon ,eingebaut’.“ Google sei das Unternehmen, welches nicht nur neue Maßstäbe in der Weiterentwicklung seines Produktportfolios und in dessen Vermarktung setze, sondern dank von Suchmaschinen wie Youtube und Co. auch am stärksten von den aktuellen Werbetrends profitiere.

Schlagworte verdichten den Nebel: Kritischer Diskurs zur Cloud Computing-Strategie von Google

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager.

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. Für Google würden sich neue Möglichkeiten ergeben, die Suchfunktionen weiter zu verbessern.  „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. Darüber hinaus werden auch Übersetzungs- und Multi-Modal-Systeme technisch realisierbar werden. Wenn Menschen in einer bestimmten Sprache kommunizieren, könnten sie auf diese Weise automatisch und nahtlos mit Menschen und Informationen in anderen Sprachen interagieren. Die Auswirkungen solcher Systeme werden weit über das Google-System hinausgehen. „Forscher medizinischer und allgemein-wissenschaftlicher Bereiche erhalten so Zugang zu riesigen Datenmengen und können dadurch Analysen und Algorithmen zur Erkennung bestimmter Muster durchführen, die es bisher in dieser Ausprägung noch nicht gegeben hat“, prognostizieren Spector und Och. So könnte beispielsweise das Large Synoptic Survey Telescope (LSST) mehr als 15 Terabyte an neuen Daten pro Tag generieren.

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg  besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.

Die Technologien von Google bieten für den privaten und professionellen Sektor einen erheblichen Nutzen. Und man ist vielleicht geneigt, die Kapazitäten als Cloud zu bezeichnen. Man kennt ja das Gesetz von Metcalfe: Die Nützlichkeit eines Netzwerkes ist proportional zum Quadrat der Anzahl der Benutzer. Seitdem wissen wir, wie sich die bessere Vernetzung auf den Nutzen auswirkt. Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn  Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert der Bizerba-Director Global Informaton Andreas Rebetzky. Sie leide  immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der IT-Experte Rebetzky.

 

Visionäre Computer-Wolken von Google und die Warnung vor neuen Monopolen

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager. 

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. 

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. 

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus. 

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman http://www.stallman.org offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.