Freiheit für die Unternehmenssoftware – netzwertiges Plädoyer für neue Geschäftsmodelle

Das Internet ändert nach Auffassung von Andreas Göldi, Autor des Blogs netzwertig die meisten Variablen des Softwaregeschäfts fundamental: „Das fängt schon beim Entwicklungsprozess an: Wer früher ein hochstehendes Softwareprodukt schreiben wollte, brauchte erst einmal teure Lizenzen für Datenbanken, Entwicklungstools, Komponentenbibliotheken und dergleichen. Das Produkt wurde in komplexen Hochsprachen wie C++ oder Java geschrieben, und dafür braucht man sehr hochqualifizierte Programmierer“, so Göldi.

Die Basissoftware für internet-basierte Produkte sei heute dank Open Source faktisch gratis. „Für Produkte mit der heutigen Leistungsfähigkeit von Linux, Eclipse oder MySQL hätte man vor zehn Jahren noch fünf- oder sechsstellige Beträge ausgegeben. Nützliche Libraries mit umfassender Funktionalität gibt es ebenfalls wie Sand am Meer. Und dazu kann man dank immer leistungsfähigerer Hardware größere Projekte auch in interpretierten, schlanken Sprachen wie Python, Ruby oder gar PHP schreiben, ohne einen wesentlichen Qualitätsverlust zu erleiden. Grob geschätzt fallen damit die Entwicklungskosten um einen Faktor 10 oder mehr“, schreibt der netzwertig-Blogger.

Auch die Distribution und Installation sei erheblich einfacher geworden. Während früher Enterprise Software praktisch immer lokal auf eigens angeschafften Servern installiert werden musste, reiche heute für Software as a Service-Kunden (SaaS) ein Webbrowser und eine anständige Internetverbindung. Der Gewinn an Geschwindigkeit und Kosteneffizienz sei kaum auszudrücken. Dank Diensten wie Amazon EC2 brauche der Anbieter dabei nicht mal unbedingt eine eigene Hosting-Infrastruktur, sondern kann Serverkapazität recht billig mieten. „Aus den Fehlern der Enterprise-Software-Ära haben die heutigen Softwareanbieter gelernt, und oft sind die Internet-basierten Tools zwar flexibel, aber nicht so extrem verbiegbar wie die traditionelle Software. Auch die Kunden wissen nämlich inzwischen, dass man oft besser einen internen Prozess etwas anpasst, statt ein Softwareprodukt mit hohen Kosten hinzubiegen. Allerdings sind SaaS-Produkte bisher nur selten in wirklich großen Firmen vollständig unternehmensweit im Einsatz, weshalb sich das noch ändern könnte“, glaubt Göldi.

Beim Software-Anbieter Nuance sieht man das differenzierter: „Die Argumente des Autoren sind richtig und wichtig, gelten jedoch kaum für große Unternehmen. Diese legen immer noch sehr viel Wert auf ausgereifte Lösungen und professionelle Kundenbetreuung“, so die Markterfahrung von Nuance General Manager Michael-Maria Bommer. Investitionen in Enterprise-Software würden sich nach wie vor rechnen, denn man zahle nicht nur das Produkt, sondern Upgrade, Wartung, Erfahrung oder Wissen. „Eigene Server sind auch nicht mehr relevant. Die Alternative sind Hosting-Lösungen: sie sind günstiger als eine Inhouse-Lösung und qualitativ besser als Freeware“, resümiert Bommer.

Schlagworte verdichten den Nebel: Kritischer Diskurs zur Cloud Computing-Strategie von Google

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager.

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. Für Google würden sich neue Möglichkeiten ergeben, die Suchfunktionen weiter zu verbessern.  „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. Darüber hinaus werden auch Übersetzungs- und Multi-Modal-Systeme technisch realisierbar werden. Wenn Menschen in einer bestimmten Sprache kommunizieren, könnten sie auf diese Weise automatisch und nahtlos mit Menschen und Informationen in anderen Sprachen interagieren. Die Auswirkungen solcher Systeme werden weit über das Google-System hinausgehen. „Forscher medizinischer und allgemein-wissenschaftlicher Bereiche erhalten so Zugang zu riesigen Datenmengen und können dadurch Analysen und Algorithmen zur Erkennung bestimmter Muster durchführen, die es bisher in dieser Ausprägung noch nicht gegeben hat“, prognostizieren Spector und Och. So könnte beispielsweise das Large Synoptic Survey Telescope (LSST) mehr als 15 Terabyte an neuen Daten pro Tag generieren.

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg  besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.

Die Technologien von Google bieten für den privaten und professionellen Sektor einen erheblichen Nutzen. Und man ist vielleicht geneigt, die Kapazitäten als Cloud zu bezeichnen. Man kennt ja das Gesetz von Metcalfe: Die Nützlichkeit eines Netzwerkes ist proportional zum Quadrat der Anzahl der Benutzer. Seitdem wissen wir, wie sich die bessere Vernetzung auf den Nutzen auswirkt. Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn  Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert der Bizerba-Director Global Informaton Andreas Rebetzky. Sie leide  immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der IT-Experte Rebetzky.

 

Visionäre Computer-Wolken von Google und die Warnung vor neuen Monopolen

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager. 

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. 

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. 

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus. 

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman http://www.stallman.org offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. 

Umfrage: Call Center auf den Kunden 2.0 nicht vorbereitet – Open Source-Prinzip statt abgeschottete Bunker

Das so genannte Multichannel-Management ist nach einer Studie der Unternehmensberatung Strateco http://www.strateco.de im Auftrag von Aspect Software http://www.aspect.com in vielen Call Center-Unternehmen in Deutschland noch nicht Realität. Zwar verfügen 48 Prozent der 148 befragten Firmen über die notwendigen technischen Grundlagen. Richtig genutzt werden die Unified Communications Server aber nur von wenigen. Der Umfrage zufolge, die auf der Call Center World http://www.callcenterworld.de in Berlin präsentiert wurde, nutzen 26 Prozent der Call Center nur einen Kanal, 20 Prozent zwei und 31 Prozent maximal drei Kanäle. Dabei handelt es sich um Telefon, E-Mail und Fax. Rund ein Fünftel hat auch die Bearbeitung der Briefpost integriert. Die Einbindung von Internet-Chat, SMS und MMS ist bislang die große Ausnahme. Die Studienergebnisse korrespondieren mit einer Leserbefragung des Fachblattes „Computerwoche“.  Die Integration der kompletten Kontaktkanäle zum Kunden zähle nicht zum Standard. Besonders eklatant sei die Situation bei TK-Anbietern. „Sie pflegen für Festnetz-, Mobilfunk- und DSL-Kunden unterschiedliche Datenstämme. Die Agenten müssen am Bildschirm zwischen den Datenbanken hin- und herschalten. Auch vielen Versandhändlern und Energieversorgern ist die Datenintegration ein Fremdwort“, so die Computerwoche.  Der Zustand sei oft den Machtkämpfen in den Unternehmen geschuldet. Marketing, Fachabteilungen und Kundenbetreuung pflegen ihre eigenen Fürstentümer und geizen mit gegenseitiger Unterstützung. Den schwächsten Stand habe in dem ganzen Spiel der Kundenservice, weil er keinen Umsatz erziele, sondern nur als Kostenfaktor die Bilanz belastet. „Das Problem liegt vor allen Dingen bei externen Dienstleistern, die sich mit Preisdrückereien am Markt durchsetzen, häufig ein Inseldasein führen und technologisch nicht auf dem neuesten Stand sind. Wer so den Kundenservice aufzieht, antiquierte Systeme betreibt, keine Vorqualifizierung der Anrufe leistet und kein personalisiertes Kundenmanagement organisieren kann, hat auf dem Markt nichts mehr zu suchen“, kommentiert Udo Nadolski, Geschäftsführer des IT-Beratungshauses Harvey Nash http://www.harveynash.com/de, die Marktlage.  

Der Kunde 2.0 ist nach Analysen von Aspect selbstbewusst, gut informiert und stellt hohe Anforderungen an den Service: „Er möchte weder lange in kostenpflichtigen Warteschleifen verweilen, noch mehrfach zu verschiedenen Ansprechpartnern verbunden werden, wo er trotz mehrfacher Schilderung seines Anliegens keine Problemlösung erfährt. Ebenso wenig möchte er Opfer der unzähligen und meist unqualifizierten Kaltanruf-Attacken werden“. Der Kunde wolle zudem frei entscheiden, über welchen Kanal er mit einem Unternehmen Kontakt aufnimmt. Wichtig sei ausschließlich, dass sein Anliegen schnell und gut bedient werde.

 „Ein gut ausbalanciertes Angebot an telefonischen und web-basierten Selbstbedienungs-Services gibt dem Kunden die Wahlfreiheit, die er gerne möchte“, so die Aspect-Studie. „Gerade die heranwachsende Internet-Generation wird sich technische Restriktionen nicht mehr bieten lassen“, bestätigt Lupo Pape, Geschäftsführer von SemanticEdge http://www.semanticedge.de in Berlin. Das Open Source-Prinzip der IT-Welt werde auch auf Marketing und Kundenservice durchschlagen. Neugründungen wie Get Satisfaction http://getsatisfaction.com würden das unter Beweis stellen, berichtet das Wirtschaftsmagazin brand eins http://www.brandeins.de. Auf dem freien Forum könne jeder nachlesen, was Kunden über eine vermasselte Bestellung zu sagen haben – das Wissen werde nicht mehr beim Call Center gebunkert. Ein Unternehmen müsse bereit sein, die Kontrolle aufzugeben und den Dingen freien Lauf zu lassen.  

„Ein begeisterter Kunde ist der beste und glaubwürdigste Promotor. Da helfen auch keine Werbesprüche ‚Bei uns steht der Kunde im Mittelpunkt’ weiter. In den Social Networks verfängt die Einweg-Propaganda der Unternehmen nicht mehr. Da zählen nur noch Taten, nachprüfbare Qualität und Glaubwürdigkeit“, resümiert Voice Days-Sprecher http://www.voicedays.de Bernhard Steimel gegenüber dem Onlinemagazin NeueNachricht http://www.ne-na.de.