Open Service statt Sumpf der Formulare: Was E-Plus und Co. noch lernen müssen

Open Government, Open Innovation, Open Development, Open Data oder Open Source – an vielen Stellen des Internets sprießen Projekte wie Pilze aus dem Boden, um die Weisheit der Vielen im Netz für Bürgerbeteiligungen, für die Entwicklung und Verbesserung von Produkten oder Software zu nutzen. Offenheit und Transparenz sind dafür die Grundvoraussetzung – mit Abschottung und Maueraktiken kommt man nicht weit. Anders sieht es in der Dienstleistungsbranche aus. Von Open Service ist wenig zu hören. Im Kundendialog liebt man die Eins-zu-Eins-Beziehung per Telefon, Fax, Brief oder E-Mail. Siehe meine heutige Service Insiders-Kolumne unter dem Titel „Die Internet-Ausdrucker im Kundenservice – Marmortafel-Bürokratie statt One-Hand-Prinzip“.

Selbst wenn Serviceärgernisse von Kunden aus der analogen Welt ins Social Web gehoben werden, gibt es verzweifelte Versuche bei den Anbietern, die verärgerten Verbraucher so schnell wie möglich wieder in das Tal den abgeschlossenen Kosmos der klassischen Kommunikation abzudrängen. Ein netzöffentlicher Dialog könnte die Schwächen im Management zu schnell offenlegen. Etwa bei meiner Disputation mit E-Plus (Base) über das Bürokraten-Regime des Mobilfunkunternehmens bei einer profanen Umstellung des Kontos zur Überweisung der Smartphone-Gebühren. Ausführlich beschrieben in dem Blogpost „E-Plus (Base) und die Koberer der Reeperbahn: Wie man Herrengedecke vertickt und Vertragsänderungen blockiert“.

Auch nach diesem Hilferuf im Social Web ist der Fall immer noch nicht gelöst. Anfang Juli hatten wir alle Unterlagen für unsere beiden nun volljährigen Kinder per Post an E-Plus geschickt. In beiden Fällen behauptete der Kundenservice, die Kopien seien nicht lesbar.

Eine Dame des Social Media-Teams gab letztlich zu, dass der Fehler bei Base liegt:

„Ohne nun genaue Details zu diesem Vorgang zu kennen gehe ich davon aus, dass weniger die Qualität der Kopien, als eher ein Fehler bei der Digitalisierung des Schriftverkehrs in unserem Hause Auslöser für diese hin und her sein könnte. Die gesamte eingegangene Post wird sofort gescannt und digital an die Serviceabteilung übermittelt. Ist die Qualität aufgrund eines technischen Defektes schlecht, kann es tatsächlich zu Lesbarkeitsproblemen kommen“, so die Facebook-Antwort von Base-Mitarbeiterin Kathrin.

Nachdem ich mich weigerte, von einem Mitarbeiter telefonisch kontaktiert zu werden, schrieb die Social Media-Dame, dass die Kollegen die Vertragsänderung nun durchführen würden, da es dem Kundenservice gelungen sei, die Kopien lesbar aufzubereiten. Eine Bestätigung werde allen Beteiligten schriftlich zugehen. Dieses Posting wurde am 20. September auf Facebook veröffentlicht. Ein entsprechender Brief ist bis heute (Stand: 24. September) nicht eingetrudelt.

Aber davon abgesehen, ist die Base-Mitteilung auf Facebook ein klarer Beweis für die unwahre Behauptung, dass der Fehler beim Kunden lag. Auf meine Frage, warum denn der Base-Kundenservice offensichtlich gelogen habe, dass die Kopien von mir in unleserlicher Form eingereicht wurden, blieb ebenfalls unbeantwortet.

Vernetzte Services oder das One-Hand-Prinzip sind bei Firmen wie E-Plus noch nicht so richtig auf der Tagesordnung. Belegt wird dies durch eine Studie der Hochschule Bremerhaven zur Nutzung von Social Media im Kundenservice:

„Nur etwa 19 Prozent der Führungskräfte können sich vorstellen, dass sich ihre Mitarbeiter frei im Web 2.0 bewegen und den Kundensupport für das Unternehmen übernehmen“, schreibt der Smart Service-Blogger Bernhard Steimel.

„Kurzfristige Ziele für Umsatz, Absatz und Gewinn rangieren fast immer vor den Zielen im Kundenservice. Und bislang blieben diese Verhaltensweisen ja auch weitestgehend unentdeckt. Das zieht sich durch alle Branchen. Erst wenn ein Kunde sich massiv beschwert – oder noch besser- das Unternehmen ans Licht der Öffentlichkeit zerrt und diese Praktiken aufdeckt, gibt es eine Chance, dass Prozesse und Konditionen verändert werden. Früher mussten Kunden warten bis sich Frontal21 oder Tageszeitungen der Sache annahmen. Über Social Media geht das viel einfacher ohne Umweg über die Massenmedien“, so die Erfahrung von Harald Henn vom Beratungshaus Marketing Resultant.

Ähnlich sieht das bwlzweinull-Blogger Matthias Schwenk: „Neue Verträge gibt es schnell und unbürokratisch, alles Weitere ist dann ein zäher Sumpf.“

Nach Meinung von Social Media-Coach Daniel Backhaus gibt es häufig einen Bruch zwischen dem Engagement in sozialen Netzwerken und der realen Organisation von Unternehmen. Wenn Kunden etwa aus einer Web 2.0-Umgebung auf die normale Homepage eines Anbieters stoßen, erleben sie Angebote, die von Formularen geprägt sind. Ein öffentlicher Dialog finde auf den Firmen-Websites nicht statt. Nachzulesen in dem von Andreas H. Bock herausgegebenen Buch „Kundenservice im Social Web“ (O’Reilly-Verlag).

Das virtuelle Blogger Camp wird sich am Freitag mit dieser Thematik beschäftigen: „Vernetzte Kommunikation mit Künstlicher Intelligenz“ – von E-Plus kann gerne ein Vertreter im Hangout On Air mitmachen. Das gilt natürlich auch generell für alle Interessierte.

Einen richtig guten Kundenservice leistet übrigens die Katholische Kirche……auch nicht: „Im Auftrag des Bischofs muss ich Sie mit diesem Brief auch über die Wertung des Kirchenaustritts unterrichten und über die Folgen, die dieser in kirchenrechtlicher Hinsicht nach sich zieht“, heißt es da nach einem Bericht der Süddeutschen Zeitung – und es folgt die Liste der Drohungen: kein Sakramentenempfang und kein Patenamt, die Hochzeit in Weiß nur noch mit Sondergenehmigung, und die kirchliche Beerdigung droht auch auszufallen.

Wie radikal wird der Medienwandel? Meinung gefragt!

Mich erreichte gerade ein Kommentar eines Lesers, den ich hier zur Diskussion stellen möchte. Er bezieht sich auf den Beitrag: Das Schlafen der Verlage: Warum die E-Commerce-Modelle der Massenmedien Schrott sind.

Hier nun die provokative Wortmeldung eines Konzernmanagers:

Viele Dinge werden sich weit radikaler entwickeln als die meisten es sich das vorstellen können (oder wollen).

Wie bei der Software? Habe ich schon mal in rund 22 Jahren für Software bezahlt? Ja, aber nur in Ausnahmefällen. Ansonsten waren das immer nur Kopien. Und seit ein paar Jahren kommt mir gar nicht mehr in den Sinn, Software zu kaufen. Warum? Weil es alles, was ich brauche, unter der GPL (oder anderen Open Source Deklarationen) gibt. Und immer das neueste! Mark Shuttleworth liefert 2 x pro Jahr eine neue Ubuntu-Distribution und jeden Tag schauen meine Rechner im Internet nach einzelnen Updates und aktualisieren sich.

Werden Leser im Internet in großem Stil elektronische Abos für Newspapers kaufen? Nein, werden sie nicht, weil es alles irgendwo als Quelle gibt, und die meisten Redaktionen sowieso nur Zeug kopieren und kompilieren. Hier hat das Medium – das World Wide Web – einfach den Sinn der Nachrichtenaggregation durch Zeitungen redundant gemacht. Die große Zeit der Zeitungen kam mit der Telegraphie auf, also schnellen Kommunikationsmitteln, die aber nicht für jeden zur Verfügung standen. Beim Fernsehen ist es ähnlich: die drahtlose Übertragung von Bildern weltweit war vor dem Web und Youtube auch ein technisch anspruchsvolles Spezialthema für Fernsehsender. Heute habe ich häufig schneller ein Video in Youtube als den entsprechenden Beitrag im TV.

Bücher elektronisch als eBooks? Überspitzt formuliert sind Bücher ein Relikt aus der Zeit vor Multimedia. Meine Frau würde sagen: Bücher lesen ist archaisch, das ist nicht modern.

Musikindustrie: ja, die lebte von den physikalischen Tonträgern. Vor der Schallplatte gab es keine Musikindustrie, gibt es danach eine? Wenn mir DSDS einfällt, dann ist das Musik-Geschäft eigentlich nicht die Musik, sondern das Entertainment, das so tut, als ginge es um Musik als Kulturgut. Der Star ist auch nicht mehr der ferne, unerreichbare Star für die Ewigkeit (wie meinetwegen Elvis Presley), sondern jemand wie Du und ich, der für fünf Minuten Star sein kann, weil er bereit ist, sich vor aller Welt in jeder Hinsicht zu prostitutieren.

Offensichtlich halten viele bewährte Geschäftsmodelle dem technologischen Wandel nicht stand. Sie sind auch nicht transferierbar. Ebensowenig wie Nixdorf, IBM, oder DEC den Weg in die offene, standardisierte Intel-Architektur der PCs und Server geschafft haben, die Geschäftsmodelle waren schon beim Wandel innerhalb der IT-Branche nicht übertragbar. Soweit der Gastkommentar.

Starker Tobak – aber wohl nicht ganz von der Hand zu weisen. Für eBooks sehe ich allerdings Chancen bei Fach- und Sachbüchern. Da spare ich mir dann das Herumschleppen von dicken Schinken. Bei schöngeistiger Literatur möchte ich auf gedruckte Seiten nicht verzichten. Dazu bin ich ein zu großer Büchernarr. Eure Meinung zu diesem Kommentar interessiert mich.

Kommunikation und Kollaboration mit Google Wave: Suchmaschinen-Gigant hat wieder den „richtigen Riecher“

Kollaps durch Netzwerkstress
Kollaps durch Netzwerkstress
Die Studie „Kollaborieren oder kollabieren“ von Mind Business Consultants geht der Frage nach, ob sich die aktuellen IT-Werkzeuge für die Projektarbeit eignen. „Wissensarbeiter fühlen sich von den ihnen zur Verfügung gestellten Arbeitsmitteln nicht ausreichend unterstützt: Für 84 Prozent der befragten Entscheider aus Großunternehmen und Dienstleistungsbranchen wird der Büroalltag stressiger. Die Erledigung der wichtigsten Aufgaben kommt bei 73 Prozent der Befragten zu kurz. Emails, Meetings und unwichtige Aufgaben sind die wichtigsten ‚Zeit-Killer’“, stellt Mind-Geschäftsführer Bernhard Steimel fest. Klassische Kommunikationsplattformen wie MS Outlook, Excel oder Project eigneten sich nur eingeschränkt als Kollaborationstools.

„Auch Intranets und Wikis unterstützen nicht für alle Befragten optimal das Wissensmanagement im Unternehmen. Dokumenten-Management ist in vielen Unternehmen noch ein Fremdwort, nur jedes vierte Unternehmen setzt es ein“, fasst Steimel die Befragungsergebnisse zusammen. „Echte“ Tools für die Kollaboration wie MS Sharepoint werden nur von 29 Prozent der Befragten genutzt. Aber knapp 90 Prozent geben zu Protokoll, dass solche Tools die Zusammenarbeit verbessern könnte. „Sie sollen durch attraktive, intuitive und leicht zu bedienende Nutzerschnittstellen die Informations-, Kommunikations- und Kooperations- sowie Koordinationsprozesse entschlacken, beschleunigen und wertschöpfender gestalten“, erklärt Medienberater Stefan Simons von Projektkomplex.net.

Sergey Brin erläutert Google Wave
Sergey Brin erläutert Google Wave
Solche Lösungen sollten das Management unterstützen, jeweils den aktuellen, „synchronen“ Projektstatus zu identifizieren, Aufgaben zu verteilen, ihre Erledigung zu verfolgen und das Geleistete zu dokumentieren. „Auf diesem sehr wichtigen Feld hat Google mit dem neuen Tool Wave wohl wieder den richtigen Riecher. Es ist eine Art Konversation, zu der bestimmte Leute eingeladen werden und über Instant Messaging in Echtzeit kommunizieren, gleichzeitig aber ebenfalls in Echtzeit Dokumente wie Links, Bilder, Videos, Text, Maps, Feeds und viele andere Dinge hinzufügen und bearbeiten können: Kommunikation und Kollaboration in Perfektion“, so Udo Nadolski, Geschäftsführer des Düsseldorfer IT-Beratungshauses Harvey Nash.

Google sieht Wave als dreigeteiltes Produkt, dessen Code als Open Source etabliert wird. Sehr klug von Google. Der Client ist als typische Webapplikation konzipiert, um auf möglichst vielen unterschiedlichen Endgeräten inklusive iPhone und Android-Handy laufen zu können. Eine Plattform mit einer Vielzahl von offenen Entwicklerschnittstellen, um die Funktionalität stark ausweiten und anpassen zu können. Ein Protokoll, das für die Basisfunktionalität wie etwa die Steuerung der Echtzeitkollaboration zuständig ist. „Damit hat Google einen gewaltigen Schritt nach vorne gemacht und untermauert seinen Ruf als Innovationsmaschine. Und so wird klar, wenn Experten fragen, was nach Google kommen wird: Natürlich Google“, resümiert Harvey Nash-Chef Nadolski.

Rechenzentrum 3.0: Nachbetrachtung zur Cisco-Strategie

In den vergangenen Tagen ist ja schon kräftig darüber berichtet worden, wie Cisco den Markt für Rechenzentrumstechnik aufmischen will. Der weltgrößte Netzwerkausrüster verkauft ab Mitte des Jahres ein Paket aus Computer, Netztechnik und Software, mit dem Unternehmen ihre zentralen IT-Abteilungen besser auslasten und die Betriebskosten senken könnten.

IT-Dienste sollen laut Cisco-Chef John Chambers stärker ins Web verlegt werden – also folgt er dem Cloud Computing-Trend. Rechenzentrum 3.0 oder Unified Computer System (USC), unter welchem Begriff auch immer, Cisco greift massiv in den Servermarkt ein. Bestand die Produktstrategie bisher darin, Aplliances mit Software-Lizenzen und eigenen Betriebssystemen für Netzwerk-Funktionen anzubieten, geht Cisco nun in das Geschäft der Intel-basierten Server, der von IBM und HP dominiert wird, gefolgt von Dell und Sun. Cisco setzt dabei auf eine Kombination von Blade-Architektur (Cisco UCS-B), Virtualisierung (Integration von VMware vCenter), Hochgeschwindigkeitsvernetzung (10 Gigabit LANs), und das Service Management von BMC. Hinzu kommen Kooperatioonen mit Microsoft, Redhat, Novell und weiteren Softwareherstellern.

Die Servermarktstrategie von Cisco wird die Bereitschaft von anderen Schwergewichten wie IBM und HP beeinträchtigen, mit Cisco zu kooperieren. Da HP mit ProCurve bei Netzwerkkomponenten auf Expansion setzt, ist es abzusehen, dass Cisco und HP immer stärker gegnerische Positionen im Markt einnehmen. Bei der Partnersuche führte Procurve Schlüsselattribute wie Offenheit und Standardtreue ins Feld – ein Konzept, das offenbar ankam: F5 wird sich in dieser Allianz um die Beschleunigung von Enterprise-Applikationen kümmern, Riverbed um WAN-Optimierung, Aastra um Voice-over-IP und Ekahau um WLAN-basierte Ortung in Echtzeit.

Bei Großkunden ist es eher unwahrscheinlich, dass Anwender eine komplette Single-Vendor-Strategie auf Basis von Cisco wählen. Was Cisco mit UCS anbietet, ist eher eine Vor-Integration verschiedener Komponenten, die natürlich ein System-Integrator für seinen Kunden vornehmen kann. IBM und HP, die ja im Unterschied zum reinen Hersteller Cisco stark in der Systemintegration sind, dürften kaum Probleme haben, sich beim Kunden gegen Cisco UCS zu positionieren.

Für Mittelstandskunden, die den hohen individuellen Integrationsaufwand verschiedener Lösungen nicht wünschen, kann aber ein Komplettangebot von Cisco durchaus interessant sein. Unterm Strich ist aber noch nicht abzusehen, ob Cisco die Umsätze, die es über UCS gewinnen wird, nicht in anderen Bereichen durch verschärften Wettbewerb gleichzeitig verliert.

Cebit-Debatte über Cloud Computing: Wundermittel oder alter Wein in neuen Schläuchen?

Mehr als jeder zweite Manager und IT-Chef sieht in Cloud Computing eine nützliche Technologie-Option, um die Wirtschaftlichkeit in Unternehmen anzukurbeln. Das ist das Ergebnis einer global durchgeführten Umfrage des Beratungsunternehmens Avanade unter mehr als 500 Wirtschaftsentscheidern in Deutschland und 16 weiteren Ländern.

72 Prozent aller Befragten weltweit und 80 Prozent der Unternehmen in Deutschland vertrauen zur Zeit ihren eigenen Systemen und sehen die Nutzung von Software und Hardware als Internetservice von Drittanbietern noch skeptisch. Grund sind Sicherheitsbedenken und die Angst davor, die Kontrolle über Daten und Systeme zu verlieren. Gleichzeitig jedoch berichtet ein großer Teil der Unternehmen (42 Prozent weltweit, 25 Prozent deutschlandweit), dass ihre aktuellen internen Systeme zu teuer sind.

„Die globale Studie zeigt, dass Unternehmens- und IT-Manager die Vorteile von Cloud Computing bereits verstanden haben – sie wissen, dass die Systeme entscheidende Verbesserungen bedeuten können”, sagt der Avanade-Manager Tyson Hartman. Gleichzeitig blockieren jedoch Sicherheitsbedenken und die Angst vor einem Kontrollverlust über Daten eine weitere Verbreitung im Markt. „Unsere Branche steht nun vor der Herausforderung, mit diesen Bedenken aufzuräumen und handfeste Strategien und Wege aufzuzeigen. Cloud-basierte Services sollen schon heute implementiert und ein langfristiger Plan in die Wege geleitet werden, um einen wirtschaftlichen Nutzen für die Zukunft zu schaffen“, erklärt Hartmann.

Beim Cloud Computing zweifeln viele deutsche Unternehmen jedoch noch, ob es sich um eine zukunftsfähiges Konzept oder nur um einen „Hype“ handelt: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, so Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert Andreas Rebetzky, Sprecher des cioforums.

Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.