Und dann kam das Nexus 4: Wer gewinnt die Hoheit im mobilen Web?

Steve Jobs Actionfigur

Während ihrer kompletten beruflichen Laufbahn stritten Bill Gates und Steve Jobs über zwei konkurrierende Philosophien für die digitale Welt: ob Hardware und Software eng integriert oder offen sein sollten. In seinem letzten Gespräch mit Steve Jobs machte der Microsoft-Gründer dann ein Eingeständnis: „Ich dachte immer, dass das offene horizontale Modell die Oberhand gewinnen würde, aber du hast bewiesen, dass auch das integrierte vertikale Modell großartig sein kann.“ Bei der Wiedergabe des Gesprächs machte Gates später eine Einschränkung und die könnte sich zu einer realitätsnahen Prophezeiung auswachsen:

„Der integrierte Ansatz funktionierte gut, solange Steve am Steuer war. Das heißt aber nicht, dass er auch in Zukunft noch viele Runden gewinnen wird.“

Wenn ein Apple-Fanboy wie der App-Entwickler und Mobile Business-Experte Ralf Rottmann das Lager wechselt und von der Innovationskraft des neuen Nexus 4 von Google schwärmt, sollten in Cupertino die Warnleuchten angehen. Sein Blogpost “An iPhone lover’s confession: I switched to the Nexus 4. Completely” hat international wie eine Bombe eingeschlagen und mit über 17.000 Likes, Retweets und Google Plus-Empfehlungen die exorbitanten Sascha Lobo-Werte in den Schatten gestellt. Sein privater Server brach schon eine halbe Stunde nach der Veröffentlichung zusammen. Bei den Hackernews landete er auf dem ersten Platz und selbst die Times zitierte den App-Guru. In der Vergangenheit hat Rottmann regelmäßig andere Plattformen getestet. Dazu zählen auch die Android-Telefone. Spätestens nach vier Tagen ist er wieder wehmütig zum iPhone zurückgekehrt:

„Und dann kam das Nexus 4. Auch hier hatte ich keine hohen Erwartungen. Statt das Gerät wieder bei eBay zu verticken, bin ich hängengeblieben. Eine Rückkehr zum iPhone 5 schließe ich aus“, so Rottmann im ichsagmal-Interview.

Beim Nexus 4 liege Google auf Augenhöhe mit Apple.

„Und das ist nicht alles. Hinzu kommen Innovationen, die Apple nicht vorweisen kann. Beispielsweise die Interaktion der Apps, die Anbindung der Applikationen an soziale Netzwerke, ohne einen Wechsel bei den Diensten vornehmen zu müssen. Hier wird eine Integrationstiefe erreicht, die iOS nicht ermöglicht. Apple beschränkt den Nutzer und zwingt ihn, um die Ecke zu denken“, kritisiert Rottmann.

Es liege vielleicht an der DNA von Google und der Mashup-Tradition des Suchmaschinen-Giganten. Das Zusammenführen unterschiedlicher Dienste und Kontexte zu etwas Besseren sei die Stärke von Google.

„Unter Android kann man Fotos oder Screenshots ganz einfach in die Dropbox schieben und dann an einem anderen Gerät wieder herausholen. Mit dem iPhone oder iPad geht das nicht, da der Foto-Ordner keine Verbindung zur Dropbox aufnehmen kann. Einzelne Fotos oder Screenshots muss ich deshalb immer per E-Mail schicken, damit ich sie auf meinem Mac-Rechner dann weiterverwenden kann. Auch bei der Geräte-Synchronisation hängt Apple hinterher: Bei Android laufen die Synchronisationsvorgänge praktisch unmerklich im Hintergrund, während das iPhone immer noch regelmäßig an den Mac angebunden werden will“, bestätigt bwlzweinull-Blogger Matthias Schwenk.

„Apple muss den Abstand zwischen den Gitterstäben stark erweitern. Am Besten soweit, dass der Nutzer sich nicht im Käfig wähnt und nur soweit, dass die gewohnte Sicherheit bei Apple noch gewährleistet ist“, fordert der Social Media-Berater und Blogger Camp-Mitorganisator Hannes Schleeh.

Soweit ein kleiner Ausblick auf meine morgige The European-Kolumne. Bin auf Eure Reaktion gespannt.

Reaktionen der Börse sind ja schon zu verzeichnen. Jedenfalls steht die Apple-Aktie unter Druck. Und das liegt vor allem an der schwachen iPhone 5-Nachfrage, wie das Wall Street Journal berichtet:

„Apple hat seine Bestellungen für Bauteile des iPhone 5 wegen einer unerwartet schwachen Nachfrage zurückgefahren. Das berichten Personen, die mit der Angelegenheit vertraut sind. Die Aufträge für Displays für das neue iPhone etwa seien für das erste Quartal auf rund die Hälfte der Menge gesunken, die das Unternehmen ursprünglich anvisiert hatte. Auch für andere Komponenten habe Apple die Auftragsmengen verringert und die Zulieferer vergangenen Monat darüber informiert, heißt es. Die japanische Wirtschaftszeitung Nikkei hatte am Montag als erste darüber berichtet. Apple-Vertreter waren zunächst nicht für eine Stellungnahme erreichbar.“

Ralf Rottmann hofft auf einen deutlichen Kurswechsel beim iOS 7. Seine Wünsche und Anregungen wird er in seinem Blog noch niederlegen. Auch darauf bin ich gespannt.

Im Netz können Sterne schnell verglühen – das bekommt derzeitig Apple zu spüren. Wie AGB-Diktatoren von Nutzern abgestraft werden, beleuchtet sehr schön t3n. Instagram verliert 50 Prozent seiner aktiven Nutzer in einem Monat.

Schöne Steilvorlage für die zweite Session des Blogger Camps am 30. Januar von 19,30 bis 20,00 Uhr. Thema: Über die AGB-Diktatoren des Netzes.

Auch bei Nachrichten-Websites scheißt der Teufel auf den größten Haufen: Twitter wird relevanter

Social Media Report der TU-Darmstadt

Auch beim Teilen von Nachrichten gilt das Motto: Der Teufel scheißt immer auf den größten Haufen. Auf Twitter, Facebook und Google Plus dominieren Spiegel Online und leider Bild.de: Wie eine Erhebung der TU Darmstadt unter fünfzehn der reichweitenstärksten deutschen Nachrichten-Websites ergab, wurden im gesamten Jahr 2012 insgesamt 7,9 Millionen Mal Artikel von Spiegel Onlinegeteilt, Artikel von Bild.de 6,6 Millionen Mal. Mit weitem Abstand folgten Welt.de (2,7 Millionen), Focus online (1,8 Millionen) sowie Sueddeutsche.de und faz.net (jeweils rund 1,5 Millionen).

Die Studie „Social Network Usage in Germany“ der Professoren Oliver Hinz (Wirtschaftswissenschaft) und Thorsten Strufe (Informatik) von der Technischen Universität Darmstadt erfasst sämtliche Artikel der untersuchten Websites. Die Wissenschaftler werten aus, wie oft ein Artikel in den sozialen Netzwerken Twitter, Facebook und Google Plus von den Nutzern geteilt wird. Insgesamt wurden im Jahr 2012 über 592.000 Artikel veröffentlicht, die 26,7 Millionen Mal in den sozialen Medien „geliked“ wurden.

Pareto-Verteilung (mehr oder weniger)

Dabei erzielen die erfolgreichsten zehn Prozent der Artikel rund 78 Prozent aller Empfehlungen, während 31 Prozent aller Artikel keine einzige Empfehlung in den drei untersuchten Netzwerken erhielten. Mit den gesammelten Daten können die Forscher unter anderem ein nach Ressorts getrenntes Ranking erstellen: Politik- und Wirtschaftsnachrichten, die in den sozialen Netzwerken geteilt werden, stammen zum größten Teil von Spiegel Online und Welt.de. In der Sportberichterstattung hat bild.de mit Abstand die Nase vorn, bei neuen technischen Entwicklungen dominiert Heise.de (detaillierte Ergebnisse zu den Ressorts siehe unten).

Twitter gewinnt, Facebook verliert, Google Plus kaum von Bedeutung

Der wissenschaftliche Erkenntniswert der Studie liegt für die Forscher allerdings in einer anderen Beobachtung – sie wollen feststellen, wie sich die Nutzung der sozialen Netzwerke im Zeitverlauf ändert.

„Uns interessiert die Frage, wann, wie schnell und über welche Gruppen neue Technologien diffundieren. Dabei wollen wir insbesondere verfolgen, wie sich Google Plus als verhältnismäßig neuer Marktteilnehmer gegenüber den ‚Platzhirschen‘ Twitter und Facebook schlägt“, so Hinz.

Im ersten Jahr der Studie haben die Nutzer 79,8 Prozent der Artikel über Facebook geteilt, 18,7 Prozent getwittert und nur 1,5 Prozent über Google Plus geteilt.

„Wir haben allerdings im Jahresverlauf einen deutlichen Trend zugunsten von Twitter ausmachen können“, erklärt Hinz.

So habe sich – quer über alle Medien – der Anteil von Twitter von 17,0 Prozent im ersten Halbjahr auf 20,2 Prozent in der zweiten Jahreshälfte erhöht, während der Anteil von Facebook von 81,9 Prozent auf 78,0 Prozent sank.

Google Plus konnte seinen Marktanteil nahezu verdoppeln, blieb aber weiterhin mit 1,8 Prozent Marktanteil für dieses Anwendungsfeld relativ unbedeutend.

Google Plus gewinnt allerdings insbesondere in den Feldern Technik und Wissenschaft, was die gängige Diffusionstheorie bestätigt: Frühe Anwender (early adopter) sind überdurchschnittlich technikaffin und wissenschaftlich interessiert. Ob Google Plus aus diesen Nischen kommend jedoch für den Gesamtmarkt bedeutend werden wird, bleibt abzuwarten“, sagt Hinz.

Hinz und Strufe werden die Studie „Social Network Usage in Germany“ in den kommenden Jahren fortführen. Als Referenzwert könnten sie ja noch die 15 stärksten Blogs unter die Lupe nehmen. Vorschlag zur Erweiterung der Studie.

Die Ergebnisse im Einzelnen

Gesamtergebnis (Top10) für das Jahr 2012:

1 – Spiegel Online (7.921.213)
2 – Bild.de (6.628.788)
3 – Welt.de (2.685.738)
4 – Focus Online (1.792.960)
5 – faz.net (1.449.776)
6 – Sueddeutsche.de (1.439.305)
7 – n-tv.de (1.073.384)
8 – zeit.de (1.066.268)
9 – Stern.de (753.589)
10 – Handelsblatt.com (732.317)

Ressort: Politik

1 – Spiegel Online (2.087.280)
2 – Welt.de (789.675)
3 – Focus Online (437.587)
4 – faz.net (401.900)
5 – n-tv.de (369.663)

Ressort: Wirtschaft

1 – Spiegel Online (922.862)
2 – Welt.de (456.864)
3 – faz.net (369.433)
4 – Focus Online (302.896)
5 – n-tv.de (154.046)

Ressort: Technik

1 – Heise.de (662.570)
2 – Chip.de (301.945)
3 – Focus Online (152.623)
4 – Bild.de (137.323)
5 – Spiegel Online (125.384)

Ressort: Sport

1 – Bild.de (1.311.509)
2 – Spiegel Online (506.190)
3 – Welt.de (214.201)
4 – Focus Online (213.054)
5 – faz.net (113.237)

Ressort: Wissenschaft

1 – Spiegel Online (560.551)
2 – Welt.de (97.387)
3 – Focus Online (84.772)
4 – n-tv.de (57.339)
5 – Zeit.de (54.516)

Siehe auch:

Norbert Bolz, Pareto und die narzisstische Kränkung der neuen Medienwelt: Scheißt der Teufel immer auf den größten Haufen??

Denn sie wissen nicht, was sie tun: Call Center im Blindflug

Call Center im Blindflug

Harald Henn hatte wohl das gleiche Magazin im Briefkasten wie ich. Denn auf Facebook schreibt er:

„Sink oder swim? Die Zeitschrift Teletalk beschreibt in ihrer neuen Ausgabe die Versäumnisse der Call Center-Betreiber – Basis eine Studie von Dimension Data. So, nun sagt es dann auch mal einer offiziell, was schon seit einem Jahr von Zeitgenossen wie Sascha Lobo, Gunnar Sohn und meiner Wenigkeit propagiert wird (ich sage dat doch schon viel länger…gs). Die heutigen Call Center sind vielfach nicht mehr zeitgemäss aufgestellt. Die Vernetzung mit Self Service, Apps, Social Media, Communities ist verschlafen worden, eine Positionierung zu ‚Mehr Wert Schaffen für die Kunden‘ ebenfalls. Na ja, vieleicht hilft die Studie ja beim wachrütteln.“

Da bin ich weniger optimistisch. Besonders erschreckend an dem Zahlenwerk aus der weltweiten Dimension Data-Befragung ist die Tatsache, dass die Telefon-Junkies gar nicht wissen, was sie tun. Die Stimme des Kunden stehe nicht im Fokus, sondern Effizienz (was immer das zu bedeuten hat) und Kostenreduktion. Im Großen und Ganzen befinden sich die Anbieter im Blindflug. Für Kontakte im Internet, Webchat und in sozialen Netzwerken werden kaum Informationen gesammelt. Ist ja auch schwieriger als diese merkwürdigen Aufzeichnungen von Telefonaten.

Siehe auch:

Communities als Servicekanal der Zukunft.

Sascha Lobo, Call Center und der Nutzen von Open Service-Strategien.

Wo ist die Service Intelligence? Über Vernetzungstrends im Kundendienst.

Ich sag mal so am Rande: Der TeleTalk-Artikel ist überflutet von überflüssigen Wortwiederholungen. Etwas mehr literarische Begeisterung beim Schreiben täte auch Beiträgen in Fachzeitschriften gut. Wenn Call Center befragt werden, sollte dem Leser klar sein, dass sich die Umfrage um Call Center dreht. Man muss also nicht in jedem dritten Satz den Begriff „Call Center“ wiederholen. Genauso blöd ist das Wort „Kanal“. Kommt auch x-fach in diesem Opus vor.

Regierungschefs sind übrigens schon etwas weiter als die Hotline-Gichtlinge.

Blogger-Krise? Lieber Robinson-Club statt Netz-Offenheit?

Robinson Club statt Netz-Offenheit?

Von Social Web-Altstars gibt es Aufrufe, sich aus den sozialen Netzwerken zu befreien und wieder ins „offene Netz“ zu kommen. Mit eigenen Websites und Blogs. Für Freitag-Autor Wolgang Michal ein Indikator für „dünne Luft“ in der Blogosphäre. An seinem Beitrag stört mich ein wenig die Entweder-Oder-Position.

Ein Blog sei charakterisiert durch persönliche Färbung, Offenheit, Mut und die Bereitschaft zum Konflikt. Aber nur acht Prozent der Internet-Nutzer würden laut einer ARD-ZDF-Studie bloggen. Aber fast jeder Zweite sei in sozialen Netzwerken unterwegs.

„Soziale Netzwerke wie Facebook und Google+ machen es ihren Nutzern leicht und bieten im Vergleich zu Blogs enorme Vorteile. Etwa eine größere Effizienz. Der Facebook- oder Google-Kunde kann unerwünschte Personen ausgrenzen und sein Publikum ohne Zeit- und Streuverluste erreichen. In dieser ‚Filterblase‘ schreibt es sich angenehmer und bequemer als in einem öffentlich zugänglichen Blog, bei dem man doch stets etwas das Gefühl hat, des Nachts in einem erleuchteten Schaufenster zu sitzen“, so Michal.

In sozialen Netzwerken exponiere man sich nicht so schutzlos wie in einem Blog. Man verbringe seine Zeit in einem umzäunten Gehege, in einer Art „Club Robinson“ des Internets: Alles sei beherrschbar. Man brauche sich keiner offenen Debatte zu stellen, ja, man muss sich nicht einmal sonderlich anstrengen.

„Auf Facebook oder Google+ ist es auch nicht nötig, eine eigene Form oder einen eigenen Stil zu finden, denn alles ist vorgegeben. Die Einstiegs-Hürden und Anforderungen sind niedrig. Das kommt den Couch-Potatoes des Internets in ihrem Neobiedermeier entgegen. Ein Blog gleicht eher einer zugigen Haltestelle als einer Wohlfühlnische“, so Michal.

Zudem störe das elitäre Gehabe gegenüber Anfängern, die Vernachlässigung der gegenseitigen Unterstützung und die unzulängliche Moderation in den Kommentarspalten.

Ich halte das für absoluten Blödsinn. Es ist wohl nicht mehr so einfach wie noch zu den Pionierzeiten des Bloggens, genügend Aufmerksamkeit zu bekommen. Dazu haben sicherlich auch die Angebote von Facebook und Co. beigetragen. Aber Aufmerksamkeit musste man sich schon immer hart erarbeiten. Selbst die Stars der Blogger-Szene haben einige Jahre gebraucht, um im Netz wahrgenommen zu werden. Daran hat sich auch heute nichts geändert. Man kann sich auf seinen Lorbeeren nicht ausruhen und das ist auch gut so. Die Resonanz auf Blogpostings ist ein untrüglicher Lackmustest für den Grad der Interessantheit. Jedes Blogposting läuft unterschiedlich. Mal treffe ich den Nerv, mal schieße ich gnadenlos am Ziel vorbei. Mal bin ich gut in Form oder eben nicht. Mal habe ich einen tollen Geistesblitz, recherchiere eine wichtige Sache, schildere persönliche Erlebnisse, schlage Themen für Interviews vor oder berichte von Konferenzen, die von der Netzöffentlichkeit mit Begeisterung aufgenommen werden. Dann gibt es wieder Tage, wo man sich ins Knie schießt und mit seinen Verlautbarungen im Nirwana endet. So ist das Leben. Es ist sehr lehrreich.

Und es soll auch Menschen geben, die überhaupt keinen Bock aufs Schreiben haben, die vielleicht sogar unter Schreibhemmungen leiden oder sich schwertun, ohne Netz und doppelten Boden zu agieren. Das gilt natürlich auch für andere Darstellungsformen in Blogs – etwa Fotografien, Videos oder Audios.

Aber warum sind denn die sozialen Netzwerke abgeschottete Inseln der Glückseligen und Oasen des Neobiedermeiers? Auch auf Facebook und Google+ gibt es Kontroversen, Polemiken und harte Kritik. Ich kann mich vielleicht schneller davon lösen und Bekannte entfreunden, um es mir dann wieder in der Kuschelecke gemütlich zu machen. Aber spielt das in den Gedanken der Social Web-Nutzer wirklich eine Rolle. Auch hier geht es um Aufmerksamkeit, Vernetzung, Anregungen und Lust auf tolle Beiträge von anderen Menschen. Halt in anderer Form. Für mich gibt es kein Entweder-Oder. Beides ist wichtig.

Einen anderen Punkt halte ich da schon eher für diskutabel, deshalb bleibt meine Blogger-Existenz auch in Zukunft wichtig. Das rüde Geschäftsgebaren der Social Web-Riesen.

Michael Spehr hat es in einem FAZ-Kommentar sehr gut beschrieben. 2013 steht unter der Maxime der Abschottung durch geschlossene Ökosysteme.

„Google, Microsoft, Apple, Amazon, Twitter und Facebook fühlen sich stark genug, neue Mauern zu errichten. Man will Verbindungslinien von einem Dienst zum anderen kappen. Alles nur noch aus einer Hand. Ein Tweet darf Twitter nicht verlassen. Android-Software für das Kindle wird von Amazon handverlesen. Google-Nutzer dürfen ihre Daten nicht mehr mit einem Microsoft-Smartphone und Exchange Active Sync austauschen. Die Beispiele sind Legion. Druck und Zwang bestimmen die Agenda 2013, vor allem bei Google.“

Soll man auf Googlemail oder das von Windows Phone betriebene Lumia 920 verzichten?

„Während die Apps bunt schillern wie, werden Möglichkeiten und Chancen fortwährend reduziert“, kritisiert Spehr.

Deshalb volle Zustimmung für die Analyse von Sascha Lobo, die als Jahresausblick in Spiegel Online erschien:

„Die Erhaltung eines einigermaßen neutralen Netzes ist die wichtigste digitalpolitische Aufgabe für 2013. Das Dilemma besteht darin, dass für den kontinuierlichen Netzausbau sehr viel mehr Geld benötigt werden wird, als sich mit dem Zugangsverkauf erlösen ließe. Zur größten Bedrohung für die Netzneutralität könnten in den kommenden Jahren nicht die Telekommunikationsunternehmen werden – sondern deren Kunden. Und zwar genau dann, wenn sie in Massen entscheiden, dass ein kostenloses Paket aus Facebook, YouTube, Chat und ein paar Dreingaben ausreicht. Und man den umfassenden Netzzugang eigentlich nicht so dringend braucht. Der Feind eines netzneutralen Internets ist die Bequemlichkeit wenig versierter Nutzer.“

Es liegt aber weniger an der Bequemlichkeit, sondern am nicht vorhandenen Wissen.

Man sollte daher seine Sensoren in Stellung bringen und die Gefahren für die Freiheit im Netz stärker thematisieren. Eine schöne Aufgabe für Blogger 🙂

Das Thema der Abschottung der Netz-Giganten steht auch auf der Agenda der zweiten Session des Blogger Camps am Mittwoch, den 30. Januar von 19,30 bis 20,00 Uhr.

Wer mitmachen möchte bei der Live-Diskussion, ist herzlich eingeladen. Mail an: gunnareriksohn@gmail.com.

Einzelinterviews im Vorfeld des Blogger Camps via Hangout On Air könnten wir auch machen.

Sascha Lobo, Call Center und der Nutzen von Open Service-Strategien

Sascha Lobo

Ob William Durr als Technikheld und Innovator in die Geschichte eingehen wird, bezweifelt Spiegel Online-Kolumnist Sascha Lobo in seiner jüngsten Abhandlung:

„Um die Anrufverteilanlage seines Arbeitgebers besser verkaufen zu können, soll er 1973 den Begriff ‚Call Center‘ samt dem dazugehörigen Konzept erfunden haben.“

Das Ganze wurde verbunden mit der Überlegung, dass sich die meisten direkten Kundenkontakte allein durch Kommunikation abfertigen ließen.

„Ohne irgendetwas aufwendig zu ändern. Diese Erkenntnis, verbunden mit Maschinen wie der von Durr verkauften, einem sogenannten ACD (Automatic Call Distributor), ermöglichte überhaupt erst das Callcenter. Das Denkmodell dahinter ist gleichzeitig Erfolgsgeschichte und Zumutung, ein Prinzip des computerisierten Kapitalismus: die weitgehende Trennung der Kundenbeziehung vom Rest des Unternehmens. Also von dort, wo Kundenprobleme tatsächlich gelöst werden könnten. Weil Sprechen im Zweifel billiger ist als Handeln. Wenn man heute als Kunde das Gefühl hat, dass der direkte Kontakt mit einem Unternehmen so ergiebig und befriedigend ist wie der Biss in einen Wattebausch, hängt das mit genau dieser Trennung zusammen. Die durchschnittliche Service-Hotline zum Beispiel ist besetzt mit einer Person, die fast nichts entscheiden kann, nur wenig mehr weiß – aber dafür umfangreiche Sprachregelungen vorliegen hat. Dieses Prinzip funktioniert, solange man ein gewöhnliches Problem hat. Anderthalb Millimeter außerhalb der Standardvorgänge fängt ein Niemandsland der Kommunikation an. Dort hilft nur noch Glück. Zum Beispiel in Form eines überdurchschnittlich engagierten Mitarbeiters“, so die kenntnisreiche Analyse von Sascha Lobo.

Call Center sind also nicht die Visitenkarte der Unternehmen, sondern eher Blitzableiter und stehen am Ende der Nahrungskette. Eine Hotline mit der geschmackvollen Zutat der Warteschleife behandelt Kunden als einzulullenden Störfaktor (herrliche Formulierung von Sascha).

Die klassische Kommunikationsstruktur von Unternehmen sei noch immer auf Appeasement und Abschirmung vom Kunden ausgerichtet und nur selten auf Problemlösung. Die unendlichen Möglichkeiten eines Dialogs auf Augenhöhe, den vernetzte Services und das Social Web heute bieten, versuchen viele Organisationen immer noch, die alte Welt der Eins-zu-Eins-Gespräche unter Ausschluss der Netzöffentlichkeit zu konservieren. Facebook, Twitter und Co. werden von den Marketingabteilungen betreut und spielen kaum eine Rolle für die Interaktion mit Kunden. Unternehmen wollen weiterhin den Service kanalisieren, steuern und kontrollieren.

Dabei bieten sich vielfältige Möglichkeiten für Open Service-Strategien an: So könnten die Kaskadeneffekte des Netzes genutzt werden, um Routineanfragen der Kunden intelligent zu beantworten und kostspielige Hotline-Anrufe zu reduzieren. Etwa über Kunden-helfen-Kunden-Foren, über Gesprächsrunden mit Power-Usern via Hangout On Air, über gut gemachte Youtube-Videos als visuelle Ratgeber (da gibt es ja schon eine ganze Menge), über den Einsatz von Systemen der Künstlichen Intelligenz zur Antizipation von Kundenwünschen und Kundenproblemen, über die Kombination von direkter und indirekter Kommunikation (synchron und asynchron), über intelligente Apps mit Concierge-Funktionen (wo auch vertrauliche Infos ausgetauscht werden können) und, und, und. Unternehmen sollten sich radikal von ihren Hotline-Konzepten trennen und den Service zur Chefsache machen.

Auf der Call Center World in Berlin, die Ende Februar stattfindet, werde ich mich auf die Suche nach wirklich smarten Konzepten für vernetzte Services machen. Die Kongressmesse findet wie immer im Hotel Estrel in Neukölln statt. Vielleicht machen wir von dort eine Sondersendung des Blogger Camps. Wer Interesse daran hat, sollte sich bei mir melden. Interviews im Vorfeld der Kongressmesse sind auch möglich – am besten über Hangout On Air, wie das gestrige Gespräch mit Ralf Rottmann zur iOS 6-Götterdämmerung.

Siehe auch:

Wo ist die Service Intelligence? Über Vernetzungstrends im Kundendienst.

Interessante App von Coop Schweiz.

Zum Thema passend:

Communities als Servicekanal der Zukunft.

Heute Live-Diskussion: Hangouts – Vorteile, Ideen, was kann es, wie geht es, wofür ist es gut #hoa #pearson

Ratgeber für Google+-Neulinge

Pearson Deutschland geht mit Hangout-Gesprächsrunden ins neue Jahr. Sehr löblich. Die erste Session wird mit Oliver Gassner starten, der das Buch „Professionell kommunizieren mit Google+“ geschrieben hat.

Als Diskutanten haben bereits Doris Schuppe, Thorsten Ising, Gerhard Schröder, Falke Hedemann, Rolf Reinhardt und meine Wenigkeit zugesagt. Das Ganze geht um 17 Uhr los. Den Livestream werde ich auch hier einbetten. Bin gespannt.

Das virtuelle Blogger Camp nimmt übrigens am Mittwoch, den 30. Januar den Sendebetrieb wieder auf 🙂

Siehe auch:

Auch der Pearson-Verlag startet Hangout-Gesprächsrunden.

So geht’s: Erstes Hangout on Air.

Nun gibt es doch keine Welterklärungsmaschine in Zürich, schade!

ETH-Forscher Dirk Helbing

Nach Redaktionsschluss für meine heutige The European-Kolumne erreichte mich einige Mails von Professor Dirk Helbing, die sich mit meinen ironischen Bemerkungen zur angeblich geplanten Welterklärungsmaschine in Zürich beschäftigten. Das Wort „Maschine“, soviel vorweg, sollte man übrigens im metaphorischen Sinne verstehen. Mir ist auch klar, dass da in Zürich keine klassischen Maschinen gebaut werden. Es geht in erster Linie um Software, die allerdings auch ein Stückchen Hardware benötigt – also ganz ohne Maschinen wird man auch an der ETH wohl nicht auskommen. Hier jedenfalls die Stellungnahme von Professor Helbing, die mich gestern Abend erreichten:

Sehr geehrter Herr Sohn,

vielen Dank fuer Ihr Interesse an FuturICT. Ich möchte Ihnen gerne die Gelegenheit geben, sich ein Bild aus erster Hand zu machen.

Zunächst einmal wissen Sie sicher, dass alles, was nicht in Anführungsstrichen geschrieben wird, keine Zitate sind, und so habe ich auch nicht behauptet, dass die Finanzkrise niemand anders kommen sehen hat. Es hat mich auch befremdet, dass der FAZ-Artikel so auf eine Person zugespitzt ist, da das Projekt doch das Gemeinschaftswerk von 160 Wissenschaftlerteams an 84 führenden europäischen Institutionen in 25 Ländern ist.

Es ist auch nicht das teuerste Projekt der Geschichte. Grossprojekte in den Natur- und Ingenieurwissenschaften (CERN, ITER, Galileo, Weltraumprojekte, Nanotechnologie, Gentechnologie etc.) kosten 10x mehr oder sind sogar noch teuerer.

FuturICT möchte auch nicht die Zukunft vorhersagen, sondern den Menschen Instrumente an die Hand geben, die ihnen erlauben, sich besser im Informationsdschungel orientieren zu können. Wir bauen keine Maschine, sondern eine offene Plattform, die alle selbstbestimmt nutzen können, und zu der alle beitragen können (wie gesagt, Maschine als Metapher sehen, gs).

FuturICT möchte weiterhin „digital literacy“ fördern. So, wie man das Lesen und Schreiben irgendwann vom Privileg zum Allgemeingut gemacht hat, was unsere moderne Gesellschaft erst ermöglicht hat, möchten wir auch Daten für die Allgemeinheit zugänglich machen, um ein Informationsökosystem zu schaffen, das der Kreativität aller Interessierten zugute kommen wird, und um neue Möglichkeiten der Beteiligung an sozialen, wirtschaftlichen und politischen Prozessen zu schaffen, im Einklang mit den Zielen der Europäischen Union.

Es ist uns bewusst, dass wir nur einen begrenzten Beitrag leisten können, aber wir denken, wenn jeder einen Beitrag leistet, dann wird Europa die Krise überwinden, besonders, wenn man Plattformen schafft, die Synergieeffekte zwischen den Einzelbeiträgen erzeugen können (also mit der Plattform überwinden wir Krisen in der EU? gs).

FuturICT ist auch ein Projekt, das sich wissenschaftlich mit den Risiken und Chancen des Informationszeitalters auseinandersetzt. Das Projekt hat einen starken Schwerpunkt auf ethischen Fragestellungen – kein anderes mir bekanntes Projekt kümmert sich mehr um diese essenziellen Fragen. Die folgende Folie erlauetert den besonderen Ansatz des Projekts.

Gerne stehe ich Ihnen für Fragen heute abend zur Verfügung (morgen werde ich eine Asienreise antreten).

Mit besten Grüssen,

Dirk Helbing

PS: Hintergrundinformationen finden Sie unter den unten angegebenen Links und in den angehaengten Dokumenten. Einige typischen Fragen zum Projekt beantwortet folgender Blog: http://www.futurict.blogspot.ch/2012/03/futurict-participatory-computing-for.html. Insbesondere hat FuturICT NICHTS zu tun mit: Kristallkugel, Zukunftsprognose, Futurologie, Laplace’scher Dämon, Psychohistory usw.

PPS: Vielleicht interessiert Sie auch die amerikanische Reaktion auf FuturICT:

http://www.govloop.com/profiles/blogs/the-u-s-needs-a-futurict-program-to-confront-the-challenges-of

http://www.scoop.it/t/futurict-in-the-news/p/3954849835/the-u-s-needs-a-futurict-program-to-confront-the-challenges-of-21st-century-government-govloop-knowledge-network-for-government

Wenn Europa das Projekt nicht durchführt, wird es sicher in den USA entstehen. Auch Japan und China arbeiten an analogen Projekten.

Soweit die erste Stellungnahme von Professor Helbing. Die Nachbemerkung finde ich übrigens schwach. Wenn die EU die 500 Millionen Mäuse nicht locker macht, läuft das Projekt dann anderswo. Wie viel hat das Ganze dann noch mit Europa zu tun?

Was ist nur in dem Gespräch mit den Redakteuren der Frankfurter Allgemeinen Sonntagszeitung schief gelaufen? Entscheidend sind also nur die wörtlichen Zitate. Ok. Hier kommen ein paar von Professor Helbing:

„Wir brauchen neue Erkenntnisinstrumente. Früher gab es ein Fernrohr, in Zukunft muss es Instrumente geben, die Feedback- und Kaskadeneffekte im Vorfeld erkennen lassen.“

Sind das jetzt keine Vorhersagen?

Oder:

„Für ein visionäres Projekt muss man bis zum Horizont sehen und darüber hinaus denken können“, bemerkt Helbing leise.

Oder:

„Sie müssen sich das wie ein Imax vorstellen“, erklärt Helbing, „und durch Eingriffe in diese räumlichen Visualisierungen können Sie Zukunftsszenarien durchspielen.“

Oder:

„In zehn Jahren werden Computer die Leistungfähigkeit menschlicher Gehirne erreichen“, sagt Helbing.

Davon sind wohl nicht einmal die Forscher für Künstliche Intelligenz überzeugt.

Zur Frage der Warnung vor dem Finanzcrash 2009 verweist Helbing auf einen Aufsatz, der im APRIL 2008 verfasst und nacheinander zu verschiedenen Zeitungen geschickt wurden.

Wenn das eine Warnung vor dem Szenario ist, was sich nach der Lehman-Pleite abspielte, muss man wohl ein Künstler im Verständnis von Aussagen sein, die zwischen den Zeilen stehen. Aber das kann jeder selbst beurteilen. Eine Warnung erkenne ich nicht.

Titel des Artikels: Die Erforschung komplexer Systeme macht Krisen verständlich und vermeidbar

Auszug:

Eine Analyse des heutigen Finanzsystems unter dem Blickwinkel der Theorie komplexer Systeme offenbart also ein differenzierteres Bild als die heutige Bewertung der Krise als einen „grösseren Börsencrash“. Die letzten Monate zeigten alle Anzeichen eines ausser Kontrolle geratenen Flächenbrandes. Die laufen zunehmenden Abschreibungen der Banken zeigen, dass nicht mehr klar ist, was eine „subprime mortgage“ überhaupt ist – der Name für die gegenwärtige Krise ist also irreführend. Aus diesem Grund kursieren auch sehr unterschiedliche Schätzungen hinsichtlich des gesamten Abschreibungsbedarfs in der Grössenordnung von 170 Milliarden (Bank of England) über 400 Milliarden (OECD) bis gegen eine Billion Dollar (IMF) – die Schätzungen liegen also um einen Faktor 6 auseinander.

Wir denken deshalb, dass die derzeitige Diskussion über die Nutzen und Zulässigkeit von Kapitalspritzen der Zentralbanken zu kurz greift. Sie düngen quasi ein Ökosystem, das seine Stabilitätseigenschaften weitgehend verloren hat. Die Frage der Kontrolle eines Systems muss an dafür relevanten und oben beschriebenen Eigenschaften ansetzen. Die Analyse der Faktoren, welche die Systemrobustheit beeinträchtigen oder stabilisieren, bietet dazu Lösungsansätze. Daher ist die Beschreibung sozio-ökonomischer Systeme als komplexe Systeme nicht nur ein leistungsstarker Ansatz zum besseren Verständnis dieser Systeme, sondern auch zur Milderung oder Verhinderung von Krisen. Dies verlangt jedoch einen Ausbau entsprechender Forschungskapazitäten. Die ETH Zürich hat daher kürzlich das Kompetenzzentrum „Coping with Crises in Complex Socio-Economic Systems“ gegründet. Es vereint Forscherinnen und Forscher mit Mehrfachkompetenzen in den Natur-, Wirtschafts- und Sozialwissenschaften, die sich mit der Beschreibung und Stabilisierung von sozialen und ökonomischen Systemen befassen.

Mehr als eine Symptom-Therapie schlagen die Autoren dieses Beitrages nicht vor. Um die Zockereien der Spekulatius-Bubis zu verhindern, müssen bestimmt Geschäfte auf den Kapitalmärkten schlichtweg verboten werden. Da brauche ich keine Simulationsberechnungen. Wer mit Renditeversprechen von über 20 Prozent hausieren geht, ist ein Scharlatan. Ich freue mich übrigens auf das Interview mit Professor Helbing, wenn es denn noch zustande kommt. Das sollte aber schön öffentlich geführt werden – also via Hangout On Air. Versteht sich von selbst 😉

Wo ist die Service Intelligence? Über Vernetzungstrends im Kundendienst

Kein Schwein ruft mich an

Vom Fachdienst Call Center Experts bin ich gefragt worden, welche Kommunikationsmedien in diesem Jahr am häufigsten für Verkauf und Kundenservice genutzt werden. Gefordert wurde eine Reihenfolge, die ich aber nicht lieferte. Hier nur der Auszug meiner Antwort auf die erste Frage von insgesamt drei Fragen:

Festnetztelefonie war gestern, so lautet die provokante Überschrift der NZZ. Das Schweizer Blatt beruft sich auf Zahlen des Bundesamts für Kommunikation (Bakom). 51,9 Prozent der Gesprächsminuten erfolgten im vergangenen Jahr über das Festnetz, 48,1 Prozent über das Handy. 1999 sah dieses Verhältnis noch gänzlich anders aus, als nur jede zehnte Gesprächsminute mit dem mobilen Telefon getätigt worden war. In Deutschland sieht der Trend ähnlich aus. Beachtlich ist vor allem der Anstieg der mobilen Internetnutzung, der von Geräten mit den Betriebssystemen von Apple und Google nach oben getrieben wird. Das hat auch Auswirkungen auf die Service-Kommunikation. Telefonate werden irrelevanter, vernetzte Dienste via Apps und Browser sind die Gewinner. An jedem Kontaktpunkt zum Unternehmen erlebt der Kunde das gleiche Service-Angebot – das ist aktuell natürlich nur ein Illusion. Wer hier jetzt mal seinen Geist in Bewegung setzt und entsprechende Angebote entwickelt, wird sich mit Siebenmeilen-Stiefeln von der Konkurrenz absetzen.

Eine Reihenfolge in der vernetzten Service-Ökonomie erledigt sich. Unter der Haube des Kundendienstes verrichten unterschiedliche Applikationen ihre Arbeit und nutzen den Zeitvorteil für die personalisierte Analyse der Kundenwünsche.

Soweit die etwas überarbeitete Version meiner ersten Antwort. Was spielt sich aber nun konkret in der Kommunikation zwischen Unternehmen und Kunden ab? Im Buch „Nerd Attack“ von Spiegel-Redakteur Christian Stöcker fand ich weitere Argumente über den Nutzen der „asynchronen“ Kommunikation. Das ist ja schon mehrfach von mir thematisiert worden. Siehe auch: Vom Nutzen der asynchronen Kommunikation.

Das Telefon stehe, wenngleich die Erinnerung daran schon langsam verblasst (siehe die Zahlen oben), für kommunikative Verknappung, so Stöcker. Aber schon die E-Mail sorgte dafür, dass Kommunikation erstmals kein Kosten- und Verknappsungsfaktor mehr war.

„Außerdem hatte sie noch einen weiteren unschlagbaren Vorteil: Sie erlaubte asynchrone, aber schnelle Kommunikation. Bis dahin gab es nur zwei Arten von persönlichem Kontakt: direkt und synchron, von Angesicht zu Angesicht oder per Telefon und allzu asynchron, per Post. Außer man hatte eine Sekretärin (seltener einen Sekretär) zur Verfügung, die Nachrichten verzögert weitergeben konnte“, schreibt Stöcker.

Erst E-Mails erlaubten symmetrische, garantiert asynchrone Kommunikation.

„Wer schreibt, muss keine Angst haben, dass jemand den Hörer abnimmt. Das ist im Geschäftsleben ebenso praktisch wie in der Liebe. Als die Handys alltäglich wurden, erreichte die symmetrisch-asynchrone Kommunikation auch Menschen, die das Internet noch nicht nutzten. Eine SMS zu schicken gilt als weniger aufdringlich, als direkt anzurufen, bis heute. Schließlich lässt man dem Angesprochenen die Wahl, ob und wann er reagieren möchte. Außerdem waren Handys die tragbaren Vorstufen zu den großen Social Networks von heute“, meint der Buchautor.

Das habe dafür gesorgt, dass Kommunikation heute differenzierter und feiner auf die aktuelle Situation abgestimmt werden kann als je zuvor in der Geschichte. Für die Service-Kommunikation ist das eine einmalige Gelegenheit, den Zeitvorteil der asynchronen Kommunikation für maßgeschneiderte Dienste zu nutzen.

„Man kann mit entsprechenden Systemen der Künstlichen Intelligenz die zur Bearbeitung der Kundenanfrage benötigten Daten und Informationen perfekt ermitteln und auswerten. Während der Kunde am Telefon warten muss, bis der Servicemitarbeiter den Status seines Auftrags umständlich in verfügbaren Backend-Systemen eruiert, können Kundenwünsche über die asynchrone Kommunikation über die so genannte Dunkelverarbeitung in einem viel höheren Automatisierungsgrad erfüllt werden“, erläutert Andreas Klug von der Kölner Softwarefirma Ityx.

In der Endbearbeitung liegen dem Mitarbeiter bereits alle wichtigen Informationen vor: Bestellnummer und Bestellstatus, Link zum Auftragssystem, Link zu den Kundendaten.

Ein weiterer Vorteil des Trends zur asynchronen und verschrifteten Kommunikation sei der Gewinn an Transparenz:

„Im Schnitt sind rund 70 Prozent aller Kundenfragen sogenannte ‚wiederkehrende Ereignisse‘. Die Fragen werden mehrmals täglich gestellt. Häufig erhalten die Kunden am Telefon aber unterschiedliche Antworten – je nach dem in welcher Art sie ihre Fragen stellen und welcher Servicemitarbeiter gerade antwortet. In der asynchronen oder unsichtbaren Servicekommunikation gibt es diese Qualitätsschwankungen nicht so extrem. Die Antworten sind konsistenter.“

Um die Netzwerkeffekte für wiederkehrende Serviceanfragen zu nutzen, ist allerdings eine Kultur für Open Services vonnöten. Offenheit und Partizipation scheuen die Service-Anbieter wie der Teufel das Weihwasser.

„Unternehmen sehen Kritik naturgemäß lieber in den dafür vorgesehenen Beschwerdekanälen, wo sie für die Außenwelt unsichtbar bleiben. Bei Twitter hingegen ist die Kritik öffentlich und lässt sich auch nicht einfach löschen wie zum Beispiel auf Facebook-Unternehmensseiten. Verbraucher haben damit einen Hebel, Unternehmen zu einer Reaktion zu bewegen“, so Kathrin Passig in einem Beitrag für das Buch „Die Kunst des Zwitscherns“ (erschienen im Residenz Verlag).

Selbst wenn man als Kunde Antworten im Social Web erwartet, wird man förmlich genötigt, eine Hotline anzurufen oder sich von einer Hotline anrufen zu lassen. Eine entsprechende Disputation hatte ich ja mit E-Plus.

Mit dieser vorherrschenden Mentalität zur Abschottung brauchen die Unternehmen auch nicht von Big Data zu faseln. Wer sich dem Zugang zur Netzöffentlichkeit verschließt, kann auch die Früchte der Netzeffekte nicht ernten.

Vernetzte und offene Services verlangen ein völlig neues Denken, neue Technologien und den Einsatz von Systemen der Künstlichen Intelligenz, die weit über die Call Center-Kompetenzen hinausgehen. Nennen wir das Ganze doch Service Intelligence. Die findet man allerdings nicht so sehr bei Call Center-Unternehmen, sondern im Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Oder im neu aufgelegten Opus „Denkwerkzeuge der Höchstleister“ von Gerhard Wohland und Matthias Wiemeyer.

Sie beschäftigen sich mit der „neuen Künstlichen Intelligenz“. Sie baut digitale Strukturen auf, die denen des Gehirns so ähnlich seien, dass sie, nach Training in geeigneter Umgebung, ähnlich operieren wie ein Gehirn. Hohe Rechenleistung werde genutzt, um komplexe Systeme so ausreichend nachzuahmen, dass wirtschaftlich nutzbare Leistung entsteht. Nachzulesen auf Seite 132 des Wohland-Wiemeyer-Bandes.

Bin gespannt, welche Anbieter diese Service Intelligence aufs Gleis bringen.

Wer schon entsprechende Beispiele kennt, ist herzlich zu Interviews eingeladen.

Der wiehernde Amtsschimmel und die Evaluation elektromagnetischer Schwingungen #hoa

Techno-Bürokraten-Deutsch

Die liebwertesten Gichtlinge der Medienaufsicht in Bayern haben uns als Veranstalter des virtuellen Blogger Camps ja schon vor einigen Monaten erklärt, wo beim Livestreaming via Hangout On Air der medienrechtliche Hammer hängt:

„Rundfunk im Sinn des Rundfunkstaatsvertrages ist ein linearer Informationsdienst, der für die Allgemeinheit und zum zeitgleichen Empfang bestimmt ist und die Veranstaltung und Verbreitung von Angeboten in Bewegtbild oder Ton entlang eines Sendeplans unter Benutzung elektromagnetischer Schwingungen zum Inhalt hat. Private Veranstalter bedürfen zur Veranstaltung von Rundfunk einer Zulassung, §20 Abs. 1 Satz 1 RStV. Bundesweite Fernsehangebote bedürfen der medienrechtlichen Prüfung durch die Kommission für Zulassung und Aufsicht (ZAK) sowie die Kommission zur Ermittlung der Konzentration im Medienbereich (KEK). Für die Prüfung eines bundesweiten Zulassungsantrages rechnen Sie bitte mit einem zeitlichen Aufwand von zwei bis drei Monaten (!) bis zur abschließenden gebührenpflichtigen Genehmigungserteilung.“

Verstöße gegen dieses prächtige Regelwerk der Echtzeitkommunikation können mit einer Geldbuße von bis zu 500.000 Euro geahndet werden.

„Nach unserer Einschätzung erfüllt Ihr Vorhaben die Kriterien des Rundfunkbegriffs. Insbesondere ist auch das Kriterium der Linearität gegeben“, teilten uns die zuständigen bayerischen Beamten mit.

Wenn ich nun die Hangout-Sessions in Belgien oder Holland starte, endet die Kompetenz der Bundesländer. Da das Internet nach föderalen Prinzipien nicht kontrolliert oder gar reguliert werden kann, wäre es ein Gebot der Vernunft, sofort eine kleine Änderung des Rundfunkstaatsvertrages in die Wege zu leiten und Liveübertragungen im Netz nicht mehr den elektromagnetischen Schwingungen der Medienaufseher zu unterwerfen. Einen entsprechenden Vorschlag haben wir nicht nur dem Bundeswirtschaftsminister überreicht, sondern auch dem Vorsitzenden der Rundfunkkommission. Im föderalen Wanderzirkus ist das zur Zeit Kurt Beck, der noch amtierende Ministerpräsident von Rheinland-Pfalz.

Mit einiger Verspätung hat sich jetzt in einem “Elektronischen Brief” eine Dame aus dem Vorzimmer Abteilung 2 “Medien” der Staatskanzlei Rheinland-Pfalz erbarmt, uns eine Antwort zu schreiben. Der Briefinhalt dürfte auch für das Statistische Bundesamt interessant sein, da er wohl zum weiteren Anstieg des Bürokratiekosten-Index führen wird:

„Die Länder sind gemeinsam mit dem Bund derzeit dabei, die entsprechenden Bestimmungen des Rundfunkstaatsvertrages und des Bundesrechts zu evaluieren. In diesem Rahmen wird auch die von Ihnen geschilderte Problematik behandelt werden. Ich bitte Sie daher noch um ein wenig Geduld und verbleibe mit freundlichen Grüßen.“

Wird jetzt auch eine Evaluationskommission gegründet, die noch in unterschiedliche Arbeitskreise aufgegliedert wird, um nach drei Jahren des Herum-Evaluierens festzustellen, dass Deutschland die Streaming-Revolution des Netzes verpennt hat? Man könnte zudem noch eine Studie bei Roland Berger in Auftrag geben, um zu der Erkenntnis zu gelangen, dass man nach der Evaluation noch genauer evaluieren muss, warum wir einfach zu blöd sind, innovative Formate für Jedermann-TV politisch zu fördern. Empfehlung der Unternehmensberater: Im Kanzleramt sollte eine zentrale Stelle zur Erfassung von überflüssigen Evaluationsprojekten installiert werden. Sie sollte einen Masterplan entwickeln, wie wir in Bund und Ländern zu einem Abbau der Evaluationsbürokratie gelangen können. Im Rahmen dieses Projektes und auf Ebene des Kanzleramtes wird dann ein Anti-Evaluations-Beauftragter ernannt, der jährlich einen Evaluations-Index in Zusammenarbeit mit dem Statistischen Bundesamt erarbeitet.

Zudem sollte im Rahmen, auf Ebene und im Bereich des Gesundheitsministeriums evaluiert werden, in welchem Maße sich die zu evaluierenden elektromagnetischen Schwingungen auf die Hirne der medienpolitisch Verantwortlichen auswirken.

Aber das passt ja sehr schön zur Krankenakte digitale Wirtschaft:

Am 30. Januar werden wir das in der ersten Session des Blogger Camps von 18,30 bis 19,00 Uhr thematisieren: 5 Monate Hangout on Air in Deutschland – Ein Resümee.

Die zweite Session von 19,30 bis 20,00 diskutiert über die AGB-Diktatoren des Netzes.

Über die „Ich-hab-den-Größten-Schaumschläger“

Patrick Breitenbach - der Vernetzer und Vermittler

Der Herr Obermann von der Telekom sollte es jetzt nicht allzu persönlich nehmen, dass ich mich nach dem Blogposting über seinen freiwilligen oder unfreiwilligen Abgang bei der Telekom mit der Schaumschläger-Kommunikation von Unternehmen beschäftige. Als Gesprächspartner stand mir der von mir sehr geschätzte Patrick Breitenbach zur Verfügung – Botschafter, Dozent, Vernetzer und Vermittler der Karlshochschule.

Soziopod

Darüber hinaus ist er noch Produzent, Redakteur und Moderator des radikal-konstruktivistischen Projektes Soziopod.

Patrick meldete sich nach meiner Story über die neue Aufmerksamkeitslogik, die unseren digitalen Alltag immer mehr bestimmt. Sehr gut ausgeführt bei Mercedes Bunz: „Die stille Revolution“ (erschienen in der edition unseld).

Klassische Medien berichten über Neuigkeiten, die sich auf das Ereignis ausrichten. Was nicht in diese Kategorie passt, wird nicht aufgegriffen. Die digitale Öffentlichkeit ist vor allem von den Interessen der Nutzer getrieben:

„Noch lange nachdem die Karawane der professionellen Journalisten weitergezogen ist, spüren Social-Web-Nutzer den Themen nach, die sie bewegen“, zitiert Bunz den „Guardian“-Chefredakteur Alan Rusbridger. Nachrichten könnten, wie guter Wein, durch Lagerung an Wert gewinnen. Da darf natürlich auch der viel zitierte Satz einer Studentin nicht fehlen: „Wenn eine Nachricht wichtig für mich ist, wird sie mich schon finden.“

Und wann sie für mich wichtig ist, entscheide ich selbst und nicht die „Tagesschau“, irgendein Pressesprecher oder Marketingfuzzi. Es entsteht also eine virale Logik, die eine ganz eigene Dynamik entfaltet.

„Dieser viralen Kommunikation liegt letztlich die Möglichkeit zugrunde, Inhalte immer wieder zu reproduzieren. Nur etwas, das neu arrangiert und wiederverwendet, also wiederholt oder nachgeahmt werden kann, besitzt das Potenzial, viral zu werden“, führt Bunz in ihrem neuen Opus aus.

Um diese Aufmerksamkeitslogik zu nutzen, sollten die liebwertesten Gichtlinge in den Kommunikationsabteilungen der Unternehmen endlich aufhören, ständig in der gleichen Buchstabensuppe zu schwimmen und die Öffentlichkeit mit ihren Laber-Ritualen zu nerven.

Die drei Aspekte virale Netzeffekte, asynchrone Kommunikation und Findepunkte möchte ich weiter vertiefen. Würde dazu gerne noch ein paar Experteninterviews per Telefon oder Hangout On Air führen. Oder als Bibliotheksgespräch in meinem Büro in Bonn. Wer Interesse daran hat (vielleicht fällt dem Einen oder Anderen ja nach Weihnachten die Decke auf den Kopf), sollte sich bei mir melden. Das Interview mit Patrick werte ich in den nächsten Tagen aus.

Wer am zweiten Weihnachtsfeiertag eine mentale Leere verspürt, kann meine Mittwochskolumne für das Debattenmagazin „The European“ lesen. Es sind Gedanken über die Sinnlosigkeit: Ein nach-weihnachtliches Vademekum für Beruf und Freizeit.