Drosseln und staatliche Regulierung, mehr fällt der Telekom wohl nicht ein
Wenn ich das Jammern der Telekommunikationsbranche über Google und Co. höre – kombiniert mit Forderungen nach staatlichen Restriktionen – muss ich an einen Vortrag denken, den ich vor einigen Jahren auf der Berliner Wissenschaftskonferenz Informare gehalten habe. An Aktualität hat er eigentlich nichts verloren: Erinnert sich noch jemand an die erste Versteigerung der UMTS-Lizenzen zur Jahrtausendwende und die Jubeltöne der TK-Branche? Der Champagner-Laune folgte bald der Katzenjammer. 50,8 Milliarden Euro spielte die Vergabe der Mobilfunklizenzen in die Kasse des Bundes. Schon vier Jahre später wurde klar, dass die Netzbetreiber nicht in der Lage waren, die enormen Ausgaben wieder zu Geld zu machen. Trotz der „Alles-wird-gut-Kommentare“ zu UMTS auf der 3GSM Summit in Cannes waren die Zeichen nicht zu übersehen, dass die Hoffnungen auf Erfolge und Geschäfte mit UMTS im Grunde ad acta gelegt wurden. Bis 2006 hatten es die Netzbetreiber und auch die Hersteller nicht einmal geschafft, attraktive und leistungsfähige Endgeräte bereitzustellen. Betreiber und Hersteller zerhackten sich damals mit gegenseitigen Schuldzuweisungen. Wo lag die Ursache für das UMTS-Debakel? Es existierten keine überzeugenden Dienste, die mobiler Datenverkehr mit höheren Bandbreiten auf einem Handy oder Smartphone erfordern.
Als der große Run auf die UMTS-Lizenzen stattfand, träumte die Branche vom mobilen Surfen, Location Based Services und Navigationssystemen auf Smartphones, mobilem Payment und vielfältigem M-Commerce. Außer den eher wenig erfolgreichen Versuchen, den japanischen i-Mode Service auch in Europa zu platzieren, war jeder Versuch, werthaltigen Content bereit zu stellen, bereits schon in der Produktentwicklung steckengeblieben. Display-Logos und Klingeltöne stellten den einzigen mobilen Content dar, für den bezahlt wurde.
Die grundlegenden Probleme der 3G-Netze waren nicht technischer Natur. Es fehlten nutzerfreundliche Endgeräte, smarte Dienstprogramme und Marketingideen. Die gesamte Telekommunikation hat mit wenigen Ausnahmen nie Inhalte bereitgestellt, sondern immer als Transportmedium fungiert und damit ihre Profite erzielt. Die stolzen Geschäftsmodelle für UMTS basierten aber substantiell auf Erlösen für Content. Der durchschnittliche monatliche Umsatz pro Subscriber im 3G-Netze wurde durchaus in Bereichen von 60 Euro und mehr angenommen. Das haben die Mobilfunker aber nie erreicht. Es zeichnete sich ab, dass genau das eintreten wird, wovor Experten schon vor Jahren gewarnt haben: Wenn die Mobilfunkbranche es nicht schafft, das Nutzerverhalten und damit auch die alltäglichen Gewohnheiten der Anwender in Richtung mobile Anwendungen zu modifizieren, wenn die Mobilität sich nicht in den täglichen Bedürfnissen der Anwender und in ihren Lebensprozessen wiederfindet, bleibt der Mobilfunk im bloßen mobilen Telefonieren stecken und somit weiterhin ein Transportmedium. Für den Durchbruch von werthaltigem Content und profitablem M-Commerce im Mobilfunkmarkt zählen nicht die technischen Features der Handys, sondern überzeugende Anwendungen, die schnell die kritische Masse im Markt erreichen und dann einen Anwendungs-Standard bilden. Hier hat das Marketing der Mobilfunkbranche versagt. Und was passierte dann? Dann kam der 9. Januar 2007. Apple-Chef Steve Jobs stellte der Öffentlichkeit einen Prototyp des iPhones auf seiner Macworld Conference & Expo in San Francisco vor.
Erst ab diesem Zeitpunkt entfaltete sich das mobile Internet. Kleiner Auszug meiner Berliner Rede, um die Erinnerungslücken der Telcos zu füllen.
Mobile Smartphones und Tablets sorgen dafür, dass wir beruflich wie privat immer online sein können:
„Mit vernetzten Services könnten wir unsere alltäglichen Angelegenheiten spielend einfach selbst erledigen – wann und wo wir wollen. In der Realität bieten Unternehmen uns aber häufig nur starre Servicekonzepte, die sich seit 20 Jahren nicht verändert haben“, kritisiert Andreas Klug in seinem Blogpost „Medienbruch Mensch: Plädoyer für modernen Kundenservice“.
Aber nicht nicht an dieser Nahtstelle gibt es Blockaden in den Unternehmen. Wenn Mitarbeiter ihre privat genutzten Smartphones oder Tablets mit an den Arbeitsplatz nehmen, laufen die Anweisungen der IT-Abteilung zur strikten Nutzung der Systeme des Unternehmens ins Leere. Damit ist auch kein Kraut gegen die Nutzung von Social Web-Technologien gewachsen, die eben nicht den Regeln der obersten Führungsetage folgen. Das ist gestern beim Social Media Breakfast von Harvey Nash in München deutlich geworden.
„Ich bringe ZWEI Geräte mit in die Firma. Und ich nutze – um mir ein Mindestmaß an örtlicher Mobilität zu sichern – das für die Studierenden vorgesehene WLAN. Da offensichtlich nicht nur die Studierenden dies, sondern auch alle meine Kolleginnen mittlerweile nutzen – funktioniert dieses seit einiger Zeit mehr schlecht als recht. Ich stelle mir deshalb mit meinem Zweitgerät, einem Smartphone – mein eigenes WLAN bereit. Ergo: BYOD gibt’s. Die jeweilige IT-Abteilung weiss nur nichts davon.“
Kann da irgendeine Richtlinie oder ein Social Media-Mobile-Leitfaden weiterhelfen? Das ist eine große Illusion. Insofern werden sich das Social Web und der Einsatz von mobilen Geräten massiv auf die IT-Infrastruktur der Organisationen auswirken – staatlich und privatwirtschaftlich. Jedes Verbot von Facebook, Twitter oder Youtube am Arbeitsplatz wird durch die Autarkie bei der Nutzung seiner eigenen mobilen Geräte ad absurdum geführt. Insofern war der Einspieler beim Social Media Breakfast-Vortrag von Mirko Lange höchst interessant. Ab Sendeminute 33 in der Youtube-Aufzeichnung zu bewundern.
Es geht um die Aussage von Professor Peter Kruse bei einer Bundestagsanhörung der Enquetekommission „Internet und digitale Gesellschaft. Kruse sprach von der Machtverschiebung vom Anbieter zum Nachfrager, die mit der Systemarchitektur zusammenhängt – und das gilt für die Kundschaft, Belegschaft und die Wählerinnen sowie Wähler. Das Internet habe ja schon die Vernetzungsdichte extrem nach oben gejagt. Mit dem Social Web ist noch etwas dazu gekommen. Ein deutlicher Anstieg der unberechenbaren Spontanaktivität und kreisende Erregungen im Netzwerk etwa über Retweets auf Twitter.
„Die Systeme werden mächtig, ohne vorhersagen zu können, wo das Ganze passiert“, so Kruse.
Über die Netze kann man mächtig werden und Autoritäten unterlaufen. Egal, ob das nun akzeptiert wird oder nicht. Wer sich dagegen stemmt, wird ein Getriebener der Netzwirklichkeit – das brachte ein Teilnehmer des Social Media Breakfast-Auditoriums am Schluss der Paneldiskussion sehr schön auf den Punkt.
„Ich hoffe, dass ich das Ergebnis richtig zusammenfasse, wenn ich sage, dass das Verhältnis wohl noch auf Sicht ambivalent bleiben wird. Es gibt sicherlich Unternehmen, wie Wolfgang Franklin sagte, die selbst eher “digital native” sind, und die haben die Integration offener Strukturen sehr gut verstanden. Aber bei den anderen gibt es sicherlich einen “Clash of Cultures” – bis die Ausnahmen, für die das Thema gar nicht relevant ist“, schreibt Lange.
Gesamtumsatz der TK-Dienste bleibt stabil – Wettbewerber tätigen mehr als die Hälfte der Investitionen – Deutsche telefonieren und simsen so viel wie nie zuvor – Datenübertragungsmenge im Mobilfunk steigt um ein Drittel – Mobiles Internet treibt Non-Voice-Umsätze – Nur geringes Wachstum bei Glasfaseranschlüssen – 28,1 Millionen Breitbandanschlüsse. Mit dieser Kaskade an Superlativen bin ich heute auf der Pressekonferenz des Verbandes der Anbieter von Telekommunikations- und Mehrwertdiensten (VATM) – also fast alles was in der TK-Branche Rang und Namen hat und nicht Deutsche Telekom heißt. In einem einstündigen Vortrag (!) wurde von Professor Torsten J. Gerpott eine Studie von Dialog Consult präsentiert – sehr viel Zeit für die Fragen der Journalisten gab es nicht.
Also alles in Butter bei den TK-Anbietern? Weit gefehlt. Zieht man die semantische Rabulistik ab, stagnieren die Umsätze und in der Langzeitbetrachtung geht der TK-Markt deutlich nach unten. Man könnte auch sagen, dass die Hütte brennt.
In der Präsentation von Professor Gerpott heißt es aber, dass die Umsätze „nahezu stabil“ sind. Das gilt vielleicht im Vergleich zu 2011. Aber auch da gibt es eine negative Tendenz von 60,2 auf 60,1 Milliarden Euro. In den besten Zeiten erreichten die Telcos einen Gesamtumsatz von 68,8 Milliarden Euro. Das war in den Jahren 2005 und 2006. Scheinbar findet sich hier eine wohl nicht zufällige Parallelität zur Situation der Anbieter von Service-Rufnummern (Mehrwertdienste). Auch da geht es seit 2006 bergab. Bei der VATM-Veranstaltung wurde für die Service-Rufnummern aber nur die Umsatzprognose für 2012 vorgestellt und umjubelt.
Eine Zeitreihe wie beim TK-Gesamtumsatz ist nicht vorgestellt worden. Dann muss man eben zum Zahlenwerk des Wissenschaftlichen Instituts für Infrastruktur und Kommunikationsdienste (WIK) in Bad Honnef greifen. Das WIK hat ja klar nachgewiesen, dass die Anbieter von Service-Rufnummern ihren Höhepunkt beim Anrufvolumen und bei den Umsätzen schon längst überschritten haben, obwohl das von vielen Experten der Call Center-Szene nach wie vor bestritten wird. Seit 2006 geht es bergab. Es gebe gravierende Veränderungen im Nutzerverhalten, die sich nachteilig für telefonische Dienste auswirken. Beim Smartphone sei das gut zu beobachten:
„Wenn die Leute ausgetestet haben, was sie damit machen können, dann kommt die Lust auf weitere Anwendungen. Das ist wie eine Spirale – es verstärkt sich immer weiter. Beim Online-Banking überprüfe ich vielleicht erst einmal nur meinen Kontostand. Wenig später folgen dann auch Überweisungen, die ich bequem über Apps vornehmen kann. So setzt sich das in anderen Anwendungsfeldern fort. Es gibt eine sehr steile Lern- und Erfahrungskurve. Der positive Effekt, wenn etwas wirklich bequem und einfach über das mobile Netz klappt, wirkt wie ein Katalysator“, so WIK-Abteilungsleiter Ralf Schäfer.
Die volle Wucht der mobilen Dienste sei noch gar nicht spürbar, weil man noch weit von einer Sättigung des Marktes mit Smartphones und Tablet-PCs entfernt sei.
„Wir befinden uns im ersten Drittel der Lebenszykluskurve. Hier werden die Verkaufszahlen in den nächsten Jahren gigantisch steigen. Schauen sie sich die Werbung von Elektronikmärkten an. Hier finden sie fast nur nach Smartphones und keine klassischen Handys mehr. Schauen sie sich die Werbung der Mobilfunk-Netzbetreiber an. Da spielt Telefonie gar keine Rolle mehr. Beispielsweise bei Vodafone. Da stehen nur noch Datentarife und Apps im Vordergrund. Das geht klar zu Lasten der Service-Rufnummern. Aber selbst die klassischen Websites geraten unter Druck, wenn ich unterwegs über Apps meine Dinge erledigen kann. Auch soziale Netzwerke lösen immer mehr die alten Kommunikationswege ab“, sagt Schäfer.
Über die App-Economy ist auf der VATM-Pressekonferenz so gut wie überhaupt nicht geredet worden. Entsprechend kritisch fielen meine Fragen aus an Dr. Christian Kühl, VATM-Präsidiumsmitglied und Chef von dtms, und Professor Gerpott.
Mit dem klassischen TK-Geschäft ist auf Dauer also kein Blumentopf zu gewinnen. Was wirklich passiert, hat Roman Friedrich von Booz &a Co. am Anfang des Jahres sehr viel klarer und deutlicher auf den Punkt gebracht. Ich verweise auf mein Blogpost „Die App-Economy wächst, aber nicht die Telefon-Dinosaurier“.
„Es gibt einen weiteren Druck auf die Umsätze. Das zeichnet sich seit einigen Jahren ab“, so Friedrich.
Die Netzbetreiber müssen schleunigst auf ihre Kunden hören, ansonsten verschwinden die Dinosaurier der Telekommunikation. Denn wer zu spät kommt, den bestrafen Apple und Google. Und bei Apple, Herr Professor Gerpott, ist es nicht nur das Hardware-Geschäft (siehe den Audio-Mitschnitt meiner Fragen). Schauen Sie sich an, wer im App-Geschäft am meisten Umsätze macht? Da finden Sie wohl fast kein VATM-Mitglied. Es sind Apple und Google.
Die TK-Konzerne selbst wollen ihre Hausaufgaben machen, um mit dem Preisdruck fertigzuwerden. Es werden mehr Dienste angeboten und trotzdem gehen die Preise zurück. Gut für die Verbraucher, schlecht für die Netzbetreiber. Kompensieren will man diese Gemengelage durch strukturelle Programme zur Kostensenkung. Gespart werden soll beim Netzbetrieb, durch das gemeinsame Betreiben von Netzen (Network-Sharing), durch Lean Management, Outsourcing und Synergien über Ländergrenzen hinweg – was bis zu Zusammenschlüssen auf internationaler Ebene geht, wie das Beispiel VimpelCom-Orascom beweist.
Wachsen wollen die Netzbetreiber in Angeboten für Geschäftskunden, in der besseren Pflege der Kundenbasis und in der Ausweitung des Portfolios, wie es sich Telefonica auf die Fahne geschrieben hat. Zudem soll es Dividenden-Versprechen statt Kurspflege geben. Ob das Ganze aufgeht, darf bezweifelt werden. Um die Gewinne vor Steuern, Zinsen und Abschreibungen (EBITDA) zu verbessern, wird mehr auf der Kostenseite gearbeitet und weniger an der Steigerung der Umsätze. Eine andere Option haben die TK-Dinos wohl nicht.
Wer macht die Musik im zukunftsträchtigen Mobil-Geschäft? Die Taktgeber sind auch hier Apple und Google. Von den verstaubten Telefonie-Läden ist wenig zu sehen. Das kann man jährlich auf der Mobile World erleben. Es reicht eben nicht aus, eine Digitaleinheit zu gründen, um an der Expansion der Netz-Ökonomie zu partizipieren.
Von den Netzbetreibern wird man wohl wenig sehen an Innovationen, die die Digitalisierung der Wirtschaft vorantreiben. Das ist das klassische Dilemma von Unternehmen, die ein einziges Produkt in den Markt getragen haben, um Profite einzufahren – Telefonie via Sprache. Werden die Anforderungen komplexer, wie bei der digitalen Heimvernetzung, scheitern die Telefonkonzerne. Um Neugeschäfte zu generieren, müssten diese Firmen in eine höhere Liga aufsteigen. Die Bereitschaft bei den Kunden ist da, für vernetzte Services zu bezahlen.
„Die Pläne und Erkenntnisse gibt es auch bei den Anbietern. Das bekommt man aber nicht von heute auf morgen umgesetzt“, erläutert Unternehmensberater Friedrich.
Dafür benötigt die Branche neue Köpfe und ein neues Denken. Wer zögert, wird von Apple und Google überrollt.
Auf der VATM-Veranstaltung wurde dann noch auf eine höchst bedenklich Zahl hingewiesen, die man völlig unverständlich mit der Nachfrage nach schnelleren Breitband-Anschlüssen erklärte.
Knapp 70 Prozent der DSL-Anschlüsse haben eine maximale Empfangsgeschwindigkeit von bis zu 6 Mbit pro Sekunde. Vom Ziel der Bundesregierung, bis 2014 in der Fläche auf Anschlüsse mit über 50 Mbit pro Sekunde zu kommen, sind wir meilenweit entfernt. Bislang liegt man bei 0,8 Prozent.
Gerpott betonte dann noch, dass sicherlich das Angebot eine entsprechende Nachfrage generieren würde. Richtig. Ohne Ausbau der Breitband-Infrastruktur werden sich keine neuen Geschäftsmodelle entfalten. Hier ist Industriepolitik gefragt. Das hat Friedrich auch besser auf den Punkt gebracht:
„Es gibt eine ganz starke Korrelation zwischen der Infrastruktur-Ausstattung eines Landes und dem Sozialprodukt. Hier fallen wir zurück. Im weltweiten Maßstab sinken unsere Investitionen für Festnetz, Mobilfunk und Breitbandkommunikation. Wir verschenken damit Wachstum. Das ist leider ein Ergebnis der Regulierung.“
Hier noch der rund einstündige Vortrag von Professor Gerpott als Audioaufzeichnung:
Medienanalyst Ken Doctor, einer der Hauptredner beim Düsseldorfer Kongress „The World After Advertising“, glaubt, dass auf den lokalen Medienmärkten noch viel unerschlossenes Potenzial steckt – sowohl journalistisch als auch wirtschaftlich. medial digital-Bloggerin Ulrike Langer hat ein längeres Interview mit ihm geführt. So geht Doctor davon aus, dass in der so genannten hyperlokalen Werbung noch sehr viel Potenzial für milliardenschwere Umsätze steckt – vor allem in Kombination mit mobilen Endgeräten, die den aktuellen Standort des Nutzers erkennt. Ob hier Google, Facebook oder die regionalen Verlage das Rennen machen, ist nach Ansicht von Ken Doctor offen.
„Die bisherigen Methoden, um die Interessen von Werbungtreibenden und Konsumenten zusammenzubringen, sind noch unausgereift. In dieser Woche hat Google das Modell ‚Google Boost‘ angekündigt, das lokale Internetwerbung mittels Bewertungen ankurbeln soll. AOL betreibt in den USA ein hyperlokales Nachrichtennetzwerk namens Patch mit bald 500 lokalen Seiten und einem Werbenetzwerk. Aber obwohl sie lokale Anzeigenverkäufer haben, gibt es dort praktisch nur überregionale Werbung. Dies ist wahrscheinlich die dritte Generation von Anläufen in den USA, den Markt der lokalen Anzeigen im Netz zu erschließen. Ich glaube, 2011 wird der Markt noch nicht wirklich abheben, aber ab 2012“, erläutert Doctor im Gespräch mit Ulrike Langer.
Erkennbar sei nur, dass die klassische Einweg-Werbung, die auf Masseneffekte setzt, ein Auslaufmodell ist. „Werbung ist ein altes Konzept aus der analogen Welt: Ich verkaufe Euch Anzeigenplatz, viel Glück damit. Ich habe ein Massenpublikum, wenn Du als Werbekunde etwas mitzuteilen hast – bitte sehr, versuche es. Und wenn es nicht klappt, dann vielleicht nächstes Mal. Dieses Konzept bringt den Massenmedien immer noch Milliardenumsätze ein. Aber die digitalen Medien sind auf dem Vormarsch“, so Doctor. Für Verleger und Journalisten sollten klar sein, dass Werbekunden keine Anzeigen schalten, um Medien zu unterstützen. Sie wollen Kunden gewinnen: „Und ebenso wie wir im digitalen Zeitalter viel mehr Auswahl haben, welche Medien wir auf welchen Geräten nutzen wollen, gibt es diese Auswahl auch für Werbekunden. Es ist ja nicht so, dass sie keine Werbung mehr schalten wollen. Aber sie wollen genauer als früher wissen, wieviele neue Kunden ihnen das bringt. Sie nutzen Google und performance-basierte Modelle. Sie experimentieren mit Facebook und Mobile Marketing.“
Wenn man Werbung in “Marketing Services” umbenenne, dann schrumpft der Markt für regionale Verlage nicht, dann wächst er. Unternehmen werden immer Produkte verkaufen wollen, das ist ein zeitloses Marktgesetz. Aber Verlage müssten sich wieder ins Rennen bringen, wenn es darum geht die Interessen der werbungtreibenden Unternehmen und der Konsumenten zusammenzubringen. Ob sie diese technologische Intelligenz mitbringen, für ein perfektes Matchmaking zu sorgen, bezweifle ich. Auf der Basis der Nutzerdaten, die bei Facebook und Google auflaufen, kann man die von Doctor skizzierte hyperlokale Werbung perfekt umsetzen – kombiniert mit überregionalen Kampagnen von schwergewichtigen Markenartiklern wie adidas. Siehe dazu auch: Klassische Werbung: Marschieren jetzt alle in die sozialen Netzwerke? Sind deutsche Unternehmen dazu in der Lage?
Im Kundendienst dominieren nach wie vor die klassischen Kommunikationskanäle wie Telefon, E-Mail, Fax oder Brief: Für die Integration von Twitter, Facebook, Wikis oder Apps würde es an einer klar konzipierten Strategie mangeln, kritisiert Marketingprofessorin Heike Simmet von der Hochschule Bremerhaven: „Eins ist bereits jetzt sicher. Social Media und die schlauen Applikationen des mobilen Internets werden zu starken Veränderungen in der Arbeitsweise von Call Centern führen.“ In der dynamisch wachsenden App-Economy könnten über das Smartphone umfassende Serviceleistungen angeboten werden, die jederzeit und an jedem Ort abrufbereit sind. Dazu erscheint noch im Laufe des Tages ein längerer Beitrag auf NeueNachricht.
Andreas Frank vom Möglichmacher-Blog schickte mir zu meiner Vorabmeldung gestern noch ein schönes Statement: „Wenn laut aktueller Shell Jugendstudie 96 Prozent aller 12- bis 25-Jährigen online sind und wenn diese Digital Natives zutiefst verinnerlicht haben, dass sich Informationen und Meinungen im Web 2.0 extrem schnell und extrem einfach finden und teilen lassen – Ungeduld also ständig positiv bestärkt wird – dann gibt es doch nur eine einzige, logische Schlussfolgerung für Kundendienstabteilungen: Mehr Service-Tools, die so einfach wie möglich, überall und rund um die Uhr genau die Informationen bieten, die gebraucht werden. Wenn man sich diese Kausalität ernst nimmt, führt kein Weg daran vorbei Telefon, E-Mail, Fax oder Brief durch intelligente mobile Online-Services und Apps zu ergänzen. Andernfalls wird die Call Center-Branche einen langsamen und schmerzhaften Tod sterben.“ Ding-Dong.
Das Ganze gewinnt noch an Brisanz, weil die Nutzung der Social Media-Kanäle nicht mehr auf die jüngere Generation reduziert werden kann (bin ja schließlich auch schon fast 50 Jahre alt). Auch die Älteren nähern sich immer mehr der Echtzeitkommunikation über soziale Netzwerke an. Dieser Effekt werde durch die einfach zu bedienenden Geräte wie iPhone, Android-Smartphones oder das iPad ausgelöst, glaubt Björn Behrendt, Geschäftsführer der Service-Community. „Selbst bei der Nutzung von Online-Communitys holen die über 50-Jährigen schneller auf, als man denkt“, erläutert Behrendt im Interview mit dem Fachdienst Call Center Experts. Sein Rat an die Call Center-Branche: Die Firmen sollten so schnell wie möglich ein Team aus zwei bis drei jungen Call Center-Agenten, einem Produktverantwortlichen und einem Supervisor zusammenstellen, um in einem sechsmonatigen Pilotprojekt die etablierten Social Media-Kanäle zu testen.
Google-Chef Eric Schmidt ist davon überzeugt, dass wir eine Welt mit 100 Megabit mobiler Übertragungsgeschwindigkeit erleben werden. Also wesentlich schnellere Verbindungen als heute. Jeder Mensch wird ein Smartphone in der Tasche haben. „Wenn ich eine Straße hinuntergehe, können Passanten per Livestream Informationen von der Oper, dem Kino, dem Händler und den Schulen empfangen. An der Oper könnte das Telefon dann ein Stück der Oper vorspielen. Wenn der Nutzer die Oper hasst, bekommt er eine andere Einspielung. Das allwissende System trifft also Entscheidungen in Echtzeit und versorgt die Menschen mit Informationen“, so Schmidt im Interview mit der FAZ.
In fünf bis zehn Jahren werde das Gerät wissen, was um den Nutzer herum passiert, und es wird Vorschläge machen, was für den Nutzer besonders wichtig sein kann. „Das Gerät wird also wissen, ob der Nutzer lieber Oper hört oder lieber den Film anschaut. Die nächste Stufe werden dann die Freunde sein. Das Gerät wird mir sagen, ob einer meiner Freunde auch gerade in Berlin ist und ob es ihn kontaktieren soll“, erläutert der Google-Chef. Er spricht in diesem Zusammenhang auch von der Augmented Humanity, der erweiterten Menschheit. Die Menschen sollten das, was sie tun, noch besser machen. Sie sollten produktiver werden zum Beispiel. „Computer brauchen die Hilfe des Menschen, um besser zu werden, sie brauchen Training. Auf der anderen Seite sind wir Menschen mit unserer Intelligenz überfordert, wenn es etwa um die Bereitstellung eines perfekten Gedächtnisses geht. Da stoßen wir Menschen an Grenzen. Meine Idee ist, dass wir die Computer verbessern, die den Menschen helfen, und gleichzeitig Menschen besser darin werden, die Computer zu trainieren. Das Ziel muss sein, dass die Leute weniger Zeit verschwenden und mehr Spaß im Internet haben“, sagt Schmidt.
Das kommt sehr nah an die Prognosen des Informatik-Professors Herman Maurer von der TU-Graz heran, die ich hier vor ein paar Jahren vorgestellt habe. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.
Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.
Er habe schon vor vielen Jahren den allgegenwärtigen Computer vorhergesagt: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so der Ausblick über die Entwicklung in den nächsten knapp 100 Jahren.
Ich bin der festen Überzeugung, dass diese Szenarien sehr viel schneller kommen werden. Einiges davon ist ja schon jetzt möglich!
Ich habe schon vor Jahren die Unfähigkeit der Netzbetreiber thematisiert, neue Geschäftsmodelle im Mobilfunk zu etablieren. Etwa in Kooperation mit der Funkschau. Bei einem Expertengespräch sagten damals die TK-Experten, dass neue Impulse vor allen Dingen von Unternehmen aus mobilfunkfremden Branchen zu erwarten seien. Die Strategie der Mobilfunkbetreiber, die Hand auf allem, was sich Mehrwertdienst schimpft, zu halten und zu sagen das „ist meins und ich entscheide allein darüber, was der Kunde bekommt oder nicht bekommt und was es kosten soll“ – ist nicht aufgegangen und es ist auch keine Überraschung. Die Chance liegt darin, dass die Netze geöffnet werden, auch für fremde Mehrwertdienste, eigentlich beliebige Dienste. Man kann das gut mit dem Internet vergleichen. Jeder kann anbieten was er will. Er kann seine Angebote verkaufen oder kostenlos vertreiben. Die Herausforderung liegt vielmehr darin, technische Standards zu etablieren. Wie kann ich Mehrwertdienste auf möglichst einfache Art und Weise in ein Mobilfunknetz integrieren? Welche Dienste erfolgreich sein werden, einen tatsächlichen Mehrwert, gute Umsätze und Erträge generieren, ist nur schwer vorher zu sagen und zählt nicht zu den Kernkompetenzen der Netzbetreiber. Für bestimmte Altersgruppen können es Spiele sein, für wiederum andere sind es vielleicht Börsenanwendungen. Der Phantasie dürften an dieser Stelle keine Grenzen gesetzt sein.
Der ehemalige Funkschau-Chefredakteur Bausewein sah einen Bedarf für Applikationen, die sich im Internet längst etabliert haben und sich großer Beliebtheit erfreuen. Das Billingunternehmen acoreus sagte, dass die Annnahme der Mobilfunkbetreiber falsch sei, einschätzen zu können, welche neuen Geschäftsmodelle erfolgreich sein könnten und welche nicht. Das funktioniere nicht mehr. „Die Vielfalt wird es machen, der Markt wird selbst selektieren, was erfolgreich ist und was nicht. Wichtig ist, diese Vielfalt möglich zu machen. Die Plattform dazu anzubieten. Der Verbraucher wird dann schon selektieren, was er gut findet und wofür er bereit ist, Geld zu zahlen und wofür nicht. Da müssen alle ein gutes Stück weit umdenken. Es muss ein Markt geöffnet werden für Mehrwertdienste“, so der damalige Vorstandschef von acoreus, Omar Khorshed in der Funkschau-Diskussionsrunde.
Zu einem ähnlichen Befund kommt heute der FAZ-Netzökonom Holger Schmidt: „Auf der weltgrößten Mobilfunkmesse in Barcelona gibt in diesem Jahr der Google-Chef Eric Schmidt den Ton an, während der Telekom-Vorstandsvorsitzende René Obermann nicht präsent ist. Nichts könnte symptomatischer für das aktuelle Kräfteverhältnis in der Mobilfunkbranche sein. In nur wenigen Jahren haben Google, Apple und der Blackberry-Hersteller RIM die Spielregeln des Marktes neu geschrieben und damit den Rest der einst stolzen Mobilfunkbranche in die Defensive getrieben“, kommentiert Schmidt.
Das gelte für die Gerätehersteller wie Nokia oder Motorola, noch mehr aber für die Netzbetreiber wie T-Mobile oder Vodafone, die allesamt in der Krise stecken. Denn während die Handyhersteller „nur“ ihre Geräteentwicklung an das Innovationstempo von Apple und Google anpassen müssten, sind die Netzbetreiber gezwungen, sich früher oder später ein ganz neues Geschäftsmodell zu suchen.
„Mobilfunknetze sind teuer und erfordern stetige Investitionen, zum Beispiel noch in diesem Jahr in die UMTS-Nachfolgetechnik LTE. Schließlich sollen die Netze immer mehr Daten übertragen, und das auch immer schneller. Dumm nur, dass sich damit immer weniger Geld verdienen lässt. Zumindest in den gesättigten Märkten der Industrieländer gehen die Umsätze der Netzbetreiber aus ihrem Kerngeschäft langsam, aber stetig zurück, weil die Preise für Mobilfunkgespräche wegen des Wettbewerbs sinken. Die mobilen Datendienste, die diese Lücke schließen sollen, wachsen zwar kräftig, unterliegen aber ebenfalls einem starken Preiswettbewerb“, so Schmidt.
Die bescheidenen Versuche der Netzbetreiber, neben der Datenübertragung neue Geschäftsfelder im mobilen Internet zu erschließen, seien bisher kläglich gescheitert. Siehe oben die Einschätzung der Experten vor rund drei Jahren.
Apple und Google seien nach Ansicht des FAZ-Netzökonomen kaum noch einzuholen. „Wie man es im Mobilfunkmarkt richtig macht, haben erst Apple, Google und RIM gezeigt. Mit innovativen, aber dennoch sehr einfach zu bedienenden Programmen, welche die gewohnte Webnutzung mobil gemacht haben. Mit eigenen Handy-Betriebssystemen, die ihnen einen großen Teil der Wertschöpfung sichern. Mit einem Zahlsystem, das von den Nutzern akzeptiert wird. Und mit dem Coup, ihre Systeme für Applikationen („Apps“) von externen Entwicklern zu öffnen, was lebendige Öko-Systeme geschaffen hat, aus denen stetig neue Ideen die Produkte verbessern“, schreibt Schmidt und bestätigt die Analyse von Booz & Co., die bei einem Pressefrühstück im Vorfeld der Mobile World vorgestellt wurde.
Die richtigen Schlüsse habe wohl Nokia gezogen. „Für fünf Milliarden Euro hat Nokia den Landkartendienst Navteq übernommen, eigentlich mit dem Ziel, Navigationsprodukte teuer an ihre Handykunden zu verkaufen. Als Google die Navigation kostenlos machte, zog Nokia nach. Auch ihr Betriebssystem Symbian verschenken die Finnen inzwischen – weil auch Google sein Android-System verschenkt. Das Ziel: mehr Geräte zu verkaufen, mehr Betriebssysteme im Markt zu haben oder einfach: mehr Nutzer und Kunden zu gewinnen. Nokias Wandel wurde sogar schon belohnt. Zuletzt hat das Unternehmen im lukrativen Marktsegment der hochwertigen Smartphones sogar wieder Marktanteile gegen Apples iPhone gewonnen. Und damit das Signal gesetzt, dass auch Apple und Google nicht unbesiegbar sind. Wenn man den Mut hat, nach den neuen Spielregeln zu spielen“, resümiert Schmidt. Siehe auch den NeueNachricht-Bericht: Hersteller von Navigationsgeräten verlieren ihre Geschäftsgrundlage – Experten rechnen mit neuen Vermarktungsplattformen.Unterdessen formiert sich nach einem Bericht der FTD eine neue Front gegen Apple. Mobilfunker paktieren gegen Apple. 24 führende Telekomkonzerne haben sich zusammengeschlossen, um gemeinsam Apps zu entwickeln. So soll der Erzrivale Apple eingedämmt werden. Ob sich Steve Jobs warm anziehen müsse, wie die FTD vermutet, bezweifle ich allerdings. Die spielen doch nur Trittbrettfahrer ohne in der Lage zu sein, ein solch schlagkräftiges Ökosystem aus nutzerfreundlichen Endgeräten, Apps und der Plattform iTunes aus dem Hut zu zaubern.
Das Google-Handy Nexus One hat viele Experten enttäuscht. Einzig die Spracherkennungsfunktion könne überzeugen. Ansonsten sei der Wow-Effekt, den man vom Suchmaschinen-Konzern gewöhnt ist, ausgeblieben. Der FAZ-Netzökonom Holger Schmidt hat allerdings einen wichtigen Aspekt in die Diskussion gebracht. Viel wichtiger als der kurzfristige Verkaufserfolg sei für Google die langfristige Strategie dahinter.
„Das mobile Internet wird in einigen Jahren größer als das stationäre Web sein, weil es zusätzlich den lokalen Bezug hat. Google treibt diesen Markt wie kein anderes großes Internetunternehmen voran. Die Entwicklung des frei verfügbaren Handy-Betriebssystems Android war der erste Schritt, der jetzige Einstieg in den Verkauf der Geräte sicher nicht der letzte. Schon bald wird es viele (günstige) Google-Geräte mit vielen (kostenlosen) Google-Programmen geben, in denen das Unternehmen seine Werbung plazieren kann“, schreibt Schmidt. Das Ziel sei der Aufbau eines mobilen Werbenetzes, das ähnliche Dimensionen wie im stationären Web hat. „Konkurrent Apple will in dieselbe Richtung; andere Gerätehersteller scheinen in diesem Wettbewerb der Technikgiganten schon heute nicht mehr mithalten zu können. Wenn Google aber erst anfängt, Geräte mit Werbeeinnahmen zu subventionieren, wird es für die Konkurrenz erst richtig düster“, resümiert Schmidt. Einen weiteren Punkt kann man anfügen. Das die Spracherkennung bei der Nexus One-Präsentation den Genius von Google aufblitzen ließ, ist kein Zufall. Das System ermöglicht das Diktieren von E-Mails, Navigationsbefehlen und anderen anderen Eingaben ermöglicht. Nach Auffassung von Holger Schmidt könnte damit das mühsame Tippen auf den Smartphones weitgehend überflüssig gemacht werden. Das ist der Plan von Google, die dafür die besten Sprachtechnologie-Entwickler vorweisen kann:
„Mit dem Handy kommen Menschen ins Internet, die den Weg über den PC nie genutzt haben oder nutzen werden. Aufgrund des Formfaktors, den Screengrößen, Bedienungslimitierungen und verfügbaren Bandbreiten muss die Suche, also der primäre Zugang zu allen Inhalten und Diensten, auf dem Handy erschwerten Anforderungen gerecht werden. Sie muss sich zur Antwortmaschine weiter entwickeln, die aus der Verknüpfung von Web 2.0 und dem Semantischen Web richtige ‚Antworten’ produziert, statt lange Linklisten auszuspucken. Zudem muss die mobile Suche einfach zu bedienen sein“, weiß Voice Days plus-Sprecher Bernhard Steimel.
Hier habe Google die Nase vorn. Es sei eine geniale Strategie, mit GOOG411 im weltgrößten ‚Freiland-Versuch’ das eigene Sprachmodell zu validieren und mit einer exzellenten Qualität aufzuwarten.
Eine Übernahme von Yahoo durch den Software-Konzern Microsoft hätte nach Ansicht von Voice Days Plus-Sprecher Bernhard Steimel noch Sinn gemacht. Allerdings nur beim Kampf um die Hoheit des mobilen Internets. Beim stationären Internet sei gegen Google kein Blumentopf mehr zu gewinnen. „Mit dem Handy kommen Menschen ins Internet, die den Weg über den PC nie genutzt haben oder nutzen werden. Aufgrund des Formfaktors, den Screengrößen, Bedienungslimitierungen und verfügbaren Bandbreiten muss die Suche, also der primäre Zugang zu allen Inhalten und Diensten, auf dem Handy erschwerten Anforderungen gerecht werden. Sie muss sich zur Antwortmaschine weiter entwickeln, die aus der Verknüpfung von Web 2.0 und dem Semantischen Web richtige ‚Antworten’ produziert, statt lange Linklisten auszuspucken. Zudem muss die mobile Suche einfach zu bedienen sein“, weiß Steimel.
Wer von den Suchanbietern schließlich das Rennen gewinnen werde, hängt nach seiner Auffassung davon ab, wer den „Kampf um die besten Köpfe“ mit der größten Marktmacht verbinden kann. „Den Kampf um die Köpfe hat Google bereits gewonnen – besonders durch die Art von Google, immer alles neu zu entwickeln und die geniale Strategie, mit GOOG411 im weltgrößten ‚Freiland-Versuch’ das eigene Sprachmodell zu validieren und mit einer exzellenten Qualität aufzuwarten. Und auch bei der Marktmacht hat Google noch die Nase vorn. Auf der ersten Seite der meisten TK-Unternehmen, die ihren mobilen Kunden eine Suche anbieten, steht in der Regel die mobile Google-Suche“, führte Steimel aus.
Das gestern verkündete Kooperationsmodell zwischen Microsoft und Yahoo sei allerdings eine Totgeburt. Hier stimme Steimel mit der Analyse von netzwertig überein. Wenn der Blinde mit dem Lahmen marschiert, entstehe kein Weltklassesprinter. „17 Monate nach den ersten Fusionsgerüchten haben Microsoft und Yahoo sich nun endlich auf eine langjährige Zusammenarbeit geeinigt. Doch auch wenn dieser ausgesprochen wirre Deal kurzfristig ein Gegengewicht zu Google schafft, wird er die beiden Firmen nicht vor ihrem Abstieg im Internetgeschäft retten“, spekuliert netzwertig. Es könne sehr gut sein, dass Microsoft und Yahoo mit diesem überkomplizierten Deal Google endgültig die Dominanz bei der Websuche geschenkt haben.
„Der Deal ist aus der Not geboren und wird in der praktischen Umsetzung scheitern, wie viele anderen strategischen Kooperationen zuvor. Wenn man mit aller Macht konsolidieren will, dann wäre eine Fusion wohl der bessere Weg gewesen“, resümiert der Kundenservice-Experte Steimel.
Anders als in den vergangenen Jahren, in denen auch qualitativ hochwertige Suchdienste wie Ask.com beharrlich ignoriert wurden, scheint die Bereitschaft zu wachsen, bei Suchmaschinen sich auf etwas Neues einzulassen. Das schreibt Spiegel-Online-Redakteur Frank Patalong: „Was auch daran liegen könnte, dass wahrgenommen wird, dass Google nicht in jeder Hinsicht das Rad erfunden hat. So wird eifrig über die Entwicklung einer Twitter-Suchmaschine im Hause Google spekuliert. Die müsste dann aber wohl gegen den Twitter-Suchdienst CrowdEye.com des langjährigen Microsoft-Suchdienstentwicklers Ken Moss antreten“. Moss sei kein Frühstarter.
„Längst haben sich mit OneRiot und Topsy zwei Twitter-Suchdienste etabliert. Der Vorgang ist typisch: Erst, wenn sich die Großen bewegen, entsteht auch Aufmerksamkeit für die Leistungen der Kleinen. Während die Tech-Presse erneut über semantische Suche diskutiert, probieren Dienste wie Hunch.com neue Ansätze, das Web intelligenter zu erschließen. Hunch versucht, Suchanfragen durch thematische Einengung näher zu definieren, um zu treffsichereren Ergebnissen zu kommen. Mitunter klappt das ganz prächtig und zeigt viel Potenzial, mitunter grenzt es an Realsatire“, so Patalong.
Internet intelligenter erschließenHunch sei das Gegenstück zu Wolfram Alpha (WA), dem Dienst, der wenig, das aber sehr genau weiß: „WA ist stark, wo es um Sachliches geht, Hunch dort, wo es nach Pop riecht – sie sind E- und U-Suchmaschinen, wenn man so will. Aber Hunch lebt vom Konzept, durch seine Nutzer zu lernen. Man muss der Sache also Zeit geben. Das sind die Dinge, die dafür sorgen, dass die wirklich großen Suchdienste populär bleiben. Mitunter haben die Kleinen mehr Klasse, doch es fehlt an Masse“, führt Patalong aus. Bemerkenswertes verortet er in Berlin: Eyeplorer.com sei ein Dienst, der für semantische Verbindungen sorgt. Auf Basis der erfassten Wikipedia-Daten visualisiere EyePlorer thematische Querverbindungen. Man komme zu überraschenden Ergebnissen. Der Nutzer wird auf Themenreisen durch Cluster von Artikeln geführt, die thematisch verknüpft sind. „So etwas für das gesamte Web umzusetzen, statt ‚nur’ für die Inhalte der Wikipedia, würde dem Traum vom semantischen Web schon sehr nahe kommen. Denn da geht die Reise hin, für alle Player auf dem Markt: Keine Frage, dass auch Google, Yahoo oder nun Bing versuchen werden, immer mehr solche semantischen Features in ihre Dienste zu integrieren“, resümiert Patalong.
Die Inhalte im World Wide Web wachsen allerdings mit einer schnellen Geschwindigkeit. In Zukunft werde eine Indexierung immer schwieriger, selbst wenn man neuartige Methoden auf Basis von semantischen Verbindungen oder künstlicher Intelligenz auf den Markt bringt, meint Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi. „Wirklich mächtige Suchmaschinen können meiner Ansicht nach erst dann entstehen und Zusatznutzen stiften, wenn sich die Spezifikationen des World Wide Web Consortium (W3C) in der Breite durchsetzen. Mit anderen Worten müssen die großen Softwareanbieter bei der programmiertechnischen Kennzeichnung semantisch verwertbarer Inhalte eine Vorreiterrolle übernehmen“, erklärt Internetexperte Behrendt.
Neue Dienste durchs mobile Internet
Impulse erwartet Sprachdialogexperte Lupo Pape vom mobilen Internet: „Das mobile Internet ist erst in Ansätzen erkennbar. Da ist vor allen Dingen in Europa noch sehr viel Marktpotenzial vorhanden. So kann niemand vorhersagen, was passiert, wenn beispielsweise ortbasierte Services auf auf Web 2.0-Communities treffen. Natürlich hat das eine enorme Sprengkraft wenn Giganten wie Apple, Google, Microsoft und Nokia aufeinander treffen und gleichzeitig noch Heerscharen von Applikationsentwicklern auf deren freigegebenen Plattformen innovative Dienste für den mobilen Nutzer entwickeln und täglich neue Dienste auf den Downloadcharts vom Apple-Store oder OVI stehen“, erläutert Pape, Geschäftsführer von SemanticEdge in Berlin.
Die Innovationsgeschwindigkeit verlaufe zur Zeit ungehemmt, keiner weiß, wo das hinführen wird und wie sich unser Leben und wie sich insbesondere auch die Wertschöpfungsketten in der Wirtschaft verändern werden. „Interessant ist, dass trotz der ganzen Vielfalt der Software, Hardware und Anwendungen, die sich dahinter verbergenden Nutzungsszenarien der Endverbraucher meist sehr einfach bleiben: ‚Wo ist der nächste Fahrradladen?’; ‚Welche Freunde sind gerade in der Nähe?’; ‚Wie gut ist der Inder dort an der Ecke?’; ‚Gibt es die Kamera noch irgendwo billiger?’“, so der Sprachdialogexperte Pape. Das seien Nutzungsszenarien, die nach einer Spracherkennung und einem Sprachdialog geradezu schreien.
„Wenn es gelingt, den Sprachdialog in die mobilen Anwendungen einzubinden, dann wird die ganze Entwicklung noch einmal eine neue Dimension bekommen. Spracherkennung und Sprachdialog werden auch der Schlüssel dafür sein, Bevölkerungsgruppen an der Entwicklung teilhaben zu lassen, die von der neuen Technologie bisher ausgeschlossen sind“, resümiert Pape. Das müssten die großen Anbieter in ihren Strategien für das mobile Internet berücksichtigen.