In mehreren sehr guten Berichten sind die Neuro-Thesen von Manfred Spitzer demontiert worden. Besonders gefallen hat mir der gestrige Beitrag in der Frankfurter Allgemeinen Sonntagszeitung: „Mein Kopf gehört mir“.
„Digitale Demenz“ sei ein unleserliches Buch, ein aus rostigen Studien, lahmen Alltagsweisheiten und gebrauchten Papers zusammengeschweißtes Konvolut, und wenn man ihm die Ferne zu seinem Gegenstand nicht auf jeder Seite ansehen würde, würde man ein Computerprogramm aus dem Internet für seinen Autor halten, schreibt Harald Staun.
„Vielleicht wäre es wirklich das Beste, wenn man kein Wort mehr darüber verlöre. Dummheitsbücher haben Konjunktur, das wird sich so schnell nicht ändern. Doch leider ist Spitzers Beitrag nicht einfach der übliche Kulturpessimismus; es ist Kulturpessimismus im Gewand der Naturwissenschaft. Spitzer verbreitet nicht seine Meinung, er doziert Gesetze.“
„Ihre Autorität gewinnen die Erkenntnisse der Hirnforschung vor allem aus den bunten Bildern der funktionellen Magnetresonanztomographie (fMRT). Weil sich dieser Blick ins Innere des Kopfes auch bei lebenden Menschen relativ unkompliziert vornehmen lässt, kann man so einem Hirn auch dabei zusehen, wenn es tut, was es eben tut: Sauerstoff verbrauchen, Glucose verbrennen, Botenstoffe ausschütten, Synapsen bilden“, so FAZ-Redakteur Staun.
„Man sollte sehr misstrauisch sein gegenüber den Weisheiten, die aus diesem Bereich kommen und zwar insbesondere wenn sie über die Macht der Bilder erzielt werden. Fast alle Medien würden zur Zeit Bilder der Kernspintomographie veröffentlichen. Da taucht ein Fleck im Gehirn auf, also muss das irgendwas bedeuten“, so Scheich. Da gebe es sehr viel Rattenfängerei. Es sei einfach nicht richtig zu glauben, wenn die Birne aufleuchtet und die Aktivierung im Gehirn größer wird, ein besserer Zustand des Gehirns erreicht werde.
Im Gegenteil:
„Große Aktivierung im Gehirn bedeutet Unsicherheit des Gehirns. Wenn Sie Aufgaben untersuchen, wie sie gelöst werden, von unsicherem Status bis zum Profi, dann finden Sie eine negative Korrelation mit der Größe der Hirnaktivierung. Der Profi setzt eigentlich nur noch seine spezifischen Mechanismen für etwas ein“, so der Hinweis von Professor Henning Scheich, Direktor des Leibniz-Instituts für Neurobiologie in Magdeburg.
Gehirnjogging mit riesiger Hinaktivierung nachzuweisen, sei Unfug. Die kleine Aktivierung, die beim scharfen Nachdenken von einem Profi produziert werde, das ist die eigentliche Aktivierung, die richtig ist.
Der Züricher Neuropsychologe Lutz Jähnke hält den Erklärungsdrang vieler seiner Kollegen für eine „problematische Grenzüberschreitung“.
„Und wer an wissenschaftliche Beweise glaubt, sollte sich einmal die Studie durchlesen, in der ein Team von Psychologen aus Yale vor ein paar Jahren ermittelte, dass selbst absolut unlogische Aussagen Glaubwürdigkeit genießen, wenn dabeisteht, dass Ergebnisse aus dem Hirnscanner ihre Richtigkeit unterstreichen“, erläutert Staun.
Die Süddeutsche Zeitung erwähnt den Wiener Arzt und Anti-Aging-Aktivisten Johannes Huber. So sei es angeblich gesund und führe zu einem längeren Leben, wenn man sich von einem anständigen Abendessen fernhält.
„Da er wohl ahnt, dass seine Thesen einer seriösen wissenschaftlichen Prüfung nicht standhalten, streut Huber gerne allerlei Abbildungen von Gensequenzen, histologischen Färbungen und molekularbiologischen Analysen in seine Vorträge. Dieses pseudowissenschaftliche Allerlei ist inhaltlich nur zusammenhangsloser Zierrat, beeindruckt aber viele Zuhörer wie auch die meisten Leser seiner Bücher. Sie verstehen zwar nicht so genau, was da gezeigt wird, denken sich aber: Der Mann kennt sich aus!“
Den Neuro-Fritzen sollte man etwas mehr auf die Pelle rücken.
Im Neuro-Psycho-Zeitalter sind wir scheinbar umgeben von pathologischen Phänomenen.
Wer sich durch unbedachte Einkäufe verschuldet, leidet unter Kaufsucht. Wer nicht an Verhütung denkt, unterliegt der Sexsucht. Wer an Gesprächen nicht teilnimmt, krankt an sozialen Phobien. Ständige Grübeleien über Nichtigkeiten weisen auf Angststörungen hin. Und folgt man der monokausalen Analyse des Autors Manfred Spitzer produziert der übermäßige Konsum von digitalen Medien Heerscharen von Internetsüchtigen mit der Tendenz zur Hirnschrumpfung.
Vielleicht leiden die selbsternannten Neuro-Experten selbst unter einer speziellen Form von pathologischer Schnappatmung im Verbund mit einer interneuronal-molekularen Dysbalance.
Natürlich beeinflusst die Internet-Nutzung das Gehirn – genauso wie Fahrradfahren und alle anderen menschlichen Tätigkeiten und Erfahrungen auch. Selbst Neurowissenschaftlerin Maryanne Wolf, die vor den Gefahren des digitalen Lesens warnt, räumte im Interview mit der Süddeutschen Zeitung ein, dass es bis jetzt kaum harte Fakten zu den Auswirkungen des Lesens an einem Bildschirm gibt. Dann sollten die Neuro-Fanatiker den Ball vielleicht etwas flacher halten in ihrem spekulativen Hirn-Biotop.
Ob sich unser Bewusstsein verändert und wir zu Abziehbildern von Computerprogrammen degradiert werden, ist ein höchst unterhaltsamer Ansatz für Debatten auf Bild-Niveau. Das hat eher den Charakter eines „Wrestling-Events“, wie es der Soziologe Gerhard Schulze ausdrückte. Statt Inhalte werden nur Etikettierungen ausgetauscht. Die einen sind Panikmacher, die anderen Zyniker. Man geht zur Tagesordnung über und sucht sich einen neuen Spielplatz, um „Alarm“ zu brüllen.
„Es ist ja nicht zu bestreiten, dass die Maschinen in vielen Teildisziplinen stärker und besser sind als Menschen. Angefangen bei der Muskelkraft. Heute käme niemand auf den Gedanken, mit einem Industrie-Roboter sich im Armdrücken zu messen“, erläutert Systemingenieur Bernd Stahl von Nash Technologies. Beim Schach oder bei Quizsendungen würde es ähnlich aussehen. Gegen IBM-Watson sei kein Kraut gewachsen. Ob das Internet vergesslich oder dumm macht, hänge nicht mit dem Internet zusammen, sondern liegt an dem, der es benutzt. „Hier wabert viel Spekulatives und man begibt sich auf wackeligen Grund“, so Stahl.
Ob nun Dinge analog oder digital vorliegen, ist in erster Linie nur eine Zustandsbeschreibung. Und Internet-Nutzer nach höchst fragwürdigen Kriterien als krankhaft abzustempeln, ist diskriminierend und anmaßend.
„Die Spitzer-Debatte verläuft eigentlich so wie sie in solchen Fällen immer läuft. Wir müssen verstehen, dass es in Deutschland noch immer ganz viele Menschen gibt, die vor der digitalen Welt eine riesengroße Angst haben. Diese Menschen suchen sich diejenigen, die ihnen kontinuierlich bestätigen, dass man davor Angst haben muss. Es hat viel damit zu tun, dass wir in den Medien seit sehr langer Zeit nur die negativen Aspekte des Themas beleuchten. Ein gutes Beispiel ist hier die Diskussion um Facebook, die in der Regel nur aus der Sicht des Datenschutzes und der Privatsphäre diskutiert wird. Wenn man den Menschen aber sagt, dass beispielsweise Jugendliche bei Facebook geschlossene Gruppen nutzen um ihre Hausaufgaben gemeinsam zu machen, gibt es immer ein großes Erstaunen. Wir haben eine sehr starke Fokussierung auf die vermeintlichen Gefahren der digitalen Welt. Solange man aber in diesem Gedankengebäude verharrt und nicht weiter darüber nachdenkt, ist man gefangen in der ‚Spitzer-Ideologie‘“, sagt der Gaming-Experte Christoph Deeg.
Das Buch „Digitale Demenz“ sei nach seiner Ansicht kein wirklich gut geschriebenes und schon gar kein wissenschaftliches Werk.
Vielleicht übertragen omnipräsente Persönlichkeiten wie Manfred Spitzer auch nur ihre eigenen Ängste, Visionen oder Wünsche auf die ganze Gesellschaft und instrumentalisieren dafür die Neurowissenschaft. Seine Wenn-Dann-Denkweise unterschätzt die Komplexität des Gehirns und die vielfältigen Möglichkeiten des Digitalen. Soweit ein Auszug meiner heutigen Kolumne für Service Insiders.
In ausführlicher Form wird das wohl in Buchform in Zusammenarbeit mit Christoph Deeg weitergehen. Ein Verlag hat schon Interesses bekundet. Mal schauen, wie schnell wir das auf die Beine stellen.
Wer noch mitmachen möchte, ist herzlich eingeladen 🙂
Für den Systemingenieur Bernd Stahl liegt die Lösung in dezentralen Strukturen, die für mehr Konkurrenzdruck sorgen könnten.
„Immer mehr Leute denken über sogenannte Mesh-Networks nach. Es wäre eine Renaissance des ursprünglichen Internet Spirits“, so Stahl von Nash Technologies.
Internet ohne Kontrollpunkte
Personalisierte Cloud-Dienste unterliegen dann keinem Diktat mehr von Algorithmen oder moralinsauren Web-Konzernen. Ähnlich sieht das Felix Stadler von der Zürcher Hochschule der Künste. Anstatt auf eine zentrale und zentralisierte Infrastruktur zu vertrauen, die Vernetzung organisiert, werde eine neue Generation von Plattformen entwickelt, die auf dem Prinzip der Maschen (engl.: mesh) beruht. Eine gemeinsame Infrastruktur soll durch die Vernetzung vieler einzelner lokaler Netze entstehen, die Daten untereinander weiterreichen. Damit würden die zentralen Kontrollpunkte des Netzes entfallen und man stärkt das emanzipatorische Potenzial des Netzes.
Virtuelle Assistenzsysteme wirken dann als Stützpfeiler und nicht als Heilige Inquisition. Sie befreien mich von ärgerlichen Routinearbeiten. Nicht mehr und nicht weniger. Der Rest wird bestimmt durch die eigene Intuition und die kann man auch künftig nicht perfekt vorhersagen.
Unendlich viel wichtiger als die nächste stirnfaltige Beschwerde über Google & Co. wäre es, die Schaffung einer nichtkommerziellen digitalen Öffentlichkeit auf die politische Agenda zu setzen, die nicht den Regeln der Börsen folgt. Das nötige Geistkapital für eine Anti-Monopol-Strategie sei in der deutschen Forschungslandschaft vorhanden, so der Netzwerkspezialist Bernd Stahl. Das Ganze könnte sogar noch mit einer Verbesserung der Netzqualität angereichert werden:
„Mein Traum ist ein Social Media Dial Tone. Darüber ist noch nicht viel gesprochen worden. Einen Dial Tone kennt jeder von uns aus dem Telefon – es geht um den Wähl-Ton. Er garantiert den ständigen Zugriff auf Dienste, unabhängig vom Operator und vom Aufenthaltsort meines Kommunikationspartners sowie ohne Ausfälle, die bei Skype, Twitter, Facebook oder Apps an der Tagesordnung sind. Beim Social Media Dial Tone stürzt nichts ab. Keine Mehrfachkonten. Keine separaten Social Media-Inseln. Ein Access. Ein View. In alle Netze. Semantisch angereichert. Sozusagen unter einer Haube. Wieso muss der Wildwuchs-Spaghetti der Entwickler dem Internet-Nutzer eins zu eins zugemutet werden? Es geht darum, aus sozialen Netzwerken echte Services zu generieren: vernetzt, hochverfügbar, flexibel und unabhängig vom Endgerät“, erklärt Stahl.
Hier schon mal ein Vorgeschmack: Es sei nicht eine einzelne Technologie, so Rieger, die zu den Umwälzungen beiträgt, sondern die Kombination und gegenseitige Potenzierung paralleler Entwicklungen. Dieser digitale Tsunami könnte ganze Branchen umpflügen und selbst qualifizierte Berufe wegspülen:
„Es sind nicht länger nur die Fließbandarbeiter, deren Job durch einen Roboter ersetzt werden kann. Es sind auch Buchhalter, Anwälte, Personalentwickler, Marketingmitarbeiter, sogar Journalisten und Wissensvermittler, also Lehrer und Professoren, die sich Sorgen um ihr berufliches Arbeitsfeld machen müssen. Diese Veränderungen sind nicht nur rein technischer Natur, die Kombination von Vernetzung, Computerleistung und einer Umgewöhnung der Kunden schafft einen qualitativen Sprung, und das kann sehr schnell dramatische Auswirkungen haben – wie etwa das Beispiel der verschwindenden Reisebüros zeigt“, erläutert Rieger.
Eine Verbrauchssteuer für Algorithmen?
Wie könnten also Wirtschaft und Gesellschaft weiter funktionieren, wenn immer weniger Menschen noch eine dauerhafte Arbeit haben, die gut genug entlohnt wird, dass davon Steuern, Sozialversicherungs-, Renten- und Krankenkassenbeiträge gezahlt werden können? Der Vorschlag des Chaos Computer Club-Sprechers klingt auf den ersten Blick logisch: Ein schrittweiser, aber grundlegender Umbau der Sozial- und Steuersysteme hin zur indirekten Besteuerung von nichtmenschlicher Arbeit und damit zu einer Vergesellschaftung der Automatisierungsdividende.
Was heißt das konkret?
Eine Steuer auf den Konsum von Künstlicher Intelligenz, eine Luxusabgabe für den Einsatz von besonders leistungsfähiger Software oder eine höhere Mehrwertsteuer für Algorithmen? Bei indirekten Steuern wird die Steuer über den Preis einer Ware oder Dienstleistung erhoben. Problem: Jeder Verbraucher wird unabhängig von der Höhe seines Einkommens mit einem annähernd gleichen indirekten Steuerbetrag belastet wird – das Prinzip der Leistungsfähigkeit bleibt auf der Strecke.
An dieser Stelle muss Rieger etwas konkreter werden und sich mal äußern zur Frage der Steuergerechtigkeit.
Rieger-Manifest ohne empirisches Fundament
Aber nicht nur an dieser Stelle gibt es Klärungsbedarf über das Manifest für eine Sozialisierung der Automatisierungsdividende:
„Es ist richtig, dass wir Fortschritte in der IT haben – auch in der Automatisierung. Die Diskussion ist aber viel älter als es scheint. Es geht schon los in der Science Fiction von 1842, wo darüber spekuliert wird, dass Maschinen die menschliche Arbeit übernehmen und die der Einsatz von Menschen nur noch eine Option sei. Und wir finden das auch in der klassischen marxistischen Lehre, der die Welt in Proletarier und Bourgeoisie einteilt, wo das Innehaben von Produktionsmitteln zu einem Mehrwert führt. Das kann man analog zur Dividendentheorie von Rieger betrachten. Der Computer als Produktionsmittel erzeugt einen Mehrwert, der den Kapitalisten zufällt. Dieses Gedankengut ist 150 Jahre alt. Danach hatten wir ähnliche Diskussionen in den 1970er Jahren über Rationalisierung und Humanisierung der Arbeitswelt. Da hat man schon versucht, die tayloristischen Prozesse in den Fabriken menschenfreundlicher zu gestalten und das hat ja zu Dingen wie das Betriebsverfassungsgesetz, der Arbeitsstätten-Verordnung, Gesundheitsregeln und kollektiven Arbeitszeitregeln geführt. Was wir jetzt im Zusammenhang mit Computern diskutieren, hat bereits mit dem Beginn der Industrialisierung angefangen“, so der Internet-Berater Christoph Kappes im Gespräch mit Service Insiders.
Leider bleibe Rieger bei seinen Thesen auf einem feuilletonistischen Niveau, ohne empirische Belege zu liefern. Wenn es beispielsweise um maschinelle Textgenierung gehe, beschäftigt man sich in der Regel mit Daten, denen keine weiteren Informationen hinzugefügt werden.
Rieger sage einfach nur, Maschinen machen Arbeiten, die bislang von Menschen erledigt wurden, also werden die Menschen arbeitslos: Das sei falsch. Die gesamte Geschichte der technischen Industrialisierung belege das Gegenteil. In Dienstleistungsberufen arbeiten heute rund 70 Prozent der Beschäftigten. Das hätte Karl Marx nie für möglich gehalten. Arbeit wurde nur in industriellen Kategorien gedacht. Selbst der geistige Vater der Marktwirtschaft, Adam Smith, wertete die Arbeit von Kirchenmännern, Anwälten und Ärzten als „unproduktiv und ohne Wert“.
„Die geschichtliche Evidenz steht im Widerspruch zu den Thesen von Rieger. Müssen sich nun Professoren, Lehrer und Marketingmanager Sorgen um ihre Zukunft machen? Das Internet bietet Informationen, die vorher so nicht verfügbar waren. Aber das heißt ja noch lange nicht, dass diese Informationen in Wissen transformiert werden. Beim Wissen geht es um tiefes Verstehen, um Ad-hoc-Nutzen, um Anwendungsorientierung und um die Entwicklung von Intuition. Da geht es um menschliches Wissen und nicht nur um maschinelle Informationen. Hier wirkt sich das Internet nicht als negativer Indikator aus. Wir haben Datenrohmaterial und müssen das in Wissen ummünzen. Es gibt sicherlich Fortschritte beim E-Learning. So findet man alle Vorlesungen des MIT auf Youtube. Bestimmte Frontalvorlesungen werden nicht mehr belegt. Es kommt darauf an, wie soziale Systeme auf diese Entwicklungen reagieren. Es muss ja nicht zu einer Reduktion der Professorenstellen führen. Spitzenvorlesungen kann man heute im Netz abrufen. Man könnte jetzt die Anforderungen erhöhen, die Professoren erfüllen müssen. Professoren können mehr forschen und in den direkten Dialog mit Studenten treten. Das führt zu einer Beschleunigung der Wissensaufnahme. Dieser Effekt ist sehr positiv. Die Entscheidung über einen Stellenabbau liegt bei uns. Deshalb verstehe ich die Maschinenlogik von Frank Rieger nicht. Unser Anspruch wird sein, dass noch mehr Wissen in die Köpfe kommt. Es ist zum Teil gar nicht belegbar, ob Maschinen wirklich zu einer Steigerung der Produktivität beitragen“, erläutert Kappes.
Steigert Informationstechnologie die Produktivität?
Erinnert sei an das Paradoxon der Informationstechnologie.
„Bis zum Jahr 2000 gab es keine belastbaren Studien, die den Produktivitätsfortschritt durch den Einsatz der IT untermauern. Wenn in Konzernen bei einem IT-Kostenanteil von 50 Prozent eine Fehlallokation auftritt, müssen die IT-Investitionen in die Tonne getreten werden. Macht man alles richtig, können die 50 Prozent IT-Kosten sich als hervorragender Hebel erweisen. So einfach ist das alles nicht. Selbst wenn man davon ausgeht, dass Informationstechnologie immer zu einem Produktivitätsfortschritt führt, treten Kompensationseffekte auf. Es fallen die Preise und auf der Kundenseite steigt das Realeinkommen. Das sehen wir bei ja bei Software. Da hat Rieger wirtschaftlich überhaupt nicht nachgedacht. Es gibt immer zwei Möglichkeiten: Sinkende Priese führen zu einem höheren Realeinkommen und Wohlstand der Verbraucher. Oder der Preis bleibt gleich und es steigt die Leistungen, wie man es bei PCs beobachten kann. Die Theorie, dass die Maschinen-Dividende beim Unternehmen bleibt, halte ich für Unsinn“, so das harte Urteil von Kappes.
Zwei Bergsteiger auf dem Weg zum Mond und der Nutzen marxistischer Ökonomie
Ebenso skeptisch beurteilt Dr. Gerhard Wohland, Leiter des Instituts für dynamikrobuste Höchstleistung, die Weissagungen von Rieger:
„Aussagen über die Zukunft haben eines gemeinsam, sie sind nur zufällig richtig. Die Welt ist keine Maschine, bei der sich die Zukunft aus der Vergangenheit ergibt. Die Zukunft der Welt ist grundsätzlich offen.“
Auch Wohland sieht die Analogien zu Karl Marx.
„Das ist löblich, aber selbst dieser große Denker konnte die Zukunft nur durch ein Schlüsselloch sehen. Auch machen es die vielen Geister im Text schwer zu ergründen, was der Autor eigentlich meint. Wer zum Beispiel ist ‚Wir‘? Die Profiteure, die Leidenden, der Autor und ich als Leser, oder alle zusammen? Wer ist ‚der Mensch‘? Es hat den Anschein, es ist eine Person, die handelt und denkt und sich an Kommunikation beteiligt. Hat ihn, ‚den Menschen‘, schon jemand gesehen? Nein, es sind Geister“, erwidert Wohland vom Ityx-Thingtank.
An der Diskussion, ob „der Computer“ „den Menschen“ eines Tages überflügeln werde, möchte Wohland sich nicht beteiligen. Denn sie sei ähnlich spannend wie die Diskussion zweier Bergsteiger auf dem Weg zum Gipfel über die Frage, ob man gerade auf dem Weg zum Monde sei.
Wohland empfiehlt weiteres Nachdenken:
„Eine vollautomatische Produktion kann keinen ökonomischen Wert erzeugen und damit auch keinen Profit. Beispiel: die Produktion des allgemein zugänglichen Luftsauerstoffs. Kein Wert, kein Preis, kein Profit. Profit wird also immer von Menschen produziert. Maschinen schaffen keinen Wert, sie übertragen ihn nur auf Produkte. Deshalb hilft gegen die Verelendung der Produzenten nur deren Organisierung. Wenn ein ‚Wir‘ entsteht, kann die Herstellung von Profit verweigert werden. Diese Gewalt kann Interessen durchsetzen. Ich hätte nicht gedacht, dass ich meine verstaubten Kenntnisse der marxistischen Ökonomie nochmal brauchen könnte.“
„Je höher der Bildungsgrad der durch Echtzeitalgorithmen ersetzbaren Berufsstände, desto größer die Einsicht in die offensichtliche Eigendynamik der Innovationsintensität, hoffentlich verbunden mit energetischen Initiativen, die die notwendigen Veränderungen des Steuersystems mit Verve und Expertise voran treiben.“
Entscheidend sei jetzt die breite und vorausschauende öffentliche Diskussion über einen finanzierbaren und wünschenswerten Gesellschaftsentwurf, in dem Kreativität, soziales Engagement und familiäre Sorge eine überraschende neue Aufwertung erfahren könnten.
Unabhängig von den volkswirtschaftlichen Verwerfungen, die Frank Rieger nicht mit Fakten untermauert, rechnet auch Bernhard Steimel von der FutureManagementGroup mit gewaltigen Verschiebungen in Wirtschaft und Gesellschaft. Ein wichtiger Zukunftstrend sei die wachsende Autonomie der Verbraucher.
„Das Internet bietet heute schon dem vernetzten Kunden vielfältige Möglichkeiten, um Social Software und das Expertenwissen seiner Peers zu nutzen. Serviceautomatisierung und Selbstberatung sind aus meiner Sicht zwei Seiten der gleichen Medaille und haben die Tendenz, sich gegenseitig zu verstärken. Das wird von vielen Führungskräften in seinen Auswirkungen zuweilen unterschätzt. Oftmals befinden sie sich in der Kurzfrist-Falle und richten ihre Entscheidungen an den Erfordernissen des Tagesgeschäfts aus. Unsere Erfahrung zeigt, es lohnt sich, den Blick in die nächste Ära des eigenen Geschäfts zu richten, um Zukunftschancen frühzeitig zu nutzen, bevor krisenhafte Entwicklungen wie bei Videotheken oder Reisebüros eintreten, die nur noch wenig Handlungsspielraum bieten“, rät Steimel.
Hörfunkjournalist und Blogger Heinrich Rudolf Bruns hält eine Maschinensteuer in Kombination mit dem bedingungslosen Grundeinkommen für diskutabel. „Wer durch eine Maschine ersetzt wird und keine Angst mehr haben muss, dass er darbt, weil die Besteuerung der Maschine seinen Lebensunterhalt sichert, der kann sich auf Neues einlassen.“
Soweit die die unterschiedlichen Reaktionen auf den sehr sinnvollen Debattenbeitrag von Frank Rieger. Das Thema wird uns mit Sicherheit weiter beschäftigen. Vielleicht auch auf unserem Blogger Camp, dass wir (Heinrich Bruns, Hannes Schleeh, Bernd Stahl und icke) für den September planen. Näheres folgt in den nächsten Wochen.
Wer schon jetzt Lust verspürt, sich an den Vorbereitungen zu beschäftigen, kann sich direkt bei mir melden. Hier einfach einen kurzen Kommentar hinterlassen.
Er erkannte sofort die wirtschaftliche und gesellschaftliche Dimension der elektrischen Nachrichtenübertragung. Mitte Oktober 1877 wurde Stephan ein Bericht der Zeitschrift „Scientific American“ vom 6. Oktober 1877 über Bells Telefon vorgelegt. Schon am 24. Oktober hat er zwei Telefone in Händen. Es waren die ersten Apparate, die überhaupt nach Europa kamen. Schon am gleichen Tage beginnt der Generalpostmeister mit den ersten Versuchen in seinem Amtsgebäude. „Dann werden das Generalpostamt Berlin, Leipziger Straße und das Generaltelegraphenamt in der Französischen Straße verbunden“, schreibt Hermann Heiden in seinem Buch „Rund um den Fernsprecher“, erschienen 1963 im Georg Westermann Verlag.
Am 26. Oktober erklärt Stephan: „Meine Herren! Diesen Tag müssen wir uns merken“. Es war die Geburtsstunde des Fernsprechers in Deutschland.
„Ende 1877 sind es 19 Orte, Ende 1880 bereits 1000 geworden, die über den Fernsprecher Anschluss an das Telegrafennetz erhielten. In Amerika war der Fernsprecher zur Errichtung von Fernsprechnetzen in Städten und zur Herstellung von Privattelegrafenlinien benutzt worden. Dass man ihn zur Erweiterung des staatlichen Telegrafennetzes benutzte, war etwas ganz Neues“, erläutert Heiden.
Die Widerstände in Deutschland gegen die Einführung des Telefons waren so groß, dass Stephan sich mit der Bitte an die Ältesten der Kaufmannschaft wendet, ihm geeignete Persönlichkeiten zu nennen, die bereit wären, gegen Vergütung die Werbung für den Fernsprecher in die Hand zu nehmen. Die Wahl fällt auf Emil Rathenau, den späteren Gründer der AEG. 1897, im letzten Lebensjahr des Generalpostmeisters, werden in Berlin von neun Fernsprechämtern 170 Millionen Gespräche vermittelt. Davon 20 Millionen Ferngespräche nach den von Berlin zu erreichenden Orten mit Fernsprechanschlüssen.
Drei Jahre später schreibt die „Berliner Illustrirte“ stolz, dass Berlin mehr Fernsprechanschlüsse habe als ganz Frankreich mit Paris und dass es sogar London und New York übertreffe. In den Haushaltsberatungen 1889/90 schildert Stephan seine Schwierigkeiten bei der Durchsetzung der Telefone. Seine Worte kommen mir irgendwie bekannt vor:
„Es ist kaum glaublich, wie ich über die Achsel angesehen wurde, wenn ich mit Begeisterung von dem Instrumente sprach, wie man hier in Berlin in den ersten Häusern und in den intelligentesten Kreisen vielfach meinte: ach das ist wohl amerikanischer Schwindel, ein neuer Humbug, das waren die Reden, die ich täglich zu hören bekam. Ich habe erst einige Agenten herumschicken müssen, um die ersten 100 Firmen, ich möchte sagen, zu überreden, dass die Einrichtung nur überhaupt ins Leben gesetzt wurde. Es war das ein neuer Beweis dafür, wie zurückhaltend, um nicht zu sagen misstrauisch, der Deutsche häufig neuen Unternehmungen, Gestaltungen und Entwicklungen gegenüber ist und wie schwerfällig er mitunter daran geht.“
„Die Beharrlichkeit, Weitsicht und Intuition des Generalpostmeisters könnten wir heute sehr gut gebrauchen, um für die vernetzte Ökonomie die modernste Infrastruktur zu schaffen. Nur so ist wirtschaftliche Prosperität möglich – von der Logistik bis zur Energiewende“, schlussfolgert der Technologieexperte Bernd Stahl von Nash Technologies.
Ich schließe mich dieser Einschätzung an und fordere auf dem nächsten IT-Gipfel in Essen wenigstens den Hauch eines Heinrich-von-Stephan-Geistes.
Es fehlt bislang eine wirklich wissenschaftliche Biografie über Leben und Werk des Generalpostmeisters. Eigentlich peinlich. Es gab mal vor Ewigkeiten eine interessante Ausstellung inklusive Katalog und einige kurze Abhandlungen in Fachbüchern. Das war es denn auch. Einiges habe ich in den vergangenen Wochen in Antiquariaten über zvab.com zusammengetragen. Vielleicht erbarmt sich mal ein Jungwissenschaftler, eine Doktorarbeit über Heinrich von Stephan zu schreiben. Da könnten die politischen Entscheider in Berlin noch einiges über zukunftsfähige Regierungskunst lernen. Übrigens auch der Datenschützer Thilo Weichert, der in einem Interview mit der FAZ in einem anmaßenden Analysten-Gequatsche den Börsengang von Facebook schlechtredet, weil dieser Laden wohl nicht in sein Weltbild passt:
„Wer als Aktionär spekuliert, muss damit rechnen, dass, wenn sich der Datenschutz in Deutschland und Europa mit seinen Belangen durchsetzt, das Geschäftsmodell von Facebook in sich zusammenbricht. Es ist zwar möglich, dass Facebook unseren Forderungen nachkommt, aber das ist vollkommen offen“, so die Einschätzung des Beamten Thilo Weichert.
Börsen-Guru Weichert gibt auch eine Kursprognose ab:
„Ich denke, Facebook wird an der Börse überbewertet. Aber das wird erst die Geschichte zeigen.“
Woher weiß er das? Ich bin ja nun alles andere als unkritisch zu Facebook. Aber was sich hier eine Amtsperson kurz vor dem Börsengang des Zuckerberg-Konzerns herausgenommen hat, überschreitet die Kompetenzen eines staatlichen Datenschützer.
Die Rundumschläge von Weichert möchte ich im Laufe dieser Woche noch einmal aufgreifen. Wer dazu etwas sagen möchte, sollte mich kontaktieren. Entweder Handy: 0177 620 44 74 oder E-Mail: gunnareriksohn@googlemail.com
myTaxi bringt eine neue Version ihrer Taxi-App auf den Markt: Ab sofort können Fahrgäste ein Taxi vorbestellen. Über drei Monate arbeitete nach Firmenangaben das Entwicklerteam an der neuen Version. Neben der Funktion „Vorbestellung“ gibt es auch ein neues Design. Mit 80 Prozent Marktanteil und über 1 Million Downloads habe sich myTaxi zur beliebtesten und am schnellsten wachsenden Taxi-App in Deutschland entwickelt und erschließt aktuell internationale Märkte.
myTaxi stelle eine direkte Verbindung zwischen Fahrer und Fahrgast herstellt und lässt die Zentralen dabei außen vor.
„Für die Fahrer bedeutet das vor allem Unabhängigkeit und Freiheit – für die Fahrgäste Transparenz“, teilt die Firma mit.
Dem Fahrgast werden während des Bestellprozesses die Telefonnummer, ein Bild des Fahrers sowie die durchschnittliche Fahrerbewertung angezeigt. Zudem könnten Fahrgäste Stammfahrer auswählen und bei einer Bestellung bevorzugen. Mit über 10.000 angeschlossenen Taxis sei man der erste Anbieter, der auf die Bedürfnisse in der Branche eingeht und somit Qualität im Taxigewerbe schafft. Durch die direkte Verbindung werden Taxifahrer zu echten Dienstleistern, was in der Branche bisher nicht üblich war.
„myTaxi ist neutral, unabhängig und finanzstark. Dadurch sind wir in der Lage, Lösungen innovativ, schnell und flexibel umzusetzen“, erklärt Niclaus Mewes, Co-Gründer und Geschäftsführer von myTaxi.
Die neue Version stehe ab sofort zum kostenlosen Download im App Store bereit. Zudem biete myTaxi seit Anfang des Jahres die Möglichkeit, eine Taxibestellung über die Website zu tätigen.
Das Verhalten dieser Gestern-Manager ist symptomatisch für viele andere Branchen. Führungskräfte und Meinungsbildner der Wirtschaft gebärden sich wie der Frosch aus dem von FDP-Chef Philipp Rösler holprig vorgetragenen Schockstarre-Gleichnis: Wenn also der FDP-Frosch in heißes Wasser hüpft, springt er sofort wieder heraus. Setzt man die liberale Amphibie in kaltes Wasser und erhöht langsam die Temperatur, bleibt sie regungslos sitzen und endet als Froschschenkel auf dem Mittagsteller oder verfehlt die Fünfprozent-Hürde bei der nächsten Bundestagswahl. Die auch von Managern gerne vorgetragene Weisheit ist zwar biologischer Mumpitz, beschreibt aber sehr gut das defensive Denken von klassischen Dienstleistern im Umgang mit den digitalen Umwälzungen.
Musikmanager, Tourismus-Anbieter, Videotheken-Besitzer, Verleger oder eben die Taxizentralen behaupten solche Abwehrargumente nicht mehr: Die von Apple-Gründer Steve Jobs geschaffene App-Economy hat einiges auf den Kopf gestellt. Der iPhone-Marktstart am 9. Januar 2007 wird nach Ansicht von Professor Lutz Becker als Beginn einer neuen disruptiven Innovationswelle in die Technologie-, Wirtschafts- und Kulturgeschichte eingehen:
„Mit dem iPhone kamen die Apps. Glaubt man den Prognosen von Forrester Research, wird das kombinierte Geschäft für mobile Anwendungen, Services und Business-Management im Jahr 2015 ein Volumen von knapp 55 Milliarden US-Dollar erreichen“, schreibt Becker gemeinsam mit Friederike Schmitz in dem Sammelband Informationsmanagement 2.0 (gerade im symposion-Verlag erschienen).
Das App-Prinzip wirbelt die Kräfteverhältnisse von etablierten Wirtschaftsgrößen kräftig durcheinander, etwa die Personenbeförderung:
„Drückt man einen Knopf auf meinem iPhone, fährt einige Minuten später ein Taxi vor – eine Entwicklung, diese Voraussage darf man wagen, die die Branche auf Dauer verändern und zu Konzentrationsprozessen führen wird“, erläutert Becker, der an der Karlshochschule in Karlsruhe lehrt.
Entscheidend ist die Kombinatorik von unterschiedlichen Diensten, die der Kundenservice des analogen Zeitalters so nicht vornehmen konnte.
„GPS, Apps und andere Gadgets machen Geschäftsmodelle möglich, die die bestehenden Paradigmen nicht nur in Bezug auf Markt und Wettbewerb, sondern auch auf Wertketten und Organisation im Unternehmen über den Haufen werfen – und wir stehen erst ganz am Anfang“, betont Becker.
Wichtig ist vor allen Dingen die Immaterialität, mit der bestehende Grenzen eingerissen werden. Warum soll ich denn noch in die Videothek marschieren, um mir eine DVD auszuleihen, wenn die Apple-TV-Box am Fernseher alles Nötige bietet und sogar über das bestehende Angebot hinaus geht – wie Vorschau, Suchfunktionen oder längere Mietzeit.
Untergehende Taxizentralen
Die App-Economy, so Becker, lässt traditionelle Industrieprodukte und Dienstleistungen smart werden. Am Beispiel der Taxizentralen lässt sich das sehr gut ablesen:
„Es ist absehbar, dass mehr und marktmächtigere virtuelle Taxizentralen entstehen und die Anzahl der Städte, in denen Taxi-Apps genutzt werden, kontinuierlich steigt. Vorreiter sind Berlin, Hamburg, Köln, Bonn, München, Stuttgart und Frankfurt.“
Das konventionelle Geschäftsmodell werde verdrängt. Prozesse werden automatisiert und digitalisiert. Software und komfortable Dienste sind die treibende Kraft. Die meisten Taxizentralen gebärden sich momentan noch als passive Zuschauer. Sie haben noch kein ausgeprägtes Bewusstsein für den App-Trend entwickelt, scheinen lieber an ihrem alten Modell festzuhalten oder ziehen sich auf juristische Gegenmaßnahmen zurück. Das dürfte sich irgendwann rächen.
„Die Effekte potenzieren sich in der App-Economy mit der Anzahl der Nutzer“, resümiert Becker.
Service-Apps sind noch relativ unterentwickelt. Für pfiffige Programmierer sind die Eintrittshürden allerdings gering, so dass man einen exponentiellen Anstieg von Service-Applikationen erwarten kann. Geräte sind überall verfügbar, Plattformen gibt es ausreichend und Apps können preisgünstig oder sogar kostenlos heruntergeladen werden. Keine guten Nachrichten für den Rösler-Frosch.
Am 11. Mai jährte sich in Berlin ein Stück deutscher Wirtschaftsgeschichte: Die DeTeWe Communications feierte ihr 125-jähriges Jubiläum. Gegründet im Jahr 1887 als Zulieferer in der Telefonapparateproduktion, war das Unternehmen Pionier bei der Konstruktion von Fernmeldeämtern, Co-Erbauer des ehemaligen Berliner Rohrpostsystems, millionenfacher Hersteller von Telefonen und ist heute einer der größten ITK-Systemintegratoren in Deutschland. „Die DeTeWe blickt auf Generationen von Ingenieursleistung zurück und hat die Kommunikationsbranche wie kaum ein anderes Unternehmen mitgeprägt. Ob Telefon, Rohrpost, Fax, schnurlose Telefone, Internet, E-Mail: Die Informations- und Telekommunikationsbranche ist schnelllebig, die DeTeWe war und ist immer dabei“, sagt Christian Fron, Geschäftsführer der DeTeWe Communications.
Der Architekt für die Technik-Revolutionen im Berlin des 19. Jahrhunderts war der Generalpostmeister Heinrich von Stephan. Er erkannte sofort die wirtschaftliche und gesellschaftliche Dimension der elektrischen Nachrichtenübertragung. Mitte Oktober 1877 wurde Stephan ein Bericht der Zeitschrift „Scientific American“ vom 6. Oktober 1877 über Bells Telefon vorgelegt.
Schon am 24. Oktober hat er zwei Telefone in Händen. Es waren die ersten Apparate, die überhaupt nach Europa kamen. Schon am gleichen Tage beginnt der Generalpostmeister mit den ersten Versuchen in seinem Amtsgebäude. „Dann werden das Generalpostamt Berlin, Leipziger Straße und das Generaltelegraphenamt in der Französischen Straße verbunden“, schreibt Hermann Heiden in seinem Buch „Rund um den Fernsprecher“, erschienen 1963 im Georg Westermann Verlag. Am 26. Oktober erklärt Stephan: „Meine Herren! Diesen Tag müssen wir uns merken“. Es war die Geburtsstunde des Fernsprechers in Deutschland.
„Ende 1877 sind es 19 Orte, Ende 1880 bereits 1000 geworden, die über den Fernsprecher Anschluss an das Telegrafennetz erhielten. In Amerika war der Fernsprecher zur Errichtung von Fernsprechnetzen in Städten und zur Herstellung von Privattelegrafenlinien benutzt worden. Dass man ihn zur Erweiterung des staatlichen Telegrafennetzes benutzte, war etwas ganz Neues“, erläutert Heiden. Die Widerstände in Deutschland gegen die Einführung des Telefons waren so groß, dass Stephan sich mit der Bitte an die Ältesten der Kaufmannschaft wendet, ihm geeignete Persönlichkeiten zu nennen, die bereit wären, gegen Vergütung die Werbung für den Fernsprecher in die Hand zu nehmen. Die Wahl fällt auf Emil Rathenau, den späteren Gründer der AEG. 1897, im letzten Lebensjahr des Generalpostmeisters, werden in Berlin von neuen Fernsprechämtern 170 Millionen Gespräche vermittelt. Davon 20 Millionen Ferngespräche nach den von Berlin zu erreichenden Orten mit Fernsprechanschlüssen. Drei Jahre später schreibt die „Berliner Illustrirte“ stolz, dass Berlin mehr Fernsprechanschlüsse habe als ganz Frankreich mit Paris und dass es sogar London und New York übertreffe.
„Die Beharrlichkeit, Weitsicht und Intuition des Generalpostmeisters Heinrich von Stephan könnten wir heute in Deutschland sehr gut gebrauchen, um für die vernetzte Ökonomie die modernste Infrastruktur zu schaffen. Nur so ist wirtschaftliche Prosperität möglich – von der Logistik bis zur Energiewende“, sagte Systemingenieur Bernd Stahl vom Netzwerkspezialisten Nash Technologies auf der Berliner Wissenschaftskonferenz Informare.
Vom Heinrich von Stephan-Gründergeist könnte sich die Berliner Politik eine große Scheibe abschneiden, um die Voraussetzungen für eine vernetzte Ökonomie zu schaffen.
Gunter Dueck spricht in diesem Zusammenhang von der Notwendigkeit einer „strukturkultivierenden Marktwirtschaft“. Der Staat müsse die Infrastrukturen auf die Zukunft ausrichten. „Zum Beispiel könnte die Bundesregierung einen verbindlichen ‚Fahrplan‘ für den Ausbau des Breitbandinternets herausgeben. Das würde etwa 60 Milliarden Euro kosten, nicht mehr als die Rettung einer Bank“, erläutert Dueck. Zu einem solchen Schritt würde sich niemand entschließen. Ein superschnelles Internet sei für die Wirtschaft und für die Transformation zur Wissensgesellschaft unabdingbar. Ein kompromissloser Ausbau des Internets hätte ähnlich dimensionierte positive Auswirkungen.
„Dieselben Leute, die die 60 Milliarden für die Zukunft nicht geben wollen, argumentieren wie selbstverständlich, dass der entscheidende Anstoss zu Deutschlands Wirtschaftswunder der energische und kompromisslose Ausbau des Autobahnnetzes in den 1960er-Jahren war, der für Deutschland eine moderne Infrastruktur schuf“, führt Dueck weiter aus.
Immer grössere Teile der gesellschaftlichen Werte werden digitalisiert.
„Und damit auch deren Wertschöpfung. Man sieht das sehr schön an Garys Social Media Count. Nicht nur die Tatsache, dass die Zahl der Google+ und Facebook User schneller wächst als die der neuen Internet-Teilnehmer. Der Hammer befindet sich hinter dem Tab ‚heritage‘: diese gigantischen Wertschöpfungen werden zum grossen Teil in die virtuelle Welt wandern: digitalisiert und vernetzt“, meint Stahl.
Content bedeute die vollständige Digitalisierung ALLER Lebensbereiche, Branchen und Prozesse. Die Kanzlerin sollte also aufhören, noch weiter von dümmlichen Herdprämien zu träumen, sondern sich den wesentlichen Zukunftsaufgaben widmen. Ich möchte nichts mehr hören von tausend Projekten, Kompetenz-Zentren und sonstigen Alibi-Veranstaltungen. Die Bundesregierung sollte auf dem nächsten IT-Gipfel am 13. November in Essen einen Internet-Masterplan auf den Tisch legen.
Heinrich Rudolf Bruns (@hrbruns), mit dem ich zusammen die Obi Wan Kenobi-Runde auf der Informare in Berlin moderierte, war so freundlich, eine Audioaufzeichnung anzufertigen. Wer also den Livestream gestern nicht gesehen hat, kann sich das Spektakel zumindest anhören:
Mit dabei waren Arnoud de Kemp (informare), Hannes Schleeh, (Coach, @7xy) und Bernd Stahl von Nash Technologies (@NashTecGermany).
„In lockerer Runde disktutierten wir, wie sehr neue Technologien und Ansätze das Internet verändern werden. Aber auch, wie verhalten manche Unternehmer und Besitzstandswahrer sind, wenn es um Innovation geht“, so das Fazit von Heini.
Danach saßen wir noch gemütlich in der Ständigen Vertretung, genehmigten uns einige Bierchen und schmiedeten neue Vernetzungspläne. Wir vier werden wohl Ende August oder Anfang September ein Blogger-Camp in Nürnberg aufziehen.
Über die Themen müssen wir uns noch austauschen. Wer mitmachen möchte, ist herzlich eingeladen. Wir sammeln noch Ideen.
Für meine morgige Service Insiders-Kolumne werde ich wohl den Vortrag von Professor Hans Uszkoreit vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) als Basis nehmen. Thema: Turings Traum weiter träumen. Mit Sprachtechnologie und KI auf dem Weg zur Social Intelligence.
Hauptthese: es geht um fortschreitende Vereinfachung des Systems und der User-Experience. Das Reduziert die Kosten des Systems: sowohl Herstellung als auch Betrieb. Diese Vereinfachung umfasst das Internet auf der Netz-Ebene und auf der Anwendungs-Ebene. Es geht einfacher, effizienter, eleganter und effektiver und mit den sich daraus ergebenden natürlichen Geschäftsmodellen.
Formel: E4+G. Einfacher, Effizienter, Effektiver, Eleganter. Und damit baut man Geschäftsmodelle.
o Kunden kaufen, wenn man etwas hat, mit dem man entweder Kosten sparen kann oder zusätzliches Geld verdienen kann. Das ist die Basis für Geschäftsmodelle.
o Einfacher (mach es nicht komplizierter, sondern einfacher!) und effizienter (macht es richtig gut! Z.B. sollte man das mal auf die vielen Apps anwenden) steht dafür, wie man Geld sparen kann.
o Effektiver (tue ich überhaupt das richtige Ding oder müsste ich eigentlich nicht etwas ganz anderes tun? Z.B. nicht noch einen Balkon im Internet, sondern ein besseres IP++, einen Single View of Social, Social Media Dial Tone, etc.) und eleganter (was kann ich tun, damit das Leben angenehmer, beschwingter, lustiger, etc. wird? Z.B. das iPhone plus iTunes App Store) steht dafür wie man zusätzliches Geld verdienen kann.
o Die Geschäftsmodelle der Internetwirtschaft beruhen auf folgenden zwei Säulen: den Usern muss der Dienst gefallen, und den Service Providers müssen die dadurch gewonnenen User Data Gewinn bringen. D.h. kostenloser Service bezahlt durch User Daten. Hier gilt das Prinzip: je größer und wirkungsvoller die Plattform des Service Providers, desto höheren Wert kann man aus den User Daten gewinnen. Die Frage ist: kann man dieses Prinzip so aufbrechen, dass es eine große Zahl dezentraler Service Providers mit deren Plattformen begünstigt, sowohl in der Entstehung als auch nachhaltig?
Die Vereinfachung auf der Netzebene betrifft den IP-Layer, d.h. den Network Layer.
o In den vergangenen drei Jahrzehnten tobte ein Glaubenskrieg (der 30-jährige Krieg der Kommunikation-Systeme): Packet Switching vs. Circuit Switching. Getrieben letztendlich von Wirtschaftsinteressen. Heute weiß man, man braucht beides, nahtlos integriert.
o Will man die Leistungsmerkmale von Circuit Switching mit Packet Switching realisieren, dann muss man hohen technischen Aufwand treiben, d.h. das System wird unnötig komplex und anfällig.
o Will man andererseits die Leistungsmerkmale von Packet Switching mit Circuit Switching realisieren, dann verschwendet man Netzwerk-Ressourcen.
o Auf dem Ethernet-Layer ist man mit Carrier Ethernet bereits dabei, die Hausaufgaben zu lösen, d.h. man hat eine einheitliche Plattform für beides.
o Problem: Auf dem IP-Layer gibt es nur Packet Switching. Dies bedeutet, dass man auf den darüber liegenden Schichten die Features Circuit Switching nicht vollständig emulieren kann, selbst wenn diese auf Ethernet-Ebene vorhanden sind und man mit TCP z.B. über eine Connection Oriented Protocol verfügt. Die Verbindungsorientierung schafft eben doch keine maximal definierbare End-to-End Bandbreiten- und Antwortzeitgarantie, weil es in IP eben Queues gibt.
o Zusätzlich gibt es eine Innovationsblockade auf dem IP Layer: es gibt nur ein einziges Protokoll für alles, die anderen sind im Wettbewerb ausgestorben. Man müsste also die Möglichkeit schaffen, auf dem IP Layer mehrere weitgehend disjunkte Protokolle zuzulassen, die überlebensfähig wären, so wie es die Georgia Tech University fordert. Oder man schafft ein innovativ offenes und erweiterbares Internet-Protokoll IP++. Mit beiden Optionen wäre der Innovationsstau aufgelöst.
o Das Ganze ist ein operator-freundliches Scenario. D.h. wegen der Vereinfachung der Kommunikationsarchitektur, wird auch die Herstellung von Netzelementen günstiger bei gleichzeitiger Steigerung der Leistungsfähigkeit und Senkung des Energieverbrauchs. Kehrseite: der Verdrängungswettbewerb der Hersteller geht weiter, aber der Erste gewinnt.
o Wenn IP++ sowohl Circuit Switching als auch Packet Switching unterstützt, dann fallen Balkon-Protokolle wie MPLS, LISP, etc. weg. Ebenso fallen zusätzliche Protokolle und Mechanismen für Bandbreitenreservierung weg, weil man sie direkt in IP++ erledigt, ohne Balkone. Das Routing ließe sich vereinfachen: Routing-Protokolle und –Mechanismen könnten teilweise oder ganz wegfallen und gleichzeitig das Routing robuster und weniger anfällig für Störungen und Angreifer gemacht werden. Durch Einführung topologischer Adressen würden die Routingpläne um Größenordnungen kleiner werden bei gleicher Leistungsfähigkeit. Dadurch würde das Betreiben vereinfacht und die Fehleranfälligkeit verringert. Durch Dienstgüteklassen in IP++ könnte man über mehrere Netze hinweg Quality of Service garantieren. Durch SLAs können die beteiligten Netzbetreiber die Dienstgüte über Netzwerkgrenzen hinweg garantieren und effektive Geschäftsmodelle aufbauen.
o Durch explizite effektive Service Classes spart man sich das teure und umstrittene Deep Packet Inspection.
Für die Entwicklung auf dem Application Layer spielen mehrere Trends eine Rolle:
o Immer mehr Firmen denken darüber nach, für ihre interne Kommunikation Social Media einzusetzen und auf E-Mails zu verzichten. Firmen bauen interne Social Networks auf. Die werden aber mit Sicherheit keine öffentlichen Netze wie Facebook sein. Vertrauliche Information wird abgesichert und wird von den Firmen selber gehostet oder von einem lokalen Cloud-Anbieter. Es entstehen viele soziale Inselnetze mit höherwertiger Information. Die Technologie kann die gleiche sein, die Netze selber haben aber klare Abgrenzungen. Partiell wird man sein Unternehmensnetz auch öffnen wollen: Partner, Kunden, Lieferanten. Man muss soziale Netze miteinander verknüpfen. Dazu müssen die entsprechenden APIs zugänglich gemacht werden. Das Ganze wird durch die Kosten getrieben, denn Unternehmen haben kein Interesse daran, ihre Informationen mehrfach einzugeben, nur damit man in mehreren Netzen präsent ist. Die logische Konsequenz: eine sehr große Anzahl unabhängiger Social Networks.
o Apples Siri stellt eine einzige sprachgesteuerte Benutzerschnittstelle dar, die derzeit etwa ein Duzend Apps steuert. Damit ist Siri die singuläre Schnittstelle zum User. Der Rest wandert schrittweise unter die Haube.
o Die Marktmacht weniger Großer Player und deren beginnende / fortschreitende Zensur bewirkt immer mehr Unbehagen. Die Lösung liegt in dezentralen miteinander konkurrierender Strukturen. Immer mehr Leute denken über sogenannte Mesh-Networks nach. Es wäre eine Renaissance des ursprünglichen Internet Spirits, angewandt auf den bereits stark kommerzialisierten Application Layer.
o Schließlich werden es auch einfache Rationalisierungsgründe sein. Soziale Mehrfachkonten sind einfach erhebliche Mehrarbeit. Wer das vereinfacht, präsentiert einen besseren Business Case.
Mein Traum: ein „Social Media Dial Tone“ auf dem Application Layer (bei Google findet man für diesen String nur 7 Links). So wie früher beim Telefon. Ohne Mehrfachkonten bei Facebook, Twitter, G+, LinkedIn & Co. Ohne zusätzliche Balkon-Tools. Ein Access. Ein View. In alle Netze. Semantisch angereichert. Sozusagen unter der Haube. Wieso muss der Wildwuchs-Spaghetti der Entwickler dem User eins zu eins zugemutet werden? Wie könnte sich so etwas entwickeln?
o Ein Dial Tone beim Telefon bedeutet: Einfacher Access zum weltweiten Telefonnetz, unabhängig wo mein Kommunikationspartner sich befindet und an welchem Operator er angeschlossen ist. Auch die Directories waren global vernetzt. Der Ton stand auch für Carrier Grade: d.h. hoch verfügbar (5-7 neuner), definierte Services mit definierter Quality of Service. Für den Internanschluss auf IP-Ebene gibt es mittlerweile auch so etwas wie einen Dial Tone: der DSL-Anschluss, SmartPhone, etc. Bei Google findet man folgende Links – noch sind es sehr wenige – mit dem String „Social Media Dial Tone“:
Hier geht’s darum, dass es einen Social Media Dial Tone nicht gibt, d.h. ein soziales Netz kann jeder Zeit abgeschaltet werden ohne Ankündigung. Daher der Rat, seine Social Media Presence auf so viele Netzwerke wie möglich duplizieren. Verständlich, aber nicht wirklich eine Lösung.
Mein Verbesserungsvorschlag: ein Social Shadow auf meiner privaten Cloud. Für Unternehmenskritische Daten ist das sowieso die Lösung.
Hier wird der Social Media Dial Tone als API zu einem Social Network definiert, von denen es de facto tausende gibt und die bekanntesten sind Facebook, Twitter, G+, YouTube, LinkedIn, etc. Aber der Text skizziert auch schon die Möglichkeit eines einzigen Accesses auf vernetzte Social Networks.
Mein Verbesserungsvorschlag: meine Definition eines Social Media Dial Tones ist: ein einziger API auf vernetzte Social Networks mit Customised View.
Hier wird auch das Problem der zu vielen Social Networks dargestellt. Der Lösungsvorschlag: nicht zu viele Social Networks.
Hier geht’s um die versteckten Kosten für „Free Social Media“: der zu bezahlende Preis ist User-generated Content und User Demographic Information.
Mein Verbesserungsvorschlag: ein echter Social Media Dial Tone ist ein Mehrwert der in der Internet Flatrate eingehen sollte und für den man bezahlt um verlässliches und einfaches Social Media zu haben. Für Firmen lohnt sich das, weil es Kosten spart. Und: Firmen wissen, dass ihre Daten extrem wertvoll sind. D.h. „Free Social Media“ ist eine Werbeplattform, echter Content ist nicht umsonst.
Mein Verbesserungsvorschlag: Social Media muss tatsächlich ein echter Service werden, vernetzt, hochverfügbar, customisable, unabhängig vom Endgerät.
Überträgt man das auf Social Networks und Search dann kommt etwa folgendes dabei heraus:
Ein echter Service (im Gegensatz zu einer Applikation auf Servern eines Rechenzentrums), vernetzt mit allen anderen Social Media Networks, hochverfügbar, ein einziger Customisable View, unabhängig vom Endgerät, bereitgestellt durch den Internet-Provider. Durch die Bereitstellung via Internet-Provider wird „Social“ mehr und mehr zu einer Commodity.
Grob vereinfacht besteht ein Social Network aus:
· Einer Datenbanktechnologie.
· Einer Datenbank-Applikation.
· Einem API.
· Einem User View.
Diese 4 Komponenten sollte man konsequent trennen:
· Die Datenbanktechnologie kann dazu verwendet werden, unabhängige Social Networks aufzubauen.
· D.h. damit schafft man viele unabhängige Datenbank-Applikationen.
· Der API wird standardisiert um Interoperabilität zu gewährleisten.
· Der User View gehört als App aufs Endgerät oder in einen Browser.
· Durch die Trends oben wird das Social Media Network auf allen Protokoll-Ebenen dezentral. Damit wird ein Big Brother vermieden. Wodurch wird die dezentrale Lösung getrieben? Folgende Möglichkeiten:
o Wenn Firmen ihre interne Kommunikation durch Web 2.0 und Social Media Technologien E4 gestalten, dann geht es nicht mehr um das Geschäft Free Service gegen Werbung mit User Daten. Es geht dann einfach um höhere Produktivität in der Wissensgesellschaft und geringere Kosten.
o Die Information, die hierdurch in Firmen generiert wird, hat einen hohen Wert an sich, für die Firma selber, aber auch für Partner, Kunden, Lieferanten.
o Wenn sich diese hochwertigen Web 2.0 Inseln durch Knowledge Peering vernetzen, dann geht es unterm Strich für das daraus entstehende Gesamtsystem wieder um höhere Produktivität in der Wissensgesellschaft und geringere Kosten. D.h. alle gewinnen.
o Ein Social Media Dial Tone ist hier ein zentrales Kostenargument.
o Der Basis-Dienst ist Teil der Internet-Flatrate. Für höherwertigen Content kann man aus einer Fülle von Geschäftsmodellen wählen.
Die Social Media Existenz kann abgesichert werden durch einen Social Shadow auf einer privaten Cloud. Dieser Social Shadow erlaubt dann weitere Anwendungen.
· Das heutige Geschäftsmodell für „Free Social Media“ wird sich durch Werbung finanzieren, Werbung die auf der Ressource User Data aufbaut. Neue Geschäftsmodelle für „Value Content Social Media“ werden ebenfalls entstehen, je mehr diese Art von Inseln de facto aufgebaut werden. Diese Inseln werden ihre Daten semantisch annotieren.
· Ebenso findet Search heute fast ausschließlich „Free Content“. Z.B. landet Google oft auf Wikipedia. Höherwertiger Content, obwohl begehrt, wird nicht gefunden. Hier gibt es eine Fülle neuer Geschäftsmöglichkeiten. Semantic und Social Search: Paid Content veröffentlicht ein semantisches API, mit oder ohne Binding an ein kommerziell betriebenes Portal. Idee: Online Semantic Crawler.
Allerdings hat Google laut Vizechefin Marissa Mayer einen allwissenden Suchdienst im Sinn, der im voraus schon weiß, was der User will.
Meine These: Google wird nicht der Big Brother werden können, sondern bestenfalls der Klebstoff zwischen den Hochwertigen Content Inseln.
· Ein spannende Frage ist hier auch, wie die Aufgabenteilung zwischen Endgerät und Netz / Applications liegen wird. Ich gehe davon aus, dass das sich Endgeräte zu einer Kombination von R2D2 und C-3PO entwickeln werden, d.h. die Personalisierung ist fast ausschließlich im Endgerät. Und damit ist sie wieder dezentral.
· Schließlich noch was zu den Endgeräten: Die meisten Leute denken beim Mobilen Internet heute an Smartphones und Pads. Mobile und Festgeräte werden über einen singulären Dial Tone verfügen: man beginnt den Film auf dem Smartphone und beendet ihn auf dem TV. Aber: die Miniaturisierung der Endgeräte geht weiter. D.h. Smartphones und Tablets werden nach und nach zu Teilen der Kleidung wie Armbanduhren oder Brillen. Die Benutzerschnittstelle wir 3D (3D Screen, Hologramme, Virtuelles 3D via Brille, etc.), gesteuert mit Sprache, Händen (effektivere Gesten), Augen und Gedanken, etc. Ein neues Lebensgefühl. Auch die Endgeräte haben Wechselwirkungen, wie Internet und Soziale Netze verwendet werden. Diese Funktionsmächtigkeit will man doch sicher keiner zentralen Instanz anvertrauen.
Termine, Termine, Termine: Gestern noch auf der Hannover Messe, nächste Woche zur Republica und übernächste Woche beginnt schon die Berliner Wissenschaftskonferenz Informare (8. bis 10. Mai). Dort moderieren am 9. Mai von 17 bis 18:30 Uhr der Hörfunkjournalist Heinrich Bruns und meine Wenigkeit eine Talkrunde zum Thema: Obi Wan Kenobi und das Future Internet. „Schuld“ an diesem Titel ist der Netzwerkspezialist Bernd Stahl von Nash Technologies, der mir diesen Floh ins Ohr gesetzt hat mit seinem Vortrag in Stuttgart (Bernd Stahl wird in Berlin dabei sein).
„Wir arbeiten am Future Internet, um über digitale Assistenzsysteme das Cyberspace eleganter, einfacher und effizienter zu machen. Das muss nicht alles im Silicon Valley passieren, dass können wir auch im Neckartal auf die Beine stellen. Wichtig sind dabei dezentrale Systeme, um das Big Brother-Problem gar nicht erst aufkommen zu lassen“, erläuterte der Systemarchitekt Stahl in seinem Vortrag auf dem Innovationsforum in Stuttgart.
Unsichtbare Helfer in hochintelligenten Netzen
Hinter einem Touchpoint, den der Kunde nach seinen Präferenzen auswählt, laufen unterschiedliche Dienste ab, die allerdings unsichtbar bleiben. Hier kommt das virtuelle Fräulein vom Amt ins Spiel. Stahl ist davon überzeugt, dass man von der Kommunikation überhaupt nichts mehr sehen wird. Die Netzintelligenz könne man überall abrufen – völlig unabhängig von den Endgeräten.
„Man kommuniziert über Endgeräte, die eigentlich keine mehr sind. Ein Geschäftskunde sagt beispielsweise seiner Armbanduhr, dass er nach Brüssel reisen wolle zu einem möglichst günstigen Preis. Er nennt noch das Datum und die Ankunftszeit. Die Anfrage geht ins Netz rein, das System sucht sich die Reiseportale, schaut nach den Übernachtungsmöglichkeiten und recherchiert völlig eigenständig alle notwendigen Informationen. Zurück kommen die kompletten Reiseunterlagen. Der Geschäftskunde legt seine Armbanduhr auf den Tisch, es erscheint eine 3D-Ansicht und er braucht nur noch das für ihn Relevante auswählen. Man kommuniziert über Sprache mit anderen Systemen, Servern oder Menschen und am Ende kommt etwas zurück. Hier kommt das berühmte Fräulein vom Amt wieder – allerdings vollautomatisiert und virtuell“, prognostiziert Stahl.
Alles werde gesteuert durch ein hochintelligentes Netz auf Basis semantischer Technologien und völlig neuen Geschäftsmodellen.
„Der Nutzer muss sich überhaupt keine Gedanken mehr machen über spezielle Endgeräte, die Auswahl von Diensten, das Netzwerk oder Serviceprovider. Er muss kein Ziel mehr eingeben über Telefonnummern, IP-Adressen oder Links. Alles das wird vom intelligenten semantischen Netz übernommen. Die Bedeutung der Anfrage wird automatisch in Einzelteile zerlegt, an unterschiedliche Ziele geschickt und zurück kommt der gewünschte Service oder das fertige Produkt“, so Stahl.
Beim Future Internet-Panel in Berlin wird auch Jan Gessenhardt als Experte Rede und Antwort stehen. Er ist Geschäftsführer von Aperto Move und beschäftigt sich mit „Dialogszenarien für unterwegs“ mittels mobiler Websites und Apps. Sein Ziel ist es, Tablets & Smartphones als die Wegbereiter der Post-PC-Ära in mobilen Nutzungssituationen als weitere vollwertige Digitalmedien zu etablieren. Mit der Adaption erfolgreicher Lösungen des stationären Webs auf mobile Kanäle gelingt nach Ansicht von Gessenhardt die Anpassung an die Kommunikationsbedürfnisse des 21. Jahrhunderts – überall und jederzeit. Aperto Move setzt dabei bereits seit 2005 für Kunden wie Telekom, Siemens, Immobilienscout24, PostFinance oder American Express auf mobile Lösungen mit innovativen Interfaces- und Servicekonzepten ob via Sprachservice, lokalisierten Mehrwert-Apps oder innovativer Gestiksteuerung. Siehe auch: Das Jahr der Smartphones: Wie die Alleskönner die mobile Kommunikation und den Kundenservice verändern.
Als dritten Experten begrüßen wir in Berlin den Social Media Coach & Hypnosetherapeut. Er wurde von Heinrich Bruns zur Informare befragt:
Interiews mit Stahl und Gessenhardt sowie weitere Vorberichte folgen in der nächsten Woche. Man sieht sich auf der Republica
oder auf der Informare. Ob unser Panel via Livestream übertragen wird, kann ich noch nicht genau sagen. Werde ich aber rechtzeitig mitteilen.