IFA: Über den technologischen Riesen Huawei

Huawei hat auf der IFA ein komplettes neues Smartphone-Portfolio vorgestellt. Vom eindrucksvollen Flaggschiff bis zum Sparphone für Einsteiger ist alles dabei. Nachdem wir die Handys in Augenschein nehmen konnten, sind wir davon überzeugt, dass Huawei hier ein nahezu konkurrenzloses Preis-Leistungs-Angebot bieten könnte. Bleibt nur die Frage, ob die angekündigten Release-Daten der Handys eingehalten werden“, schreibt Chip-Online und bestätigt die Einschätzung von Experten, die ich für meine The European-Kolumne zum Thema „Innovationsmacht China“ interviewt habe.

„Huawei ist eines dieser Beispiele, bei dem die Chinesen aus eigener Kraft versuchen, innovativ zu sein und eine Marktführung zu erobern. Das wird strategisch vom Staat politisch gefördert. Man will mit modernen Technologien die Chance nutzen, endlich nicht mehr nur hinterherzurennen. Die Chinesen leiden darunter, in den vergangenen 100 Jahren nicht mehr wirklich innovative Ideen auf den Markt gebracht zu haben. Das haben sie alles von uns übernommen, sie hatten ja die große Kulturrevolution und die Rückstände im letzten Jahrhundert. Sie sind von der Führung sehr beflissen bei innovativen Themen, wo wir im Westen noch kein Dominanz erreicht haben“, so der Schweizer Innovationsberater Bruno Weisshaupt.

Hier werden Unternehmen gefördert, die den Export nach oben bringen. Huawei kann als Symbol für das neue Denken in China gelten. Denn als Netzausrüster kann in der westlichen Welt eigentlich nur noch Ericsson als ernstzunehmender Konkurrent betrachtet werden. Und das könnte sich rächen. Wenn China in der Kommunikationsinfrastruktur ein Monopol erreicht hat, werden sie dann – so wie der Westen in den vergangenen Jahrzehnten – im Gegenzug so in den Westen investieren, dass hier eine effektive Konkurrenz hochkommt oder wird der Westen abhängig?

Innovationsdruck im Westen steigt

Wer macht denn die Musik im zukunftsträchtigen Mobile Business? Die Taktgeber sind hier zwar Apple und Google. Aber wer treibt die Digitalisierung aller Wirtschaftszweige voran? Da sollte man Huawei nicht mehr unterschätzen. Das Unternehmen mausert sich zum Technologie-Giganten und reduziert sich nicht nur auf Teilaufgaben. Vom Smartphone bis zur Netztechnik wird alles produziert. Von Produkten für Endverbraucher bis zur Infrastruktur. Man müsse diese Entwicklungen ernst nehmen, fordert Dr. Roman Friedrich von der Unternehmensberatung Booz & Co.:

„Noch vor zehn Jahren waren Anbieter wie Huawei im westlichen Markt keine Größe. Jetzt sind es Größen.“ Der Innovationsdruck steigt und zwingt Firmen wie Ericsson, sich besser zu positionieren. Die müssen sich jetzt wärmer anziehen, so Friedrich.

Die liebwertesten Gichtlinge des Westens sollten vor allem anfangen, das Denken und die Kultur in China richtig zu verstehen.

Telekom setzt auf Spotify und auch auf den digitalen Briefverkehr: Was setzt sich durch?


Telekom-Kunden können ab Oktober 2012 über Smartphone, Tablet und PC auf über 18 Millionen Musiktitel zugreifen – sowohl online als auch offline, schreibt Caschy in seinem Blog.

„Und zwar ohne, dass die Online-Nutzung des Spotify Streaming-Dienstes gegen das im Tarif enthaltene Datenvolumen gerechnet wird. Der erste Telekom Mobilfunktarif mit integriertem Spotify Premium Account wird ab Oktober 2012 für rund 30 Euro erhältlich sein. Gegen Ende des Jahres wird die Nutzung des Spotify Premium-Dienstes auch als Zubuchoption für etwa zehn Euro für Festnetz- und Mobilfunkkunden der Telekom möglich sein. Also: wer bei der Telekom ist und unterwegs online Musik streamen möchte, der findet vielleicht durch das nicht angerechnete Datenvolumen einen Vorteil für sich.“

Mal schauen, ob sich diese Preispolitik durchsetzt. Bin skeptisch. Genauso skeptisch wie bei den 39 Cent, die für eine DE-Mail verlangt wird. Auf der IFA will die Telekom für neuen Schub im digitalen und rechtssicheren Briefverkehr sorgen. „Aktuell werden nur etwa fünf Prozent aller E-Mails verschlüsselt. Eine Mail kann abgefangen oder verfälscht werden, man weiß nie zweifelsfrei, wer der Absender ist“, so Andreas Kadelke von der Telekom.

Technologisch wäre es sicherlich sinnvoll, der guten alten gelben Post und den dämlichen Faxbriefen (herrlich die Formulierung von Sascha Lobo in seiner aktuellen Spiegel-Kolumne: „Auf Facebook ist Authentizität nicht möglich. Das sollte eine Steilvorlage sein, die Authentizität auf den Schrotthaufen der historischen Unnotwendigkeiten zu werfen, wo sie zwischen Atomkraft, Nationalstolz und Faxgerät verrotten möge.“) eine digitale Variante an die Seite zu stellen. Nur dann muss das anders laufen. Politisch sei noch einiges im Argen, so die Bedenken von Netzwertig-Blogger Karsten Werner: Sowohl die Gesetzgebung als auch die Beauftragte der Bundesregierung für Informationstechnik würden sich davor drücken, einen der wesentlichsten, lange bekannten und vielfach diskutierten Angriffspunkte der Kritiker eindeutig auszuräumen: Den Vorwurf einer vereinfachten Zugriffsmöglichkeit öffentlicher Stellen auf den digitalen Schriftwechsel der Bürger.

„Unabhängig von den Motiven, die der Einzelne dahinter vermuten mag, zeigt bereits allein die mangelnde Sensibilität der verantwortlichen Instanzen, eben genau dieses Informationsbedürfnis auch aufzugreifen, wie wenig Verständnis von Seiten der Initiatoren für die Befindlichkeiten der Bürger zum Thema ‚Rechtsverbindliche digitale Kommunikation‘ überhaupt aufgebracht wird. Wer dieses Bedürfnis nach Rechtssicherheit lediglich mit einem lapidaren Verweis auf andere Regelungen abspeist, beziehungsweise es nicht einmal für nötig erachtet, diesen Aspekt in seinen Informationsangeboten zu kommunizieren, der darf sich später über eine mangelnde Teilnahme nicht wundern. Insbesondere vor dem Hintergrund der breit geführten öffentlichen Debatte um den ‚Staatstrojaner‘, wirft gerade dieses Versäumnis kein gutes Licht auf die verantwortlichen Stellen“, schreibt Karsten Werner.

Ausführlich nachzulesen unter: IFA: DE-Mail soll für Schwung im digitalen Briefverkehr sorgen – Kostenvorteile gegenüber der „Gelben Post“ – Mangelhaftes Verständnis der Politik.

Steve, Chuck und der Breitbandausbau in Deutschland

Da Tatmenschen wie Steve und Chuck beim Breitbandausbau in Deutschland nicht in Sicht sind, habe ich mich zum morgigen internationalen Genossenschaftstag noch einmal mit dem Raiffeisen-Prinzip auseinandergesetzt. Um alle Haushalte in Deutschland mit Glasfaserkabel für den Empfang von schnellem Internet zu versorgen, rechnen Experten bekanntlich mit Investitionen von 70 bis 80 Milliarden.

„Beim Breitbandausbau rutschen wir im internationalen Maßstab immer mehr ab und liegen nur noch auf dem 40. Platz – Tendenz sinkend. Von den Netzbetreibern ist das nicht zu finanzieren. Man braucht rund 40 Jahre für die Refinanzierung. Im schnelllebigen Technologiegeschäft ist das nicht zu stemmen. Der Staat kann aus europarechtlichen Gründen als Investor nicht einspringen“, so der Netzwerkspezialist Bernd Stahl von Nash Technologies in Stuttgart. Als Alternative wäre das Prinzip Raiffeisen sinnvoll, erläutert der Systemingenieur.

„Grob über den Daumen geschätzt hat man in Deutschland 40 Millionen Erwerbstätige. Wenn man die Gesamtsumme von 80 Milliarden Euro durch 40 Millionen teilt, kommt man auf 2000 Euro. Ich würde diesen Betrag investieren. Damit hätte ich einen Anteil an einer breitbandigen Infrastruktur. Damit hätte ich die Sicherheit, vorausgesetzt man findet genügend Mitstreiter, dass es in den nächsten zwei bis drei Jahren auch wirklich flächendeckend ausgebaut würde. Ich hätte dann Breitband bei mir in der Wohnung, mit der ganzen Zukunftsperspektive, die es bietet. Ich wäre dann Eigentümer und könnte über Geschäftsmodelle nachdenken, wie man eine solide Rendite machen kann. Im Prinzip brauchen wir Raiffeisen, um den Breitbandausbau nach vorne zu bringen“, sagt Stahl.

Als Miteigentümer des Netzes sei man eher bereit, den Ausbau politisch mitzutragen. Entscheidend sei das dezentrale Investment. Zudem müsse nicht die gesamte Summe über Genossenschaften finanziert werden. Die großen Netzbetreiber seien jetzt schon dabei, kräftig für den Breitbandausbau zu finanzieren. Insofern könnte man eine gute Lastenteilung organisieren.

„Das Ziel der Bundesregierung ist es, bis 2018 den flächendeckenden Breitbandausbau zu realisieren. Ohne dezentrale Initiativen ist das nicht zu erreichen“, prognostiziert Stahl.

Was bislang in der Berliner Politik diskutiert werden, habe mit schnellem Internet und Breitbandausbau nicht viel zu tun: Da gehe es eher um die Nutzung der installierten Kupferleitungen auf der letzten Meile für ein bisschen schnelleres xDSL:

„Das trifft nicht den Kern der Sache. Glasfaser in jede Wohnung“, so Stahl.

Dabei sei es für viele Themen unabdingbar, die Digitalisierung über schnelle Internetverbindungen voranzutreiben. Etwa bei der Energiewende. Man könne auch beides kombinieren.

„Wenn man bei dem einen über genossenschaftliche Konzepte nachdenkt, warum dann nicht auch bei dem anderen. Bei der Energiewende geht es ja gerade um die Dezentralisierung“, erläutert Stahl.

Auch wenn Deutschland häufig als Technologie-Vorreiter gelte, muss es im internationalen Wettbewerb aufpassen, dass es nicht zum Entwicklungsland mutiert. Fortschritt brauche die entsprechende Infrastruktur, damit er nicht abgewürgt wird. Der Erfolg des Automobils in den letzten 100 Jahren wäre ohne eine funktionierende Infrastruktur bestehend aus Straßen, Tankstellen oder Werkstätten nicht denkbar gewesen. In gleicher Weise sei die Digitalisierung abhängig von einer leistungsfähigen Kommunikations-Infrastruktur, gehosteten Services in der Cloud, intelligenten Endgeräten, Häusern und Autos.

Interessant auch: Deutsche mehr im Internet als am Telefon.

Forschungsgruppe Wahlen: 97 Prozent der deutschen Erwachsenen unter 40 sind online.

Die rhetorischen Leerstellen der liebwertesten Müll-Gichtlinge #Verpackungsverordnung


Gemeinsame Stelle, haushaltsnahe oder gewerbliche Anfallstelle, Schnittstelle, zentrale Stelle, Stellen für die Branchenrücknahme, Stellen für die Eigenrücknahme oder doch nur semantische Leerstellen? Auf dem Würzburger Verpackungsforum sollte eigentlich die Elite der Abfallwirtschaft über Visionen einer ressourcensparenden Recycling-Gesellschaft von morgen debattieren. Schon beim Eröffnungsvortrag des Beamten vom Bundesumweltministerium hätte man hellhörig werden sollen, um direkt wieder die Heimreise anzutreten.

Es gebe eigentlich nichts Neues zu berichten. Eckpunkte oder gar ein erster Arbeitsentwurf zu einem neuen Wertstoffgesetz liegen nicht vor. Denn man hatte ja bekanntlich Landtagswahlen in NRW mit dem Spitzenkandidaten Röttgen, der sein Dasein als Bundesumweltminister nur wenige Tage nach dem Wahlabend auskosten konnte. Peter Altmaier als Nachfolger konnte sich noch nicht vertieft mit der Thematik befassen. Entsprechend gebe es noch keine politischen Entscheidungen. Der neue Minister werde aber die Wertstoff-Tonne in Angriff nehmen, wenn er wieder aus Rio zurück ist.

Wie großzügig. Ein Teilnehmer des Kongresses sagte mir auf der Rückfahrt zum Hauptbahnhof, er rechne mit gar nichts mehr. In der Regierungskoalition bewegt man sich nicht nur in Fragen des Kreislaufwirtschaftsgesetzes im Kreis. Warum mir als akkreditierter Journalist die Video-Veröffentlichung der Beamtenrede im Nachhinein untersagt wurde, ist mir schleierhaft. Ich hätte ohnehin mein Youtube-Konto nicht mit den zähflüssigen Ergüssen belastet. Während der 25minütigen Regierungsplattitüden war es kaum möglich, gegen die eigene Müdigkeit anzukämpfen. Schließlich musste ich früh aufstehen, um den Zug nach Würzburg um 5:44 Uhr zu erreichen.

Selbst die spinnenden Römer würden das nicht verstehen

Ein Diskutant im Auditorium brachte es dann auf den Punkt. Er verwies auf die Verbraucher, die ja nicht unwesentlich sind beim Einstieg in die Recycling-Gesellschaft. Wer von einem fernen Planeten auf die Geschehnisse rund um die Verpackungsverordnung herunterschaue, würde frei nach Asterix und Obelix sagen: „Die spinnen, die Römer“. Das verstehe kein Mensch mehr, bestätigte Interseroh-Geschäftsführer Markus Müller-Drexel in seiner Rede.

„Wir diskutieren ständig über die rechtlichen Rahmenbedingungen. Dabei geht es in erster Linie um die Erfassung von Abfallmengen. Und das funktioniert nur mit Hilfe der Verbraucher. Denen müssen wir sagen, was wir wollen und warum es sinnvoll ist, mehr für das Recycling zu tun.“

Mehr zu diesem Müll-Leerlauf in meiner Mittwochskolumne für das Debattenmagazin „The European“.

Siehe auch:

Kommunale Pyromanen, Recycling und Gelbe Tonnen: Interview mit einem Abfallexperten.

Update: Hier nun die Kolumne „Ab in die Tonne“.

Weitsicht für Technikrevolutionen im Land der Korinthenzähler: Auf den Spuren von Heinrich von Stephan

Es fehlt den liebwertesten Gichtlingen in der Politik für wirklich wegweisende Zukunftsprojekte die geistig-kulturelle Beweglichkeit und schöpferische Arbeit des von mir mehrfach hoch gelobten Generalpostmeisters Heinrich von Stephan, der im Berlin des 19. Jahrhundert eine Flut von Technikrevolutionen auslöste. In meiner heutigen Kolumne für das Debattenmagazin „The European“ habe ich das noch einmal aufgegriffen.

Er erkannte sofort die wirtschaftliche und gesellschaftliche Dimension der elektrischen Nachrichtenübertragung. Mitte Oktober 1877 wurde Stephan ein Bericht der Zeitschrift „Scientific American“ vom 6. Oktober 1877 über Bells Telefon vorgelegt. Schon am 24. Oktober hat er zwei Telefone in Händen. Es waren die ersten Apparate, die überhaupt nach Europa kamen. Schon am gleichen Tage beginnt der Generalpostmeister mit den ersten Versuchen in seinem Amtsgebäude. „Dann werden das Generalpostamt Berlin, Leipziger Straße und das Generaltelegraphenamt in der Französischen Straße verbunden“, schreibt Hermann Heiden in seinem Buch „Rund um den Fernsprecher“, erschienen 1963 im Georg Westermann Verlag.

Am 26. Oktober erklärt Stephan: „Meine Herren! Diesen Tag müssen wir uns merken“. Es war die Geburtsstunde des Fernsprechers in Deutschland.

„Ende 1877 sind es 19 Orte, Ende 1880 bereits 1000 geworden, die über den Fernsprecher Anschluss an das Telegrafennetz erhielten. In Amerika war der Fernsprecher zur Errichtung von Fernsprechnetzen in Städten und zur Herstellung von Privattelegrafenlinien benutzt worden. Dass man ihn zur Erweiterung des staatlichen Telegrafennetzes benutzte, war etwas ganz Neues“, erläutert Heiden.

Die Widerstände in Deutschland gegen die Einführung des Telefons waren so groß, dass Stephan sich mit der Bitte an die Ältesten der Kaufmannschaft wendet, ihm geeignete Persönlichkeiten zu nennen, die bereit wären, gegen Vergütung die Werbung für den Fernsprecher in die Hand zu nehmen. Die Wahl fällt auf Emil Rathenau, den späteren Gründer der AEG. 1897, im letzten Lebensjahr des Generalpostmeisters, werden in Berlin von neun Fernsprechämtern 170 Millionen Gespräche vermittelt. Davon 20 Millionen Ferngespräche nach den von Berlin zu erreichenden Orten mit Fernsprechanschlüssen.

Drei Jahre später schreibt die „Berliner Illustrirte“ stolz, dass Berlin mehr Fernsprechanschlüsse habe als ganz Frankreich mit Paris und dass es sogar London und New York übertreffe. In den Haushaltsberatungen 1889/90 schildert Stephan seine Schwierigkeiten bei der Durchsetzung der Telefone. Seine Worte kommen mir irgendwie bekannt vor:

„Es ist kaum glaublich, wie ich über die Achsel angesehen wurde, wenn ich mit Begeisterung von dem Instrumente sprach, wie man hier in Berlin in den ersten Häusern und in den intelligentesten Kreisen vielfach meinte: ach das ist wohl amerikanischer Schwindel, ein neuer Humbug, das waren die Reden, die ich täglich zu hören bekam. Ich habe erst einige Agenten herumschicken müssen, um die ersten 100 Firmen, ich möchte sagen, zu überreden, dass die Einrichtung nur überhaupt ins Leben gesetzt wurde. Es war das ein neuer Beweis dafür, wie zurückhaltend, um nicht zu sagen misstrauisch, der Deutsche häufig neuen Unternehmungen, Gestaltungen und Entwicklungen gegenüber ist und wie schwerfällig er mitunter daran geht.“

„Die Beharrlichkeit, Weitsicht und Intuition des Generalpostmeisters könnten wir heute sehr gut gebrauchen, um für die vernetzte Ökonomie die modernste Infrastruktur zu schaffen. Nur so ist wirtschaftliche Prosperität möglich – von der Logistik bis zur Energiewende“, schlussfolgert der Technologieexperte Bernd Stahl von Nash Technologies.

Ich schließe mich dieser Einschätzung an und fordere auf dem nächsten IT-Gipfel in Essen wenigstens den Hauch eines Heinrich-von-Stephan-Geistes.

Es fehlt bislang eine wirklich wissenschaftliche Biografie über Leben und Werk des Generalpostmeisters. Eigentlich peinlich. Es gab mal vor Ewigkeiten eine interessante Ausstellung inklusive Katalog und einige kurze Abhandlungen in Fachbüchern. Das war es denn auch. Einiges habe ich in den vergangenen Wochen in Antiquariaten über zvab.com zusammengetragen. Vielleicht erbarmt sich mal ein Jungwissenschaftler, eine Doktorarbeit über Heinrich von Stephan zu schreiben. Da könnten die politischen Entscheider in Berlin noch einiges über zukunftsfähige Regierungskunst lernen. Übrigens auch der Datenschützer Thilo Weichert, der in einem Interview mit der FAZ in einem anmaßenden Analysten-Gequatsche den Börsengang von Facebook schlechtredet, weil dieser Laden wohl nicht in sein Weltbild passt:

„Wer als Aktionär spekuliert, muss damit rechnen, dass, wenn sich der Datenschutz in Deutschland und Europa mit seinen Belangen durchsetzt, das Geschäftsmodell von Facebook in sich zusammenbricht. Es ist zwar möglich, dass Facebook unseren Forderungen nachkommt, aber das ist vollkommen offen“, so die Einschätzung des Beamten Thilo Weichert.

Börsen-Guru Weichert gibt auch eine Kursprognose ab:

„Ich denke, Facebook wird an der Börse überbewertet. Aber das wird erst die Geschichte zeigen.“

Woher weiß er das? Ich bin ja nun alles andere als unkritisch zu Facebook. Aber was sich hier eine Amtsperson kurz vor dem Börsengang des Zuckerberg-Konzerns herausgenommen hat, überschreitet die Kompetenzen eines staatlichen Datenschützer.

Die Rundumschläge von Weichert möchte ich im Laufe dieser Woche noch einmal aufgreifen. Wer dazu etwas sagen möchte, sollte mich kontaktieren. Entweder Handy: 0177 620 44 74 oder E-Mail: gunnareriksohn@googlemail.com

In den Nachmittagsstunden so gegen 15 Uhr bringe ich übrigens noch eine schöne Replik auf den FAZ-Gastbeitrag „Roboter müssen unsere Rente sichern“ von Chaos Computer Club-Sprecher Frank Rieger.

Update: Mit der Replik auf Frank Rieger werde ich erst im Laufe des Abends fertig – muss noch ein längeres Interview mit Christoph Kappes abhören und in den Beitrag einbauen. Morgen erscheint der Beitrag dann im Fachdienst Service Insiders.

Liebwerteste Kanzlerin, wo bleibt der kompromisslose Internet-Ausbau? #Heinrich-von-Stephan #informare12

Am 11. Mai jährte sich in Berlin ein Stück deutscher Wirtschaftsgeschichte: Die DeTeWe Communications feierte ihr 125-jähriges Jubiläum. Gegründet im Jahr 1887 als Zulieferer in der Telefonapparateproduktion, war das Unternehmen Pionier bei der Konstruktion von Fernmeldeämtern, Co-Erbauer des ehemaligen Berliner Rohrpostsystems, millionenfacher Hersteller von Telefonen und ist heute einer der größten ITK-Systemintegratoren in Deutschland. „Die DeTeWe blickt auf Generationen von Ingenieursleistung zurück und hat die Kommunikationsbranche wie kaum ein anderes Unternehmen mitgeprägt. Ob Telefon, Rohrpost, Fax, schnurlose Telefone, Internet, E-Mail: Die Informations- und Telekommunikationsbranche ist schnelllebig, die DeTeWe war und ist immer dabei“, sagt Christian Fron, Geschäftsführer der DeTeWe Communications.

Der Architekt für die Technik-Revolutionen im Berlin des 19. Jahrhunderts war der Generalpostmeister Heinrich von Stephan. Er erkannte sofort die wirtschaftliche und gesellschaftliche Dimension der elektrischen Nachrichtenübertragung. Mitte Oktober 1877 wurde Stephan ein Bericht der Zeitschrift „Scientific American“ vom 6. Oktober 1877 über Bells Telefon vorgelegt.

Schon am 24. Oktober hat er zwei Telefone in Händen. Es waren die ersten Apparate, die überhaupt nach Europa kamen. Schon am gleichen Tage beginnt der Generalpostmeister mit den ersten Versuchen in seinem Amtsgebäude. „Dann werden das Generalpostamt Berlin, Leipziger Straße und das Generaltelegraphenamt in der Französischen Straße verbunden“, schreibt Hermann Heiden in seinem Buch „Rund um den Fernsprecher“, erschienen 1963 im Georg Westermann Verlag. Am 26. Oktober erklärt Stephan: „Meine Herren! Diesen Tag müssen wir uns merken“. Es war die Geburtsstunde des Fernsprechers in Deutschland.

„Ende 1877 sind es 19 Orte, Ende 1880 bereits 1000 geworden, die über den Fernsprecher Anschluss an das Telegrafennetz erhielten. In Amerika war der Fernsprecher zur Errichtung von Fernsprechnetzen in Städten und zur Herstellung von Privattelegrafenlinien benutzt worden. Dass man ihn zur Erweiterung des staatlichen Telegrafennetzes benutzte, war etwas ganz Neues“, erläutert Heiden. Die Widerstände in Deutschland gegen die Einführung des Telefons waren so groß, dass Stephan sich mit der Bitte an die Ältesten der Kaufmannschaft wendet, ihm geeignete Persönlichkeiten zu nennen, die bereit wären, gegen Vergütung die Werbung für den Fernsprecher in die Hand zu nehmen. Die Wahl fällt auf Emil Rathenau, den späteren Gründer der AEG. 1897, im letzten Lebensjahr des Generalpostmeisters, werden in Berlin von neuen Fernsprechämtern 170 Millionen Gespräche vermittelt. Davon 20 Millionen Ferngespräche nach den von Berlin zu erreichenden Orten mit Fernsprechanschlüssen. Drei Jahre später schreibt die „Berliner Illustrirte“ stolz, dass Berlin mehr Fernsprechanschlüsse habe als ganz Frankreich mit Paris und dass es sogar London und New York übertreffe.

https://twitter.com/#!/SERVICEInsiders/status/200264792659861505

„Die Beharrlichkeit, Weitsicht und Intuition des Generalpostmeisters Heinrich von Stephan könnten wir heute in Deutschland sehr gut gebrauchen, um für die vernetzte Ökonomie die modernste Infrastruktur zu schaffen. Nur so ist wirtschaftliche Prosperität möglich – von der Logistik bis zur Energiewende“, sagte Systemingenieur Bernd Stahl vom Netzwerkspezialisten Nash Technologies auf der Berliner Wissenschaftskonferenz Informare.

Vom Heinrich von Stephan-Gründergeist könnte sich die Berliner Politik eine große Scheibe abschneiden, um die Voraussetzungen für eine vernetzte Ökonomie zu schaffen.

Gunter Dueck spricht in diesem Zusammenhang von der Notwendigkeit einer „strukturkultivierenden Marktwirtschaft“. Der Staat müsse die Infrastrukturen auf die Zukunft ausrichten. „Zum Beispiel könnte die Bundesregierung einen verbindlichen ‚Fahrplan‘ für den Ausbau des Breitbandinternets herausgeben. Das würde etwa 60 Milliarden Euro kosten, nicht mehr als die Rettung einer Bank“, erläutert Dueck. Zu einem solchen Schritt würde sich niemand entschließen. Ein superschnelles Internet sei für die Wirtschaft und für die Transformation zur Wissensgesellschaft unabdingbar. Ein kompromissloser Ausbau des Internets hätte ähnlich dimensionierte positive Auswirkungen.

„Dieselben Leute, die die 60 Milliarden für die Zukunft nicht geben wollen, argumentieren wie selbstverständlich, dass der entscheidende Anstoss zu Deutschlands Wirtschaftswunder der energische und kompromisslose Ausbau des Autobahnnetzes in den 1960er-Jahren war, der für Deutschland eine moderne Infrastruktur schuf“, führt Dueck weiter aus.

Immer grössere Teile der gesellschaftlichen Werte werden digitalisiert.

„Und damit auch deren Wertschöpfung. Man sieht das sehr schön an Garys Social Media Count. Nicht nur die Tatsache, dass die Zahl der Google+ und Facebook User schneller wächst als die der neuen Internet-Teilnehmer. Der Hammer befindet sich hinter dem Tab ‚heritage‘: diese gigantischen Wertschöpfungen werden zum grossen Teil in die virtuelle Welt wandern: digitalisiert und vernetzt“, meint Stahl.

Content bedeute die vollständige Digitalisierung ALLER Lebensbereiche, Branchen und Prozesse. Die Kanzlerin sollte also aufhören, noch weiter von dümmlichen Herdprämien zu träumen, sondern sich den wesentlichen Zukunftsaufgaben widmen. Ich möchte nichts mehr hören von tausend Projekten, Kompetenz-Zentren und sonstigen Alibi-Veranstaltungen. Die Bundesregierung sollte auf dem nächsten IT-Gipfel am 13. November in Essen einen Internet-Masterplan auf den Tisch legen.

Siehe auch:

Heinrich von Stephan, DeTeWe und die Technikrevolutionen in Berlin.

Digitales Entwicklungsland: Warum der IT-Gipfel einen Heinrich von Stephan-Preis vergeben sollte.

Ideenlos im Netz: Es fehlen Visionen für die Hightech-Kommunikation.

Vom „Buch der Narren“ zum Mekka der Kommunikation.

Digitales Entwicklungsland: Warum der IT-Gipfel einen Heinrich von Stephan-Preis vergeben sollte #informare12

Heinrich Rudolf Bruns (@hrbruns), mit dem ich zusammen die Obi Wan Kenobi-Runde auf der Informare in Berlin moderierte, war so freundlich, eine Audioaufzeichnung anzufertigen. Wer also den Livestream gestern nicht gesehen hat, kann sich das Spektakel zumindest anhören:

Mit dabei waren Arnoud de Kemp (informare), Hannes Schleeh, (Coach, @7xy) und Bernd Stahl von Nash Technologies (@NashTecGermany).

„In lockerer Runde disktutierten wir, wie sehr neue Technologien und Ansätze das Internet verändern werden. Aber auch, wie verhalten manche Unternehmer und Besitzstandswahrer sind, wenn es um Innovation geht“, so das Fazit von Heini.

Danach saßen wir noch gemütlich in der Ständigen Vertretung, genehmigten uns einige Bierchen und schmiedeten neue Vernetzungspläne. Wir vier werden wohl Ende August oder Anfang September ein Blogger-Camp in Nürnberg aufziehen.

Über die Themen müssen wir uns noch austauschen. Wer mitmachen möchte, ist herzlich eingeladen. Wir sammeln noch Ideen.

Ich hatte ja versprochen, die Playmobil-Piraten zu politisieren. Hier das Beweisfoto:

Für meine morgige Service Insiders-Kolumne werde ich wohl den Vortrag von Professor Hans Uszkoreit vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) als Basis nehmen. Thema: Turings Traum weiter träumen. Mit Sprachtechnologie und KI auf dem Weg zur Social Intelligence.

Vielen Dank an die sehr fleißige Vera Münch (@observaitress), die die Fotos der Obi Wan Kenobi-Runde geschossen hat. Weitere Fotos der Informare habe ich auf FB hochgeladen.

Thesen zum Future Internet: Panel am 9. Mai auf der #Informare12

Von Bernd Stahl, Netzwerkexperte von Nash Technologies und Teilnehmer des Informare-Panels, kamen folgende Überlegungen:

Hauptthese: es geht um fortschreitende Vereinfachung des Systems und der User-Experience. Das Reduziert die Kosten des Systems: sowohl Herstellung als auch Betrieb. Diese Vereinfachung umfasst das Internet auf der Netz-Ebene und auf der Anwendungs-Ebene. Es geht einfacher, effizienter, eleganter und effektiver und mit den sich daraus ergebenden natürlichen Geschäftsmodellen.

Formel: E4+G. Einfacher, Effizienter, Effektiver, Eleganter. Und damit baut man Geschäftsmodelle.

o Kunden kaufen, wenn man etwas hat, mit dem man entweder Kosten sparen kann oder zusätzliches Geld verdienen kann. Das ist die Basis für Geschäftsmodelle.

o Einfacher (mach es nicht komplizierter, sondern einfacher!) und effizienter (macht es richtig gut! Z.B. sollte man das mal auf die vielen Apps anwenden) steht dafür, wie man Geld sparen kann.

o Effektiver (tue ich überhaupt das richtige Ding oder müsste ich eigentlich nicht etwas ganz anderes tun? Z.B. nicht noch einen Balkon im Internet, sondern ein besseres IP++, einen Single View of Social, Social Media Dial Tone, etc.) und eleganter (was kann ich tun, damit das Leben angenehmer, beschwingter, lustiger, etc. wird? Z.B. das iPhone plus iTunes App Store) steht dafür wie man zusätzliches Geld verdienen kann.

o Die Geschäftsmodelle der Internetwirtschaft beruhen auf folgenden zwei Säulen: den Usern muss der Dienst gefallen, und den Service Providers müssen die dadurch gewonnenen User Data Gewinn bringen. D.h. kostenloser Service bezahlt durch User Daten. Hier gilt das Prinzip: je größer und wirkungsvoller die Plattform des Service Providers, desto höheren Wert kann man aus den User Daten gewinnen. Die Frage ist: kann man dieses Prinzip so aufbrechen, dass es eine große Zahl dezentraler Service Providers mit deren Plattformen begünstigt, sowohl in der Entstehung als auch nachhaltig?

Die Vereinfachung auf der Netzebene betrifft den IP-Layer, d.h. den Network Layer.

o In den vergangenen drei Jahrzehnten tobte ein Glaubenskrieg (der 30-jährige Krieg der Kommunikation-Systeme): Packet Switching vs. Circuit Switching. Getrieben letztendlich von Wirtschaftsinteressen. Heute weiß man, man braucht beides, nahtlos integriert.

o Will man die Leistungsmerkmale von Circuit Switching mit Packet Switching realisieren, dann muss man hohen technischen Aufwand treiben, d.h. das System wird unnötig komplex und anfällig.

o Will man andererseits die Leistungsmerkmale von Packet Switching mit Circuit Switching realisieren, dann verschwendet man Netzwerk-Ressourcen.

o Auf dem Ethernet-Layer ist man mit Carrier Ethernet bereits dabei, die Hausaufgaben zu lösen, d.h. man hat eine einheitliche Plattform für beides.

o Problem: Auf dem IP-Layer gibt es nur Packet Switching. Dies bedeutet, dass man auf den darüber liegenden Schichten die Features Circuit Switching nicht vollständig emulieren kann, selbst wenn diese auf Ethernet-Ebene vorhanden sind und man mit TCP z.B. über eine Connection Oriented Protocol verfügt. Die Verbindungsorientierung schafft eben doch keine maximal definierbare End-to-End Bandbreiten- und Antwortzeitgarantie, weil es in IP eben Queues gibt.

o Zusätzlich gibt es eine Innovationsblockade auf dem IP Layer: es gibt nur ein einziges Protokoll für alles, die anderen sind im Wettbewerb ausgestorben. Man müsste also die Möglichkeit schaffen, auf dem IP Layer mehrere weitgehend disjunkte Protokolle zuzulassen, die überlebensfähig wären, so wie es die Georgia Tech University fordert. Oder man schafft ein innovativ offenes und erweiterbares Internet-Protokoll IP++. Mit beiden Optionen wäre der Innovationsstau aufgelöst.

o Das Ganze ist ein operator-freundliches Scenario. D.h. wegen der Vereinfachung der Kommunikationsarchitektur, wird auch die Herstellung von Netzelementen günstiger bei gleichzeitiger Steigerung der Leistungsfähigkeit und Senkung des Energieverbrauchs. Kehrseite: der Verdrängungswettbewerb der Hersteller geht weiter, aber der Erste gewinnt.

o Wenn IP++ sowohl Circuit Switching als auch Packet Switching unterstützt, dann fallen Balkon-Protokolle wie MPLS, LISP, etc. weg. Ebenso fallen zusätzliche Protokolle und Mechanismen für Bandbreitenreservierung weg, weil man sie direkt in IP++ erledigt, ohne Balkone. Das Routing ließe sich vereinfachen: Routing-Protokolle und –Mechanismen könnten teilweise oder ganz wegfallen und gleichzeitig das Routing robuster und weniger anfällig für Störungen und Angreifer gemacht werden. Durch Einführung topologischer Adressen würden die Routingpläne um Größenordnungen kleiner werden bei gleicher Leistungsfähigkeit. Dadurch würde das Betreiben vereinfacht und die Fehleranfälligkeit verringert. Durch Dienstgüteklassen in IP++ könnte man über mehrere Netze hinweg Quality of Service garantieren. Durch SLAs können die beteiligten Netzbetreiber die Dienstgüte über Netzwerkgrenzen hinweg garantieren und effektive Geschäftsmodelle aufbauen.

o Durch explizite effektive Service Classes spart man sich das teure und umstrittene Deep Packet Inspection.

Für die Entwicklung auf dem Application Layer spielen mehrere Trends eine Rolle:

o Immer mehr Firmen denken darüber nach, für ihre interne Kommunikation Social Media einzusetzen und auf E-Mails zu verzichten. Firmen bauen interne Social Networks auf. Die werden aber mit Sicherheit keine öffentlichen Netze wie Facebook sein. Vertrauliche Information wird abgesichert und wird von den Firmen selber gehostet oder von einem lokalen Cloud-Anbieter. Es entstehen viele soziale Inselnetze mit höherwertiger Information. Die Technologie kann die gleiche sein, die Netze selber haben aber klare Abgrenzungen. Partiell wird man sein Unternehmensnetz auch öffnen wollen: Partner, Kunden, Lieferanten. Man muss soziale Netze miteinander verknüpfen. Dazu müssen die entsprechenden APIs zugänglich gemacht werden. Das Ganze wird durch die Kosten getrieben, denn Unternehmen haben kein Interesse daran, ihre Informationen mehrfach einzugeben, nur damit man in mehreren Netzen präsent ist. Die logische Konsequenz: eine sehr große Anzahl unabhängiger Social Networks.

o Apples Siri stellt eine einzige sprachgesteuerte Benutzerschnittstelle dar, die derzeit etwa ein Duzend Apps steuert. Damit ist Siri die singuläre Schnittstelle zum User. Der Rest wandert schrittweise unter die Haube.

o Die Marktmacht weniger Großer Player und deren beginnende / fortschreitende Zensur bewirkt immer mehr Unbehagen. Die Lösung liegt in dezentralen miteinander konkurrierender Strukturen. Immer mehr Leute denken über sogenannte Mesh-Networks nach. Es wäre eine Renaissance des ursprünglichen Internet Spirits, angewandt auf den bereits stark kommerzialisierten Application Layer.

o Schließlich werden es auch einfache Rationalisierungsgründe sein. Soziale Mehrfachkonten sind einfach erhebliche Mehrarbeit. Wer das vereinfacht, präsentiert einen besseren Business Case.

Mein Traum: ein „Social Media Dial Tone“ auf dem Application Layer (bei Google findet man für diesen String nur 7 Links). So wie früher beim Telefon. Ohne Mehrfachkonten bei Facebook, Twitter, G+, LinkedIn & Co. Ohne zusätzliche Balkon-Tools. Ein Access. Ein View. In alle Netze. Semantisch angereichert. Sozusagen unter der Haube. Wieso muss der Wildwuchs-Spaghetti der Entwickler dem User eins zu eins zugemutet werden? Wie könnte sich so etwas entwickeln?

o Ein Dial Tone beim Telefon bedeutet: Einfacher Access zum weltweiten Telefonnetz, unabhängig wo mein Kommunikationspartner sich befindet und an welchem Operator er angeschlossen ist. Auch die Directories waren global vernetzt. Der Ton stand auch für Carrier Grade: d.h. hoch verfügbar (5-7 neuner), definierte Services mit definierter Quality of Service. Für den Internanschluss auf IP-Ebene gibt es mittlerweile auch so etwas wie einen Dial Tone: der DSL-Anschluss, SmartPhone, etc. Bei Google findet man folgende Links – noch sind es sehr wenige – mit dem String „Social Media Dial Tone“:

Hier geht’s darum, dass es einen Social Media Dial Tone nicht gibt, d.h. ein soziales Netz kann jeder Zeit abgeschaltet werden ohne Ankündigung. Daher der Rat, seine Social Media Presence auf so viele Netzwerke wie möglich duplizieren. Verständlich, aber nicht wirklich eine Lösung.
Mein Verbesserungsvorschlag: ein Social Shadow auf meiner privaten Cloud. Für Unternehmenskritische Daten ist das sowieso die Lösung.

Hier wird der Social Media Dial Tone als API zu einem Social Network definiert, von denen es de facto tausende gibt und die bekanntesten sind Facebook, Twitter, G+, YouTube, LinkedIn, etc. Aber der Text skizziert auch schon die Möglichkeit eines einzigen Accesses auf vernetzte Social Networks.

Mein Verbesserungsvorschlag: meine Definition eines Social Media Dial Tones ist: ein einziger API auf vernetzte Social Networks mit Customised View.

Hier wird auch das Problem der zu vielen Social Networks dargestellt. Der Lösungsvorschlag: nicht zu viele Social Networks.

Hier geht’s um die versteckten Kosten für „Free Social Media“: der zu bezahlende Preis ist User-generated Content und User Demographic Information.
Mein Verbesserungsvorschlag: ein echter Social Media Dial Tone ist ein Mehrwert der in der Internet Flatrate eingehen sollte und für den man bezahlt um verlässliches und einfaches Social Media zu haben. Für Firmen lohnt sich das, weil es Kosten spart. Und: Firmen wissen, dass ihre Daten extrem wertvoll sind. D.h. „Free Social Media“ ist eine Werbeplattform, echter Content ist nicht umsonst.

Auch hier geht man davon aus, dass man einen Social Media Dial Tone braucht, weil Social Media derzeit kein wirklicher Service ist, sondern nur eine Application Destination.

Mein Verbesserungsvorschlag: Social Media muss tatsächlich ein echter Service werden, vernetzt, hochverfügbar, customisable, unabhängig vom Endgerät.

Überträgt man das auf Social Networks und Search dann kommt etwa folgendes dabei heraus:

Ein echter Service (im Gegensatz zu einer Applikation auf Servern eines Rechenzentrums), vernetzt mit allen anderen Social Media Networks, hochverfügbar, ein einziger Customisable View, unabhängig vom Endgerät, bereitgestellt durch den Internet-Provider. Durch die Bereitstellung via Internet-Provider wird „Social“ mehr und mehr zu einer Commodity.

Grob vereinfacht besteht ein Social Network aus:

· Einer Datenbanktechnologie.

· Einer Datenbank-Applikation.

· Einem API.

· Einem User View.

Diese 4 Komponenten sollte man konsequent trennen:

· Die Datenbanktechnologie kann dazu verwendet werden, unabhängige Social Networks aufzubauen.

· D.h. damit schafft man viele unabhängige Datenbank-Applikationen.

· Der API wird standardisiert um Interoperabilität zu gewährleisten.

· Der User View gehört als App aufs Endgerät oder in einen Browser.

· Durch die Trends oben wird das Social Media Network auf allen Protokoll-Ebenen dezentral. Damit wird ein Big Brother vermieden. Wodurch wird die dezentrale Lösung getrieben? Folgende Möglichkeiten:

o Wenn Firmen ihre interne Kommunikation durch Web 2.0 und Social Media Technologien E4 gestalten, dann geht es nicht mehr um das Geschäft Free Service gegen Werbung mit User Daten. Es geht dann einfach um höhere Produktivität in der Wissensgesellschaft und geringere Kosten.

o Die Information, die hierdurch in Firmen generiert wird, hat einen hohen Wert an sich, für die Firma selber, aber auch für Partner, Kunden, Lieferanten.

o Wenn sich diese hochwertigen Web 2.0 Inseln durch Knowledge Peering vernetzen, dann geht es unterm Strich für das daraus entstehende Gesamtsystem wieder um höhere Produktivität in der Wissensgesellschaft und geringere Kosten. D.h. alle gewinnen.

o Ein Social Media Dial Tone ist hier ein zentrales Kostenargument.

o Der Basis-Dienst ist Teil der Internet-Flatrate. Für höherwertigen Content kann man aus einer Fülle von Geschäftsmodellen wählen.

Die Social Media Existenz kann abgesichert werden durch einen Social Shadow auf einer privaten Cloud. Dieser Social Shadow erlaubt dann weitere Anwendungen.

· Das heutige Geschäftsmodell für „Free Social Media“ wird sich durch Werbung finanzieren, Werbung die auf der Ressource User Data aufbaut. Neue Geschäftsmodelle für „Value Content Social Media“ werden ebenfalls entstehen, je mehr diese Art von Inseln de facto aufgebaut werden. Diese Inseln werden ihre Daten semantisch annotieren.

· Ebenso findet Search heute fast ausschließlich „Free Content“. Z.B. landet Google oft auf Wikipedia. Höherwertiger Content, obwohl begehrt, wird nicht gefunden. Hier gibt es eine Fülle neuer Geschäftsmöglichkeiten. Semantic und Social Search: Paid Content veröffentlicht ein semantisches API, mit oder ohne Binding an ein kommerziell betriebenes Portal. Idee: Online Semantic Crawler.
Allerdings hat Google laut Vizechefin Marissa Mayer einen allwissenden Suchdienst im Sinn, der im voraus schon weiß, was der User will.

Meine These: Google wird nicht der Big Brother werden können, sondern bestenfalls der Klebstoff zwischen den Hochwertigen Content Inseln.

· Ein spannende Frage ist hier auch, wie die Aufgabenteilung zwischen Endgerät und Netz / Applications liegen wird. Ich gehe davon aus, dass das sich Endgeräte zu einer Kombination von R2D2 und C-3PO entwickeln werden, d.h. die Personalisierung ist fast ausschließlich im Endgerät. Und damit ist sie wieder dezentral.

· Schließlich noch was zu den Endgeräten: Die meisten Leute denken beim Mobilen Internet heute an Smartphones und Pads. Mobile und Festgeräte werden über einen singulären Dial Tone verfügen: man beginnt den Film auf dem Smartphone und beendet ihn auf dem TV. Aber: die Miniaturisierung der Endgeräte geht weiter. D.h. Smartphones und Tablets werden nach und nach zu Teilen der Kleidung wie Armbanduhren oder Brillen. Die Benutzerschnittstelle wir 3D (3D Screen, Hologramme, Virtuelles 3D via Brille, etc.), gesteuert mit Sprache, Händen (effektivere Gesten), Augen und Gedanken, etc. Ein neues Lebensgefühl. Auch die Endgeräte haben Wechselwirkungen, wie Internet und Soziale Netze verwendet werden. Diese Funktionsmächtigkeit will man doch sicher keiner zentralen Instanz anvertrauen.

Vom Co-Moderator Heinrich Bruns folgender Blogpost interessant: Die Wolke ist … ähm, ja … wolkig

Siehe auch:

Über den Propagandabegriff der „Raubkopie“ und die Innovationen der Kopisten #rp12 #informare12

Längst haben die Wirtschaftshistoriker herausgefunden, dass rückständige Volkswirtschaften mit dem Abkupfern existierender Technologien ihr Wachstum befeuern: Aufholen durch Nachahmen. Japan und Korea haben diese Strategie nach dem Zweiten Weltkrieg enorm genutzt. Häufig spielt der Zufall eine Rolle: Bei einem flüchtigen Besuch in amerikanischen Supermärkten sahen japanische Autofirmen-Vorstände, wie dort die Ware automatisch nachgefüllt wurde. Das war die Geburt der Just-in-time-Produktion. Besonders die deutsche Industrie, die sich heute mit der Forderung nach Leistungsschutz t gegen die digitale Welt abschotten will, konnte ihre Rückständigkeit Ende des 19. Jahrhunderts nur durch kluge Imitation kompensieren.

„Wie heute die Chinesen, haben damals deutsche Maschinenbauer ausländische Erfolgsmodelle in großem Stil eingekauft: Sie zerlegten die Maschinen in England und bauten sie im Siegerland oder im Schwäbischen neu auf. Durchs Nachmachen zu Erfahrung gekommen, haben die Deutschen sodann ihre Maschinen billig ins Ausland verkauft“, berichtet Hank.

Er verweist auf ein besonders dreistes Kopistenwerk in Solingen. Dort wurden minderwertige Messer aus Gusseisen hergestellt und mit dem Stempelaufdruck „Sheffield“ veredelt – das galt damals als Markenzeichen der englischen Messerproduktion.

„Ironie der Geschichte: Als Abwehrmaßnahme zwang England Deutschland das Label ‚Made in Germany‘ auf, damit man die mindere Ware erkennen sollte. Aber den Deutschen gelang es, das Stigma zum Qualitätssiegel umzuschmieden“, so der „FAZ“-Redakteur.

„Wenn man sich anschaut, welche unfassbar wichtige Wirkung Generika in der Medizin haben, etwa für bei der Therapie von Aids-Patienten, umso skandalöser ist es, wenn Menschen mit Patenten der Zugang zur Heilung verweigert wird“, kritisiert Dirk von Gehlen in seinem Republica-Vortrag zum „Lob der Kopie“ (gleichnamiger Titel seines Buches, das im Suhrkamp-Verlag erschienen ist).

Ebenso fragwürdig ist die Kriminalisierung des digitalen Kopierens, die in der aktuellen Urheberrechtsdebatte hochkocht, bemerkt der Redaktionsleiter von jetzt.de.

„Die digitale Kopie, das Verbreiten von identisch duplizierten Inhalten, nahezu ohne Kosten, ist eine historische Neuerung und zieht eine Veränderung nach sich, die man vergleichen kann mit dem Übergang vom Mittelalter zur Neuzeit“, erklärt von Gehlen.

Schon das Wort „Raubkopie“, von Musik- und Filmindustrie in „abschreckenden“ Filmchen als Propagandavokabel inflationär verwendet, ist juristisch unsinnig.

„Es ist eine sachliche Feststellung, dass nichts geraubt wird. Es wird nicht weggenommen. Nach dem Strafgesetzbuch ist der Raub so definiert, dass man unter Gewaltanwendung einen beweglichen Gegenstand von A nach B bewegt. Wenn ich eine Datei verschicke, ist es weder mit Gewalt verbunden, noch bewegt sich der Gegenstand von A nach B. Er verbleibt nämlich da, wo er war. Diese Erkenntnis muss allen Urheberrechts-Diskussionen zugrundeliegen, wenn man sie denn zielgerichtet führen will“, fordert von Gehlen.

Was heißt heute noch Original und was Kopie bei einem Medium, „in dem alles auf dem Prinzip der Kopie basiert“, fragt sich Urs Gasser im Interview mit Dirk von Gehlen (abgedruckt im von Gehlen-Buch „Lob der Kopie“ S. 54 ff.):

„Ich glaube, durch die Digitalisierung werden so viele Grenzen unscharf, dass wir da enormen Gesprächsbedarf haben – zwischen unterschiedlichen Anspruchsgruppen, aber auch zwischen den Generationen.“

Hinter die Kultur des Teilens und Austauschens werde man nicht mehr zurückgehen können.

„Die Kultur ist in unserer DNS enthalten. Wie junge Menschen heute aufwachsen und wie wir kommunizieren, basiert auf diesem Prinzip“, so Gasser.

Kulturtechnik des Kopierens wie Software betrachten

„Wenn wir Einsicht in die Tatsache nehmen, dass es nur zu extrem hohen sozialen Kosten möglich ist, Menschen am Kopieren zu hindern, gibt es meiner Meinung nach keinen besseren Vorschlag als die Kulturflatrate, um einen Ausweg aus dem Legitimationsproblem zu finden. Es wird adaptiert, was wir von analogen Medien schon kennen. Wenn man sich einen CD-Rohling kauft, fällt eine Leermedien-Abgab an. Ein geringer Anteil wird also an die Verwertungsgesellschaft GEMA überwiesen, die diese Summen nach einem wenig durchschaubaren Schlüssel an die Künstler auszahlt“, so das Gehlen-Plädoyer auf der Republica.

Tauschbörsen und Filesharing durch Verdammung, juristische Sanktionen und Abmahnungen in den Griff zu bekommen, hat nie funktioniert. Wenn digitale Kopien ohne große Aufwendungen dupliziert werden können, müssen wir diese Kulturtechnik des Kopierens und Teilens wie Software betrachten. Der Begriff des Originals läuft in der digitalen Welt ins Leere.

Soweit ein Auszug meiner heutigen Kolumne für den Fachdienst Service Insiders.

So, jetzt habe ich mehr oder weniger alle Aufzeichnungen und Notizen von der Republica verwertet. Die Konferenz und die vielen Gespräche haben mir sehr viel gebracht.

Hoffe, dass es morgen auf der Berliner Wissenschaftskonferenz Informare im Cafe Moskau so weitergeht. Am Mittwoch bin ich dort als Moderator im Einsatz und werde sicherlich einige Themen der Republica aufgreifen und weiter diskutieren in dem Panel „Obi Wan Kenobi und das Future Internet“. Einige Thesen zu dieser Runde werde ich wohl noch im Laufe des Abends posten und würde mich über Anregungen für die Diskussion freuen. Unterstützt werde ich in der Moderation vom Hörfunkjournalisten Heinrich Bruns. Da wird natürlich auch über soziale Netzwerke, die App-Economy, zentral versus dezentral, AGB versus Grundgesetz disputiert. Vielleicht auch über das heimliche Platzen der Social-App-Blase.

Siehe auch:

Gehlen-Vortrag als Audioaufzeichnung in längerer Version:

Vernetzte Ökonomie: Digitale Kompetenz statt Leistungsschutz.

Kultur der Beteiligung statt geheime Kabinettspolitik.

Wir sind Facebook! Netzöffentlichkeit zwischen Zensur, Willkür und Kontrollsucht.

Kultur der Beteiligung statt geheime Kabinettspolitik #rp12

Gilt nun Grundgesetz oder die Allgemeinen Geschäftsbedingungen von Facebook, wenn es um virtuelle Öffentlichkeit geht? Diese Frage stellte Sascha Lobo in einer Expertendiskussion auf der Republica in Berlin. Wenn der politische Meinungsbildungsprozess auf privaten Servern stattfindet und Mark Zuckerberg nach Lust und Laune virtuelle Existenzen ein- oder ausschalten kann, dann sieht man das Konfliktpotenzial für die Netz-Gesellschaft. Hier brauchen wir neue Regeln und zwar international.

Lobo brachte die Uno ins Spiel. Und in der Tat geht es um ein völkerrechtliches Problem. Es geht um Weltfragen:

„Theoretisch können heute fünf Milliarden Menschen das Internet nutzen, wenn man den Mobilfunk einschließt. So ein gigantisches Wachstum hat es in der Menschheitsgeschichte vorher nie gegeben. Deswegen sind viele politische Akteure überfordert, weil sie zur Regelung von Weltfragen nur das System der zwischenstaatlichen Organisationen haben – etwa die Vereinten Nationen, der G8-Gipfel, die Europäische Union oder die OECD. Hier findet alles hinter verschlossenen Türen statt. Es wird von oben nach unten hinter verschlossenen Türen entschieden“, bemängelt Professor Wolfgang Kleinwächter in dem Republica-Panel „HACKING THE MAP OF INTERNET GOVERNANCE“.

Man bekomme keinen Zugang zu Dokumenten, ACTA-Verhandlungen laufen unter dem Ausschluss der Öffentlichkeit und Einflüsterungen von Lobbyisten bei Gesetzesinitiativen erreichen nicht das Licht der Öffentlichkeit.

Mit der geheimen Kabinettspolitik der liebwertesten Netzsperren-ACTA-Staatstrojaner-Gichtlingen kommen wir vom freiheitsfeindlichen und willkürlichen AGB-Regen in die digitale Kontrollsucht-Jauche. Gefragt ist jetzt eine kollaborative, transparente und durchlässige Entscheidungsfindung in Internet Governance-Gremien wie ICANN.

„Hier können auch kleine Unternehmen und Privatpersonen ihre Interessen vortragen. Das nächste ICANN-Meeting ist in Prag und für jeden mit kleinem Aufwand zu erreichen. Jeder kann hinfahren und ans Mikrofon treten und seine Meinung zu bestimmten Punkten äußern. Demokratie bei ICANN fängt damit an, dass jedes Meeting und jede wichtige Session gestreamt wird. Jede Sitzung wird transkribiert. Jeder kann nachlesen, was Teilnehmer wortwörtlich gesagt haben. Es gibt Diskussionsforen, bei denen man sich einklinken kann. Man wird rechtzeitig eingeladen. Es gibt Fristen, die eingehalten werden müssen“, so die Erfahrung von DOTZON-Berater Dirk Krischenowksi, der regelmäßig bei Konferenzen von ICANN teilnimmt.

„Regierung, Privatsektor und Zivilgesellschaft müssen gleichberechtigt an der Gestaltung der Netzöffentlichkeit mitwirken können. Internet kann nur dann global funktionieren, wenn alle in die Entscheidungsprozesse mit einbezogen werden. Nur mit geteilten Entscheidungsgewalten ist das möglich“, resümiert Kleinwächter, der an der Universität Aarhus Internet Politik und Regulierung lehrt.

Ausführlicher greife ich das Thema morgen in meiner The European-Kolumne auf.

Wie eine durchlässige und transparente Demokratie aussehen sollte, behandelte auch ein Panel am ersten Tag der Republica:

Das die Hinterzimmerpolitik auch beim Urheberrecht in die Grütze führt, machte SZ-Redakteur in seinem Vortrag deutlich. Einer der besten Redner auf der Bloggerkonferenz:

Es gibt weiteren Diskussionsbedarf. Der kann schon am 9. Mai auf der Berliner Wissenschaftskonferenz Informare in dem Panel „Obi Wan Kenobi und das Future Internet“ gestillt werden. Moderiert von Hörfunkjournalist Heinrich Bruns und meiner Wenigkeit. Einen kleinen Vorgeschmack liefert einer der Diskussionsteilnehmer in einem Telefoninterview.

Vielleicht sieht man sich wieder in Berlin 🙂

Weitere interessante rp12-Berichte:

Mehr Spaß, weniger Ego: Wir haben die Renaissance des Bloggens selbst in der Hand

Relevanz und Firlefanz

DREI TAGE BERLIN – DREI TAGE #RP12 – DREI TAGE KLASSENTREFFEN?