Das Ende von #GooglePlus: Erinnerung an eine Disputation mit Frank Schirrmacher #KarlssonvomDach – Was für eine schöne Diskussion @ChristophKappes @mspro

Fein, dass Christoph Kappes den Link zu einer legendären Disputation mit Frank Schirrmacher noch auf dem Schirm hatte.

In den Anfangstagen von Google Plus war das noch möglich. Und es war nicht nur der Reiz des Neuen und die überfällige Antwort des Suchmaschinen-Konzerns auf Facebook, die zu der Anfangseuphorie führte. Vieles im Design, im Aufbau und in der Funktionalität überzeugte mich über lange Zeit. Etwa Dienste wie Hangout on Air – also der erste Livestreaming-Dienst für Konferenzschaltungen und sehr coolen Apps, der Hannes Schleeh und mich zu unglaublich vielen Sendungen inspirierte.

In der von Christoph Kappes ausgelösten Debatte ging es um die Etablierung einer europäischen Suchmaschine, die von Schirrmacher gefordert wurde. Meine Antwort dazu kennt Ihr hier unter dem Hashtag #ChiracdesTages. Eine staatliche Initiative hielt ich damals und halte ich auch heute noch für zwecklos.

Und wie war das mit Frank Schirrmacher? Zu seinen Spitznamen zählte wohl Karlsson vom Dach, wenn die Darstellung von Michael Angele der Wahrheit entspricht. Aber so doof ist diese Analogie gar nicht. Er war nicht nur ein großer Geist, der Frank Schirrmacher, er tauchte wie Karlsson plötzlich auf und brachte Leben in die Bude. Schirrmacher war ein Meister der Debatten. Auch auf Google Plus. Hier ein kleiner Auszug der Disputation:

Gunnar Sohn
Eine Passage im Text von Schirrmacher ist doch höchst erfreulich: „Das Netz, das wird immer deutlicher, folgt den Regeln des talmudischen Kommentars, nicht denen des wissenschaftlichen. Offenbar nehmen wir Quellen, auch nachrichtliche, zunehmend als Glaubensinhalte wahr, nicht mehr als Fakten. Es könnte so sein, aber es könnte auch anders sein. Die alltägliche Wissenssozialisation beruht heute auf der Annahme: Die Fakten stimmen nicht mehr, jedenfalls stimmen sie nicht sehr lange – nicht deshalb, weil sie gelogen wären (auch das kommt vor), sondern weil sie schon in der nächsten Minute ganz anders sein können. Das Netz – in seinem gegenwärtigen Stadium – verhandelt deshalb vor allem das, was die Talmudisten ‚Lehrmeinungen‘ nannten – Meinungen, nicht Orthodoxien. Das führt allerdings oft dazu, dass sich auf den labyrinthischen Wegen der Deutungen, des unvollständigen Lesens (etwa der Pressemitteilung, wie im vorliegenden Fall, statt des Textes) die Ursprungsquelle bis zur Unkenntlichkeit entstellt.“ Die Schlussfolgerung im letzten Satz halte ich für falsch. Richtig beobachtet ist die sinkende Relevanz der Orthodoxien. Da braucht man nicht zum Talmud greifen. Niklas Luhmann reicht auch: Mit der Computerkommunikation, so Luhmann, wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert und ersetzt durch die Unbekanntheit der Quelle.

Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen. Die Art und Weise, wie Wissen in den Computer kommt, lässt sich zwar schwer überprüfen. Sie lässt sich aber jedenfalls nicht mehr in Autorität ummünzen. Und genau das treibt einige Denker, Einpeitscher und Debatten-Dompteure an die Decke. Man braucht das Internet nicht überhöhen oder kultisch in Web 2.0-Ideologie gießen. Man muss das Internet auch nicht heilig sprechen. Wo die kulturellen Katastrophen der Computer-Kommunikation enden werden, kann kaum jemand vorhersehen oder beeinflussen. Das macht das Ganze ja so reizvoll. Das Problem des unvollständigen oder kursorischen Lesens kann vom Luhmann-Szenario nicht abgeleitet werden. Das Problem hatte schon Herder. Jeder Leser ist eben auch ein Nicht-Leser. Herder beschreibt sich als trockener Gelehrter, als ein totes, künstliches System von Wissensbeständen. Er selbst sei „ein Tinenfaß von gelehrter Schriftstellerei“. Mit 24 ist Herder so angefüllt von Wissen, dass er dieses als Ballast beklagt.

Er entwickelt deshalb eine Kulturtechnik der kursorischen Lektüre. Er wird zum Läufer, zum Cursor, der im virtuellen Raum der Gelehrtenbibliothek zwischen Texten durcheilt und in dieser schnellen Bewegung neue Querverbindungen schafft. Es sei ein methodisches Verfahren, das ihm die Lizenz zum Flüchtigen gibt. In der so genannten „percursio“- im Durchlauf – darf aufgezählt und angehäuft werden, ohne dass es jeweils einer expliziten Behandlung der einzelnen Elemente bedarf. Herder praktiziert die gelehrte Lizenz, Materialmengen „aufs Geratewohl“ zu durcheilen. Die richtige Ordnung ist dabei zweitrangig. Die Sylvae wird definiert als Sammlung von schnell niedergeschriebenen Texten. Man schreibt nicht akademisch korrekt oder pedantisch genau, sondern aus dem Stegreif. Man formuliert aus dem Schwung heraus. Seine Lektüre ist nicht mehr festgelegt auf einen ursprünglichen oder autoritätsfixierten Wortlaut. Herders Suchläufe kennen keinen Abschluss. Das Universalarchiv ist uneinholbar. Eine beständige Lektüre der Menschheitsschriften ist unmöglich. „Alles“ ist nicht zu lesen, zu kennen, zu wissen. Es reicht nur zu Verweisen und Fundorten. Entscheidend ist die Zirkulation der Daten, der Datenstrom, der keinen Anfang und kein Ende hat, der neue Routen und Entdeckungen zulässt. Kanonische Wissensbestände müssen durch intelligente Suchroutinen ersetzt werden.

Und dann landen wir wieder bei Google und den Warnungen von Schirrmacher, die er schon in seinem Buch „Payback“ in etwas anderer Form artikuliert hat. Die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es ist die Unterwelt der Benutzeroberfläche, die den FAZ-Herausgeber wohl weiter umtreibt. Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. Am Ende mündet das Ganze in Maschinen-Paternalismus – das kann allerdings unter privater und auch staatlicher Regie eintreten. Selbst unter dem Regime einer europäischen Suchmaschine. Mich würde ein Blick in den Maschinenraum von Google auch brennend interessieren. Vielleicht eher eine Aufgabe für Wikileaks!

Frank Schirrmacher
Gunnar Sohn et al, leider in Eile:

  1. Wir wissen n i c h t was Google weiss. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe. Das aber ist das Wissen des 21.Jhrdts.
  2. „Alles“ ist nicht zu lesen, zu kennen, zu wissen.“ Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, das der imaginäre Vertrag, an den alle glauben, besagt das „alles“ zu wissen ist, was ist und kommuniziert. Tertium non datur. Man exisitert nicht, wenn man nicht im Netz exisitert, hiess das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteiungen entsenden.

Gunnar Sohn
Frank Schirrmacher –

  1. Das ist doch profan. Natürlich wissen wir nicht, was die Mountain View-Boys wissen. Sonst könnten wir direkt morgen ein Google Plus Plus gründen. Die wären schön blöd, ihre Betriebsgeheimnisse zu lüften. Die Problematik entsteht in der Tat, wenn Menschen über Maschinen und Algorithmen anfangen, zwischen gut und böse, richtig und falsch zu befinden. 2. Ihre Gegenstrategie einer europäischen Suchmaschine kann genauso in die Hose gehen und zu Verwerfungen führen. Entscheidend ist die Vielfalt der Möglichkeiten, Wissen zu generieren und selber zu publizieren. Wenn Sie nun insinuieren, hier gäbe es nur drei amerikanische Konzerne, die das Netzgeschäft dominieren, dann müssen Sie aber auch erwähnen, dass die großen Drei sich bis auf das Messer bekämpfen. Da gibt es keinen Gleichklang. Im Social Web erschien bis vor drei Wochen Google noch als der große Verlierer und man sprach von der Dominanz des Social Graph, der wichtiger sei als die Maschinen-Intelligenz von Google. Zur Zeit schaut Zuckerberg ziemlich blöd aus der Wäsche. Alles kann sich sehr schnell drehen. Entscheidend ist wohl die Tatsache, dass sich im Netz dauerhaft kein Monolith etablieren kann.

Frank Schirrmacher
ad Gunnar Sohn – Nein, nicht profan, sondern, um im Bild zu bleiben, sakral. Sie reden vom materiellen Geschäftsgeheimnis von Google. In der Tat: wie wichtig das ist zeigt der Patentthriller um die Erfindung des Telefons. In der Tat: das ist profan.

Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörter gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das ganze dann als sein Privateigentum weiterverkauft hätte. Wenn das:

http://online.wsj.com/article/SB10001424052748704547604576263261679848814.html

schon möglich ist, ohne verbale Kommunikation und bei nur 2000 Menschen, was ist dann heute insgesamt möglich? Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung – das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.

Martin Lindner
zum nebenpunkt mit der europäischen suchmaschine: wenn ich +Frank Schirrmacher s kommentare hier richtig verstehe, will er gar nicht so sehr die eu-konkurrenz gegen us-google, sondern eine art CERN-forschungszentrum für semantische algorithmen, damit „wir“ (wer?) uns hier auch mit diesen großartigen weltwissenserkenntnissen beschäftigen können. das verstehe ich schon. es gibt bloß vermutlich keinen weg dahin zu kommen: jedenfalls ganz sicher nicht, indem die EU-forschungsgemeinde sich selbst noch ein monsterprojekt genehmigt. (und auch google entstand ja nicht, weil das pentagon große forschungsgelder investiert hat.)

Michael Seemann
Was für eine schöne Diskussion!

Mal jenseits des der politischen Frage, nach dem Besitz der Infrastruktur (dazu gleich), fehlt mir ein wesentlicher Aspekt bei der Frage nach dem Gedächtnisses: Warum tun wir das? Denn wir tun es ja ganz offensichtlich, also hat es ja einen gewissen Sinn, einen Nutzen.

Jan Assmann hatte für das kulturelle Gedächtnis bereits gezeigt, dass im Zuge der Erfindung der Schrift eine gewisse Liberalisierung des Umgangs der Kultur vollzogen hat. So war die kulturelle Identität der Juden recht früh „portabel“, weil sie in Schrift fixiert war und nicht mehr an rituelle Gedenkorte, wie noch bei den Ägyptern.

Groys wiederum zeigt, wie sich der Kunstbegriff im Laufe der Jahrhunderte von einem Reproduktiven, eng gefassten hin zu einem auf das Neue ausgerichteten entwickelt. Seine These: je besser wir Informationen und Wissen zugänglich halten (Mächtigkeit und Accessibility von Archivtechnik), desto mehr kapriziert sich Kultur auf die Erschaffung von neuem und dem Fortschritt – auf Irritation des Bestehenden, sozusagen.

Ich als neophiler Mensch begrüße das sich zum Allarchiv wandelnde Internet und weine den dadurch obsolet werdenden Stützen der repititiven – das heißt sich auf Tradition berufenden – Kulturtechniken des Archivierens keine Träne nach.

Natürlich ist es eine politische Frage, wer die Infrastruktur für diese Technik bereitstellt, das will ich gar nicht leugnen. Aber erstens sehe ich Googles Übermacht da nicht so extrem, sondern durchaus austauschbar und zweitens glaube ich, dass die konkurrierenden Strukturen (z.B. Staat) keinerlei vernünftige Alternative bereitstellt. Weder eine wünschenswerte aber vor allem aber keine effektive.

Es gibt viele Szenarien, wie sich das politisch austariert. Aber keines davon wird ein Staat vs. Google beinhalten, m.E.

Bis dahin halte ich es für wichtig den Infrastrukturanbietern so wenig exklusives Wissen wir möglich zu erlauben. Nur Wissen, das von allen indexierbar und analysierbar ist, sollten die großen Player bekommen. Das heißt: nieder mit den Privacyeinstellungen!

Christoph Kappes könnte doch die gesamte Debatte auf seinem Blog dokumentieren, sonst geht das verloren. Wäre schade.

Zu den Gründen für den Niedergang von Google Plus habe ich heute früh kurz mit Stefan Pfeiffer in unserem Format gesprochen:

Technik-Checkliste fürs Livestreaming via Hangout on Air #Cebit15 #Mittelstandslounge

Hangout on Air-Equipment
Hangout on Air-Equipment

Die Frage über die technischen, räumlichen und infrastrukturellen Voraussetzungen fürs Livestreaming via Hangout on Air werden mir immer wieder gestellt. Da sich der Google-Dienst in der breiten Masse seit der Einführung im August 2012 immer noch nicht durchgesetzt hat, gibt es viele Nutzer ohne Hangout-Erfahrungen. Liegt wohl an den Aversionen gegen Google Plus….

Hannes Schleeh hat in unserem Hanser-Buch „Livestreaming mit Hangout on Air“ die wichtigsten Punkte kompakt zusammengefasst. Um an Hangout on Air-Übertragung teilzunehmen, reicht ein Google Plus-Konto aus. Will man selbst als Operator live übertragen, ist zusätzlich ein verifizierter Youtube-Kanal vonnöten, der mit dem eigenen Google Plus-Konto verbunden werden muss.

Wer noch nie in einem Hangout war, muss noch das sogenannte Google Talk-Plug-in installieren. Die Applikation ist allerdings mit 8,5 MB keine Herausforderung beim Herunterladen. Dauert nur wenige Sekunden. Beim Google Browser Chrome müsse es auch ohne Installation funktionieren.

Die Empfehlung von Hannes Schleeh:

„Der Computer sollte wenn möglich nicht älter als zwei Jahre sein. Bei älteren Modellen muss man mit Abstrichen in der Qualität leben, da für einen Livestream in High Definition (HD) sowohl die Grafikkarte als auch der Prozessor die entsprechende Leistungsfähigkeit haben müssen.“

Google empfiehlt auf seiner Supportseite mindestens einen Dual-Core-Prozessor von 2 GHz.

Ganz wichtig für eine gute Übertragung: Genügend Bandbreite!!!!!!

Empfehlenswert ist eine synchrone Bandbreite von 5 MBit pro Sekunde im Up- und Downstream. 5 Mbit im Upstream sind keine Kleinigkeit, die meisten User in Deutschland haben weniger (mit freundlichen Grüßen an Infrastruktur-Minister Dobrindt). Wenn möglich, sollte man seinen Computer mit einem LAN-Kabel verbinden. Bei einer Funkverbindung via WLAN teilt man die zur Verfügung stehende Bandbreite mit den eingebuchten Nutzern auf – das dürfte beruflich und privat eher die Regel sein. Ist die Netzverbindung schwach, drosselt Google automatisch die Übertragungsqualität, damit der Livestream nicht abreißt. Das gibt Einbußen beim Ton und noch extremer beim Bewegtbild.

Mikrofon und Kamera:

Die meisten Laptops sind mit Webcam und eingebautem Mikrofon ausgestattet. Noch besser sind allerdings externe Geräte mit USB-Anschluss. Also eine Webcam mit einer HD-Auflösung von mindestens 720p (beispielsweise die Logitech C920) und ein externes Mikrofon wie das Samson Meteor (gibt es mittlerweile für schlappe 69 Euro). Headsets sehen bei den Live-Hangouts immer etwas blöd aus. Beim Podcasting sinnvoll, bei Video-Formaten eher nicht.

Licht

Nicht unterschätzen sollte man die Lichtverhältnisse. Häufiger Fehler: Fenster im Rücken, so dass die Webcam Gegenlicht bekommt und der Teilnehmer zum Dunkelmann mutiert. Die Webcam darf generell kein Gegenlicht bekommen – das ist wie beim Fotografieren gegen das Sonnenlicht.

Hangout On Air-Fernsehstudio

Zwei Schreibtischlampen, die man hinter der Webcam platzieren sollte, reichen für gute Lichtverhältnisse aus. Auf das Tageslicht sollte man sich nicht verlassen, da es je nach Uhr- und Jahreszeit wechselt. Von den täglichen Wetterkapriolen mal ganz abgesehen.

Was der Google-Dienst sonst noch so hergibt – von Bauchbinde bis zur internen Chat-Funktion für die Moderation – erläutere ich dann direkt vor den Liveübertragungen. Es ist ratsam, die Teilnehmer fünfzehn Minuten vor dem Start der Liveübertragung in den Hangout zu holen, um noch mal alles zu testen.

Die drei Preview-Sendungen zur Cebit-Mittelstandslounge, die ich in diesem Jahr als Moderator und Operator begleite, dürften also ohne Probleme über die Bühne gehen. Man hört und sieht sich im Netz 🙂

Jetzt live: Schmiert Google Plus ab? #Bloggercamp.tv

Literatur-Lesung: Google Plus und die Lust am Gerücht

Von der Lust am Gerücht
Von der Lust am Gerücht

Moritz Tolxdorff, Community-Manager von Google, hat die Gerüchte über Google Plus-Sterbegesänge gekontert:

Der Weggang von Vic Gundotra nach rund acht Jahren hat einige Kaffeesatz-Lesereien in Gang gesetzt, die allerdings durch die recht spärlichen Informationen des Suchmaschinen-Konzerns beflügelt wurden:

„Das lässt die Medien natürlich groß über die Zukunft von Google+ spekulieren. Hier eine Bitte: Verlasst euch nur auf Aussagen, die von Google kommen und nicht auf findige Schlagzeilen oder ‚Hören-Sagen‘ der vielen Journalisten (nun ja, das ist etwas naiv, da jeder Krämer seine Ware lobt, gs).

Dave Besbris wird das Ruder übernehmen und Google+ weiter voran treiben. Vic hat sehr gute Arbeit geleistet, welche Bez und sein Team jetzt fortsetzen werden. Der anstrengende Teil ist geschafft und jetzt geht es erst richtig los mit Google+. Gerüchte und Spekulationen über Umstrukturierung, Degradierung von Google+ oder sonstiger Unfug kann getrost ignoriert werden. Google+ ist und bleibt ein wichtiger Bestandteil und wird weiterhin unsere volle Aufmerksamkeit bekommen“, soweit Moritz Tolxdorff.

Wir werden das in einer Bloggercamp.tv-Sendung vertiefen und uns sicherlich nicht nur auf eine Quelle verlassen.

Und diese Stimmungen werden auch eine Rolle spielen 🙂

Siehe auch:

Nach Vic Gundotras Abschied: Ist Google+ am Ende?

Google+ ist tot? Quatsch. Eher ist es sachliche Berichterstattung.

Google+ Is Walking Dead

Jetzt live: #Bloggercamp.tv zum einjährigen Jubiläum von Hangout on Air

Ab 18:30 Uhr.

Ein Jahr Hangout on Air: Fragen an Google? #Bloggercamp.tv – Heute, um 18:30 Uhr!

Merkel-Hangout-Mashup
Merkel-Hangout-Mashup

Nicht nur auf dem StreamCamp in Köln lassen wir es krachen, wenn es um die Weiterentwicklung von Streaming-Diensten geht. Heute Abend gehen wir auch bei Bloggercamp.tv in die Vollen, um mit kompetenten Gesprächspartnern das einjährige Jubiläum des Streaming-Dienstes Hangout on Air gebührend zu würdigen.

Hannes Schleeh hat es schon angekündigt:

Ab 18:30 Uhr werden wir mit dem Pressesprecher von Google Deutschland, Stefan Keuchel, Rückschau halten. Mit dabei sein wird auch Daniel Fiene vom Digitalen Quartett, der wie Stefan Keuchel im allerersten Hangout on Air 2012 mit dabei war. Das Digitale Quartett sendet genau wie Bloggercamp.tv einmal pro Woche immer Montag ab 21:00 Uhr zu verschiedenen Netzthemen. Für die Beleuchtung der juristischen Situation konnten wir den bekannten Internet Rechtsanwalt Thomas Schwenke gewinnen.

Seit dem Sommer des vergangenen Jahres ist es nun möglich, ohne Ü-Wagen und aufwändiger Technik kostenlos Live-Übertragungen im Netz auf die Beine zu stellen.

Das reicht von Uni-Vorlesungen, Gymnastik-Kursen bis zu hochpolitischen Gesprächsrunden. Welche internationalen Trends gibt es? Wie hat sich der Google-Dienst in Deutschland etabliert? Läuft das Ganze schon in HD-Qualität mit 720p? Wie wird der Dienst weiterentwickelt? Kann man bald unterschiedliche Kameras einsetzen mit einem Regie-Tool? Werden auch Unternehmen Live-Formate nutzen etwa in der Kundenkommunikation? Wie verhalten sich die Landesmedienanstalten in der Frage von Sendelizenzen? Welche Netzwerk-Effekte kann man auslösen – synchron und asynchron?

Fragen über Fragen, die wir heute Abend bestimmt nicht alle klären werden. Es gibt aber bestimmt noch eine Menge Themen, die Euch auf der Seele brennen. Also heute ab 18:30 mitmischen und Twitter-Zwischenrufe loslassen während der Live-Übertragung. Wie immer mit dem Hashtag versehen.

Man hört und sieht sich heute Abend hoffentlich 🙂

Und um 19:30 Uhr ist dann der Power-Blogger Jeff Jarvis in unserer zweiten Session. Thema: Google Glass im Journalismus.

Siehe auch:

Regelmäßig oder nicht: Hangouts sind kein Rundfunk – So lief das Gespräch mit ZAK-Chef Brautmeier.

Merkel-Hangout und Sendelizenz: Was als harmloser Tweet begann und in einer 007-Debatte eskalierte

Hangout On Air als “Killerapplikation”: Mein Social Media Breakfast-Resümee

Crowdfunding für Anfänger: Was wir bei unserem Startnext-Projekt noch verbessern müssen #bloggercamp

Im Bloggercamp-Gespräch mit Dennis Schenkel von der Plattform rally.org haben wir diskutiert, was man beim Start eines Crowdfunding-Projektes so alles beachten muss.

Das Ganze ist arbeitsintensiver als man denkt. Das spüren wir auch bei unserem Un-Buch-Projekt zur Popularisierung des Streaming-Dienstes „Hangout on Air“ von Google.

Da müssen wir noch einige Stellschrauben verändern, um über den jetzigen Unterstützerkreis hinaus noch weitere Menschen zu begeistern, mit kleinen oder großen Beträgen unser Vorhaben zu finanzieren.

Aber das macht ja auch den Charme unserer der Kraut-Ökonomie aus. Man muss als Anbieter von Ideen, Dienstleitungen und Produkten seine potentiellen Kunden erst einmal überzeugen, bevor eine Finanzierung unter Dach und Fach ist. Planungen im stillen Kämmerlein reichen da nicht aus. Wir erkennen sehr genau, wie wenig bekannt der Dienst von Google Plus ist. Bei fast allen Gästen, die wir bislang in unsere Gesprächsrunden eingeladen haben, ist es eine Premiere. Und alle sind danach von den Möglichkeiten für die Liveübertragung von Videokommunikation – in Kombination mit der Aufzeichnung auf Youtube – begeistert und planen eigene Formate.

So auch unser heutiger Gast Dennis Schenkel, der überlegt, eine Live-Talkshow zum Thema Crowdfunding auf die Beine zu stellen. Und natürlich werden wir sein Vorhaben unterstützen und in unser Un-Buch mit aufnehmen. Schließlich wollen wir ja Anregungen für Hangout on Air-Experimente geben und darüber auch berichten. Gute Gründe, um unser Startnext-Projekt kräftig zu unterstützen 🙂

Siehe auch:

Krautökonomie mit Beethoven.

Un-Buch über Jedermann-TV – Ein Projekt des Teilens und Zusammenarbeitens #bloggercamp #hoa

Streaming Revolution

Im gestrigen Werkstattgespräch über unser Un-Buch (es erscheint als Website und als eBook) zur Streaming Revolution mit und über Hangout on Air – also Videokommunikation, die live ins Netz übertragen wird – wurde uns empfohlen, die Projektidee etwas kürzer und verständlicher zu vermitteln. Hier ein Versuch:

Es gibt Textstrecken, Youtube-Videos mit Demos, Experteninterviews in Hangouts on Air, Lesungen von fertigen Texten in Hangouts on Air mit Unterstützern und Interessenten (um direkt die Verständlichkeit der Texte mit den Lesern zu überprüfen), Vorstellung von neuen HOA-Projekten und, und, und. Ist halt ein fließendes Buch oder Un-Buch mit einem Starttermin aber keinem Endpunkt. Es soll ein Projekt des Teilens und Zusammenarbeitens sein sowie neue Entwicklungen der Videokommunikation immer wieder aufgreifen. Das ist mit einem gedruckten Buch nicht möglich – vielleicht mit Zeitverzögerung in weiteren Auflagen – aber das passiert ja nur mit Bestsellern ;-)

Alles weitere kann man sich in der Aufzeichnung unserer gestrigen Live-Diskussion anschauen. Da braucht man allerdings mehr Zeit. Etwas für die Abendstunden:

Und hier ein Erklärvideo von Hannes Schleeh für die ersten Schritte zum Livestream:

Wer unser Startnext-Projekt finanziell unterstützen möchte, auch über kleine Beträge freuen wir uns sehr, findet hier alle Infos.

Auch bei Nachrichten-Websites scheißt der Teufel auf den größten Haufen: Twitter wird relevanter

Social Media Report der TU-Darmstadt

Auch beim Teilen von Nachrichten gilt das Motto: Der Teufel scheißt immer auf den größten Haufen. Auf Twitter, Facebook und Google Plus dominieren Spiegel Online und leider Bild.de: Wie eine Erhebung der TU Darmstadt unter fünfzehn der reichweitenstärksten deutschen Nachrichten-Websites ergab, wurden im gesamten Jahr 2012 insgesamt 7,9 Millionen Mal Artikel von Spiegel Onlinegeteilt, Artikel von Bild.de 6,6 Millionen Mal. Mit weitem Abstand folgten Welt.de (2,7 Millionen), Focus online (1,8 Millionen) sowie Sueddeutsche.de und faz.net (jeweils rund 1,5 Millionen).

Die Studie „Social Network Usage in Germany“ der Professoren Oliver Hinz (Wirtschaftswissenschaft) und Thorsten Strufe (Informatik) von der Technischen Universität Darmstadt erfasst sämtliche Artikel der untersuchten Websites. Die Wissenschaftler werten aus, wie oft ein Artikel in den sozialen Netzwerken Twitter, Facebook und Google Plus von den Nutzern geteilt wird. Insgesamt wurden im Jahr 2012 über 592.000 Artikel veröffentlicht, die 26,7 Millionen Mal in den sozialen Medien „geliked“ wurden.

Pareto-Verteilung (mehr oder weniger)

Dabei erzielen die erfolgreichsten zehn Prozent der Artikel rund 78 Prozent aller Empfehlungen, während 31 Prozent aller Artikel keine einzige Empfehlung in den drei untersuchten Netzwerken erhielten. Mit den gesammelten Daten können die Forscher unter anderem ein nach Ressorts getrenntes Ranking erstellen: Politik- und Wirtschaftsnachrichten, die in den sozialen Netzwerken geteilt werden, stammen zum größten Teil von Spiegel Online und Welt.de. In der Sportberichterstattung hat bild.de mit Abstand die Nase vorn, bei neuen technischen Entwicklungen dominiert Heise.de (detaillierte Ergebnisse zu den Ressorts siehe unten).

Twitter gewinnt, Facebook verliert, Google Plus kaum von Bedeutung

Der wissenschaftliche Erkenntniswert der Studie liegt für die Forscher allerdings in einer anderen Beobachtung – sie wollen feststellen, wie sich die Nutzung der sozialen Netzwerke im Zeitverlauf ändert.

„Uns interessiert die Frage, wann, wie schnell und über welche Gruppen neue Technologien diffundieren. Dabei wollen wir insbesondere verfolgen, wie sich Google Plus als verhältnismäßig neuer Marktteilnehmer gegenüber den ‚Platzhirschen‘ Twitter und Facebook schlägt“, so Hinz.

Im ersten Jahr der Studie haben die Nutzer 79,8 Prozent der Artikel über Facebook geteilt, 18,7 Prozent getwittert und nur 1,5 Prozent über Google Plus geteilt.

„Wir haben allerdings im Jahresverlauf einen deutlichen Trend zugunsten von Twitter ausmachen können“, erklärt Hinz.

So habe sich – quer über alle Medien – der Anteil von Twitter von 17,0 Prozent im ersten Halbjahr auf 20,2 Prozent in der zweiten Jahreshälfte erhöht, während der Anteil von Facebook von 81,9 Prozent auf 78,0 Prozent sank.

Google Plus konnte seinen Marktanteil nahezu verdoppeln, blieb aber weiterhin mit 1,8 Prozent Marktanteil für dieses Anwendungsfeld relativ unbedeutend.

Google Plus gewinnt allerdings insbesondere in den Feldern Technik und Wissenschaft, was die gängige Diffusionstheorie bestätigt: Frühe Anwender (early adopter) sind überdurchschnittlich technikaffin und wissenschaftlich interessiert. Ob Google Plus aus diesen Nischen kommend jedoch für den Gesamtmarkt bedeutend werden wird, bleibt abzuwarten“, sagt Hinz.

Hinz und Strufe werden die Studie „Social Network Usage in Germany“ in den kommenden Jahren fortführen. Als Referenzwert könnten sie ja noch die 15 stärksten Blogs unter die Lupe nehmen. Vorschlag zur Erweiterung der Studie.

Die Ergebnisse im Einzelnen

Gesamtergebnis (Top10) für das Jahr 2012:

1 – Spiegel Online (7.921.213)
2 – Bild.de (6.628.788)
3 – Welt.de (2.685.738)
4 – Focus Online (1.792.960)
5 – faz.net (1.449.776)
6 – Sueddeutsche.de (1.439.305)
7 – n-tv.de (1.073.384)
8 – zeit.de (1.066.268)
9 – Stern.de (753.589)
10 – Handelsblatt.com (732.317)

Ressort: Politik

1 – Spiegel Online (2.087.280)
2 – Welt.de (789.675)
3 – Focus Online (437.587)
4 – faz.net (401.900)
5 – n-tv.de (369.663)

Ressort: Wirtschaft

1 – Spiegel Online (922.862)
2 – Welt.de (456.864)
3 – faz.net (369.433)
4 – Focus Online (302.896)
5 – n-tv.de (154.046)

Ressort: Technik

1 – Heise.de (662.570)
2 – Chip.de (301.945)
3 – Focus Online (152.623)
4 – Bild.de (137.323)
5 – Spiegel Online (125.384)

Ressort: Sport

1 – Bild.de (1.311.509)
2 – Spiegel Online (506.190)
3 – Welt.de (214.201)
4 – Focus Online (213.054)
5 – faz.net (113.237)

Ressort: Wissenschaft

1 – Spiegel Online (560.551)
2 – Welt.de (97.387)
3 – Focus Online (84.772)
4 – n-tv.de (57.339)
5 – Zeit.de (54.516)

Siehe auch:

Norbert Bolz, Pareto und die narzisstische Kränkung der neuen Medienwelt: Scheißt der Teufel immer auf den größten Haufen??

Hangout On Air: Wie geht es weiter mit der Streaming-Revolution? #HOA #BloggerCamp

Hangout On Air-Fernsehstudion für zu Hause

Hannes Schleeh machte mich gerade aufmerksam auf einen Beitrag von Ronnie Bincer, der erklärt, wie man das vorweihnachtliche Geschenk von Google, gemeint ist der Vollbildmodus für Einzelübertragungen mit dem Dienst Hangout On Air (HOA), zusammen mit der Cameraman-App für Präsentationen nutzen kann.

Es beweist, wie rasant sich diese Streaming-Revolution ausbreitet.

Siehe auch den kleinen Test, den ich vor ein paar Tagen gemacht habe.

Was sich mit HOA in den vergangenen Monaten getan hat und was wir noch erwarten können, ist das der ersten Session des nächsten Blogger Camps am 30. Januar 2013 von 18,30 bis 19,00. Die Diskussionsrunde wird auch einen Ausblick auf eine Sondersendung des Blogger Camps am 20. Februar geben, wo ein Regierungsmitglied mit uns über die Notwendigkeit rechtlicher Änderungen des Rundfunkstaatsvertrages zur Legalisierung der Jedermann-TV-Sendungen sprechen wird (Zusage liegt vor. Um welche Frau oder welchen Mann es sich handelt, wird am 30. Januar verraten). Wer sich berufen fühlt, Ende Januar seine HOA-Erfahrungen in der Sendung kundzutun, möge sich an Hannes Schleeh wenden.

Die zweite Session disputiert über die AGB-Diktatoren des Netzes und geht von 19,30 bis 20,00 Uhr. acquisa-Chefredakteur und dosentelefon-Blogger Christoph Pause hat schon zugesagt. Wer sich über die merkwürdige AGB-Politik der Netz-Giganten ärgert oder Vorschläge für eine bessere AGB-Vorgehensweise machen möchte, ist herzlich eingeladen. Teilnahmewünsche für die zweite Session nehme ich entgegen.

Weitere Infos zu den Blogger Camp-Sendungen findet Ihr hier.

Siehe auch:

Vom Nutzen der asynchronen Kommunikation.

Die Aufmerksamkeitslogik des Netzes. Zu dieser Thematik erscheint heute noch ein Interview mit Patrick Breitenbach!