Das Ende von #GooglePlus: Erinnerung an eine Disputation mit Frank Schirrmacher #KarlssonvomDach – Was für eine schöne Diskussion @ChristophKappes @mspro

Fein, dass Christoph Kappes den Link zu einer legendären Disputation mit Frank Schirrmacher noch auf dem Schirm hatte.

In den Anfangstagen von Google Plus war das noch möglich. Und es war nicht nur der Reiz des Neuen und die überfällige Antwort des Suchmaschinen-Konzerns auf Facebook, die zu der Anfangseuphorie führte. Vieles im Design, im Aufbau und in der Funktionalität überzeugte mich über lange Zeit. Etwa Dienste wie Hangout on Air – also der erste Livestreaming-Dienst für Konferenzschaltungen und sehr coolen Apps, der Hannes Schleeh und mich zu unglaublich vielen Sendungen inspirierte.

In der von Christoph Kappes ausgelösten Debatte ging es um die Etablierung einer europäischen Suchmaschine, die von Schirrmacher gefordert wurde. Meine Antwort dazu kennt Ihr hier unter dem Hashtag #ChiracdesTages. Eine staatliche Initiative hielt ich damals und halte ich auch heute noch für zwecklos.

Und wie war das mit Frank Schirrmacher? Zu seinen Spitznamen zählte wohl Karlsson vom Dach, wenn die Darstellung von Michael Angele der Wahrheit entspricht. Aber so doof ist diese Analogie gar nicht. Er war nicht nur ein großer Geist, der Frank Schirrmacher, er tauchte wie Karlsson plötzlich auf und brachte Leben in die Bude. Schirrmacher war ein Meister der Debatten. Auch auf Google Plus. Hier ein kleiner Auszug der Disputation:

Gunnar Sohn
Eine Passage im Text von Schirrmacher ist doch höchst erfreulich: „Das Netz, das wird immer deutlicher, folgt den Regeln des talmudischen Kommentars, nicht denen des wissenschaftlichen. Offenbar nehmen wir Quellen, auch nachrichtliche, zunehmend als Glaubensinhalte wahr, nicht mehr als Fakten. Es könnte so sein, aber es könnte auch anders sein. Die alltägliche Wissenssozialisation beruht heute auf der Annahme: Die Fakten stimmen nicht mehr, jedenfalls stimmen sie nicht sehr lange – nicht deshalb, weil sie gelogen wären (auch das kommt vor), sondern weil sie schon in der nächsten Minute ganz anders sein können. Das Netz – in seinem gegenwärtigen Stadium – verhandelt deshalb vor allem das, was die Talmudisten ‚Lehrmeinungen‘ nannten – Meinungen, nicht Orthodoxien. Das führt allerdings oft dazu, dass sich auf den labyrinthischen Wegen der Deutungen, des unvollständigen Lesens (etwa der Pressemitteilung, wie im vorliegenden Fall, statt des Textes) die Ursprungsquelle bis zur Unkenntlichkeit entstellt.“ Die Schlussfolgerung im letzten Satz halte ich für falsch. Richtig beobachtet ist die sinkende Relevanz der Orthodoxien. Da braucht man nicht zum Talmud greifen. Niklas Luhmann reicht auch: Mit der Computerkommunikation, so Luhmann, wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert und ersetzt durch die Unbekanntheit der Quelle.

Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen. Die Art und Weise, wie Wissen in den Computer kommt, lässt sich zwar schwer überprüfen. Sie lässt sich aber jedenfalls nicht mehr in Autorität ummünzen. Und genau das treibt einige Denker, Einpeitscher und Debatten-Dompteure an die Decke. Man braucht das Internet nicht überhöhen oder kultisch in Web 2.0-Ideologie gießen. Man muss das Internet auch nicht heilig sprechen. Wo die kulturellen Katastrophen der Computer-Kommunikation enden werden, kann kaum jemand vorhersehen oder beeinflussen. Das macht das Ganze ja so reizvoll. Das Problem des unvollständigen oder kursorischen Lesens kann vom Luhmann-Szenario nicht abgeleitet werden. Das Problem hatte schon Herder. Jeder Leser ist eben auch ein Nicht-Leser. Herder beschreibt sich als trockener Gelehrter, als ein totes, künstliches System von Wissensbeständen. Er selbst sei „ein Tinenfaß von gelehrter Schriftstellerei“. Mit 24 ist Herder so angefüllt von Wissen, dass er dieses als Ballast beklagt.

Er entwickelt deshalb eine Kulturtechnik der kursorischen Lektüre. Er wird zum Läufer, zum Cursor, der im virtuellen Raum der Gelehrtenbibliothek zwischen Texten durcheilt und in dieser schnellen Bewegung neue Querverbindungen schafft. Es sei ein methodisches Verfahren, das ihm die Lizenz zum Flüchtigen gibt. In der so genannten „percursio“- im Durchlauf – darf aufgezählt und angehäuft werden, ohne dass es jeweils einer expliziten Behandlung der einzelnen Elemente bedarf. Herder praktiziert die gelehrte Lizenz, Materialmengen „aufs Geratewohl“ zu durcheilen. Die richtige Ordnung ist dabei zweitrangig. Die Sylvae wird definiert als Sammlung von schnell niedergeschriebenen Texten. Man schreibt nicht akademisch korrekt oder pedantisch genau, sondern aus dem Stegreif. Man formuliert aus dem Schwung heraus. Seine Lektüre ist nicht mehr festgelegt auf einen ursprünglichen oder autoritätsfixierten Wortlaut. Herders Suchläufe kennen keinen Abschluss. Das Universalarchiv ist uneinholbar. Eine beständige Lektüre der Menschheitsschriften ist unmöglich. „Alles“ ist nicht zu lesen, zu kennen, zu wissen. Es reicht nur zu Verweisen und Fundorten. Entscheidend ist die Zirkulation der Daten, der Datenstrom, der keinen Anfang und kein Ende hat, der neue Routen und Entdeckungen zulässt. Kanonische Wissensbestände müssen durch intelligente Suchroutinen ersetzt werden.

Und dann landen wir wieder bei Google und den Warnungen von Schirrmacher, die er schon in seinem Buch „Payback“ in etwas anderer Form artikuliert hat. Die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es ist die Unterwelt der Benutzeroberfläche, die den FAZ-Herausgeber wohl weiter umtreibt. Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. Am Ende mündet das Ganze in Maschinen-Paternalismus – das kann allerdings unter privater und auch staatlicher Regie eintreten. Selbst unter dem Regime einer europäischen Suchmaschine. Mich würde ein Blick in den Maschinenraum von Google auch brennend interessieren. Vielleicht eher eine Aufgabe für Wikileaks!

Frank Schirrmacher
Gunnar Sohn et al, leider in Eile:

  1. Wir wissen n i c h t was Google weiss. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe. Das aber ist das Wissen des 21.Jhrdts.
  2. „Alles“ ist nicht zu lesen, zu kennen, zu wissen.“ Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, das der imaginäre Vertrag, an den alle glauben, besagt das „alles“ zu wissen ist, was ist und kommuniziert. Tertium non datur. Man exisitert nicht, wenn man nicht im Netz exisitert, hiess das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteiungen entsenden.

Gunnar Sohn
Frank Schirrmacher –

  1. Das ist doch profan. Natürlich wissen wir nicht, was die Mountain View-Boys wissen. Sonst könnten wir direkt morgen ein Google Plus Plus gründen. Die wären schön blöd, ihre Betriebsgeheimnisse zu lüften. Die Problematik entsteht in der Tat, wenn Menschen über Maschinen und Algorithmen anfangen, zwischen gut und böse, richtig und falsch zu befinden. 2. Ihre Gegenstrategie einer europäischen Suchmaschine kann genauso in die Hose gehen und zu Verwerfungen führen. Entscheidend ist die Vielfalt der Möglichkeiten, Wissen zu generieren und selber zu publizieren. Wenn Sie nun insinuieren, hier gäbe es nur drei amerikanische Konzerne, die das Netzgeschäft dominieren, dann müssen Sie aber auch erwähnen, dass die großen Drei sich bis auf das Messer bekämpfen. Da gibt es keinen Gleichklang. Im Social Web erschien bis vor drei Wochen Google noch als der große Verlierer und man sprach von der Dominanz des Social Graph, der wichtiger sei als die Maschinen-Intelligenz von Google. Zur Zeit schaut Zuckerberg ziemlich blöd aus der Wäsche. Alles kann sich sehr schnell drehen. Entscheidend ist wohl die Tatsache, dass sich im Netz dauerhaft kein Monolith etablieren kann.

Frank Schirrmacher
ad Gunnar Sohn – Nein, nicht profan, sondern, um im Bild zu bleiben, sakral. Sie reden vom materiellen Geschäftsgeheimnis von Google. In der Tat: wie wichtig das ist zeigt der Patentthriller um die Erfindung des Telefons. In der Tat: das ist profan.

Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörter gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das ganze dann als sein Privateigentum weiterverkauft hätte. Wenn das:

http://online.wsj.com/article/SB10001424052748704547604576263261679848814.html

schon möglich ist, ohne verbale Kommunikation und bei nur 2000 Menschen, was ist dann heute insgesamt möglich? Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung – das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.

Martin Lindner
zum nebenpunkt mit der europäischen suchmaschine: wenn ich +Frank Schirrmacher s kommentare hier richtig verstehe, will er gar nicht so sehr die eu-konkurrenz gegen us-google, sondern eine art CERN-forschungszentrum für semantische algorithmen, damit „wir“ (wer?) uns hier auch mit diesen großartigen weltwissenserkenntnissen beschäftigen können. das verstehe ich schon. es gibt bloß vermutlich keinen weg dahin zu kommen: jedenfalls ganz sicher nicht, indem die EU-forschungsgemeinde sich selbst noch ein monsterprojekt genehmigt. (und auch google entstand ja nicht, weil das pentagon große forschungsgelder investiert hat.)

Michael Seemann
Was für eine schöne Diskussion!

Mal jenseits des der politischen Frage, nach dem Besitz der Infrastruktur (dazu gleich), fehlt mir ein wesentlicher Aspekt bei der Frage nach dem Gedächtnisses: Warum tun wir das? Denn wir tun es ja ganz offensichtlich, also hat es ja einen gewissen Sinn, einen Nutzen.

Jan Assmann hatte für das kulturelle Gedächtnis bereits gezeigt, dass im Zuge der Erfindung der Schrift eine gewisse Liberalisierung des Umgangs der Kultur vollzogen hat. So war die kulturelle Identität der Juden recht früh „portabel“, weil sie in Schrift fixiert war und nicht mehr an rituelle Gedenkorte, wie noch bei den Ägyptern.

Groys wiederum zeigt, wie sich der Kunstbegriff im Laufe der Jahrhunderte von einem Reproduktiven, eng gefassten hin zu einem auf das Neue ausgerichteten entwickelt. Seine These: je besser wir Informationen und Wissen zugänglich halten (Mächtigkeit und Accessibility von Archivtechnik), desto mehr kapriziert sich Kultur auf die Erschaffung von neuem und dem Fortschritt – auf Irritation des Bestehenden, sozusagen.

Ich als neophiler Mensch begrüße das sich zum Allarchiv wandelnde Internet und weine den dadurch obsolet werdenden Stützen der repititiven – das heißt sich auf Tradition berufenden – Kulturtechniken des Archivierens keine Träne nach.

Natürlich ist es eine politische Frage, wer die Infrastruktur für diese Technik bereitstellt, das will ich gar nicht leugnen. Aber erstens sehe ich Googles Übermacht da nicht so extrem, sondern durchaus austauschbar und zweitens glaube ich, dass die konkurrierenden Strukturen (z.B. Staat) keinerlei vernünftige Alternative bereitstellt. Weder eine wünschenswerte aber vor allem aber keine effektive.

Es gibt viele Szenarien, wie sich das politisch austariert. Aber keines davon wird ein Staat vs. Google beinhalten, m.E.

Bis dahin halte ich es für wichtig den Infrastrukturanbietern so wenig exklusives Wissen wir möglich zu erlauben. Nur Wissen, das von allen indexierbar und analysierbar ist, sollten die großen Player bekommen. Das heißt: nieder mit den Privacyeinstellungen!

Christoph Kappes könnte doch die gesamte Debatte auf seinem Blog dokumentieren, sonst geht das verloren. Wäre schade.

Zu den Gründen für den Niedergang von Google Plus habe ich heute früh kurz mit Stefan Pfeiffer in unserem Format #9vor9 gesprochen:

Hin-und-her-macht-Taschen-leer: Auf SEO-Gurus und Google-Orakel muss man nicht hören #Podcast @benodaniel #FabianJaeckert

Lange schon keine Weisheit mehr gehört, die dem 1999 verstorbenen Börsenkenner André Kostolany zugesprochen wird. Jaeckert & O’Daniel haben es in ihrem Podcast getan.

Interessante Folge über die SEO-Szene, die sehr intensiv auf Updates schaut und darauf, was einzelne Google-Mitarbeiter sagen. Da gilt dann eben der Spruch von Kostolany:

„Hin und her macht Taschen leer“.

Dann lieber: „Baldrian trinken, wenn Sie wieder aufwachen, haben Sie Geld verdient.“

Frohes Neues :-) Man hört, sieht und streamt sich 2017

gunnarsohn

Mein Credo auch für 2017: Echtzeitkommunikation mit Möglichkeiten zur Interaktion. Live, ungeschminkt, ohne Teleprompter und aufwändige Postproduktionen. Viele Verantwortliche in der Unternehmenskommunikation neigen nach wie vor zu Schönwetter-Filmchen, wo die Akteure ihr weltweit führendes und gut aufgestelltes Plastikdeutsch ins Mikrofon stottern – aseptische Imagevideos zum Wegklicken. Wer gebaute Beiträge mag, kann das ja machen und sich stundenlang mit der Videobearbeitung herumschlagen. In der Regel ist das überflüssig.

Wer Konferenzschaltungen mit Livestreaming-Diensten übertragen möchte, also beispielsweise Roundtable-Gespräche mit Experten an unterschiedlichen Standorten, ist mit dem Google-Dienst Hangout on Air nach wie vor gut versorgt.

Seit dem 12. September ist diese Technologie allerdings nicht mehr an die Plattform Google+ gekoppelt. Jetzt muss man das über den eigenen YouTube-Channel organisieren. Auf die Funktion Video-Manager gehen, auf der linken Seite den Reiter „Livestreaming“ auswählen, dann auf „Events“ drücken und auf der rechten Seite den Button „Neuer Livestream“ aktivieren. Es erscheint, wie früher, der YouTube-Webplayer mit Titelzeile, Kalender zur Vorplanung, Beschreibungsmöglichkeit des Events und Keywords/Tags zur Suchmaschinen-Optimierung. Allerdings darf man nicht vergessen, unter Typ die Rubrik „Schnell per Google Hangouts On Air“ auszuwählen. Vorteil gegenüber Youtube Live: Man braucht keine externe Codierungssoftware. Einige dieser Programme kosten bis zu 500 Euro. Das Produkt OBS – Open Broadcast Software – ist zwar kostenlos, benötigt aber ein wenig Übung, um gute Live-Übertragungen hinzubekommen. So muss man ein wenig an den Einstellungen feilen, um bei der Signalbearbeitung die Lippensynchronisation hinzubekommen.

Generell sind die Livestreaming-Apps auf Smartphones und Tablets für spontane Stimmungsberichte, schnelle Sendekritik wie bei heute+ oder Making-of-Einblicke exzellent einsetzbar. Hangouts on Air und Youtube Live punkten bei der nachhaltigen Wirkung von Ereignissen – linear gesendet mit einem Live-on-Tape-Effekt, da beim Start des Livestreams sofort der virtuelle Rekorder auf YouTube anspringt und die Konserve schon während der Ausstrahlung angelegt wird. Ausführlich nachzulesen im Upload-Magazin.

Auch bei Audio tut sich einiges:

Siehe auch:

Radio: Sichtbar. Teilbar. Endlich.

Facebook Live Audio makes talk radio social, starting with the BBC

Introducing Live Audio

THE NEXT REVOLUTION IS VOICE

Bei Video und Audio kommt das seltener vor: Nur die Überschrift gelesen, trotzdem weitergereicht: Warum Social-Media-Buzz ein schwaches Signal für Qualität ist.

Nur Sterne zählen :-)
Nur Sterne zählen 🙂

Wunsch zum Schluss. Brauche noch Likes, um den Juptr-Autorenwettbewerb zu gewinnen. Abstimmung geht leider nicht unter dem Artikel – da muss man in die Gesamtansicht.

Auf ein Neues in 2017 🙂 Freue mich auf spannende Projekte, die ich mit Euch realisieren kann.

Meine Cloud, meine Maschinen, meine Marke – So wird das nichts mit #Deutschlanddigital

Deutschland digital – Unsere Antwort auf das Silicon Valley?????
Deutschland digital – Unsere Antwort auf das Silicon Valley?????

Ein Produkt ohne digitale Plattform ist völlig nutzlos, oder präziser formuliert:

„Ein Produkt, das über keine Plattform verfügt, wird immer ersetzt werden durch ein äquivalentes Produkt, das mit einer Plattform ausgestattet ist“, so das Credo eines Google-Mitarbeiters, der die Netzstrategien seines Unternehmens in einem langen Kommentar zerstückelte und in einem kleinen Zeitfenster öffentlich lesbar war.

Das Notiz-Amt wünscht sich auch von deutschen Unternehmern und leitenden Angestellten in den Vorstandsetagen soviel kritischen Sachverstand, um die Logik der Digitalisierung und die Matching-Prinzipien des Netzes nicht nur zu verstehen, sondern auch in Geschäftsmodelle zu gießen. Den gleichen Sachverstand sollten Autoren wie Marc Beise und Ulrich Schäfer kultivieren, wenn sie in einem Buchprojekt mit dem Titel „Deutschland digital – Unsere Antwort auf das Silicon Valley“ Beispiele präsentieren, wie wir mit digitalen Fabriken, Robotern, Sensoren und Künstlicher Intelligenz wieder in den Angriffsmodus kommen.

Sie huldigen den üblichen Verdächtigen unter den Hidden Champions, singen das Lied von der verkannten Industrienation und beschäftigen sich nur wenig mit der Frage, wie die in ihrem Opus erwähnten Protagonisten persönlich in der Lage sind, das eigene digitale Hundefutter zu konsumieren. Etwa Till Reuter, der Chef des Robotik-Herstellers Kuka. Anstatt auf den Angriff von Google und Co. zu warten, will das Augsburger Unternehmen selber zum digitalen Angreifer werden und sein Geschäftsmodell radikal verändern. Wenn die Roboter über die Computerwolke miteinander kommunizieren, könne Kuka künftig nicht bloß einzelne Roboter liefern, sondern gleich komplette Fabriken steuern.

„Reuter will dazu eine flexible Lösung schaffen, eine Plattform, die für andere Anbieter offen ist, steuerbar auch über das Smartphone; mit Apps, die man nach Bedarf zusammenstellen kann“, schreiben Beise und Schäfer.

Reuter möchte die Prinzipien eines App-Stores auf den Maschinenbau übertragen und damit Geld verdienen. Bisher habe das Unternehmen seine schlauen Maschinen verkauft. Die Cloud ermögliche es nun, die Anzahl der Roboterbewegungen über das Internet exakt zu messen; es wird dadurch erstmals möglich, Roboter nach Leistung zu bezahlen. Man werde die Maschinen deshalb künftig wohl nur noch vermieten und bekomme dann für jedes gefertigte Werkstück einen bestimmten Beitrag. Kling zunächst sehr smart. Den Knackpunkt benennen die Buchautoren unfreiwillig mit einem Reuter-Zitat:

„Aber die Oberfläche wollen wir liefern, das look and feel soll Kuka sein.“

Die Marke, das Branding sei für die Augsburger entscheidend. Hat Reuter das Spiel der Vernetzung wirklich verstanden? Am Kuka-Wesen solle die Plattform-Welt genesen.

Mein digitaler Vorsprung, mein Stahlhandel

Und das ist kein Einzelfall im Opus der SZ-Autoren. So bringen sie Klöckner & Co.-Chef Gisbert Rühl ins Spiel, der zum Hoffnungsträger für den digitalen Wandel aufgehübscht wird. Er war einer der Ersten, die hierzulande nicht nur über Disruption sprachen, sondern diese Philosophie auch lebten. Er reiste ins Silicon Valley und bekam die Empfehlung, Wetterdaten bei der Nachfrage nach Stahl zu berücksichtigen. Logik und Planung könnte man auf die Weise optimieren. Fein. Also mietete sich Rühl für eine Woche im Betahaus in Berlin-Kreuzberg ein, um neue Ideen für die Digitalisierung seiner Traditionsfirma aufzusagen. Schon mal nicht schlecht. Und was springt dabei raus. Silo-Denken:

„Ob er eine Art Amazon für den Stahlhandel schaffen wolle, wird Rühl immer wieder gefragt. Ja warum nicht, antwortet er dann und fügt stolz hinzu, dass Klöckner & Co. bei der Digitalisierung weiter sei als alle Konkurrenten (jeder Bäckermeister lob seine Brötchen, gs); und zwar so weit, dass junge Programmierer den alten Stahlhändler mittlerweile als ziemlich hip empfinden: ein gewachsenes Traditionsunternehmen, das nun, der Plattform-Strategie von Airbnb oder Uber folgend, zur zentralen Plattform im modernen Stahlhandel aufsteigen will“, führen Beise und Schäfer aus.

Am Klöckner-Wesen wird also wieder die Stahlwelt genesen. Mit Onlineshop-Weisheiten soll also ein offenes Ökosystem für die Stahlbranche entstehen? Was unterscheidet Alibaba von der Kirchturmpolitik des Klöckner-Chefs?

Viel Ego und wenig Eco

Wir könnten jetzt die führenden Köpfe der Hidden Champions von Trumpf bis Viessmann durchnudeln und würden erkennen, dass niemand auch nur in eine Richtung denkt, wie der offenherzige Google-Manager. Schaut Euch den Habitus dieser Top-Manager im Netz an und beurteilt dann, ob sie in ihrem persönlichen Verhalten auch nur ansatzweise eine digitale DNA mitbringen, um die Erkenntnis des Google-Insiders zu leben:

„Ein Produkt, das über keine Plattform verfügt, wird immer ersetzt werden durch ein äquivalentes Produkt, das mit einer Plattform ausgestattet ist.“

Ist eine firmenunabhängige Plattform wie Alibaba für das industrielle Umfeld in Europa oder Deutschland in Sicht. Noch nicht einmal in Ansätzen. Die Mein-Label-Meine Marke-Mein digitaler Vorsprung-Fraktion der Industrie ist noch nicht einmal bereit, via Alibaba ins OEM-Geschäft einzusteigen.

„Original Equipment Manufacturer“ sind Unternehmen, die die Produkte des Herstellers in ihre eigenen Produkte einbauen; für den Endkunden ist nicht ohne weiteres erkennbar; welche Komponenten ein OEM in seinen Produkten verwendet. Mit deutschen Unternehmen sind solche Deals im Plattformgeschäft fast unmöglich, betont Nils Öldörp von der Agentur minted-sourcing. Made in Germany wird heilig gesprochen. Da wird man dann irgendwann in Schönheit sterben, wie im Industrie 4.0-Konsortium.

Ausführlich in meiner Netzpiloten-Kolumne nachzulesen: Deutsche Unternehmen ohne Plattformkompetenz – Über die Silo-Politik der Hidden Champions

Das #NotizAmt plädiert für eine Luhmann-Suchmaschine – Entwickler sollten nach Bielefeld fahren @paderta #sck15

Luhmann statt Google
Luhmann statt Google

Das 760 laufende Meter umfassende Tessiner Archiv des legendären Ausstellungsmachers Harald Szeemann wird von einem Chaos der Ordnungen in allen Ebenen beherrscht. Zettel an Schnüren von der Decke, Karteikästen mit Registern auf Tischen, Schubladenschränke, Regale, Kisten und Tüten, Versuche des Reihens und Stapelns, der Serien- und Haufenbildungen. „Unordnung ist eine Quelle der Hoffnung“ steht unter einem Regalbrett: „Das Wichtigste ist für mich, mit geschlossenen Augen durchzugehen, und meine Hand wählen zu lassen.“

Szeemann baut also einen Zufallsmechanismus in seine analoge Sammlung ein. Im wissenschaftlichen Kontext geht man bekanntlich anders vor. Wenn Forscher sehr sicher sind, was genau sie wissen wollen, entsteht dabei zwischen Lesen und Schreiben keine große sachliche und zeitliche Lücke.

„Man bibliografiert, welche Beiträge geleistet worden sind, und notiert sich, was ihnen entnommen werden kann“, schreibt Jürgen Kaube in seinem Beitrag „Luhmanns Zettelkasten oder Wie ist gedankliche Ordnung möglich? im Ausstellungskatalog „Serendipity – Vor Glück des Findens“, erschienen im snoeck-Verlag.

Nachdenken, Weiterlesen, Rechnen, Experimentieren, Datenausschöpfen, Fragen und Antworten formulieren. Die Lektüre und Recherche erfolgt zielgerichtet.

Der berühmte Zettelkasten, den der Soziologe Niklas Luhmann schon im Alter von 25 Jahren anlegte und bis zwei Jahre vor seinem Tod 1998 geführt hat, um seine Gedanken und Lektüren zu dokumentieren, funktioniert anders. Eine Erkenntnis wollte er nicht in Stein meißeln, sondern auf verschiedene Wege weiterführen. Wie Szeemann entscheidet eher der spontane Griff in den Zettelkasten das Sucherergebnis. Bei einer Suchmaschine müssen wir irgendeinen Begriff in die Tasten kloppen und werden angetrieben von einer zielgerichteten Suche. Oder sollte man vielleicht eingeben „Ich will mich von Dir überraschen lassen, liebwerteste Google-Suchmaschine“. Beim Flanieren in der Bibliothek, beim Stöbern im Zettelkasten, beim Durchblättern eines Buches oder irgendwelcher Notizen findet man Dinge, die man eigentlich gar nicht gesucht hat. Genau das leisten Google und Co. nicht:

„Je besser die Algorithmen von unseren Suchmaschinen werden – in der Regel Google -, desto weniger stoßen wir auf neue Sachen. Wir bekommen nur das geliefert, was ganz viele andere User schon eingegeben haben“, bemerkt Damian Paderta beim stARTcamp Köln.

Zudem kommt noch die personalisierte Analyse bei Google dazu, in dem das Verhalten des Suchenden in der Historie getrackt und gespeichert wird. Auch das verringert das Serendipity-Phänomen.

Die Google-Funktion „Auf gut Glück“ befördert nur mäßig das Zufallsprinzip.

Luhmann’s Zettelkasten ist besser als der Google-Algorithmus.

Baut doch in Europa eine Suchmaschine im Geiste des Bielefelder Soziologen. Ausführlich nachzulesen im Notiz-Amt der Netzpiloten.