Faktencheck: Vor 10 Jahren erschien mein Artikel „Luhmann und die kulturelle ‚Katastrophe‘ der Computer-Kommunikation“ #RheinlandRunde

Luhmann statt Google

Ist doch recht interessant, ältere Beiträge noch einmal abzugleichen und zu analysieren, wo man den richtigen Riecher hatte und in welchen Punkten nicht. Hier ein Artikel, den ich vor rund zehn Jahren geschrieben habe in voller Länge und ohne irgendwelche Änderungen. Er passt ganz gut zum Start des neuen Sendeformate #RheinlandRunde, in der wir Wirtschaftsthemen der Region Bonn, Köln Overath und Umgebung diskutieren. In der Pilotsendung wollen wir uns mit dem Niedergang der lokalen und regionalen Medien im Rheinland beschäftigen und den Auswirkungen auf die Wirtschaftsberichterstattung. Hier nun mein Opus für den Faktencheck.

Niklas Luhmann, der „Vater der Systemtheorie“, sieht drei Revolutionen der Kommunikation: die Schrift – die Antwort darauf hieß Aristoteles; der Buchdruck – die Antwort darauf hieß Rene Descartes; die Computer – die Antwort darauf heißt Niklas Luhmann. Zu dieser Auffassung gelangt zumindest sein Schüler Dirk Baecker. Der Soziologe und Zettelkasten-Wissenschaftler Luhmann hat selbst keine Computer benutzt. Er hat aber die Theorie entwickelt, die die „Neue Gesellschaft der Computer“ und die Antworten der Menschen auf diese veränderte Gesellschaft exakt beschreibt. In dieser Welt der Computer hilft Aristoteles allein nichts mehr. Zwei Dinge sind Luhmann besonders aufgefallen: der vernetzte Computer als Wissensdatenbank und der Bildschirm des Computers. „Was sich tatsächlich beobachten lässt“, schreibt er schon 1998 in seinem Opus „Die Gesellschaft der Gesellschaft“, „sind weltweit operierende, konnexionistische Netzwerke des Sammelns, Auswertens und Wiederzugänglichmachens von Daten, etwa in der Medizin, die themenspezifisch, aber nicht räumlich begrenzt operieren“. Die Fragen der Kombinatorik, Zugänglichkeit und auch Verlässlichkeit von Wissen erreichen neue Dimensionen, die man unter den Stichworten Informationsgesellschaft oder Wissensgesellschaft seit langem diskutiert.

„Der Computer ist für die Wahrnehmung unsichtbar und für die Kommunikation unverständlich und funktioniert dennoch. In dieser Hinsicht gleicht er der Welt insgesamt. Anders als diese kann er jedoch nicht im Muster halbwegs stabiler, wenn auch korrumpierbarer Zustände begriffen werden, sondern muss als Sequenz der Errechnung immer neuer Zustände begriffen werden. Deswegen sprechen wir von einer ‚virtuellen Realität’ und einer ‚künstlichen Intelligenz’. Und deswegen sagt Luhmann, dass der Computer eine ‚Alternative’ zur strukturellen Kopplung von Kommunikation und Bewusstsein sei. Denn über ihn koppeln sich sowohl die Kommunikation als auch das Bewusstsein an eine ihnen unverfügbare und komplexe Instanz, die entweder mitspielt oder nicht mitspielt und so Anschlüsse vorstrukturiert, die der Kommunikation genügen und das Bewusstsein faszinieren können, ohne dass hier irgendeine Engführung von Kommunikation und Bewusstsein stattfinden muss“, schreibt Baecker in seinem Buch „Wozu Soziologie?“, erschienen im Kadmos Verlag. 

Information nicht mehr überprüfbar

Bisher konnte in der Menschheitsgeschichte jede Information überprüft und mit dem Umstand ihrer Mitteilung abgeglichen werden. Mit der Computer-Kommunikation ändert sich das radikal. Die Information errechnet eigene Zustände aus eigenen Zuständen, ohne dafür über irgendeine Stoppregel zu verfügen. „Die Einführung der Schrift ebenso wie die des Buchdrucks, so Luhmann in einem Exkurs zu einer allerdings skeptisch beurteilten Möglichkeit einer Theorie der Kultur, haben dazu geführt, dass die Gesellschaft ‚Theoriemuster’ entwickelte, mit denen die Folgen dieser Einführung sowohl verarbeitet als auch ausgenutzt werden konnten“, führt Baecker aus und fragt sich, ob es auch für Computer ein entsprechendes Theoriemuster gibt. Luhmann skizzierte dafür zwar einige Erkenntnisse, aber nennt keinen Namen. „Es ist jedoch meines Erachtens nicht auszuschließen, dass Luhmann sich an dieser Stelle den Spaß geleistet hat, sich auch seinen eigenen Namen vorstellen zu können“, vermutet Baecker. 

Alle drei kulturellen Umbrüche, die der Schrift, des Buchdrucks und des Computers, stellt man sich am besten als „Katastrophen“ im mathematischen Sinne vor, als brutale Sprünge, die es einem System ermöglichen zu überleben, wenn es eigentlich aufhören müsste zu existieren. Das System reagiert auf das Auftreten einer Störung, die alle seine Parameter überfordert, indem es auf eine neue Zustandsebene springt. Geschriebene oder gedruckte Texte machen es unmöglich, sich auf der Sachebene zu einigen, gerade weil sie dies versuchen und es deswegen so viele von ihnen gibt. „Stattdessen einigt man sich auf der Ebene, zu beliebigen Sachen unterschiedliche Texte zuzulassen. Man streitet nicht darum, als Beobachter Recht zu haben, sondern man akzeptiert sich als Beobachter, der je nach der gewählten Unterscheidung manches sieht und vieles übersieht“, so Baecker. Luhmann untersucht die Faktoren, wie die Gesellschaft mit jedem neuen Verbreitungsmedium und den explodierenden Sinnverweisungsüberschüssen fertig wird. 

„Wenn eine Gesellschaft nur mündlich kommuniziert, genügen die Geheimnisse der Religion und die Tabus der Moral, um für die Grenze der Gesellschaft, hinter der das Unvertraute beginnt, ein Bild zu liefern und das Verhalten jener Personen zu regulieren, die ihre wichtigsten Gedächtnislieferanten sind. Die Schrift sprengt jedoch die Welt der Geheimnisse, indem sie Zeichen über die bisherigen Grenzen hinweg zirkulieren lässt, auch wenn es lange Zeit gelingt, die Zeichen in der Form des Symbols mit einem Sinn für die Grenze auszustatten, die sie überschreiten. Und sie sprengt die Welt der Tabus, indem sie an der Moral das Moralisieren auffällig macht, also Gründe liefert, sich deren Zumutungen mit Blick auf die jeweiligen Absender zu entziehen. Deswegen wird eine Zeitlang versucht, die Moral mit Religion zu amalgamieren, damit der Absender dem Schutze Gottes unterstellt werden kann….Jeder Text konfrontiert mit einer erst jetzt sichtbaren Fülle möglicher Unterscheidungen, die nicht nur für die Philosophie zu ihrer Ordnung auf den Plan rufen, sondern auch eine Technik bedürfen, mit denen sie geordnet werden. Diese Technik liefert Aristoteles mit der Teleologie, der Semantik der Zwecke“, erklärt Baecker. 

Klugheitslehre und selektive Unruhe

Familien und Regionen fungieren dabei als Stabilitätsgarantien der Schriftgesellschaft. Mit dem Buchdruck explodieren die Sinnverweisungsüberschüsse ein weiteres Mal und lassen politische, wirtschaftliche, erzieherische, religiöse, rechtliche Möglichkeiten sichtbar werden, die durch keinerlei utopisches Schrifttum unter Kontrolle zu halten ist. Flugblätter, Papiergeld, Ablässe, Gerichtsentscheidungen, Bücher oder Zeitungen erscheinen massenhaft und werden nur noch durch die Leistungsfähigkeit der Druckerpresse beschränkt. Auch hier entfaltet sich eine ordnende Kraft, erarbeitet durch das Werk „Discours de la méthode“ von Descartes. Seine Theorie folgt antiken Vorgaben. Sie bestätigt den Tenor einer Klugheitslehre, die von den Stoikern über die Fürstenspiegel bis in die heutigen Traktate zur Lebenskunst reicht.  

Das Theoriemuster von Descartes versteckt sich in der Konstellation von Moral, Zweifel, Denken und Gottesidee. „Wie die Mechanik der Uhr liegt die Unruhe auch der Rationalität der Neuzeit zugrunde: Zwar kann man den Zwecken nicht festhalten, aber man kann dabei bleiben, Mittel untereinander zu vergleichen, wie zweckgemäß sie sind, und Zwecke untereinander auszutauschen, wenn die Lage der Mittel dies als opportun erscheinen lässt“, schreibt der Luhmann-Kenner. Die selektive Unruhe kann Lektüre- und Schreiberfahrungen abbilden und dient als Regulativ. Keine Wirtschaft ohne die Frage, ob mögliche Gewinne andernorts höher ausfallen; keine Politik ohne die Frage, wie lange die eigene Macht noch gesichert ist; keine Wissenschaft ohne die Frage, ob dem Konkurrenten die Entdeckung eher gelingt. Schon die Schrift macht das Verstehen von Kommunikation und die Reaktion auf Kommunikation unabhängig von der Anwesenheit des Mitteilenden. Im Mittelalter war jedoch die semantische Evolution entscheidend davon abhängig, in welchen Bibliotheken welche Manuskripte aufbewahrt wurden und welche Zufälle den Leser an die seltenen Manuskripte heranführten. Hier spielt der Körper der Individuen und damit ihr Aufenthalt an bestimmten Orten eine wichtige Rolle. Das ändert sich mit der Verbreitung gedruckter Schriften. „Wenn im 18. Jahrhundert die Integration der Gesellschaft der ‚öffentlichen Meinung’ überlassen wird, so liegt darin letztlich ein Verzicht auf räumliche Integration überhaupt. Denn ‚Öffentlichkeit’ besagt ja nichts anderes als: Freigabe des Zugangs für beliebige Personen, also Verzicht auf Kontrolle des Zugangs, also strukturelle Unbestimmtheit der räumlichen Integration“, so Luhmann. 

Computertechnik und die sinkende Autorität der Experten

Mit der Computerkommunikation wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert und ersetzt durch Unbekanntheit der Quelle. Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift auch die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen. Die Art und Weise, wie Wissen in den Computer kommt, lässt sich zwar schwer überprüfen. Sie lässt sich aber jedenfalls nicht mehr in Autorität ummünzen. Zudem verlieren die klassischen Massenmedien ihre Selektionsmacht. Bislang war die redaktionelle Arbeit Mangelverwaltung. Die technische Verbreitungskapazität von Presse, Hörfunk und Fernsehen allein reichte nicht aus, um jedem, der etwas öffentlich mitteilen wollte, die Möglichkeit dafür einzuräumen: „Es gab schlicht nicht genügend Sendezeit, Frequenzen, Druckseiten und Zeitungsausgaben. Der Nachrichtenstrom musste in ein Rinnsal verwandelt werden“, schreibt Christoph Neuberger in einem Beitrag für den Sammelband „Die Google-Gesellschaft“.  Redaktionen, Verleger und Intendanten konnten bestimmen, welche Nachrichten und Meinungen veröffentlicht werden. Sie begleitete stets der Argwohn, dass sie ihre ‚Gatekeeper-Rolle’ nicht neutral ausüben, sondern missbrauchen. Während Unternehmen und Verbände ihren Einfluss auf den Journalismus durch PR-Strategien geltend machen konnten, waren nicht organisierte Interessen, scheidende Minderheiten oder Mehrheiten darauf angewiesen, dass der Journalismus sich ihrer Anliegen annahm. 

Klassische Medien verlieren ihre Nachrichtenhoheit

Mit der Computerkommunikation, dem Internet und den Informationsmöglichkeiten über Suchmaschinen besitzen die professionellen Journalisten kein Vermittlungsmonopol mehr. Sie verlieren ihre Deutungs- und Nachrichtenhoheit. Redaktionen können zwar kontinuierlich recherchieren und berichten. Durch die Vielzahl der Internetnutzer mit eigenen Internetseiten oder in Blogger-Netzwerken ist allein die größere Zahl der Kommunikationsteilnehmer im Web die Wahrscheinlichkeit sehr viel höher, dass ein Experte oder Beobachter für ein bestimmtes Thema zur richtigen Zeit am richtigen Ort ist. Der US-Präsidentschaftswahlkampf 2004 lieferte Belege die diese These: „Dass John Kerry, der Kandidat der Demokraten, John Edwards für das Amt des Vizepräsidenten vorschlug, konnte man zuerst im Forum einer Luftfahrt-Webseite lesen. Dort berichtete ein Mechaniker, dass das Wahlkampf-Flugzeug von Kerry, das in einem Hangar in Pittsburgh stand, gerade die Aufschrift ‚Kerry – Edwards’ erhielt. Und dass CBS-Anchorman Dan Rather auf gefälschte Dokumente über Bushs Wehrdienstzeit herein gefallen war, wurde in Weblogs wie ‚Rathergate’ aufgeklärt“, schildert Neuberger in seinem Buchbeitrag. Das bisher einträgliche Nebeneinander verschiedener Medien ist durch die digitale Revolution massiv unter Druck gekommen. „Die Digitalisierung erlaubt es, journalistische Leistungen mit erhöhten Reichweiten kostengünstig auf verschiedenste Medien zu verteilen. Damit ist es möglich, nicht nur E-Mail und Nachrichten, sondern ganze Zeitungsinhalte jederzeit an jedem Ort und mit verblüffender Qualität zur Verfügung zu haben“, sagt Jürgen Pitzer, Präsident der Deutschen Public Relations Gesellschaft Pitzer . 

Das klassische Versprechen von traditionellen Zeitungen wie der New York Times – „all news fit to print“ – habe ihr Alleinstellungsmerkmal verloren. „Die Nachrichten der Tageszeitungen sind Nachrichten von gestern und gehen damit an der potentiellen Kundschaft vorbei. Und dies ist erst der Anfang, weil mit den neuen Frequenztechniken und Empfängerleistungen in Zukunft nicht nur Nachrichten, sondern unbegrenzte Datenströme übermittelt werden können, also auch Filme und Musik. Alle Kommunikationsmöglichkeiten konvergieren auf eine Plattform, die von einer einzigen Quelle aus bedient werden kann“, so Pitzer. Unternehmen, die sich ausschließlich auf Printmedien konzentrieren, stünden bereits jetzt vor großen Schwierigkeiten. „Sie werden im Wettbewerb verlieren, weil sie mit ihren Kostenstrukturen nicht mehr wettbewerbsfähig sind“, betont der DPRG-Präsident.
 
Hingegen wachse der Markt für neue Kommunikationsangebote. Die Markteintrittbarrieren für Medienunternehmer im Format einer Ich-AG seien drastisch gesunken. Über eine Million Web-Logs, also schreibende, editierende, filmende, fotografierende Akteure gebe es bereits. Auch in Deutschland kämen täglich tausende Anbieter hinzu. „Bekannt ist das Beispiel der ersten Berichte über die Opfer des Tsunamis, die den etablierten Medien von Web-Loggern zur Verfügung gestellt wurden“, führt Pitzer weiter aus. Selbstorganisation, direkte Kommunikation und überschaubare konkrete Ziele führten wildfremde Menschen weltweit oder lokal zusammen. „Die Quintessenz lautet: Mehr als über die bisherigen Medien sind Menschen zu gemeinsamen Handeln aktivierbar“.

Die Entwicklung neuer Technologien und die Digitalisierung der Medienwelt würden nach Ansicht von Martin Sorrell, Chef der weltgrößten Werbeagentur WPP, die Gewichte neu verteilen: „Ich zum Beispiel schaue heute vor allem Sparten-TV, also Wirtschaftssendungen bei CNBC oder Bloomberg-TV. Aktuelle Nachrichten hole ich mir übers Internet. Warum soll ich bis zum nächsten Tag auf eine Tageszeitung warten, wenn ich die Informationen sofort elektronisch haben kann? Von Zeitungen und Zeitschriften erwarte ich fundierte Hintergründe und tief schürfende Analysen. Je schneller, desto besser. Warum soll ich eine Woche warten, bis mir jemand erklärt, was die Übernahme von Gillette durch Procter & Gamble bedeutet“. Selbst für professionelle Journalisten ist das Internet mittlerweile die wichtigste Informationsquelle. Das dokumentiert eine Journalistenumfrage der „Dr. Doeblin Gesellschaft für Wirtschaftskommunikation“. So hat die Zahl der Stunden zugenommen, die die Journalisten mit der Recherche im Internet verbrächten. Das Internet erleichtere den Journalisten dabei den schnellen Zugang zu Informationen und ersetze zunehmend zeitaufwändige Archiv-Recherchen im eigenen Verlag. Der Besuch von Pressekonferenzen werde für viele Wirtschaftsjournalisten zu einer Ausnahme. 

Tageszeitungen und die Tagesschau vom Vorabend

Den Sturz vom Nachrichtenthron haben allerdings einige Medien noch nicht verkraftet. So warf die FAZ am Sonntag der Netzeitung scharfer Weise vor, mit unterbezahlten „Tagelöhnern“ Journalismus zu simulieren und auf wichtige Nachrichtenagenturen wie dpa zu verzichten. Medienexperten reagierten erstaunt auf die Angriffe des „Intelligenzblattes“. Der sparsame Einsatz von Agenturmeldungen sei eher erfrischend. Die meisten Tageszeitungen würden nur das wiederkauen, was am Vorabend in jeder Nachrichtensendung zu hören und zu sehen sei. Die Netzeitung würde auch Themen aufgreifen, die sich vom allgemeinen Funktionärs- und Promigeschätz unterscheiden. Auf diese Defizite habe vor über zwei Jahren schon der Medien- und Sprachkritiker Wolf Schneider hingewiesen. Die sogenannten Qualitätszeitungen sollten endlich zur Kenntnis nehmen, dass die Schlagzeile „Italien erhält keinen blauen Brief“ wegen des übermäßigen Haushaltsdefizits, den Neuigkeitswert einer alten Konservendose hätte. Wie viele der Zeitungsleser hatten diese Nachricht nicht zwölf Stunden vorher im Fernsehen gehört? Was Zeitungen permanent als Aufmacher ins Blatt nehmen, sei nach Auffassung von Schneider eine bloße Erinnerung an den Fernsehabend zuvor. Nur noch halb so groß sollten die Tageszeitungen berichten über die Reden von Politikern und die Verlautbarungen von Parteien und Verbänden. „Es gibt weder eine Journalistenpflicht noch ein heißes Leserinteresse, täglich groß gedruckt zu sehen, was da an Versprechungen und Verunglimpfungen abgelassen wird, an Retourkutschen, unseriösen Prognosen und durchschaubaren Lügen. Über politische Sprechblasen wahrheitsgemäß berichten heißt ja: In redlicher Absicht die Zeitung mit Schönfärbereien und Irreführungen füllen; je weniger sie davon druckt, desto höher steigt also ihr Wahrheitsgehalt“, so Schneider. Halbiert würde dabei auch die schiere Langeweile. Umdenken sei allerdings unbequem – aber vielleicht wäre das ja nicht zu früh ein halbes Jahrhundert nach der ersten Tagesschau? „Die Zeiten, in denen eine saturierte Abonnementszeitung durch journalistische Langeweile gar nicht ruiniert werden konnte, sind vorbei; Omas Zeitung liegt im Sterben“, so Schneider. 

Die Google-Mission

Relativ wenige Experten glauben an eine steigende Bedeutung von Zeitschriften und Tageszeitungen. So belegt die Timebudget-Studie, dass immer mehr Menschen das Internet täglich nutzen. Mehr als zwei von fünf Deutschen sind jeden Tag im Netz. Das sind fünfmal so viele wie 1999. Die Informationen im Internet sind permanent erneuerbar. Durch die Verknüpfung von internen und externen Links kann man große Informationsangebote überschaubar darstellen. Die Universität St. Gallen ging der Fragestellung nach, in wie weit die Nutzung und Finanzierung von journalistischen Angeboten in Online- und Print-Medien entwickelt. Die zentralen Aussagen sind: Tageszeitungen werden langfristig 20 bis 50 Prozent ihrer Einnahmen in den Rubrikmärkten an Online-Mitbewerber verlieren. Gerade im Leser- und Werbemarkt stehen die Medien in einem scharfen Wettbewerb. Die befragten Experten der St. Gallener Delphi-Studie schätzen, dass 70 bis 80 Prozent des Wachstums der Nutzungszeit von Online-Angeboten und rund 80 Prozent der Zunahme von Online-Werbung zu Lasten der klassischen Medien gehen. Zwar warnen Medienexperten wie der Zukunftsforscher Johns Naisbitt vor den systemischen Grenzen der Informationstechnik mit dem Ausspruch: „Wir ertrinken in Information und hungern nach Wissen“. Mit steigender Datenflut wachse der Aufwand, Daten in anwendbares und sinnvolles Wissen zu verarbeiten. Mit der Mission von Google gibt es nach Ansicht von John Battelle, Autor des US-Bestseller „The Search“ auch für diese Restriktion eine Antwort: 

„Was ist eigentlich Information? Schlussendlich sind es Daten die etwas und alles beschreiben. Vielleicht ist es ein Dokument im Web, vielleicht ist es der Preis einer Kiste Pampers in einem Landen in Miami.  Es könnten auch Hochzeitsfotos sein oder ein Video eines Tsunamis an der Küste des Indischen Ozeans. Wenn uns die ersten Jahre des dominanten Aufstiegs von Google etwas beigebracht haben, dann dies: wenn etwas von Interesse ist, muss es im Google-Index sein“. Google ist nach Analyse von Battelle eine „Datenbank der Intentionen“ und die Suchfunktion ist für ihn die künftige Schnittstelle der Computer, des Wissens und des Lebens. Mit der zunehmenden Digitalisierung von Texten, Bildern, Filmen ist alles Suche und Suche wird zu allem. So beschreibt er, wie man künftig per Handy und GPS-Peilung Produkte in den lokalen Geschäften einem Preisvergleich unterziehen kann und der Tod der Gelben Seiten vorbestimmt ist. Alles lässt sich mit einem Chip versehen und in die digitale Welt integrieren. 

„In naher Zukunft wird sich die ursprüngliche Suche im Web über den PC auf alle anderen Produkte ausbreiten. Das hat bereits mit den Handys und PDAs begonnen; virusartig wird sich das fortsetzen bis die Suche in jeder digitalen Vorrichtung eingebaut ist, die unser Leben betrifft. Das Telefon, das Handy, der Fernseher oder die Stereoanlage. Selbst das kleinste Objekt kann mit einem Chip ausgerüstet und vernetzt werden – alles wird fähig zur Netzwerk-Suche sein. Das ist keine Phantasie – das ist einfache Logik. Wenn man immer mehr von unserem Leben vernetzt und digitalisiert, brauchen wir Navigation, Kontext und Schnittstellen, um zurecht zu kommen. Was ist demnach TiVo – nichts anderes als eine Such-Schnittstelle  für den  Fernseher? I-Tunes von Apple? Suche nach Musik. Die Kiste mit den Fotos unter Ihrem Bett und der Ständer mit den CDs neben ihrer Stereoanlage? Analoge Kunstobjekte, die auf ihre digitale Wiedergeburt warten. 

Anstelle der überall vorhandenen Barcodes, die man am Flughafen auf das Gepäck klebt, werden ganz einfach RFID-Chips verwendet. Sie haben Ihr Gepäck verloren? Ich glaube nicht. Nicht, wenn Sie Ihre Louis Vuitton-Tasche in Echtzeit googlen können. Denken Sie mal drüber nach – google Deinen Hund, Dein Kind, Deine Fonds, Dein Handy, Dein Auto. Die Liste erstreckt sich sehr schnell ins Unendliche. Überall, wo ein Chip drin oder dran ist, kann eine Suche starten“, so die Vision von Battelle. In Kombination mit Spracherkennungssystemen entwickeln sich Suchmaschinen zum persönlichen Info- und Kommunikationsmanager:

Das Internet lernt sprechen

„Sprachtechnologie macht Webinhalte für das Telefon nutzbar. Internet-Suchdienste werden von Millionen Menschen genutzt und bieten sich daher besonders dafür an, in Sprache abgebildet zu werden“, so Bernhard Steimel, Sprecher der Brancheninitiative VOICE Business. Google arbeite wohl mit Hochdruck an einem Sprachkanal. „Dafür spricht die Verpflichtung von vier Voice Top-Managern. Michael Cohen ist User Interface Experte der ersten Stunde. Bill Byrne kann nachgewiesenermaßen die komplexen Voice Architekturen konzipieren und errichten, die für ein neues Google Voice nötig wären. Adam Bosworth ist einer der Vorreiter in der Entwicklung und Nutzung von Markup-Sprachen. Kai-Fu Lee kommt von Microsoft und gilt als Koryphäe auf den Gebieten der Spracherkennung und der künstlichen Intelligenz“, weiß Steimel.

Analysten sind sich sicher, dass die Vorstellung einer einfachen Umsetzung von Google Search für das Telefon angesichts dieser Konzentration von Sprachkompetenz bei Google zu kurz greift. „Das Voice-Team von Google arbeitet sicherlich an einem größeren Konzept. Eine Art persönlicher ‚Google Info- und Kommunikationsmanager’, der G-Mail mit G-Organizer, G-Contacts und G-Earth zu einer sprachgesteuerten Info- und Kontaktbasis verschmilzt. Eine solcher Dienst wäre von jedem Handy mobil zu nutzen, wenn alle Funktionen für Sprachausgabe und -erkennung ebenso ausgelegt wären wie für die Nutzung mit grafischem Interface. Millionen Kunden hätten dann auf mobilen Endgeräten mit IP-Telefonie und Datenanbindung die Welt in der Tasche: Sie könnten telefonisch ihre gesamte E-Mail-Korrespondenz führen, Kontakte und Termine pflegen und das Web in Text, Ton und Video durchsuchen“, spekuliert Steimel.

Der Suchmarkt werde mit dem Einzug von Spracherkennung in eine neue Dimension wachsen. „Sprache wird künftig in doppelter Beziehung eine Rolle spielen: für die Erschließung neuer Suchinhalte wie Voicefiles und als neuer Zugangsweg ins Internet“, sagt Steimel. 

Nach Angaben von Professor Wolfgang Wahlster, Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), werde man schon im nächsten Jahr zur Fußball-Weltmeisterschaft neue Anwendungen erleben.  „Sofern die WM-Besucher über ein entsprechend ausgerüstetes Handy mit Spracherkennung verfügen, können sie Informationen über Spielstände, WM-Historie, Touristenattraktionen und Hotels abfragen. Eine Software sucht im Web und in Datenbanken nach Antworten und liest die richtige vor. Das erledigen neuartige intelligente Suchmaschinen. Sie bedienen sich neuer Computersprachen, um Art, Inhalt und Charakter von Dokumenten und Web-Seiten zu erkennen, statt nur nach Stichworten zu fahnden. So stoßen sie auf die wahrscheinlichste Antwort, statt hunderte oder gar tausende Treffer anzuzeigen“. Experten sprechen bei der Weiterentwicklung vom semantischen Web: Das Internet lernt Fakten zu verknüpfen und zu sprechen. 

Telefonieren zu Aldi-Preisen

Auch das klassische Telefongeschäft steht vor dem größten Umbruch seiner Geschichte. Die Telefonie über das Internet Protokoll (VoIP) ist nach Expertenmeinung nicht mehr aufzuhalten. Nach einer aktuellen Studie von Deloitte werden rund 30 Prozent der traditionellen Telefonkunden in den nächsten Jahren auf die neue Technik umsteigen. Die Investmentbank Credit Suisse First Boston rechnet für das Jahr 2010 damit, dass mehr Sprachverkehr in den Netzen durch VoIP als durch die klassischen Telefongespräche entsteht. Grundlage für den Durchbruch der Internet-Telefonie ist die Ausbreitung der schnellen DSL-Verbindungen, die zu Pauschalpreisen angeboten werden. „Damit ist es mittlerweile egal, wie lang der Kunde im Netz ist, und die Flatrates ermöglichen zudem unbegrenztes Surfen ohne Volumenbegrenzung“, führt die FAZ aus. Damit entfallen heute die Hürden, an denen die Internet-Telefonie im ersten Anlauf gescheitert sei. Der Computer müsse nicht eingeschaltet werden, um telefonieren zu können. Der DSL-Anschluss sei permanent mit dem Internet verbunden und so in der Lage, eingehende Gespräche anzunehmen. „Die Geburtswehen der späten 90er Jahre liegen hinter uns. Jetzt geht es darum den Reichtum an Kommunikationsvielfalt den Nutzern zur Verfügung zu stellen. Gerade die Übernahme von Skype durch Ebay zeigt, wohin die Reise geht. Internet-Plattformen mit Millionen Kundenzugängen wie bei Ebay, Google und Yahoo gehen mit eigenem VoIP-Angebot auf den Markt. Sie tun dies, um weitere Services mittels ihrer Plattform anzubieten, die Kunden noch stärker zu binden und natürlich mehr Einnahmen zu generieren. Für die traditionellen Festnetzanbieter ist das eine große Gefahr. Die Netze wachsen zusammen, dedizierte Netze für Sprache oder Daten werden sterben. Das weltweite Telefonieren zu ‚Aldi-Preisen‘, noch dazu ‚on-demand‘, ‚always on‘ und per Klick. Das wird sich so schnell verbreiten wie die Mobilkommunikation oder E-Mail-Services in den 90er Jahren“, sagt Helmut Reisinger, Geschäftsführer des Stuttgarter IT-Dienstleisters Nextiraone.

Vor allem die Unternehmen, die bisher als Netzbetreiber gutes Geld mit den Telefonminuten verdienen, müssten sich auf Umsatzeinbußen einstellen. Das britische Marktforschungsunternehmen Analysys rechnet generell mit einem Umsatzrückgang von bis zu 29 Milliarden Euro für die europäischen Festnetzbetreiber bis zum Jahr 2009. Das entspräche einem Umsatzverlust zwischen 6 und 10 Prozent pro Jahr. Auch die Mobilfunkanbieter werden den Festnetzbetreibern Kunden abnehmen. „Die klassische Festnetz-Telefonie wird eher zum Zugangsabwickler (Access), wogegen die Vermittlung dann per Internet erfolgt. Mobilkommunikation und VoIP werden die klassischen Angebotsformen mittelfristig deutlich reduzieren und in die Zange nehmen. Der Kunde kann sich auf sinkende Preise freuen oder zum gleichen Preis deutlich mehr kommunizieren. Alleine die Möglichkeiten mit den Präsenzfunktionen, wer aus meiner Community online ist, wird die Kommunikationshäufigkeit erhöhen. Quasi ein internetgetriebener ‚Chatter-Trend‘ als Renaissance der Kommunikation von Mensch zu Mensch“, beurteilt Reisinger die Entwicklung. 

Luhmanns Vermächtnis

Selbst der legendäre Zettelkasten von Niklas Luhmann hat den Weg ins Internet gefunden. Zur technischen Ausstattung des Soziologen-Zettelkastens gehörten noch hölzerne Kästen mit nach vorne ausziehbaren Fächern und Zettel im Oktav-Format. Alle Zettel hatten eine feste Nummer – es gab keine systematische Gliederung. Luhmanns Zettelkasten war also nicht systematisch geordnet. „Es gibt also keine Linearität, sondern ein spinnenförmiges System, das überall ansetzen kann. In der Entscheidung, was sich an welcher Stelle in den Zettelkasten hineintue, kann damit viel Belieben herrschen, sofern ich nur die anderen Möglichkeiten durch Verweisung verknüpfe“, sagte Luhmann. Seine Ideen ergaben sich aus den verschiedenen Kombinationsmöglichkeiten der Zettel zu den einzelnen Begriffen. „Insofern arbeite ich wie ein Computer, der ja auch in dem Sinne kreativ sein kann, dass er durch neue Kombination eingegebener Daten neue Ergebnisse produziert, die so nicht voraussehbar waren“, so Luhmann. Elektronische Zettelkästen adaptieren mittlerweile das Sammelsystem von Niklas Luhmann. 

Informationen sammeln, analysieren und mit anderen teilen sei das Hauptproblem für kreative Menschen, sagt Mark Bernstein. Er ist Entwickler des Programms „Tinderbox“ (Pulverfaß) http://www.eastgate.com/Tinderbox/. Als persönliches Archiv steht es hinter vielen Weblogs.

Auch bei Buchprojekten ist die Box hilfreich: Der Benutzer kümmert sich um die Eingabe, je nach Verwendungszweck fließen die Daten dann in eine andere Form. Das Programm nutzt die Beschreibungssprache XML, also jenen Standard, der die Inhalte vom Layout löst. 

In der Welt der Tinderbox mischt sich alles. Blitzschnell formen sich neue Ansichten. „Da gibt es unbegrenzte weiße Landkarten, auf denen die buntetikettierten Kästen herumgeschoben und verknüpft werden können. Sie verschwinden ineinander, und so kann jeder Kasten eine neue und im Zweifelsfall erst einmal unordentliche Welt enthalten. Will der Benutzer Ordnung schaffen, legt er kleine ‚Agenten‘ an. Die durchforsten unermüdlich das persönliche Netz und sortieren die Karten nach zeitlicher Reihenfolge, nach Farbe oder nach hundert anderen Eigenschaften“, schreibt die FAZ. 

Näher am Ordnungskosmos von Luhmann ist das Programm „synapsen“ http://www.verzetteln.de. Entwickelt hat es Markus Krajewski von der Universität Weimar. Seit zehn Jahren verschlagwortet er seine Gedanken elektronisch, 30000 Verknüpfungen verbinden sie inzwischen miteinander. Über die sture Verwaltung von bibliographischen Daten hinaus bietet die Software eine Informations-Architektur, die dem Zettelkasten in spezifischer Weise selbst die Rolle eines Autors zuschreibt. Jeder Datensatz, der die bibliographischen Daten eines Textes ebenso erfasst wie einen mitunter sehr umfangreichen Lektürebericht, wird durch eine Liste von Schlagworten charakterisiert. Sie sind vom Anwender bei der jeweiligen Eingabe zu vergeben. Anhand umfangreicher interner Vergleiche fügt synapsen daraufhin eine Liste der Datensätze/Zettel an, die ebenfalls mit diesen Schlagworten belegt sind. „Jeder Zettel schreibt sich damit automatisch in ein Netzwerk des persönlichen Wissens ein, das der Benutzer auf leichte Weise per hypertextuellem Mausklick verfolgen kann. Der Zettelkasten liefert auf diese Weise überraschende Verbindungen und assoziiert neue Argumentationslinien über Begriffe und die dazugehörigen Texte, die vom Benutzer unter Umständen gar nicht gesehen, geahnt oder vergessen wurden. Der Zettelkasten gerät somit regelrecht zum Kommunikationspartner und kreativen Stichwortgeber“, so Krajewski. Vielleicht ist der elektronische Zettelkasten das Vermächtnis von Luhmann, um mit der kulturellen Katastrophe der Computer-Kommunikation fertig zu werden. 

Soweit der Artikel, der vor rund zehn Jahren erschien. Ein paar Sachen sind immer noch hoch aktuell 🙂 Beispielsweise die Aussagen von Wolf Schneider zu den Fehlern im Printjournalismus.

Könnten wir heute um 15:30 Uhr Bezug auf Bonn und Köln aufgreifen. Also Dumont-Verlag, General-Anzeiger….

Es ist alles vorbereitet für die #RheinlandRunde:

Ein Gedanke zu “Faktencheck: Vor 10 Jahren erschien mein Artikel „Luhmann und die kulturelle ‚Katastrophe‘ der Computer-Kommunikation“ #RheinlandRunde

  1. Pingback: Faktencheck: Vor 10 Jahren erschien mein Artikel „Luhmann und die kulturelle ‚Katastrophe‘ der Computer-Kommunikation“ #RheinlandRunde — ichsagmal.com – #WirtschaftimRheinland

Kommentar verfassen