Studenten im Bologna-Prozess: Stoff-Bulimie statt Regelbruch – Reinschaufeln, auskotzen, vergessen

Innovationen entstehen nach Ansicht des Bloggers Martin Bartonitz vor allem durch Regelbrechung. Man muss in der Lage sein, Altvertrautes nicht mehr in den gewohnten Bahnen zu betrachten: Anders denken und nicht mehr einfach weitermachen, weil man es ja immer schon so gemacht hat. Nicht wegsehen, sondern hinterfragen. In seinem jüngsten Beitrag beruft sich Bartonitz auf einen Vortrag von Gary Hamel („Reinventing the Technology of Human Accomplishment“).

Kein Manager sei mehr in der Lage alles zu wissen, was die einzelnen Experten seines Teams sich an Können angeeignet haben, so Hamel. Damit wandelt sich die Rolle des Managers. Hamel fordert einen Paradigmenwechsel im Management, weg von der Schaffung menschlicher Automaten. „Wer den Menschen nur als Automaten betrachtet, verpasst, dass dieser ein in höchstem Maße adaptives Wesen ist, ganz im Gegenteil zu einem hierarchisch organisierten Unternehmen“, schreibt Bartonitz und zitiert den ehemaligen Controller Niels Pfläging:

“Die Zwangsjacke, die sich Unternehmen durch exakte Pläne anziehen, wird immer enger. Doch alle Unternehmen können sich aus ihr befreien.”

Aber wie und mit welchem Personal?

Gefragt sind heute Selbstorganisation statt Hierarchie, Möglichkeitsräume statt pseudoexakter Planungen, Fehlerfreundlichkeit statt Standardisierung. Kein Befehl und Gehorsam, sondern Abschaffung der Ziegelstein-Diktatur in den Organisationen von Wirtschaft und Staat. Und was für ein Nachwuchspersonal kommt von den Universitäten im Geiste von Bologna? Akademische Automaten.

„Die heutige Universität ist keine ‚universitas‘ mehr, sondern eine Summe von Fachhochschulen“, kritisiert der Medienphilosoph Norbert Bolz in dem von ihm herausgegebenen Sammelband „Wer hat Angst vor der Philosophie?“ (erschienen im Wilhelm Fink Verlag).

Das verwaltete Studium finde eifrige Verfechter mittlerweile auch bei den Studenten, um deren „Zurichtung“ es den Bildungsplanern geht. Die Angst um den Job rufe nach handfestem, abfragbarem Wissen. Unreglementiertes Denken passt nicht in die Doktrin des Bologna-Prozesses. Es lässt sich nicht in das Schema von Ranglisten, Test und Training pressen. Antik war die Muße, modern ist die Verbeamtung des Denkens. Die Universitätslehre vermittelte Sinn, der Bologna-Prozess ruft nach einer operationalen Praxis.

Dekanate mutieren zum Service-Center. Lehre und Forschung werden durch Module und Projekte ersetzt. Den Professoren und Studenten wird heute das Apportieren beigebracht.

„Wer sind die Gewinner des Bologna-Prozesses? Zu den Gewinnern gehören die Verwaltung, deren Bedeutung ins Groteske angewachsen ist, und die Wissenschaftsfunktionäre in den Gremien“, bemerkt Bolz.

Gewinner seien aber auch die Professoren, die lieber Lehrer sein möchten, und die Studenten, die lieber Schüler bleiben wollen. Es ist der Verrat an der akademischen Freiheit des Denkens. In den Wissenschaftsfabriken mit ihren Sprachcodes und Trainingscamps wird nicht der Regelbruch kultiviert, sondern die Stoff-Bulimie: Reinschaufeln, auskotzen, vergessen. Wissenschaft funktioniert wie ein Jahrmarktsverkäufer:

Professor Zerr: Schöner Scheitern statt Benchmarking

„Hier noch eine Leberwurst und eine Salami – einen Büchsenöffner gibt es noch kostenlos dazu. Ein bisschen Jura, Mathe und Rechnungswesen. Regeln, Regeln, Regeln und das ist es dann“, kritisiert Professor Michael Zerr, Präsident der Karlshochschule.

Studenten sollten lernen, Dinge in Frage zu stellen, beispielsweise über den Sinn des Controllings.

„In erster Linie handelt es sich um eine Inszenierung von Rationalität. Unsere Studenten beschäftigen sich damit, wie man eine kalkulatorische Wirklichkeit inszeniert, welche Rituale sich im Management abspielen, welche Metaphern verwendet werden, um in einer Organisation Mikropolitik zu machen. Das ist das Programm unserer Universität“, sagt Zerr.

Es wäre nach Ansicht des IT-Personalexperten Udo Nadolski schon ein großer Fortschritt, wenn sich Manager, Politiker und Wissenschaftler von ihrer Rationalitätsgläubigkeit verabschieden und stärker mit dem Unerwarteten kalkulieren würden.

„Den von Joseph A. Schumpeter geprägten Begriff der kreativen Zerstörung muss man in seinen Konsequenzen auch zu Ende denken. Wer gesellschaftliche und wirtschaftliche Phänomene nur in Aggregatzuständen wahrnimmt und berechnet, vernachlässigt die Wirkungen von Innovationsrevolutionen. Technologien und Geschäftsmethoden können über Nacht wertlos werden. Etablierte Branchen gehen unter und neue entstehen“, erläutert Nadolski, Geschäftsführer von Harvey Nash.

Überall dort, wo Talent, Technik und Toleranz aufeinandertreffen, könnten richtige disruptive Innovationen oder Sprunginnovationen entstehen, meint der Zukunftsforscher Dr. Karlheinz Steinmüller.

Was notwendig sei, um ein günstiges Klima für Störer und Innovatoren zu schaffen, sei eine Kultur des Karnevals, Narrentums und des Scheiterns. Das gelte für Wirtschaft, Politik, Wissenschaft, Management und Medien. Mit dem Bologna-Prozess erzeugen wir das Gegenteil. Da sind wir schon mitten in der Thematik der zweiten Session des Blogger Camps am Mittwoch von 19,30 bis 20,00 Uhr: Von der zerstörerischen Kraft der digitalen Dauerdisruption. Teilnehmer: Katja Andes (Ideacamp UG), Lars Mensel (The European-Debattenmagazin), Dirk Elsner (blicklog), Andreas Klug (Ityx), Hannes Schleeh und Heinrich Rudolf Bruns. Moderation: Meine Wenigkeit.

Regelbrecher statt akademische Automaten wird auch das Thema meiner Mittwochskolumne für das Debattenmagazin „The European“ sein. Statements bis morgen (spätestens bis 14 Uhr) wieder hoch willkommen.

Liquid Democracy für die Wirtschaftswelt keine Utopie: Der Außendruck steigt

Riecht das Thema Liquid Democracy in Unternehmen nun nach Basisdemokratie ohne Entscheidungsfindung und täglicher Vollversammlung im Labermodus? Mitnichten. Was ich privat als Konsument und Wähler an Möglichkeiten zur Partizipation im Social Web wahrnehme, möchte ich irgendwann auch am Arbeitsplatz erleben. Wie beim Trend „Bring Your Own Device“. Deshalb wird der Druck auf Unternehmen steigen, so bwl zwei null-Blogger Matthias Schwenk, die Technologien der Beteiligung auch intern einzusetzen. Mit Romantik und Utopie hat das nichts zu tun.

Mit den Möglichkeiten der Vernetzungseffekte erhöht sich die Wahrscheinlichkeit in Organisationen enorm, auf kluge und weise Menschen zu stoßen, die einen hilfreichen Beitrag zu einem Thema leisten können. Es reduziert die Möglichkeiten der Meinungsdiktatoren in Wirtschaft, Politik und Medien, Wissen zu horten und über monopolisiertes Wissen Macht auszuüben.

Das Ganze ist unglaublich anstrengend. Wer sich gegen die vielen Stimmen im Netz durchsetzen will, muss sehr gute Argumente haben und ein wahrer Überzeugungskünstler sein beim Bohren dicker Bretter, wie es Max Weber formuliert hat – intern wie extern.

Nachzulesen in meiner Kolumne für „The European“.

Mehr zu diesem Thema in meiner morgigen Kolumne für den Fachdienst Service Insiders.

Die Schirrmacher-Google-Suchmaschinen-Debatte: Eure Meinung?

Auf Google+ wird seit gestern eine höchst unterhaltsame und niveauvolle Debatte über die Thesen von Frank Schirrmacher geführt (mit Beteiligung von Schirrmacher), die er am Montag in der FAZ publizierte: Digitales Gedächtnis – Wir brauchen eine europäische Suchmaschine.

Hier ein Beitrag, den ich gepostet habe: Eine Passage im Text von Schirrmacher ist doch höchst erfreulich: „Das Netz, das wird immer deutlicher, folgt den Regeln des talmudischen Kommentars, nicht denen des wissenschaftlichen. Offenbar nehmen wir Quellen, auch nachrichtliche, zunehmend als Glaubensinhalte wahr, nicht mehr als Fakten. Es könnte so sein, aber es könnte auch anders sein. Die alltägliche Wissenssozialisation beruht heute auf der Annahme: Die Fakten stimmen nicht mehr, jedenfalls stimmen sie nicht sehr lange – nicht deshalb, weil sie gelogen wären (auch das kommt vor), sondern weil sie schon in der nächsten Minute ganz anders sein können. Das Netz – in seinem gegenwärtigen Stadium – verhandelt deshalb vor allem das, was die Talmudisten ‚Lehrmeinungen‘ nannten – Meinungen, nicht Orthodoxien. Das führt allerdings oft dazu, dass sich auf den labyrinthischen Wegen der Deutungen, des unvollständigen Lesens (etwa der Pressemitteilung, wie im vorliegenden Fall, statt des Textes) die Ursprungsquelle bis zur Unkenntlichkeit entstellt.“ Die Schlussfolgerung im letzten Satz halte ich für falsch. Richtig beobachtet ist die sinkende Relevanz der Orthodoxien. Da braucht man nicht zum Talmud greifen. Niklas Luhmann reicht auch: Mit der Computerkommunikation, so Luhmann, wird die Eingabe von Daten und das Abrufen von Informationen soweit getrennt, dass keinerlei Identität mehr besteht. Wer etwas eingibt, weiß nicht, was auf der anderen Seite entnommen wird. Die Autorität der Quelle wird entbehrlich, sie wird durch Technik annulliert und ersetzt durch die Unbekanntheit der Quelle.

Ebenso entfällt die Möglichkeit, die Absicht einer Mitteilung zu erkennen und daraus Verdacht zu nähren oder sonstige Schlüsse zu ziehen, die zur Annahme oder Ablehnung der Kommunikation führen könnten. Die moderne Computertechnik greift die Autorität der Experten an. Fast jeder hat mittlerweile die Möglichkeit, die Aussagen von Wissenschaftlern, Journalisten, Unternehmern oder Politikern am eigenen Computer zu überprüfen. Die Art und Weise, wie Wissen in den Computer kommt, lässt sich zwar schwer überprüfen. Sie lässt sich aber jedenfalls nicht mehr in Autorität ummünzen. Und genau das treibt einige Denker, Einpeitscher und Debatten-Dompteure an die Decke. Man braucht das Internet nicht überhöhen oder kultisch in Web 2.0-Ideologie gießen.

Man muss das Internet auch nicht heilig sprechen. Wo die kulturellen Katastrophen der Computer-Kommunikation enden werden, kann kaum jemand vorhersehen oder beeinflussen. Das macht das Ganze ja so reizvoll. Das Problem des unvollständigen oder kursorischen Lesens kann vom Luhmann-Szenario nicht abgeleitet werden. Das Problem hatte schon Herder. Jeder Leser ist eben auch ein Nicht-Leser. Herder beschreibt sich als trockener Gelehrter, als ein totes, künstliches System von Wissensbeständen. Er selbst sei „ein Tinenfaß von gelehrter Schriftstellerei“. Mit 24 ist Herder so angefüllt von Wissen, dass er dieses als Ballast beklagt.

Er entwickelt deshalb eine Kulturtechnik der kursorischen Lektüre. Er wird zum Läufer, zum Cursor, der im virtuellen Raum der Gelehrtenbibliothek zwischen Texten durcheilt und in dieser schnellen Bewegung neue Querverbindungen schafft. Es sei ein methodisches Verfahren, das ihm die Lizenz zum Flüchtigen gibt. In der so genannten „percursio“- im Durchlauf – darf aufgezählt und angehäuft werden, ohne dass es jeweils einer expliziten Behandlung der einzelnen Elemente bedarf. Herder praktiziert die gelehrte Lizenz, Materialmengen „aufs Geratewohl“ zu durcheilen. Die richtige Ordnung ist dabei zweitrangig. Die Sylvae wird definiert als Sammlung von schnell niedergeschriebenen Texten. Man schreibt nicht akademisch korrekt oder pedantisch genau, sondern aus dem Stegreif. Man formuliert aus dem Schwung heraus. Seine Lektüre ist nicht mehr festgelegt auf einen ursprünglichen oder autoritätsfixierten Wortlaut. Herders Suchläufe kennen keinen Abschluss. Das Universalarchiv ist uneinholbar. Eine beständige Lektüre der Menschheitsschriften ist unmöglich. „Alles“ ist nicht zu lesen, zu kennen, zu wissen. Es reicht nur zu Verweisen und Fundorten. Entscheidend ist die Zirkulation der Daten, der Datenstrom, der keinen Anfang und kein Ende hat, der neue Routen und Entdeckungen zulässt. Kanonische Wissensbestände müssen durch intelligente Suchroutinen ersetzt werden.

Und dann landen wir wieder bei Google und den Warnungen von Schirrmacher, die er schon in seinem Buch „Payback“ in etwas anderer Form artikuliert hat. Die Vernetzung von Maschinen und Menschen zu Bedingungen, die von der Maschine diktiert werden. Es ist die Unterwelt der Benutzeroberfläche, die den FAZ-Herausgeber wohl weiter umtreibt. Maschinenräume im Silicon Valley, die ein Nichtinformatiker niemals zu sehen bekommt. Dort würden unsere digitalen Doppelgänger gebaut. Am Ende mündet das Ganze in Maschinen-Paternalismus – das kann allerdings unter privater und auch staatlicher Regie eintreten. Selbst unter dem Regime einer europäischen Suchmaschine. Mich würde ein Blick in den Maschinenraum von Google auch brennend interessieren. Vielleicht eher eine Aufgabe für Wikileaks!

Darauf antwortete Schirrmacher: Gunnar Sohn et al, leider in Eile: 1. Wir wissen n i c h t was Google weiss. Oder finden Sie irgendwo im Netz die Ergebnisse der minütlichen Analytik und ihrer Hochrechnung, jenseits der meistgesuchten Suchbegriffe. Das aber ist das Wissen des 21.Jhrdts.

2. „Alles“ ist nicht zu lesen, zu kennen, zu wissen.“ Das ist ja gerade nicht das Neue! Das wussten ja gerade die Enzyklopädisten am besten. Das Neue ist doch umgekehrt, das der imaginäre Vertrag, an den alle glauben, besagt das „alles“ zu wissen ist, was ist und kommuniziert. Tertium non datur. Man exisitert nicht, wenn man nicht im Netz exisitert, hiess das ja mal so schön. Konsequent entstehen erstmals seit der Reformation wieder Institutionen der Allwissenheit, die ihre Priester in die Marketing- und Personalabteiungen entsenden.

Meine Replik: Zu. 1. Das ist doch profan. Natürlich wissen wir nicht, was die Mountain View-Boys wissen. Sonst könnten wir direkt morgen ein Google Plus Plus gründen. Die wären schön blöd, ihre Betriebsgeheimnisse zu lüften. Die Problematik entsteht in der Tat, wenn Menschen über Maschinen und Algorithmen anfangen, zwischen gut und böse, richtig und falsch zu befinden.

2. Ihre Gegenstrategie einer europäischen Suchmaschine kann genauso in die Hose gehen und zu Verwerfungen führen. Entscheidend ist die Vielfalt der Möglichkeiten, Wissen zu generieren und selber zu publizieren. Wenn Sie nun insinuieren, hier gäbe es nur drei amerikanische Konzerne, die das Netzgeschäft dominieren, dann müssen Sie aber auch erwähnen, dass die großen Drei sich bis auf das Messer bekämpfen. Da gibt es keinen Gleichklang. Im Social Web erschien bis vor drei Wochen Google noch als der große Verlierer und man sprach von der Dominanz des Social Graph, der wichtiger sei als die Maschinen-Intelligenz von Google. Zur Zeit schaut Zuckerberg ziemlich blöd aus der Wäsche. Alles kann sich sehr schnell drehen. Entscheidend ist wohl die Tatsache, dass sich im Netz dauerhaft kein Monolith etablieren kann.

Schirrmacher: Nein, nicht profan, sondern, um im Bild zu bleiben, sakral. Sie reden vom materiellen Geschäftsgeheimnis von Google. In der Tat: wie wichtig das ist zeigt der Patentthriller um die Erfindung des Telefons. In der Tat: das ist profan.

Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörte gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das ganze dann als sein Privateigentum weiterverkauft hätte. Wenn das:

http://online.wsj.com/article/SB10001424052748704547604576263261679848814.html

schon möglich ist, ohne verbale Kommunikation und bei nur 2000 Menschen, was ist dann heute insgesamt möglich? Das wüsste ich gern, mehr nicht. Gegen das Sakrale hilft nur Aufklärung – das würde schon reichen, hat nämlich auch in der Vergangenheit schon geholfen.

Darauf antwortete ich: Was ist denn zur Zeit der Ausfluss dieser Analysen unserer digitalen Lebensspuren? Personalisierte Werbung und personalisierte Services, not more. Bislang also höchst profane Dinge.

Und da stoßen wir doch zum Kern der Debatte mit der Aussage von Schirrmacher: Das wirkliche Geheimnis ist nicht der Algorithmus, der uns füttert, sondern den wir füttern. Was wohl gewesen wäre, wenn Bells Erfindung alle Telefonate aufgezeichnet hätte, analysiert hätte, Stichwörte gefiltert hätte, Rückschlüsse auf Ort, Zeitpunkt und Stimmfärbung getroffen hätte und das ganze dann als sein Privateigentum weiterverkauft hätte.

Das würde ich gerne in meiner Montagskolumne für The European aufgreifen. Was haltet Ihr von den Schirrmacher-Thesen?

Frank Schirrmacher braucht eine europäische Suchmaschine: Der Chirac des Tages


Frank Schirrmacher von der FAZ macht sich Sorgen über europäische Gehirne. Unser Wissen wird zunehmend ausgelagert und zwar in die Hände amerikanischer Konzerne. „Nach dem Stand der Dinge liegt das wirkliche Wissen heute in der Hand von einem, mit Apple und Facebook maximal drei Mega-Konzernen. Was heißt es, dass wir von dem virtuellen Bibliotheksdirektor niemals erfahren, was eigentlich das relevante Wissen der Jetztzeit ist: welche Schlüsse er aus unseren Lektüren, unserem Verhalten, unserem Konsum, unserem Leben zieht? Was er weiß? Vielleicht müssen wir uns Gott als diesen Bibliothekdirektor vorstellen“, schreibt Schirrmacher.

Während die EU Milliarden ausgibt, um mit Galileo das GPS nocheinmal nachzubauen, sei die Entwicklung einer europäischen Suchmaschine schon im ersten Anlauf gescheitert (siehe unten, gs). „China, besorgt um seine Deutungshoheit, hat Baidu. Man muss das Werkzeug Google, mit dem wir heute alle arbeiten, nicht perhorreszieren. Aber eine europäische, nicht privatwirtschaftliche Suchmaschine, die keiner politischen oder ökonomischen Kontrolle unterliegt, ist vielleicht das wichtigste technologische Projekt der Gegenwart. Der Chaos Computer Club wäre ihr TÜV. Wenn wir diese Maschine nicht bauen, werden wir uns eines Tages vielleicht an uns selbst nur in einem einzigen Moment erinnern: wenn wir zum ersten Mal unser von der Videokamera aufgezeichnetes Bild auf dem Computerschirm sehen“, so die Sorgen des Neuro-Feuilletonisten. Hier endet der langamtige Exkurs, der so verheißungsvoll begonnen hatte. Was man nachschlagen kann, brauche man nicht im Gedächtnis zu behalten. Nach dieser alten Lehrerweisheit funktioniere auch Google. „Nur dass der Stoff von Google unser Leben ist“. Alles schön und gut. Wer in Europa soll diese Maschine bauen? Und der Chaos Computer Club soll als TÜV für ein europäisches Vorhaben fungieren – bezahlt mit Steuergeldern?

Die europäische Antwort auf Google sollte Quaero sein – doch das vollmundig rausposaunte deutsch-französische Prestigeprojekt ist kläglich in die Hose gegangen. Wie soll also etwas in Europa gelingen, was vor fünf Jahren schon nicht klappte? Übrig geblieben ist das deutsche Forschungsprogramm Theseus – auch da ist bislang der Durchbruch nicht gelungen.

Der frühere französische Staatspräsident Chirac startete 2006 das Projekt Quaero mit großem Getöse, um die erste „wahre multimediale Suchmaschine“ in Europa auf die Beine zu stellen. Es sollte nicht nur Texte, sondern auch Musik oder Bilder finden. Die Suchergebnisse sollten auf Computern, Mobiltelefonen und Fernsehen in mehreren Sprachen angezeigt werden können. In den Internetforen und Branchenkreisen wurde das Projekt von Anfang an skeptisch gesehen, denn bei Google arbeiten mehrere tausend Softwareentwickler an der stetigen Verbesserung der Suchmaschine. Schon damals war klar, dass man den Vorsprung von Google mit einem staatlich geförderten Projekt nicht einholen könne. Damals schrieb ich in einem Artikel:

Keine Gesellschaft verfügt über eine grössere Rechenleistung als Google mit seinem Netzwerk gewöhnlicher, doch aufgemotzter PCs. In einem Zeitalter der hoch spezialisierten Arbeit montiert Google jeden PC seines mächtigen Netzwerks in sicheren Anlagen, die kein Aussenseiter betreten darf, einschliesslich der Besucher des Googleplex, die glauben, alles gesehen zu haben. Der schiere Umfang der Rechenoperationen sorgt dafür, dass dieses Vorgehen kostengünstiger und qualitativ hochwertiger ist als der Kauf massgefertigter Computer bei einem anderen Hersteller. Die massgeschneiderten PCs arbeiten zusammen und führen Suchaktionen rasch durch, indem sie Anfragen in winzige Komponenten zerlegen. Diese Teile werden gleichzeitig verarbeitet, indem man sie mit im Voraus indizierten und aufbereiteten Kopien des Internet vergleicht.

Quaero plante Projekte, die sich die Google-Entwicklerteams schon längst auf die Fahnen geschrieben haben. Schon in naher Zukunft werde sich die ursprüngliche Suche im Web über den PC auf alle anderen Produkte ausbreiten.

Technologische Innovationen funktionieren eben nicht auf dem Niveau von Kommissionen, Räten oder Komitees. Sie entstehen auch nicht durch Proklamationen im Feuilleton.

Ähnlich erhellend sind die Schirrmacher-Mondphasen zur Rettung der Qualitätspresse: „Es könnte sein, dass Zeitungen und Zeitschriften und die seriösen Nachrichtensendungen eine ganz andere Zukunft haben. Sie wären das letzte verbliebene Kommunikationsmittel, die in einer elektronischen Welt die Zeit biologisch organisieren: gleichsam mit Aufgang und Untergang der Sonne. Oder mit den Mondphasen – wenn es um Wochenpublikationen geht -, die wir uns in den Begriff der ‚Woche‘ übersetzt haben. Der Markt für diese Exklusivität von Zeit wird wachsen, nicht schrumpfen, wenn die Zeit der Narkose vorbei ist.“ Alles klar?

Mein Vortrag auf der Informare im Mai: Deutschland, wo sind Deine Kopisten und Kombinierer? Warum wir für Innovationen mehr Imitationen brauchen

Die Informare beschäftigt sich im Wissenschaftsjahr 2011 in Berlin vom 3. bis 5. Mai mit der Informationskompetenz. Hier soll die wissenschaftliche Konferenz mit einer Unkonferenz nach Art eines BarCamps verbunden werden. Dazu gibt es Poster-Sessions, Workshops, die Ausstellung „Die Kunst der Information“ und eine „lange Nacht der Suchmaschinen“. „Mit diesen sechs Elementen thematisiert die Informare die drängenden technischen, organisatorischen, politischen und gesellschaftlichen Fragen beim Umgang mit digitaler Information und zeigt auf, was es zur Lösung schon alles gibt. Veranstaltungsort ist das legendäre Café ‚Moskau‘ an der Karl-Marx-Allee in Berlin-Mitte. Die Frankfurter Buchmesse hat die Schirmherrschaft für die Informare! übernommen“, so die Ankündigung der Veranstalter. „Alle Welt redet über Medienkompetenz. Was wir aber noch mehr brauchen, ist Informationskompetenz“, so der wissenschaftliche Verleger Arnoud de Kemp, Initiator der Informare.

Es geht um Kompetenz zur Bereitstellung, Beschaffung und Bewertung von Information mit elektronischen Medien. Die Informare! wird zeigen, was es in der Wissenschaft, in der Praxis und in der Arbeitswelt an professionellen Angeboten, Lösungen, Ansätzen und Ideen gibt. Viele Vortragsthemen und Ausstellungsprodukte werden in Hands-on und Hands-off Work-shops vertieft.

Ich selbst halte auch einen kleinen Vortrag. Hier das Thema und die ersten Überlegungen:

Deutschland, wo sind Deine Kopisten und Kombinierer? Warum wir für Innovationen mehr Imitationen brauchen

Ist Steve Jobs mit seinen Innovationen ein kreativer Zerstörer und begnadeter Erfinder? In Wahrheit ist er ein Imitator und Meister der Kombinatorik. Aus altbekannten Techniken wie W-LAN, MP3 und Bewegungssensoren schuf Apple neue Geräte mit Kultfaktor. Und auch das benutzerfreundliche Design ist keine Kreation aus Cupertino. Der Steve Jobs-Konzern folgt nur konsequent dem Less-and-More-Diktum des genialen Industriedesigners Dieter Rams, der in den 1960er und 1970er Jahre bahnbrechende Produkte für die Braun AG schuf. Wir sollten in Deutschland endlich lernen, die besseren Nachahmer zu werden. Die schnellen Zweiten machen das Rennen, nicht die Ersten – zumindest in der Wirtschaft. Steve Jobs ist allerdings nicht nur ein kluger Unternehmer im Sinne von Joseph Schumpeter. Nun will ich hier nicht wieder die inflationäre verwendete Phrase vom „kreativen Zerstörer“ verwenden. In dem Werk „Theorie der wirtschaftlichen Entwicklung“ von 1912 steht schon einiges, was zu meinem Thema passt: „Nur dann erfüllt er (der Unternehmer) die wesentliche Funktion eines solchen, wenn er neue Kombinationen realisiert, also vor allem, wenn er die Unternehmung gründet, aber auch, wenn er ihren Produktionsprozess ändert, ihr neue Märkte erschließt, in einen direkten Kampf mit Konkurrenten eintritt“, schreibt Schumpeter.

Innovatives Unternehmertum unterscheidet sich deutlich vom Routineunternehmer: „Es ist das Anwenden dessen, was man gelernt hat, das Arbeiten auf den überkommenen Grundlagen, das Tun dessen, was alle tun. Auf diese Art wird nie ‚Neues‘ geschaffen, kommt es zu keiner eigenen Entwicklung jedes Gebietes, gibt es nur passives Anpassen und Konsequenzenziehen aus Daten.“ Kopieren alleine reicht also nicht.

Und generell gilt wohl die Entwicklungslogik, der sich auch Apple oder Google nicht entziehen können: Der Zwerg von gestern ist der Riese von heute und der Greis von morgen.

Über Anregungen für meinen Vortrag würde ich mich sehr freuen. Bis zum Mai werde ich das Thema weiterentwickeln und noch ein paar Beiträge schreiben. Gerne auch Interviews.

Siehe auch:
Warum ist es besser, Zweiter zu sein? Innovationsführerschaft gilt als Überlebensfrage für Unternehmen. Zu Unrecht.

Webciety-Panels auf der Cebit: Livestream zu den Expertengesprächen

image_galleryZum Livestream. Bislang hatten die noch nicht sehr viele Zuschauer.

Sascha Lobo hat gegenüber tagesschau.de erklärt, um was es geht.

Studie: Kollaborieren oder kollabieren? – Organisationen im Netzwerkstress

„Von einem Ameisenhaufen können wir mehr über Organisationsformen und Prozesse lernen als durch Rechenmodelle“, postulierte der Internet-Pionier Kevin Kelly schon vor rund 15 Jahren. Die Wirtschaft ist ein komplexes, dynamisches System: Alle Ereignisse werden permanent durch das Zusammenspiel von Ordnung und Chaos, Gesetz und Zufall, Freiheit und Strukturierung beeinflusst. Rationale Berechnung zukünftiger Ereignisse, letzte Gewissheit für Voraussagen sind nicht möglich – Zukunft ist nicht berechenbar – was man an der Finanzkrise schmerzlich erkennt. Die zukünftige Gestalt von Unternehmen und Großorganisationen sollte nach Auffassung von Kelly daher folgende Eigenschaften haben: verteilt, dezentralisiert, auf Zusammenarbeit bedacht und anpassungsfähig. „Ein sehr großes globales Unternehmen, das ganz die Form eines Netzwerks annehmen würde, kann als ein System von Zellen mit jeweils einem Dutzend Personen angesehen werden, das folgendes umfasst: Kleinfabriken mit einem Dutzend Leuten, eine Zentrale mit einem Stab von zwölf Menschen, Profit Centers, die von acht Personen geleitet werden, und Zuliefererbetriebe, bei denen zehn Menschen arbeiten“, empfiehlt Kelly.

Aber wie organisiert man Netzwerke? „Die Zunahme vernetzter und kooperativer Organisationen, die man unter dem Begriff ‚Team Collaboration’ zusammen fassen kann, stellt Führungskräfte vor neue Herausforderungen“, so Karl-Heinz Land, Chairman der Düsseldorfer Beratungsfirma Mind. Das Unternehmen hat in Zusammenarbeit mit den Agenturen Wort + Welt und Projektkomplex.net die Studie „Kollaborieren oder Kollabieren? Team Collaboration in der Enterprise 2.0“ erstellt. Viele Organisationen würden unter Netzwerkstress leiden: Überforderung der Mitarbeiter, Projektverzögerungen durch „Entscheidungsstaus“ oder technische Pannen. Mangelhafte Soft- oder Hardwarekomponenten können erschwerend hinzukommen: „Die massenhafte Bearbeitung von kollaborativen und kommunikativen Aufgaben hält mittlerweile bis zu 30 Prozent des Managements von der Erledigung der wichtigsten Dinge ab“, Studienautor Sebastian Paulke, Geschäftsführer von Wort + Welt.

In einer Online-Befragung, an der über 150 Managern aus verschiedenen Wirtschaftsbranchen teilnahmen, geht die Studie der Frage nach, ob sich die aktuellen IT-Werkzeuge für die Projektarbeit eignen. Mind-Geschäftsführer Bernhard Steimel sieht seine Einschätzung durch die Umfrage-Ergebnisse bestätigt: „Wissensarbeiter fühlen sich von den ihnen zur Verfügung gestellten Arbeitsmitteln nicht ausreichend unterstützt: Für 84 Prozent der befragten Entscheider aus Großunternehmen und Dienstleistungsbranchen wird der Büroalltag stressiger. Die Erledigung der wichtigsten Aufgaben kommt bei 73 Prozent der Befragten zu kurz. Emails, Meetings und unwichtige Aufgaben sind die wichtigsten ‚Zeit-Killer’“. Klassische Kommunikationsplattformen wie MS Outlook, Excel oder Project eigneten sich nur eingeschränkt als Kollaborationstools.

„Auch Intranets und Wikis unterstützen nicht für alle Befragten optimal das Wissensmanagement im Unternehmen. Dokumenten-Management ist in vielen Unternehmen noch ein Fremdwort, nur jedes vierte Unternehmen setzt es ein“, fasst Steimel die Befragungsergebnisse zusammen. „Echte“ Tools für die Kollaboration wie MS Sharepoint werden nur von 29 Prozent der Befragten genutzt. Aber knapp 90 Prozent geben zu Protokoll, dass solche Tools die Zusammenarbeit verbessern könnte. „Sie sollen durch attraktive, intuitive und leicht zu bedienende Nutzerschnittstellen die Informations-, Kommunikations- und Kooperations- sowie Koordinationsprozesse entschlacken, beschleunigen und wertschöpfender gestalten“, erklärt Medienberater Stefan Simons von Projektkomplex.net. Solche Lösungen sollten das Management unterstützen, jeweils den aktuellen, „synchronen“ Projektstatus zu identifizieren, Aufgaben zu verteilen, ihre Erledigung zu verfolgen und das Geleistete zu dokumentieren.

Die Studienautoren argumentieren, dass Unternehmen zugleich neue Organisationskonzepte einführen sollten, damit die neuen Technologien ihre Wirkung voll entfalten können. Dafür sprechen vier „Megatrends“, die bereits „in voller Blüte“ stehen: Die „Demokratisierung“ der Arbeit, die wachsende Bedeutung der Verbraucher für den Unternehmenserfolg, die zunehmende Beschleunigung der Information, Kommunikation, Kooperation sowie Koordination und die sinkende Bedeutung von Unternehmen und „starren“ Organisationen für die volkswirtschaftliche Wertschöpfung. „Starre Strukturen weichen flexiblen Organisationsformen. Der Unternehmenszweck verändert sich radikal. Schon ab 2010 wird man sich mit den Themen kollektive Unternehmensintelligenz, semantische Technologien, nicht-deterministische, ereignisgetriebene Prozesse und Software basierte Antizipation von Marktentwicklungen befassen müssen“, prognostiziert Land. Das sei der eigentliche Kern der Enterprise 2.0-Philosophie. Um fit für die Zukunft zu sein, müssten Unternehmen offen für Open Source-Systemarchitekturen sein, Kompetenzen im permanenten Change Management erwerben und neue projektorientierte Arbeitsformen entwickeln. „Ohne tiefgreifende Wandlungen der Unternehmensorganisation, seiner Prozesse und seiner Kultur nutzen neue Softwaretools und Anwendungen nichts. Im Gegenteil, sie hemmen nur etablierte Betriebsabläufe und werden für die Mitarbeiter zum Stressfaktor“, bestätigt IT-Experte Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Das werde mit der Studienthese von der „Demokratisierung der Arbeit“ gut beschrieben. „Es betrifft sowohl die Arbeit im Unternehmen als auch die Arbeit mit den Kunden. Team-Kollaboration steht gegen rigide Strukturen. Diese Dissonanz erfahren auch häufig große Weltunternehmen, die einerseits auf global einheitliche Strukturen und Prozesse setzen, andererseits aber ihre Mitarbeiter stärker ermächtigen und emanzipieren wollen. Dieser Gegensatz lässt sich nur aufheben, wenn ein irgendeiner Stelle im Unternehmen eine Trennlinie gezogen wird, zwischen globaler Dominanz und lokaler Verantwortung. Ansonsten besteht die Gefahr, dass Team-Kollaboration und seine Anwendungen zu einem noch höheren internen Kommunikations- und Abstimmungsbedarf führen – und zum Zeitkiller werden“, weiß Sprachdialogexperte Pape.

Das ganze Thema sei in hohem Maße eine Frage der Unternehmenskultur. Baut die Unternehmenskultur auf einem hohen Maß an lokaler Selbständigkeit und Verantwortung auf, sei das kooperative Organisationsmodell schon inhärent vorhanden, und neue Kommunikations- und Informationsaustauschprozesse könnten alte Prozesse und Anwendungen ersetzen. „Klein- und mittelständische Unternehmen haben hier grundsätzliche Vorteile, wenn gleichzeitig eine ‚Unternehmenskultur 2.0’ vorhanden ist“, so das Fazit von Pape.

„Jedes Mal, wenn ein Kunde online geht, wächst sein Service-Anspruch beim Kiosk an der Ecke“

Obwohl die Softwaretechnologie heute alles automatisiert und Routineprozesse abwickelt, sind nach Ansicht des amerikanischen Marketingexperten Don Peppers die meisten Call Center noch zu wenig mit entsprechenden Lösungen ausgestattet – sie sind „unter-automatisiert“:

„Das ist schlecht. Wenn die verfügbare Software aber irgendwann zum Einsatz kommt, passiert Folgendes: Immer mehr Aufgaben und Prozesse, die sich automatisieren lassen, werden online abgewickelt, sie wandern ins Internet. Warum sollte ein Kunde darauf warten, mit jemandem sprechen zu dürfen, wenn er sich auf einer Internet-Seite selber helfen kann? Heute nutzt auch jeder den Geldautomaten und niemand geht mehr an den Geldausgabeschalter zum Bankangestellten. Call Center werden in Zukunft also zunehmend gebraucht, um Ausnahmefälle zu klären, also solche Dinge, die sich im Vorfeld nicht automatisieren lassen, oder Anfragen, die durch das normale Raster fallen“, sagt Peppers im Interview mit der Fachzeitschrift isreport.

Bei den Call Center-Agenten sei deshalb ein gesundes Maß an Urteilsvermögen und Kreativität vonnöten. Man brauche motivierte und entschlussfreudige Mitarbeiter.

„Die Softwaretechnologie kann dabei nur unterstützen. Zukünftig wird es im Call Center weniger Mitarbeiter geben, von denen jeder einzelne aber wichtiger wird“, so der Autor des Buches „Rules to break and laws to follow“ (VCH Wiley-Verlag).

Der steigende Anteil der Automatisierung und die immer intelligenter werdenden Self Service-Angebote werden sich nach Ansicht von Peppers auf die gesamte Wirtschaft auswirken:

„Jedes Mal, wenn ein Kunde online geht und großartigen Kundenservice von Amazon, eBay oder Google bekommt, wächst auch sein Service-Anspruch beim Kiosk an der Ecke.“

Ein Kunde ertrage keinen Verkäufer mehr, der nicht weiß, wo die Ware liegt oder der nicht in seiner Pause gestört werden will.

„Die Exzellenz im klassischen Kundenservice und beim Servicedesign muss in den nächsten Jahren deutlich verbessert werden, sonst werden viele Jobs über die Klinge springen“, prognostiziert Bernhard Steimel, Sprecher der Voice Days.

Der Fachmann für automatische Spracherkennung hält Unternehmen für zukunftsfähig, die komplexe Technik möglichst simpel nutzbar machen, das Plug-and-Play-Prinzip beherrschen, auf Produktästhetik achten und im Kundenservice auf persönliche und individuelle Wünsche eingehen.

„Alles andere läuft über Maschinen besser. Es dauert nicht mehr lange, dann können Automaten auf die Stimmungslage des Benutzers reagieren, einen Griesgram mit Humor freundlich stimmen, den Gestressten zügig bedienen und den Ratsuchenden mit ausführlichen und genauen Informationen versorgen – muffelnde Call Center-Agenten, dümmliche Beratung von der Stange, bürokratische Organisationen, überflutete Wartezimmer beim Onkel Doktor, Terminschlampereien von Kfz-Betrieben, Warteschleifen am Telefon oder genervtes Verkaufspersonal kann sich niemand mehr leisten“, warnt Steimel.

Der Kölner Wissenschaftler Bernd Vorwinkel geht in seinen Analysen sogar noch weiter. Er sieht die künstliche Intelligenz im Alltag und Arbeitsleben unaufhaltsam auf dem Vormarsch.

„Da die künstliche Intelligenz noch nicht über ein eigenes Bewusstsein verfügt, ist sie der menschlichen Arbeitskraft besonders dort überlegen, wo die Tätigkeit auf die Abarbeitung festgelegter Abläufe zurückgeführt werden kann. Damit sind die Bereiche betroffen, in denen keine große Kreativität gefordert wird“, schreibt er in seinem Opus „Maschinen mit Bewusstsein – Wohin führt die künstliche Intelligenz“.

So seien praktisch alle Berufe im Bankenwesen und in der Industrieproduktion im Prinzip schon jetzt durch künstliche Intelligenz ersetzbar. „Selbst bei so anspruchsvollen Tätigkeiten wie der Verwaltung von Aktienfonds haben Computerprogramme in der Regel größeren Erfolg als Menschen…Die Massenproduktion in der Industrie wird schon in naher Zukunft ausschließlich von Computern und Robotern ausgeführt werden können. Auch in der Landwirtschaft werden computergesteuerte Maschinen die Bearbeitung der Nutzflächen bis hin zur Ernte übernehmen“, so die Vorausschau von Vorwinkel. Ähnlich sieht es Steimel:

„Früher brauchte man die Produktion nur auf Masse trimmen, um die Produktivität zu erhöhen. Im Zeitalter der Dienstleistungsökonomie funktioniert das nicht mehr. 70 Prozent der Führungskräfte im öffentlichen Dienst und in der Wirtschaft verbringen ihre Arbeitszeit mit dem Rücken zum Kunden. Das müssen wir umkehren. Heute liegt die Aufgabe darin, im Kundenservice klüger zu arbeiten und sich vom alten Denken des industriekapitalistischen Zeitalters der Massenproduktion zu verabschieden“, fordert Steimel.

Produktivitätssteigerungen könne man bei Dienstleistungen nur über eine Bildungs- und Wissensoffensive erreichen. Wer diese Transformation am besten und schnellsten bewältige, werde das 21. Jahrhundert wirtschaftlich dominieren.

„Das haben viele in unserem Land immer noch nicht begriffen. Erst vor sieben Monaten bescheinigte die OECD dem deutschen Bildungssystem dramatische Mängel. Deutschland war unter 30 Industrienationen abgerutscht von Platz 10 auf Platz 22, viel zu wenig junge Leute studierten. Die heute 45- bis 64-Jährigen weisen bessere Bildungsabschlüsse auf als die 25- bis 34-Jährigen. Der Bildungsstand der Bevölkerung wird in den nächsten Jahrzehnten zum wichtigsten Faktor für Wohlstand und Wirtschaftswachstum“, resümiert Steimel.

Die Autoren Stefan Bonner und Anne Weiss beschreiben den Bildungsabstieg in ihrem Buch „Generation Doof“ noch drastischer. In der jungen Generation gebe es immer mehr geistige Totalschäden: „Grazile Models, deren Gehirn anscheinend so schlank ist wie ihr Körper, und Schüler, die hart auf eine Hartz IV-Karriere hinarbeiten, sind nur die Ausläufer einer großen Intelligenzschmelze. Die Dummheit geht um in Deutschland.“