Ob das Batmobile dabei helfen kann, ist fraglich. Ist halt mein liebstes Sammlerstück von altem Spielzeug, das früher mal mein Kinderzimmer bevölkerte.
Mein Interview mit dem Harvey Nash-Geschäftsführer Udo Nadolski über den sinkenden Einfluss der IT-Chefs in Unternehmen hat ja zu einigen Ausschlägen in den Fachmedien geführt. Hier die kurze Version als Audioaufzeichnung:
Es ist ja schon erstaunlich, dass die Bedeutung der Informationstechnologie für die Arbeitswelt steigt und der der Stellenwert der CIOs sinkt: So schreibt die SZ: „Der technische Fortschritt kennt kein Pardon, und die IT-Firmen sind dank ihrer Produkte Vorreiter in der Arbeitswelt. Erst durch die neuen Kommunikationsmittel ist Mobilität effizient geworden. Während die Erreichbarkeit früher dort vorbei war, wo das Telefonkabel endete, spielt dies keine Rolle mehr“.
Einfache industrielle Arbeiten werden in Deutschland kaum noch nachgefragt. Entsprechend hoch müsste die Bedeutung der IT-Chefs in den Unternehmen sein, da die postindustrielle Gesellschaft ihre Innovationen und ihren Fortschritt zunehmend aus der Informationstechnologie bezieht. Das Gegenteil ist jedoch der Fall, wie eine weltweite CIO-Umfrage des Beratungshauses Harvey Nash belegt: „67 Prozent der befragten CIOs geben zu Protokoll, dass das Innovationspotenzial der IT nicht abgerufen wird. Die Relevanz der CIOs hat in den vergangenen Jahren gelitten. Die IT-Chefs werden zu Dienstleistern in der eigenen Organisation degradiert. Besonders während der Rezession ist die Zahl der CIOs, die direkt an den Vorstandschef berichten, drastisch zurückgegangen. So langsam kehrt sich dieser Trend um. Auch von den CIOs werden in den nächsten Jahren verstärkt wieder Innovationen für das Kerngeschäft gefordert. Das wandelt sich allerdings nur sehr langsamt“, so Udo Nadolski, Geschäftsführer von Harvey Nash in Düsseldorf. Der komplette Artikel über das Nadolski-Interview ist in Service Insiders erschienen.Aber einen wichtigen Punkt möchte ich an dieser Stelle hervorheben, der sich mit der Schuld der IT-Industrie beschäftigt:
Die Anbieter von Informationstechnologie seien an dieser Entwicklung nicht ganz unschuldig, sagte mir Nadolski in dem Telefoninterview. Es gehe selten um die Kernthemen der Anwender, sondern fast nur um so genannte Prozessoptimierung, Kosteneffizienz und Einsparpotenziale. „Die IT-Branche versucht, ihre eigenen Businessmodelle durchzusetzen und ist sehr selbstverliebt, wenn dem CIO im Anwenderunternehmen souffliert wird, was interessant und wichtig ist“, kritisiert der IT-Kenner Nadolski. Als Beispiel führt er den inflationär von der IT-Industrie verwendeten Begriff „Unified Communications“ an. Das werde als das glückseligmachende Medium der Zukunft angepriesen. Viele CIOs seien auf diesen Zug aufgesprungen und propagieren das im eigenen Unternehmen, ohne aber den Tauglichkeitstest gemacht zu haben. Die IT-Anbieter seien also an der Degradierung der CIOs nicht ganz unschuldig. IT-Chefs sollten vielleicht weniger auf diese Einflüsterungen hören, empfiehlt der Harvey Nash-Chef.
Bingo! Das habe ich im vergangenen Jahr in einer Titelgeschichte für die absatzwirtschaft beleuchtet: absatzwirtschaft März 2010
„Obsessionen für technische Perfektion sind ja schön und gut. Am Ende des Tages ist der Markterfolg entscheidend und nicht die Selbstverliebtheit von Ingenieuren. In vielen IT-Unternehmen sind Marketing, Management und Führung immer noch viel zu herstellerorientiert“, kritisiert Peter B. Záboji vom After Sales-Unternehmen Bitronic. Wenn sich Bastler, Ingenieure, Programmierer etwas ausdenken, seien sie ausschließlich an den Eigenschaften ihrer Spielzeuge interessiert. „Der mögliche Benutzer ist für sie nur ein störender Ignorant“, so die Erkenntnis des keinesfalls technikfeindlichen Schriftstellers Hans Magnus Enzensberger. Was sich in Büros und Wohnzimmern abspiele, sei grotesk. Rechner, Drucker, Netzgeräte, Scanner und Brenner würden jeweils das Studium einer hundertseitigen Betriebsanleitung erfordern. Vielleicht liege es an den berufsbedingten Schauklappen nach dem Motto: Chacun devient idiot à sa façon – jeder macht sich auf seine Weise zum Idioten.
Hier noch ein paar Veröffentlichungsergebnisse der Service Insiders-Meldung:
Christian Halemba von der Unternehmensberatung Mind Business ist ein Datenmensch und von der Frage getrieben, wie man aus Daten sinnvolles Wissen generieren kann. Das Internet erweist sich dabei als höchst ergiebige Quelle für die Marktforschung, so Halemba in seinem Vortrag beim Marketing Solution-Forum in Düsseldorf. Die Kommunikation im Netz habe weitreichende Konsequenzen für Unternehmen, wenn es um Produkte und Dienstleistungen geht. Auch der Einkauf im stationären Einzelhandel werde durch die Vorabinformationen im Internet stark beeinflusst. „Exemplarisch kann man das in der Branche für Telekommunikation erkennen. So beziehen 90 Prozent der Konsumenten, wenn sie ein Handy brauchen oder einen Mobilfunkvertrag, ihre Informationen aus dem Internet“, sagte Halemba.
Vor 30 oder 40 Jahren zog man Quellen heran wie die ZDF-Sendung WiSo, Stiftung Warentest oder redaktionelle Beiträge. „Die standen in den Umfragen der Marktforschung immer ganz oben und wurden als glaubwürdig eingestuft. An zweiter Stelle stand das soziale Umfeld. Freunde, Bekannte, Familie, Arbeitskollegen oder Experten. Danach kamen die Händler, von denen man immer noch annahm, dass sie ein relativ neutrales Statement zu Produkten und Dienstleistungen abgeben. Weit zurück lag die klassische Werbung. Das war Jahrzehnte lang so. In den vergangenen Jahren hat sich das Bild völlig verändert. Direkt an die Spitze hat sich das Internet gesetzt und erreicht die gleiche Größenordnung, für die die anderen Quellen Jahrzehnte benötigt haben. Das Netz ist bei der Informationsbeschaffung und beim Vertrauensvorsprung auf dem gleichen Level wie Freunde, Bekannte, Testzeitschriften und redaktionelle Beiträge. Eine besondere Rolle spielen dabei Foren. Was dort steht, wird als authentisch wahrgenommen und spielt eine erhebliche Rolle bei der Entscheidungsfindung“, erklärte der Mind Business-Berater.
Das sei erstaunlich vor dem Hintergrund der 90-9-1-Regel. Was man im Internet über Monitoring-Tools analysieren könne, ist nicht repräsentativ. „Mit rund einem Prozent gibt es ganz wenige, die regelmäßig etwas schreiben. Teilweise sogar mehrere tausend Beiträge pro Jahr. Dann gibt es eine zweite Gruppe mit 9 Prozent, die gelegentlich im Internet publizieren. Die allermeisten schreiben nie etwas. 90 Prozent der Internetnutzer schreiben nie etwas, aber sie lesen und glauben das, was sie lesen“, so Halemba.
Social Media-Monitoring leiste das Zuhören, Draufschauen und Interpretieren – das kennt man von der klassischen Marktforschung. „Bislang wird noch sehr wenig für Web-Analysetools ausgegeben. An die traditionellen Anbieter werden jährlich Aufträge in der Größenordnung von zwei Milliarden Euro vergeben. Social Media-Monitoring kommt bislang nur auf rund 50 Millionen Euro. Diese Daten werden von Marktforschern kaum genutzt. Eher von PR-, Personal- oder Rechtsabteilungen. So kann man beispielsweise Markenrechtsverletzungen sehr einfach über das Internet recherchieren“, weiß Halemba.
Am Anfang sollten Unternehmen überlegen, welche Quellen in die Web-Analyse einbezogen werden: Redaktionelle Beiträge, Foren, Communitys, Online-Shops, Twitter, Facebook oder Bewertungsportale. Bei der Nullmessung sei es ratsam, möglichst umfassend vorzugehen, um ein Gefühl für die Zahlengerüste zu bekommen. „Was ist für meine Produkte und Services relevant? In späteren Phasen können sich Unternehmen auf Kanäle konzentrieren, die sich als ergiebige Plattformen bewährt haben. Ich spreche auch von der Buzz-Herkunft“, erläutert der Marketingexperte. Zudem müssten Entscheider genau überlegen, was man wissen will und was man aus internen Daten schon weiß. „Bei der Auswahl der Anbieter von Monitoring-Tools ist große Sorgfalt geboten. Es reicht nicht aus, rein quantitative Auswertungen vorzunehmen. Mit einer reinen Datenausspuck-Maschine reduziert sich das Ganze auf eine Zählerei von Fliegenbeinen. Es gibt noch kein Instrumentarium für die vernünftige Messung von Netzwerkeffekten, Reichweite, Einfluss, Relevanz und Masse. Es ist noch eine junge Disziplin“, so Halemba.
Die komplette Story erscheint morgen auf NeueNachricht. Hier schon mal mein Youtube-Interview mit Halemba:
Der komplette Vortrag als Audio-Aufzeichnung:
Und hier die weiteren Interviews mit den Ausstellern des Marketing Solution-Forums in Düsseldorf:
Auf der diesjährigen Computermesse Cebit wird wieder viel von Konvergenz, Unified Communications, Web 2.0, Echtzeitkommunikation, Skype oder VoIP geredet. Experten halten es aber für notwendig, den Buzzwords, Presseschlagzeilen und PowerPoint-Folien auch Taten folgen zu lassen. „Die Konvergenz ist ja schon längst Realität. Jetzt ist es wichtig, dass die angebotenen Lösungen auch zu den Unternehmensprozessen passen“, sagt Andreas Latzel, Deutschlandchef des ITK-Spezialisten Aastra in Berlin, mit dem ich ein längeres Interview geführt habe. Um das große Thema Unified Communications ins Laufen zu bringen, müsse man die Geschäftswelt gut verstehen und die Technologie beherrschen. „Das ist unser täglicher Job. Wir kommen aus der Ecke, wo Datenübertragung in Echtzeit eine große Rolle spielt. Ein wichtiger Faktor für erfolgreiche Projekte ist auch, die Anwender auf den Entwicklungspfad mitzunehmen und nicht am Ende mit einer völlig neuen Konstellation zu konfrontieren“, so Latzel.
Beschleunigt werden die Umwälzungen der Unternehmenskommunikation durch die privaten Gewohnheiten der Digital Natives, bei denen Skype, Wikis, Blogs und Social Media intensiv zum Einsatz kommen: „Wir erleben in der Wirtschaft eine Generation mit einem völlig anderen Kommunikationsverhalten. Die kommerzielle Sinnhaftigkeit müsse im Einzelfall genau geprüft werden. Sehr viele Projekte werden in den Kreativabteilungen zwar vorgedacht, müssen aber den Test der harten Realität am Schalter des Finanzchefs erst überstehen“, erläutert Latzel.
Die Wirtschaftlichkeit von neuen Systemen müsse sich in einem Zeitraum von 12 bis 24 Monaten einstellen, dann habe Unified Communications eine große Chance. Fast alle Kommunikationslösungen seien mittlerweile Applikationen im Netz. Anbieter für Unified Communications brauchten neben dem Netzmanagement auch Kompetenzen in der Echtzeitkommunikation, völlig unabhängig, ob es um bewegte Bilder oder Sprache geht. Mit den Versuch-und-Irrtum-Verfahren, die man aus der Informationstechnologie kennt, könne man nicht arbeiten. „Dumm ist es, wenn der Anfang meines Satzes später ankommt als das Ende. Vor diesem Hintergrund ist es wichtig, dass man die Echtzeitkommunikation gut beherrscht. Da hat der klassische Sprachanbieter gewisse Vorteile, weil er sich mit diesem Faktor schon länger auseinandersetzt“, weiß Latzel. Zudem seien offene Schnittstellen und Standards wichtig, damit im Netzwerk Innovationen möglich bleiben und unterschiedliche Systeme zusammengebracht werden können.
Nach einer Umfrage des Softwarespezialisten Genesys, die auf der Fachkonferenz von Nuance in München vorgestellt wurde, lassen sich deutsche Unternehmen durch schlechten Kundenservice jährlich mehr als 12 Milliarden Euro durch die Lappen gehen. Die befragten Kunden konnten angeben, wie viel die Geschäftsbeziehung, die abgebrochen wurde, jährlich wert gewesen ist. Diese Daten wurden dann durch Datamanitor/Ovum hochgerechnet. Als Gründe für die miesen Dienstleistungen in Deutschland sieht Genesys-Manager Heinrich Welter die unzureichende Qualität von Sprachdialogsystemen, die schlechte Erreichbarkeit der Agenten im Call Center, unqualifizierte Ansprechpartner, kostenpflichtige Services sowie eine fehlende Synchronisation zwischen den Kanälen für den Kundenkontakt. „Der Markt wurde jahrelang durch überzogene Versprechungen der Lieferanten einerseits und der ‚nur der Preis entscheidet-Manie’ andererseits vornehmlich mit kostengünstigen, aber durch die Bank weg schlechten Lösungen zugepflastert“, kritisiert Welter im Interview mit NeueNachricht.
An kritischen Web 2.0-Debatten mit Firmen wie Jack Wolfskin erkenne man, dass sich die Menschen immer aktiver und kritischer mit Produkten und Dienstleistungen auseinandersetzen. „Millenials, Digital Natives oder wie auch immer man die Gruppe bezeichnen möchte, sind im Bewusstsein der tradierten deutschen Unternehmen oft noch nicht angekommen. Erst langsam wird realisiert, dass sich das Verhalten der Verbraucher in den nächsten Jahren grundlegend ändern wird. Noch heute haben viele Unternehmen nicht einmal E-Mail integriert, geschweige denn SMS oder Chat. Da ist dann Social Media noch ganz weit weg“, so Welter. Oft sei es aber auch weniger die mangelnde Einsicht, etwas tun zu müssen, als das einfache Problem, wie man es denn umsetzen könnte, die Grundlage für diese Müdigkeit. „Nur Technologie ist in diesen Fällen natürlich nicht die Antwort. Denn was nützt der schönste Agent-Desktop mit Chat und SMS, wenn der Agent nicht den richtigen Ton in Chat oder SMS trifft“, führt Welter gegenüber NeueNachricht aus.
Mit bunten PowerPoint-Folien und neuen Buzzwords kommt die Kommunikation über das Internet Protokoll nicht in die Gänge
Experten wissen, dass die Übertragung von Sprache, Bild und Daten über das Internet Protokoll kein Kinderspiel ist. Mit reinen Modephrasen bewegt sich der Markt keinen Millimeter. Man benötigt Anbieter mit Sachverstand, fundiertem Praxiswissen und einer exzellenten Expertise in der Telekommunikation. VoIP stellt langjährig eingeübte Telefongewohnheiten in Frage. „Über den Computer zu telefonieren und mit dem Telefon im Web suchen, das muss ein Anwender erst einmal verdauen“, so Dr. Jörg Fischer, Autor des Buches „VoIP-Praxisleitfaden“ (Hanser Verlag). Ähnlich sieht es Andreas Latzel von Aastra-DeTeWe http://www.aastra-detewe.de in Berlin: „Wer die alte Welt der Telekommunikation nicht versteht, besitzt keine Kompetenz, um Firmen in die IP-Welt zu transformieren. Der Philosoph Odo Marquard hat die technische Herausforderung treffend formuliert: Zukunft braucht Herkunft. Deswegen scheitern VoIP-Strategien, die den dritten vor dem ersten Schritt machen, wie es in der Software-Branche zu beobachten ist“, erläutert Latzel.
Bei der Integration der Sprachkommunikation in die IT-Infrastruktur müsse man einige Dinge berücksichtigen, wie etwa die Echtzeitanforderung und hohe Verfügbarkeit. Die klassische Telefonie biete Leistungsmerkmale, an die sich die Anwender in vielen Jahren gewöhnt haben und so in der IT nicht vorkommen: Vermittlungsarbeitsplätze, verkettete Anrufweiterschaltung, Chefsekretärin-Funktion und ähnliches. Ob der Anwender die neuen Funktionen der Unified Communications nutzen könne und möchte, hänge von Firmenkultur, Branche und dem Arbeitsplatz ab, so die Erfahrungen von Latzel. Stark virtualisierte Unternehmen der Beratungsbranche, die mit wenigen festen Büroarbeitsplätzen und Desk Sharing auskommen, stehen eher klassisch arbeitenden Produktions- und Verwaltungsbetriebe gegenüber, wo das Telefon zum Telefonieren benutzt werde und es wenig bis gar nichts mit der IT zu tun habe.
„Die Vernunft, das haben wir von Kant gelernt, ist das auf die Spitze getriebene Vermögen, sich selbst nicht über den Weg zu trauen“, so Dirk Baecker, Professor für Kulturtheorie und Kulturanalyse an der Zeppelin Universtät in Friedrichhafen. Technomanager scheinen diese Selbstskepsis nicht an den Tag zu legen. Sie vertrauen ihrem eigenen Expertenwissen mehr als externe Erkenntnisse. Persönliche Erfahrungen sind für Entscheider der ITK-Branche nach Erkenntnissen des Unternehmensberaters Bernhard Steimel von MIND Consult die wichtigste Wissensquelle. Das könne schnell in die Hose gehen. Die interne Sicht über Marktmechanismen und Kundenzufriedenheit sollte durch externe Erkenntnisse ergänzt werden. Eine solche Außensicht liefere oftmals wichtige Erkenntnisse abseits bequemer Wahrheiten. Entscheider sollten aufpassen, nicht Opfer einer selbstkonstruierten Wirklichkeit zu werden.
Nur jedes zehnte Unternehmen bewertet den Grad der Informiertheit als unzureichend. Diese subjektiv positive Einschätzung sollte allerdings nicht mit dem tatsächlichen Ausmaß der Marktforschung gleichgesetzt werden. „Besonders im Vergleich mit reiferen Branchen sollten die ITK-Unternehmen den Grad ihrer Informiertheit kritisch hinterfragen“, so der Rat von Steimel. Siehe auch das Youtube-Video:
Wer nur im eigenen Saft schmort, läuft Gefahr, zu erstarren und wichtige Entwicklungen des Marktes zu verschlafen. Oder systemisch ausgedrückt „Intelligenz und Innovation in Unternehmen hängen davon ab, welche Informationen beobachtet werden und wie die wichtigen Informationen ihren gebührenden Stellenwert erhalten – was man leider erst im Nachhinein wissen kann“, schreibt Professor Winfried W. Weber in seinem Buch „complicate your life“ (Verlag Sordon).
Der Managementdenker Peter Drucker kritisiert die Sichtweise von Managern, die sich eng nur auf das eigene Unternehmen bezieht. „Viele Manager leben noch im 19. Jahrhundert, als Neuerungen aus der Firma oder aus der Branche kamen. Heute hingegen sind es im Wesentlichen die Veränderungen um das Unternehmen herum, die die Geschicke der Firma beeinflussen.“ Innovationen entstünden nicht nur aus Fortentwicklungen und Patenten innerhalb des eignen Fachspektrums. Heute kämen in viel stärkerem Maß als früher gesellschaftliche Entwicklungen hinzu, die als Ausgangspunkt für Innovationen erkannt werden müssten (nachzulesen im Buch „Peter Drucker – Der Mann, der das Management geprägt hat“, herausgegeben von Professor Weber).
Ein kluger Manager führt im richtigen Moment herumschwirrende Ideen mit Akteuren zusammen, nutzt Marktungleichgewichte, erkennt die Lücke und setzt die Innovation durch oder übernimmt im richtigen Moment das Risiko einer nicht sicheren aber vielversprechenden Entscheidung. „Das unterscheidet ihn vom Verwalter, der die organisatorische Routine oder die organisatorisch geronnene Reduktion von Komplexität nicht mehr in Frage stellen kann“, erläutert Weber. Wie bei den Schachgroßmeistern gehe es im Management einer komplexer werdenden Welt darum, ein reiches und komplexes Spielfeld zu erhalten. „Die Disziplin verlässt die Entscheidungskultur des one-best-way, des Alles-im-Griff-haben-Wollens. Wer es versteht, sich von der Komplexität nicht überfordern zu lassen, wer erkennt, dass man immer weniger durchschaut, wer sein Spielfeld pflegt und damit rechnet, dass bald die Lücke kommt, kann dann sofort entscheiden, ohne zu zögerlich zu sein“, führt Weber aus. Oder in den Worten des Kybernetikers Heinz von Foerster: „Handle stets so, dass die Anzahl der Möglichkeiten wächst.“
Die starren Kommunikationsinfrastrukturen in den Unternehmen sollen von einer neuen Gerätegeneration abgelöst werden. Die Spezialprogrammierung der herkömmlichen ISDN-Anlage weicht der Standardprogrammierung einer IP- oder Hybrid-Lösung. Letztere haben nach Ansicht von Wirtschaftsexperten einen großen Vorteil: basierend auf LAN-Leitungen in Firmen können Telefone ebenso einfach wie schon Arbeitsplatzrechner oder Notebooks ans Firmennetz angeschlossen werden.
Eine Extraverkabelung für die Sprachtelefonie ist nicht mehr nötig. Die smarten Endgeräte passen sich auch leichter dem Nutzer und seinen Anforderungen an. Man müsse nicht mehr an seinem Arbeitsplatz im Büro sitzen, um alle technologischen Ressourcen abzurufen, so die Analyse des Berliner ITK-Spezialisten Aastra. Mit konvergenten Kommunikationstechnologien könne man die Arbeit überall erledigen. Das sei besonders für Berufsgruppen interessant, deren Tätigkeit wissensbasiert ist. Die beiden Säulen für flexibles Arbeiten: VoIP und Virtual Private Networks (VPNs). Letztere garantieren den sicheren Zugang zum Firmennetzwerk.
Die Branche für Informationstechnologie wirkt nach Ansicht von netzwertig-Blogger Andreas Göldi flügellahm. Die wilden Tage der IT-Innovationen seien vorbei. „Die Dinge haben sich schon seit Jahren spürbar verlangsamt, und das kann nicht einfach nur auf die Wirtschaftskrise zurückgeführt werden. Es ist ein typisches Muster für fundamentale Innovationen (wie die Eisenbahn, das Telefon und das Auto), dass sie eine Phase schnellen Fortschritts und dramatischer Veränderungen bringen. Aber wenn die Technologie einmal eine gewisse Reife erlangt hat und die Infrastruktur erstellt ist, verlangsamen sich Wachstum und weitere Innovation massiv“, schreibt Göldi. So lange eine Technologie keine zweite massive Welle von Innovationen auslöse, wie das beim Übergang zur digitalen und mobilen Telefonie der Fall war – seien große Veränderungen seltener zu erwarten.
Ähnlich sieht es auch Bernhard Steimel, Sprecher des Fachkongresses Voice Days Plus in Nürnberg: „Die Märkte für Telekommunikation, IT und Neue Medien haben in den vergangenen 20 Jahren epochale Innovationen erlebt. Das Internet, der Mobilfunk und Breitbandnetze haben die Impulse für ein stetiges Wachstum im Privatkundenmarkt gegeben. In immer mehr Märkten scheinen jedoch die Wachstumsgrenzen erreicht. Die ITK-Branche muss von der Konsumgüterindustrie lernen, wie man in gesättigten Märkten profitabel bleibt und nicht nur im Verdrängungswettbewerb über den Preis seine Marktanteile sichert. Ein tieferes Verständnis über Kunden und die Zielgruppe, deren Motive und Barrieren sind eine wichtige Voraussetzung dafür“, so der Rat von Steimel.
Das Management der Kundenerlebnisse dürfe nicht mehr vernachlässigt werden. „Dazu werden eine Reihe von eher inkrementellen Innovationen benötigt, die im Service-Design oder beim Nutzer-Interface liegen, um die Komplexität für Konsumenten zu reduzieren. Beispielsweise Internetzugänge ohne Codes wie ‚Fehler 768’ oder die wirklich intuitive Benutzerführung, um eine Dreierkonferenz einzuleiten“, sagt Steimel. Im Markt für Geschäftskunden sieht er einen Innovationsstau. Es sei daher an der Zeit, die Innovationen der vergangenen Jahre erst einmal zu „verdauen“. Statt ständig nach bahnbrechend neuen Technologien zu suchen, sollten sich Anwender ihre bestehenden Produktangebote verfeinern, die ohne aufwändige Integrationsleistungen und Expertenwissen zum Einsatz kommen können.
Eine Müdigkeit oder Sättigung bei Innovationen sieht der IT-Experte Udo Nadolski vom Düsseldorfer Beratungshaus Harvey Nash überhaupt nicht: „In Deutschland haben wir eher das Problem, nicht ein Land der Innovationen, sondern ein Land der Technikfolgenabschätzung zu sein. Statt Dinge einfach auszuprobieren, reden wir sie tot. Entdecker, Erfinder und Tüftler führen bei uns ein Schattendasein. Wenn es um Innovationen geht, dominieren nicht Naturwissenschaftler, Informatiker, Mathematiker oder Ingenieure die öffentliche Debatte, sondern Soziologen, Bischöfe, Schriftsteller oder kulturpessimistische Politiker“, kritisiert Nadolski.
Ablehnungsaffekte würden jede neue Technologie begleiten. Bevor Innovationen überhaupt zur Entfaltung kommen könnten, würde man sie in Anthologien zur Risikogesellschaft vergraben. „Bei uns boomen nicht die naturwissenschaftlichen, technischen oder computerwissenschaftlichen Disziplinen, sondern Anthroposophen-Schulen oder homöopathische Medizin. Wir vermitteln unseren Kindern keine technische Kompetenz. Statt Laptops schenken wir ihnen naturhölzerne Schaukelpferdchen und schwadronieren über die gute alte Zeit“, so Nadolski. Kritikwürdig sei auch die Doppelmoral der so genannten postmaterialistischen Öko-Schickeria, die mit dem Porsche beim Bio-Supermarkt vorfährt, um das nachhaltig erzeugte Dinkelbrot zu kaufen und sich bei Dalai Lama-Veranstaltungen auf buddhistische Sinnsuche begibt. Diese gesellschaftliche und mentale Lage der Nation sei ein Innovationshemmnis. Besonders Deutschland als rohstoffarmes Land benötige Technikoptimismus und sollte seine Erfinder, Ingenieure und Forscher mehr würdigen.
Worum es heute geht....hat Rüttgers wohl nicht verstandenStaatsknete für Versandhauskataloge, Rettungspakete für marode Industriekonzerne, die schon vor der Finanzkrise kurz vor der Pleite standen, Bürgschaften und Finanzhilfen für Warenhaus-Dinosaurier, Fusionserleichterungen für angeschlagene Zeitungsverlage: Was Spitzenpolitiker wie Seehofer, Merkel oder Rüttgers derzeit wirtschaftspolitisch bieten, hat nach Ansicht von Experten überhaupt nichts mit der Zukunft des postindustriellen Zeitalters zu tun. Technikvisionär
„Wenn Ministerpräsident Jürgen Rüttgers der gebeutelten Medienbranche mit Megafusionen die Rettung vor dem nahenden Untergang verspricht und ein Leben ohne Zeitungen für ‚unvorstellbar’ hält, wird er wohl als Politiker in die legendäre Ahnengalerie von Persönlichkeiten aufgenommen, die sich über die Wirkungen technologischer Zeitenwenden derb verschätzt haben. Wer Millionen von Zeitungsseiten konservieren will, die täglich das Gestern zitieren, mutiert zum Kaiser Wilhelm II, der an das Pferd glaubte und das Automobil nur als vorübergehende Erscheinung abtat“, so Udo Nadolski, Geschäftsführer des IT-Beratungshauses Harvey Nash in Düsseldorf.
Deutsche Meinungsführer haben immer noch die Fabrik im Kopf
Zu diesem Befund kommt auch brand eins-Redakteur Wolf Lotter in seinem Buch „Die kreative Revolution – Was kommt nach dem Industriekapitalismus?“ (Murmann-Verlag): Wirtschaft werde immer noch mit dem Kopf der Fabrik gedacht. „Alle zeitlichen und materiellen Erscheinungen von Ökonomie sind nach wie vor voll am Ablauf des reinen Produktionsbetriebes orientiert, in dem Veränderungsprozesse nachrangig sind“, schreibt Lotter. Man müsste erst einmal den Irrgarten industriekapitalistischer Terminologie und Lehre verlassen, um sich überhaupt ein halbwegs geordnetes Bild dessen zu machen, was seit mehreren Jahrzehnten im Alltag bereits deutlich wird: Wissen schlägt Produkt. „Die großen Gewinne, die weltweiten Erfolge ökonomischer Prozesse und Innovationen sind nahezu alle wissensbasiert, seit dem Siegeszug des Computers und des Internets ist das deutlich“, erläutert Lotter, der aber darauf verweist, dass die meisten Akteure von Wirtschaft und Politik getaktet sind wie in den Zeiten des Fordismus. Harmonisch werde der Machtkampf zwischen industriekapitalistischen und wissensbasierten Organisationen nicht ablaufen.
Pflichtlektüre für Industriepolitiker
Die antiquierten Eliten und Paten sollten abdanken: „Besser herrscht transparente Unübersichtlichkeit als jene vornehme Verschwiegenheit der diskreten Gesellschaft“, proklamiert der Schriftsteller Beat Wyss. Die Promotoren des Systemsturzes sind schon in den Startblöcken: Es sind Außenseiter, die schon mitten unter uns als kreative Zerstörer wirken und die alten Monopole torpedieren. „Kleine Spinner werden über Nacht zu Superstars. Absurde Geschäftsideen entpuppen sich und der größte ökonomische Schwachsinn wird zum Megaerfolg“, so der Publizist Peter Felixberger. Es würden sich schon jetzt fundamentale Veränderungen abzeichnen bei der Form und Funktion von Computern, Handys, Zeitungen oder Autos, meint der Wirtschaftswoche-Autor Konrad Buck: „Was sich an partizipatorischen Verhaltens- und Arbeitsmustern derzeit im Internet entwickelt, Stichwort: Social Web, wird entscheidenden Einfluss auf die Produkte und Services von morgen haben. In derzeit laufenden Projekten wie eEnergy (smart metering von Strom, Gas plus Zusatzservices), Elektromobilität (batteriegetriebene Autos mit einer Strom-ID überall aufladen), Genivi Alliance (In-Vehicle Infotainment) spielt sich das Verschmelzen von IT und Anwendung und von IT und Produkt bereits ab“. Hardware werde verdrängt. Experten sagen einen Rückgang um bis zu 95 Prozent bis 2030 voraus. „Gewinner sind Unternehmen mit Expertise im Aufsetzen neuer Geschäftsprozesse, IT- und Netzwerkfachleute mit Gespür für Prozessmodellierung und Verständnis von Wandel als einzig verbleibender Kontinuität oder Spezialisten mit Branchen- und Integrationswissen bekommen das Sagen. Und Verbraucher können sich auf eine Fülle ebenso nützlicher wie spannender neuer Services einstellen“, prognostiziert Buck.
Mobile Zukunft
Die Integration ehemals getrennter Anwendungen in mobile Endgeräte werde sich nach Einschätzung des Mobilfunkexperten Karl-Heinz Gabler fortsetzen. „Zählen heute Notebooks mit integriertem WLAN zum Standard, so werden die Netbooks der Zukunft HSPA+ und LTE-Modems integrieren, die es erlauben, immer und überall das Netz zu nutzen. Dank integriertem GPS werden auch Navigationsanwendungen Teil des Funktionsumfanges werden. Dem Nutzer werden unabhängig von seinem Ort all seine gewohnten Dienste zur Verfügung gestellt. Ortsgebundene Teilnehmergeräte verschwinden“, sagt Gabler von der Firma Nash Technologies in Nürnberg. Nutzer müssten nur noch angeben, wie viel Leistung sie benötigen – mehr nicht, bestätigt Marc-Christopher Schmidt, Geschäftsführer des Bonner Reiseportals Triptivity. „Wo die Applikation wirklich läuft, ist sekundär. Viele Anwender steigen von ‚traditionellen’ Computern auf Notebooks oder Netbooks um und Unternehmen setzen verstärkt auf Thin Clients. Mobiltelefone entwickeln sich zur universellen Kommunikationszentrale“, führt Schmidt aus. Der Dienstleistungsexperte Harald Henn erwartet radikale Veränderungen bei den Geschäftsmodellen. „Wir erleben eine Abkehr vom Gedanken, dass sich Menschen für Kommunikation und Informationsaustausch an festen Orten befinden müssen. Dass man Hardware in Form von PCs oder Handys benötigt, um zu arbeiten, Daten und Informationen zu erstellen und auszutauschen“, bemerkt Henn.
Industriemuseum Deutschland
Das Land der Maschinenbauer, Mechaniker und Laboranten verliere seine industrielle Basis, so die Kulturwissenschaftlerin Heike Grimm. Faktisch macht die industrielle Wertschöpfung heute weniger als 20 Prozent des gesamten Bruttoinlandsproduktes aus. Daran ändern auch die Lügen von Interessenvertretern der Industrie nichts mehr, das angeblich jeder siebte Arbeitsplatz am Auto hängt. Das Zahlenwerk stammt aus dem Jahr 1980, wie die Zeitschrift Capital eindrucksvoll nachgewiesen hat.
Provokateur vom DienstCloud Computing zählt seit rund zweit Jahren zu den inflationär benutzten Schlagworten der IT-Branche. Die Bedeutung des Modethemas ist profan und alles andere als neu: Es beinhaltet die Möglichkeit, Speicherkapazitäten, Rechenleistung und Software über das Internet zu mieten. Der Nutzer zahlt je nach Funktionsumfang, Nutzungsdauer und Anzahl der Nutzer. Unternehmen können damit ihre IT-Kapazitäten ins Netz verlagern. Sie sparen Geld bei Investitionen für die IT-Infrastruktur und können flexibler agieren: Für den Vielschreiber und Dauerredner Nicholas Carr reicht das unspektakuläre Szenario aus, um das Zeitalter des „Big Switch“ auszurufen. Er prognostiziert, dass große Serverfarmen die heute gängigen PCs ablösen werden, so dass so gut wie keine Information und Rechenleistung mehr offline verfügbar sein werde. Alteingesessene Platzhirsche wie Dell oder Microsoft dürften dadurch in Bedrängnis geraten. Billige Rechenleistung verändere auch die Gesellschaft nachhaltig, wie die billig gewordene Elektrizität vor hundert Jahren. Die Simplifizierung des Phänomens Cloud Computing stößt bei Experten auf Widerspruch.
„Carr braucht die Übertreibung, um seinen Marktwert als Redner zu bewahren. Seine Argumente pendeln allerdings häufig zwischen Big Switch und Bullshit. So war das schon bei seinem ersten medialen Scoop als er den Niedergang der IT-Abteilungen beschworen hat“, kritisiert IT-Fachmann Udo Nadolski vom Beratungshaus Harvey Nash. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, kontert IT-Fachmann Andreas Rebetzky, Sprecher des cioforums. Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.
„Die Argumentation von Carr und anderen Cloud Computing-Gurus unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Carr modifiziert diesen erfolglosen Ansatz nur insofern, als dass er den bloßen Applikationsbezug durch den Bezug einer Serviceleistung ersetzt“, erläutert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.
Seine Vergleiche mit der Stromversorgung aus Mega-Kraftwerken seien auf das Internet nicht anwendbar. „Im Web gibt es eine gegenläufige Tendenz. Wir erleben eine Dezentralisierung auf professioneller und organisatorischer Ebene“, so Latzel. So könne es nicht verwundern, dass in der Unternehmenswelt weniger Aufgeregtheit herrsche als in den Reden von Carr. Nach einer IDC-Studie hat erst ein Viertel der rund 800 befragten Unternehmen in Deutschland über die Nutzung der Datenwolke nachgedacht.
Ein Grund für die geringe Auseinandersetzung mit dem Thema ist die unklare Definition. „Viele Anwender können sich unter dem Begriff überhaupt nichts vorstellen“, sagt Matthias Kraus, IDC-Analyst und Verfasser der Studie. Eine allgemein gültige Definition von Cloud Computing gibt es nicht, verschiedene Anbieter legen den Begriff unterschiedlich aus.
Zudem müsse für viele Unternehmen noch die Frage beantwortet werden, für welche Funktionen oder Aufgaben Cloud Computing tatsächlich eine interessante Alternative zu lokal installierten Systemen sein kann. „Nur für Speicherplatz oder Rechenleistung ist Cloud Computing sicherlich kein interessantes Angebot, zumindest nicht für die Versorgung von Unternehmensstandorten“, meint Aastra-Deutschlandchef Latzel. Bei Funktionen für mobile Benutzer sehe das anders aus: „Wer vom PDA, Smartphone oder Sub-Notebook an wechselnden Orten arbeitet, für den machen Hosting-Dienste unter Umständen Sinn“, sagt Latzel. Das würde die Speicherung und Verarbeitung von Daten betreffen, aber noch mehr Kommunikationsdienste und Kollaborationstools: Unified Communiciations, Video Conferencing, Präsenzverwaltung und standortübergreifendes Arbeiten an einer Datei oder an einem Projekt – hier bieten sich nach Ansicht von Latzel gehostete Lösungen als mögliche Alternative an. „Es fehlen bislang Angebote und standardisierte Angebote für die Betriebssysteme der Unternehmen. Und die Anbieter müssen bekannt und vertrauenswürdig sein, sonst werden Firmen sich kaum darauf einlassen, vitale ITK-Aufgaben als virtuelle Dienste von externen Anbietern zu beziehen, zumal auch beim Nutzer installierte moderne Kommunikationssysteme heute den Leistungsumfang bieten, der ohne Komfortverlust mobiles Arbeiten ermöglicht.“, resümiert Latzel.