IT-Dienstleister beurteilen ihre Geschäftslage so optimistisch wie im Boomjahr 2000

Die Einschätzung der Geschäftslage der IT-Dienstleister ist nach einer Umfrage des DIHK zur Zeit genauso gut wie im Boomjahr 2000. Im Vergleich Mit einem Lagesaldo von 38 Prozentpunkten reduziert die IT-Branche zwar ihre Lageeinschätzung um zwölf Prozentpunkte gegenüber dem Frühjahr 2008. Nach wie vor verspüren die Serviceanbieter den Nachfragesog vor allem durch Unternehmen und Behörden, die ihre Abläufe weiter digitalisieren.46 Prozent der Unternehmen schätzen ihre Geschäftslage als „gut“ ein, ebenfalls 46 Prozent bewerten die Lage als „befriedigend“ und acht Prozent bekunden eine Lageverschlechterung. Im Frühjahr schätzte mehr als jeder zweite IT-Dienstleister seine Geschäftslage als „gut“ ein – eine Verschlechterung gaben zu diesem Zeitpunkt sechs Prozent zu Protokoll.

Im Herbst 2008 blicken 36 Prozent der befragten Unternehmen optimistisch in die Zukunft. Bei der Vorumfrage erwarteten 43 Prozent bessere Geschäfte in den nächsten zwölf Monaten. Die Anzahl der Pessimisten ist von sieben Prozent im Frühjahr auf derzeit zwölf Prozent angestiegen. Die Unternehmen gehen davon aus, dass der Markt für IT-Dienstleistungen weiter wächst und dass der Digitalisierungstrend von Geschäftsprozessen auch im nächsten Jahr weiter anhält.

Das Auslandsgeschäft wird im nächsten Jahr erneut zulegen. Mit einem Ausfuhrsaldo von 28 Prozentpunkten weist die IT-Branche zwar vergleichsweise gute Exporterwartungen aus. Jedoch ist der Abwärtstrend des Ausfuhrsaldos seit dem Frühjahr 2006, anfangs langsam und in kleinen Schritten, nun in einem größeren Schritt erkennbar. Gegenüber dem Frühjahr verzeichnet der Saldo einen Rückgang in Höhe von zehn Prozentpunkten. 35 Prozent der Unternehmen rechnen mit höheren Exporten, gegenüber 43 Prozent im Frühjahr 2008. Aktuell erwarten sieben Prozent der Unternehmen einen Exportrückgang, vor sechs Monaten waren es noch fünf Prozent.

Auch im nächsten Jahr gehen von der IT-Branche Impulse für Investitionen aus. Ein Viertel der Unternehmen beabsichtigt in den nächsten Monaten mehr zu investieren – nach 31 Prozent im Frühjahr und 34 Prozent vor einem Jahr. Dagegen bekunden nur 13 Prozent der Betriebe restriktive Investitionspläne – nach ebenfalls 13 Prozent vor sechs Monaten und zwölf Prozent vor einem Jahr. 43 Prozent der IT-Dienstleister beabsichtigen im nächsten Jahr in Produktinnovationen zu investieren, 51 Prozent geben an, dass sie in neue Anlagen investieren werden.  

Der Dienstleistungsreport kann unter folgender URL runtergeladen werden: http://www.dihk.de/inhalt/download/dienstleistungsreport_herbst_2008.pdf



Virtuelles Fräulein vom Amt – Sprachgesteuerte Handys als Tipping Point des Internets

Die Sprachsteuerung des iPhones mit „Google Mobile App“ http://googlemobile.blogspot.com wird von Web 2.0-Pionier Tim O’Reilly als „Tipping Point“ gewertet: Der Begriff  bezeichnet jenen Moment, in dem etwas Einzigartiges zum Normalzustand wird und einen qualitativen Umschlagspunkt markiert. „Es ist es an der Zeit, Telefone als erstklassige Geräte zu sehen, um auf das Internet zugreifen zu können, und nicht nur als Möglichkeit, Inhalte und Anwendungen umzuwidmen, die ursprünglich dazu gedacht waren, mit einer Tastatur und einem Bildschirm gelesen zu werden“, schreibt O’Reilly in seinem Blog http://radar.oreilly.com. Mit der Sprachsteuerungsfunktion werde ein neuer Weg für Computerdienstleistungen beschritten. „Apple begeisterte uns mit dem iPhone-Touchscreen, aber die Einbeziehung des Beschleunigungsmessers war fast ebenso wichtig; und jetzt hat Google uns gezeigt, wie dieser als Hauptkomponente einer Benutzeroberflächenanwendung eingesetzt werden kann. Legen Sie das Telefon ans Ohr und die Anwendung fängt an mitzuhören; eher durch eine natürliche Geste als durch ein künstliches Klopfen oder Klicken ausgelöst. Ja, der Beschleunigungsmesser wurde bereits in Spielen wie tilt oder the iPint verwendet, aber Google hat das Ganze noch etwas weiter getrieben durch die Integration des Telefon-Hauptsensors: das Mikrofon“, so O’Reilly. Nach seiner Ansicht liegt hier die Zukunft von Mobiltelefonen: eine Benutzeroberfläche zu entwickeln, die alle bisherigen Generationen über Bord wirft. Zeigen und klicken war ein Durchbruch für Computer, aber eine Sackgasse für das Design von Benutzeroberflächen.  

Mittlerweile haben das iPhone und ähnliche Smartphones eine Vielzahl an Sensoren: Mikrofon, Kamera, Touchscreen, Beschleunigungsmesser, und Standortortung. Neue Anwendungen und Kombinationen werden zu weiteren Überraschungen führen. „Künftige Geräte werden eine immer größere Anzahl an Sinnen haben, um darauf zu achten, was wir wollen. Könnte ein Telefon die Bewegung erkennen, die wir machen, wenn wir eine Kamera vor uns hochhalten, damit wir die Einstellungen festlegen können? Könnten wir mit dem Telefon reden um Kameraeinstellungen zu verändern? Könnte ein Telefon automatisch die Bewegung eines Autos erkennen und auf Sprachwahl umstellen? Und dann gibt es natürlich noch alle weitere Interaktionen mit anderen Geräten die möglich sind, wenn wir das Telefon als Steuerteil betrachten – ähnlich der Wii-Konsole von Nintendo“, erklärt O’Reilly. 

Auch in der ITK-Branche erwartet man Impulse über die Sprachsteuerung: „Computer werden heute immer noch primär über eine Tastatur bedient, die aus der Schreibmaschine entstanden ist, so als ob jeder Tastendruck einen mechanischen Hebel in Bewegung setzt. Selbst der Zeilenvorschub und Wagenrücklauf alias Carriage return ist uns erhalten geblieben, obwohl damit schon lange kein Papier mehr transportiert wird. Telefone haben zwar die Revolution von der Wählscheibe hin zur – in der Regel – 3×4 Tastatur gemacht, standardisiert nach ITU E.161, das erfolgte aber bereits in den 70er Jahren. Selbst moderne Handys und Smartphones halten sich noch an den Tastenwahlblock, entweder in mechanischer Ausführung oder als Icon-Darstellung auf einem Touchscreen“, weiß Andreas Latzel, Deutschland-Chef des ITK-Spezialisten Aastra http://www.aastra.de, der viel Wert auf die Benutzerfreundlichkeit seiner Systeme legt. Die Technikentwicklung sei zwar rasant schnell und ein gutes User-Interface inzwischen intelligent sowie kontextbezogen – im Kern aber immer noch traditionell. Vorhersehbar sei, dass der Tastaturblock an seine Grenzen stoße – spätestens mit der breiten Einführung der SIP-Telefonie und der SIP-Teilnehmeradressen.

„Anders als bei professionellen Tischgeräten kommt die Ausstattung von Handys mit alphanumerischen Tastaturen zwar auch vor, ist aber in der Regel wegen der beschränkten Abmessungen nicht befriedigend. Da bietet sich der Weg zum Sprachinterface an: der Ansage von Adressen oder Einträgen des Telefonbuchs in normaler Sprachform. Sinnvoll ist das beim Autofahren oder anderen Tätigkeiten, die beide Hände verlangen. Ein gutes Beispiel im professionellen Umfeld ist die Pflege in Altenheimen mit der Aastra-Branchenlösung OPAS. Hier kann beispielsweise mittels Telefon und Sprache die erbrachte Leistung dokumentiert werden – das Pflegepersonal gewinnt viel mehr Zeit für die Bewohner“, sagt Latzel. Übrigens schlage die Technik mit der Sprachwahl den Bogen zurück zu den Anfängen des Telefons vor der Einführung des Selbstwählsystems: damals aktivierte man den Telefonapparat durch Erzeugung einer Rufspannung über den Kurbelinduktor und sagte dem „Fräulein vom Amt“, mit welchem Teilnehmer man sprechen möchte. „Im modernen Telefon mit Sprachinteraktion wird das Fräulein von einer Software ersetzt“, so Latzel. In Kombination mit den Datenwolken von Google ergeben sich nach Prognosen von O’Reilly ungeahnte Möglichkeiten. „Sensorenreiche Geräte mit Anwendungen, die diese Sensoren nutzen, um mit Datenwolkendiensten zu interagieren und sie zu füttern. Der Standortsensor weiß, wo man sich befindet; das Mikrofon erkennt den Klang der Stimme, so dass es persönliche Daten in der Datenwolke frei setzt; die Kamera nimmt Objekte und Personen auf und sendet ein Bild zu einer abgelegenen Anwendung, die diese erkennt und die entsprechenden Informationen abruft“, führt O’Reilly aus. Viele Durchbrüche würden bereits vor der Tür stehen. Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung seien nur der Anfang. Der gleichen Meinung ist der Berliner Sprachdialogexperte Lupo Pape: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, resümiert SemanticEdge-Geschäftsführer Pape.

 

Siehe auch:

http://de.youtube.com/watch?v=y3z7Tw1K17A&eurl=http://googlemobile.blogspot.com/

http://googleblog.blogspot.com/2008/11/now-you-can-speak-to-google-mobile-app.html

 

Schlagworte verdichten den Nebel: Kritischer Diskurs zur Cloud Computing-Strategie von Google

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager.

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. Für Google würden sich neue Möglichkeiten ergeben, die Suchfunktionen weiter zu verbessern.  „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. Darüber hinaus werden auch Übersetzungs- und Multi-Modal-Systeme technisch realisierbar werden. Wenn Menschen in einer bestimmten Sprache kommunizieren, könnten sie auf diese Weise automatisch und nahtlos mit Menschen und Informationen in anderen Sprachen interagieren. Die Auswirkungen solcher Systeme werden weit über das Google-System hinausgehen. „Forscher medizinischer und allgemein-wissenschaftlicher Bereiche erhalten so Zugang zu riesigen Datenmengen und können dadurch Analysen und Algorithmen zur Erkennung bestimmter Muster durchführen, die es bisher in dieser Ausprägung noch nicht gegeben hat“, prognostizieren Spector und Och. So könnte beispielsweise das Large Synoptic Survey Telescope (LSST) mehr als 15 Terabyte an neuen Daten pro Tag generieren.

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg  besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.

Die Technologien von Google bieten für den privaten und professionellen Sektor einen erheblichen Nutzen. Und man ist vielleicht geneigt, die Kapazitäten als Cloud zu bezeichnen. Man kennt ja das Gesetz von Metcalfe: Die Nützlichkeit eines Netzwerkes ist proportional zum Quadrat der Anzahl der Benutzer. Seitdem wissen wir, wie sich die bessere Vernetzung auf den Nutzen auswirkt. Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn  Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert der Bizerba-Director Global Informaton Andreas Rebetzky. Sie leide  immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der IT-Experte Rebetzky.

 

Studie: Mittelstand verplempert Milliarden durch TK-Anlagen – Telefon-Steuerung über Web-Browser könnte Abhilfe schaffen

Laut einer aktuellen Untersuchung der Deutschen Telefon Standard AG http://www.dtst.de in Mainz sind rund 75 Prozent der deutschen Mittelständler mit ihren Telekommunikationsanlagen unzufrieden. Die Anwender schätzen den Schaden, vor allem durch zu komplizierte und nicht ausgelastete Anlagen, auf bis zu 5 Milliarden Euro jährlich. Nach der Telekom-Studie nutzen 72 Prozent der Unternehmen nur magere ein bis fünf Prozent der Möglichkeiten ihrer Telekommunikationsanlagen auch aus. „Meist handelt es sich hierbei nur um Basismerkmale wie Rufweiterleitung“, berichtet Informationweek http://www.informationweek.de. Komplexere Funktionen kommen lediglich acht Prozent der Befragten zum Einsatz – magere drei Prozent zählen sich zu den „Power-Usern“. 

Die Hauptursache für die überdimensionierte Technik liege bei den Herstellern, die den Mittelstand stiefmütterlich behandelt. Die Telefonanlagen seien nicht bedürfnisgerecht konzipiert, und kompliziert zu bedienen. „Von den Anwendern in den Unternehmen werden vor allem das umständliche Suchen nach Telefonnummern, die erneute Eingabe von Rufnummern nach Verwählen sowie das wenig intuitive Einrichten von Rufumleitung und Telefonkonferenzen bei vielen Anlagen kritisiert“, so Informationweek. Die Hälfte der Firmen schätzt, dass dadurch pro Mitarbeiter und Arbeitstag etwa 5 Minuten verloren gehen. Weitere 23 Prozent beziffern den Zeitverlust mit 10 Minuten, rund 22 Prozent der Befragten sogar mit mehr als 10 Minuten. Nur fünf Prozent der Unternehmen halten hingegen die Bedienung ihrer TK-Anlagen für so einfach, dass die Mitarbeiter damit keine nennenswerte Zeit verlieren. „Unter dem Strich ergeben diese sinnlosen Verzögerungen bei 60 Prozent der Mittelständler einen theoretischen finanziellen Schaden von 5 Milliarden Euro im Jahr durch nicht genutzte Arbeitszeit und Kapazitäten“, schreibt Informationweek. 

Einen Ausweg aus dem Dilemma könnten Voice-over-IP-Systeme bieten. Beim „Standard-Telefon-System“, einer VoIP-Anlage auf Basis von IP-Centrex, stelle etwa der Nutzer die Telefonfunktionen selbst über den Web-Browser ein. „Somit kann sich jeder Mitarbeiter die Funktionen zurechtlegen, die er benötigt, und somit effizienter mit seinem Telefon arbeiten. Als Endgeräte kommen Telefone von Anbietern wie Aastra, Polycom und Siemens zum Einsatz“, so Informationweek. „Auch Anwender mit wenig Affinitiät zur Technik können die webbasierte Nutzerverwaltung unserer TK-Systeme spielend einfach bedienen“, bestätigt Andreas Latzel, Deutschland-Chef von Aastra http://www.aastra.de. Nicht nur die IP-Centrex-Systeme, sondern alle TK-Systeme seines Unternehmens stellen eine webbasierte Nutzerverwaltung zur Verfügung. „Über die Einstellung der Benutzerdaten hinaus kann der Anwender unterstützende Services für die Telefonie über denselben Browser nutzen“, sagt Latzel im Gespräch mit NeueNachricht http://www.ne-na.de. Es sei keine Installation auf dem Arbeitsplatz nötig. Es werde ausschließlich ein Browser verwendet, der den Anwender mit seinem Kommunikationsportal verbindet und über die Administration seiner Userdaten hinaus weitere Anwendungen wie CTI oder Voicemail. „Einfachheit, Flexibilität und ein exaktes Anpassen des TK-Systems an die Bedürfnisse des Kunden sind wichtig, um auf dem TK-Markt bestehen zu können“, erklärt Latzel.

 

Zaunkriege am Bürgertelefon und die Illusion vom Amt 2.0: IT-Gipfel muss Impulse geben für Hightech im öffentlichen Dienst

Die im September 2000 gestartete E-Government-Initiative „BundOnline 2005“ hatte zum Ziel, die Dienstleistungs- und Kundenorientierung von Staat und Verwaltung zu stärken. Dazu waren alle internetfähigen Dienstleistungen des Bundes bis zum Jahr 2005 online bereitzustellen. Inzwischen sind nach Angaben der Bundesregierung 440 Verwaltungsdienste online erreichbar. Weitere folgen in den kommenden Jahren. BundOnline habe damit einen deutlichen Modernisierungsschub in der Bundesverwaltung ausgelöst, leistungsfähige IT-Strukturen geschaffen und den Bürokratieabbau unterstützt. Mit BundOnline hat die Bundesverwaltung den Einstieg in das Online-Zeitalter geschafft, die Effizienz und Kundenfreundlichkeit des Verwaltungshandelns verbessert und ein Fundament für die weitere Optimierung der Leistungen der Bundesverwaltung in den kommenden Jahren gelegt“, verkündet stolz das Bundesverwaltungsamt http://www.bund.de auf der eigenen Website.

Von einer nachhaltigen Verbesserung der Serviceleistungen des öffentlichen Dienstes sei man nach Ansicht von Udo Nadolski, Geschäftsführer des Düsseldorfer Beratungshauses Harvey Nash http://www.harveynash.com/de, noch weit entfernt: „Es wird zwar viel über E-Government auf Konferenzen geredet. Geändert hat sich wenig. Bund, Länder und Kommunen sind noch immer nicht in der Lage, ein bürgerfreundliches Amt 2.0 oder das Alles-aus-einer-Hand-Prinzip umzusetzen. Das kann nur funktionieren, wenn man die verkrusteten Strukturen der öffentlichen Verwaltung ordentlich aufmischt“, sagt Nadolski.

Nicht selten gehe ein Vorgang durch dutzende Hände. Das liege nicht etwa an der Unfähigkeit der Mitarbeiter, sondern an den Verfahrensabläufen, die fern der Amtsstuben festgelegt und über die Jahre hinweg ständig schlimmer statt schlanker werden. E-Government brauche in erster Linie anwenderfreundliche Internetangebote für den Bürger. „Nicht selten sind die Nutzer mit einem Absurdum konfrontiert: Die aufwändigen und verworrenen Verfahren werden nun auch elektronisch abgebildet, das war es dann auch schon. Um E-Government wirklich sinnvoll in den Dienst der Menschen zu stellen, müssten erst einmal die Verfahren, die den Bürger allzu oft überfordern, abgespeckt werden. Dass etwa ein unsinniges Formular nun auch online ausgefüllt und elektronisch übermittelt werden kann, ist eben nur die halbe Miete, wenn überhaupt“, so Nadolski.

Kaum ein Online-Projekt des Bundes habe bislang die erhoffte Nutzerfrequenz erreicht. Von einer Führungsrolle des Bundes beim Thema E-Government könne also keine Rede sein. „Bundeskanzlerin Angela Merkel sollte beim IT-Gipfel in Darmstadt keine neuen Projekte in die Welt setzen, sondern einen Rechenschaftsbericht ablegen über den Status quo der Online-Initiativen der vergangenen Jahre. Merkel oder der Bundes-CIO Hans Bernhard Beus müssten dazu Stellung beziehen, wer die Internetdienstleistungen überhaupt in Anspruch genommen hat und was getan werden muss, damit sich der Nutzungsgrad verbessert“, fordert Nadolski. Ein Blick in die Berichte des Bundesrechnungshofes könne dabei helfen.

Der Verband BITKOM http://www.bitkom.de spricht sich für eine konsequente Modernisierung der öffentlichen Verwaltungen, des Gesundheitssystems und des Bildungswesens aus. „Jetzt ist die Gelegenheit, ohnehin notwendige und vielfach überfällige Investitionen in die Hightech-Infrastruktur von Bund, Ländern und Kommunen zu tätigen“, fordert BITKOM-Präsident Professor August-Wilhelm Scheer.

Damit könne die öffentliche Hand zusätzliche Impulse setzen. „Das Gesundheitssystem befindet sich hinsichtlich der Datenverarbeitung noch in der Steinzeit“, sagte Scheer. Die elektronischen Gesundheitskarte komme drei Jahre später als geplant und nur in einer abgespeckten Version, die den Patienten kaum einen Mehrwert biete. Neben neuen Anwendungen für die Gesundheitskarte fordert der BITKOM, den neuen Personalausweis mit einer elektronischen Signatur auszurüsten. „Die Folge wäre ein echter Sprung in der Kommunikation zwischen Bürger und Staat“, erklärt Scheer. Damit könne man die meisten Behördengänge bequem am heimischen Computer erledigen. Als weitere öffentliche Hightech-Projekte nannte Scheer den bislang schleppenden Ausbau des digitalen Behördenfunks sowie eine bessere Ausstattung der Schulen mit neuen Medien. Der IT-Gipfel wird zeigen, wie die BITKOM-Branche Wirtschaft und Verwaltung leistungsfähiger machen kann“, so Scheer. 

Hightech sei nach Ansicht von Bernhard Steimel, Sprecher der Brancheinitiative Voice Business http://www.voicedays.de, auch beim Behördenruf 115 gefragt. „Wer auf ‚One-Stop-Government setzt, der muss damit rechnen, dass die Bürger das Angebot ernst nehmen und wirklich jedes Anliegen bis hin zum Zaunkrieg mit dem Nachbarn vorbringen. Ohne ein vernünftiges Automatisierungskonzept werden die Bürgertelefone heiß laufen und die Kosten explodieren“, warnt Steimel. Das Merkel-Prestigeprojekt in Sachen bürgerfreundliche Verwaltung könne sonst in die Hose gehen.