Anschwellende Floskeln in der Pressearbeit

In Bilanzpressekonferenzen, Broschüren, Pressemitteilungen und Vorstandserklärungen wird zu häufig mit Leerformeln gearbeitet. „Wettbewerbstool mit Fokussierung der Komponenten der Implementierungsbreite“, meldet ein Unternehmen der Informationstechnik. Bei „variable Sequentierungsstrukturen und deren hardwareunterstützte Realisierung“ legen sich selbst Fachleute die Karten. Harmlos klingt da noch der tägliche Wortschwall: Man müsse sich neu aufstellen, umstrukturieren, aufs Kerngeschäft fokussieren, Synergien nutzen, effizient und effektiv an seinem Alleinstellungsmerkmal arbeiten. Diese Erklärungen sind leider kein Alleinstellungsmerkmal. Mit Formulierungen wie „der weltweit führende Anbieter“ (ein Klassiker in fast jeder Pressemitteilung) oder „mit unserer neuen Applikation wollen wir uns auf neue Kundensegmente fokussieren“ bewirkt man in den Redaktionen nur ein müdes Lächeln. Eine Journalistenumfrage des Kölner Marktforschungsunternehmens Smart-Research im Auftrag der PR-Agentur Storymaker http://www.storymaker.de unter 900 Journalisten von Wirtschafts-, Fach- und Publikumsmedien bestätigt die wachsende Aversion gegen die anschwellenden Floskeln bei Unternehmen der Telekommunikation und Informationstechnik.

Fast jeder zweite Befragte bemängelt, dass es der Presse- und Öffentlichkeitsarbeit selten gelänge, wirklich spannende Informationen zu vermitteln. 42 Prozent kritisieren eine zunehmende Betriebsblindheit, da es immer nur um Produkte der Unternehmen gehe. 37 Prozent der Journalisten klagen über uninteressante Pressetexte mit zu viel Marketing-Blabla und Fachchinesisch gespickt mit unverständlichen technischen Details und Anglizismen. Knapp ein Drittel moniert, dass zu langsam auf Anfragen reagiert werde und die Pressearbeit zu passiv sei.

„Die Reden und Kommentare von Wirtschaftsführern, Geschäftsberichte und Pressemitteilungen stehen allzu häufig mit der deutschen Sprache auf Kriegsfuß. Die Folge ist, dass man wirtschaftliche Zusammenhänge der Öffentlichkeit schon deshalb nicht erklären kann, weil es an der Sprachkompetenz mangelt, das heißt, an der Fähigkeit, Sachverhalte unterschiedlichen Schwierigkeitsgrades in schlichten Worten auszudrücken“, so der FAZ-Autor Erhard Glogowski. Statt ständig zu kommunizieren, wie innovativ doch das neue Produkt sei, sollten Firmen lieber so konkret wie möglich erklären, worin die Innovation besteht. Bei IT-Unternehmen wimmelt es von Bekundungen wie „Kundenorientierung“, „kompetente Teams“, „innovative und maßgeschneiderte Lösungen“, oder „anwenderorientierte Applikationen“: Semantik-Müll werde in Redaktionen mit Nichtbeachtung bestraft.

Erste iPhone-Entwicklerkonferenz in Deutschland – Tagung in München stellt neue Konzepte für Apps-Programmierung vor

Die neuen Konzepte für die Programmierung von Applikationen für iPhone und iPod touch stehen im Mittelpunkt der iPhone developer conference am 09. und 10. Dezember in München. Dabei handelt es sich um die erste Entwicklerkonferenz speziell für das iPhone in Deutschland. In 22 Vorträgen werden erfolgreiche Anwendungen vorgestellt. Es gibt eine ausführliche Einführung in die Entwicklung von Webapplikationen und nativer Anwendungen für das iPhone mit dem SDK. Am 09. Dezember schildert Werner Jainek die Erfolgsgeschichte seines Aufgabenverwaltungstools „Things“ von der Idee bis zur Präsentation im App Store. Über neue, bahnbrechende Möglichkeiten für das iPhone im Lehreinsatz an der Hochschule berichtet Prof. Dr. André Bresges von der Universität Köln. Der 09. Dezember richtet sich explizit an den Software-Entwickler: In 12 Vorträgen erfährt der Teilnehmer alles Wichtige zur Webapplikationsentwicklung und Browseroptimierung für die Entwicklung von nativen Anwendungen auf dem iPhone. Thematisiert wird darüber hinaus die Entwicklung im Team und die Einbindung des iPhone im Unternehmensnetzwerk. Die Referenten sind alle aus der Praxis und entwickeln selber für den App Store oder sind erfahrene Autoren in ihren Themenbereichen. Mehr Informationen findet man unter: http://www.iphonedevcon.de/referenten.php

 

Virtuelles Fräulein vom Amt – Sprachgesteuerte Handys als Tipping Point des Internets

Die Sprachsteuerung des iPhones mit „Google Mobile App“ http://googlemobile.blogspot.com wird von Web 2.0-Pionier Tim O’Reilly als „Tipping Point“ gewertet: Der Begriff  bezeichnet jenen Moment, in dem etwas Einzigartiges zum Normalzustand wird und einen qualitativen Umschlagspunkt markiert. „Es ist es an der Zeit, Telefone als erstklassige Geräte zu sehen, um auf das Internet zugreifen zu können, und nicht nur als Möglichkeit, Inhalte und Anwendungen umzuwidmen, die ursprünglich dazu gedacht waren, mit einer Tastatur und einem Bildschirm gelesen zu werden“, schreibt O’Reilly in seinem Blog http://radar.oreilly.com. Mit der Sprachsteuerungsfunktion werde ein neuer Weg für Computerdienstleistungen beschritten. „Apple begeisterte uns mit dem iPhone-Touchscreen, aber die Einbeziehung des Beschleunigungsmessers war fast ebenso wichtig; und jetzt hat Google uns gezeigt, wie dieser als Hauptkomponente einer Benutzeroberflächenanwendung eingesetzt werden kann. Legen Sie das Telefon ans Ohr und die Anwendung fängt an mitzuhören; eher durch eine natürliche Geste als durch ein künstliches Klopfen oder Klicken ausgelöst. Ja, der Beschleunigungsmesser wurde bereits in Spielen wie tilt oder the iPint verwendet, aber Google hat das Ganze noch etwas weiter getrieben durch die Integration des Telefon-Hauptsensors: das Mikrofon“, so O’Reilly. Nach seiner Ansicht liegt hier die Zukunft von Mobiltelefonen: eine Benutzeroberfläche zu entwickeln, die alle bisherigen Generationen über Bord wirft. Zeigen und klicken war ein Durchbruch für Computer, aber eine Sackgasse für das Design von Benutzeroberflächen.  

Mittlerweile haben das iPhone und ähnliche Smartphones eine Vielzahl an Sensoren: Mikrofon, Kamera, Touchscreen, Beschleunigungsmesser, und Standortortung. Neue Anwendungen und Kombinationen werden zu weiteren Überraschungen führen. „Künftige Geräte werden eine immer größere Anzahl an Sinnen haben, um darauf zu achten, was wir wollen. Könnte ein Telefon die Bewegung erkennen, die wir machen, wenn wir eine Kamera vor uns hochhalten, damit wir die Einstellungen festlegen können? Könnten wir mit dem Telefon reden um Kameraeinstellungen zu verändern? Könnte ein Telefon automatisch die Bewegung eines Autos erkennen und auf Sprachwahl umstellen? Und dann gibt es natürlich noch alle weitere Interaktionen mit anderen Geräten die möglich sind, wenn wir das Telefon als Steuerteil betrachten – ähnlich der Wii-Konsole von Nintendo“, erklärt O’Reilly. 

Auch in der ITK-Branche erwartet man Impulse über die Sprachsteuerung: „Computer werden heute immer noch primär über eine Tastatur bedient, die aus der Schreibmaschine entstanden ist, so als ob jeder Tastendruck einen mechanischen Hebel in Bewegung setzt. Selbst der Zeilenvorschub und Wagenrücklauf alias Carriage return ist uns erhalten geblieben, obwohl damit schon lange kein Papier mehr transportiert wird. Telefone haben zwar die Revolution von der Wählscheibe hin zur – in der Regel – 3×4 Tastatur gemacht, standardisiert nach ITU E.161, das erfolgte aber bereits in den 70er Jahren. Selbst moderne Handys und Smartphones halten sich noch an den Tastenwahlblock, entweder in mechanischer Ausführung oder als Icon-Darstellung auf einem Touchscreen“, weiß Andreas Latzel, Deutschland-Chef des ITK-Spezialisten Aastra http://www.aastra.de, der viel Wert auf die Benutzerfreundlichkeit seiner Systeme legt. Die Technikentwicklung sei zwar rasant schnell und ein gutes User-Interface inzwischen intelligent sowie kontextbezogen – im Kern aber immer noch traditionell. Vorhersehbar sei, dass der Tastaturblock an seine Grenzen stoße – spätestens mit der breiten Einführung der SIP-Telefonie und der SIP-Teilnehmeradressen.

„Anders als bei professionellen Tischgeräten kommt die Ausstattung von Handys mit alphanumerischen Tastaturen zwar auch vor, ist aber in der Regel wegen der beschränkten Abmessungen nicht befriedigend. Da bietet sich der Weg zum Sprachinterface an: der Ansage von Adressen oder Einträgen des Telefonbuchs in normaler Sprachform. Sinnvoll ist das beim Autofahren oder anderen Tätigkeiten, die beide Hände verlangen. Ein gutes Beispiel im professionellen Umfeld ist die Pflege in Altenheimen mit der Aastra-Branchenlösung OPAS. Hier kann beispielsweise mittels Telefon und Sprache die erbrachte Leistung dokumentiert werden – das Pflegepersonal gewinnt viel mehr Zeit für die Bewohner“, sagt Latzel. Übrigens schlage die Technik mit der Sprachwahl den Bogen zurück zu den Anfängen des Telefons vor der Einführung des Selbstwählsystems: damals aktivierte man den Telefonapparat durch Erzeugung einer Rufspannung über den Kurbelinduktor und sagte dem „Fräulein vom Amt“, mit welchem Teilnehmer man sprechen möchte. „Im modernen Telefon mit Sprachinteraktion wird das Fräulein von einer Software ersetzt“, so Latzel. In Kombination mit den Datenwolken von Google ergeben sich nach Prognosen von O’Reilly ungeahnte Möglichkeiten. „Sensorenreiche Geräte mit Anwendungen, die diese Sensoren nutzen, um mit Datenwolkendiensten zu interagieren und sie zu füttern. Der Standortsensor weiß, wo man sich befindet; das Mikrofon erkennt den Klang der Stimme, so dass es persönliche Daten in der Datenwolke frei setzt; die Kamera nimmt Objekte und Personen auf und sendet ein Bild zu einer abgelegenen Anwendung, die diese erkennt und die entsprechenden Informationen abruft“, führt O’Reilly aus. Viele Durchbrüche würden bereits vor der Tür stehen. Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung seien nur der Anfang. Der gleichen Meinung ist der Berliner Sprachdialogexperte Lupo Pape: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, resümiert SemanticEdge-Geschäftsführer Pape.

 

Siehe auch:

http://de.youtube.com/watch?v=y3z7Tw1K17A&eurl=http://googlemobile.blogspot.com/

http://googleblog.blogspot.com/2008/11/now-you-can-speak-to-google-mobile-app.html

 

Schlagworte verdichten den Nebel: Kritischer Diskurs zur Cloud Computing-Strategie von Google

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager.

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. Für Google würden sich neue Möglichkeiten ergeben, die Suchfunktionen weiter zu verbessern.  „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. Darüber hinaus werden auch Übersetzungs- und Multi-Modal-Systeme technisch realisierbar werden. Wenn Menschen in einer bestimmten Sprache kommunizieren, könnten sie auf diese Weise automatisch und nahtlos mit Menschen und Informationen in anderen Sprachen interagieren. Die Auswirkungen solcher Systeme werden weit über das Google-System hinausgehen. „Forscher medizinischer und allgemein-wissenschaftlicher Bereiche erhalten so Zugang zu riesigen Datenmengen und können dadurch Analysen und Algorithmen zur Erkennung bestimmter Muster durchführen, die es bisher in dieser Ausprägung noch nicht gegeben hat“, prognostizieren Spector und Och. So könnte beispielsweise das Large Synoptic Survey Telescope (LSST) mehr als 15 Terabyte an neuen Daten pro Tag generieren.

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg  besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.

Die Technologien von Google bieten für den privaten und professionellen Sektor einen erheblichen Nutzen. Und man ist vielleicht geneigt, die Kapazitäten als Cloud zu bezeichnen. Man kennt ja das Gesetz von Metcalfe: Die Nützlichkeit eines Netzwerkes ist proportional zum Quadrat der Anzahl der Benutzer. Seitdem wissen wir, wie sich die bessere Vernetzung auf den Nutzen auswirkt. Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn  Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert der Bizerba-Director Global Informaton Andreas Rebetzky. Sie leide  immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der IT-Experte Rebetzky.

 

Studie: Mittelstand verplempert Milliarden durch TK-Anlagen – Telefon-Steuerung über Web-Browser könnte Abhilfe schaffen

Laut einer aktuellen Untersuchung der Deutschen Telefon Standard AG http://www.dtst.de in Mainz sind rund 75 Prozent der deutschen Mittelständler mit ihren Telekommunikationsanlagen unzufrieden. Die Anwender schätzen den Schaden, vor allem durch zu komplizierte und nicht ausgelastete Anlagen, auf bis zu 5 Milliarden Euro jährlich. Nach der Telekom-Studie nutzen 72 Prozent der Unternehmen nur magere ein bis fünf Prozent der Möglichkeiten ihrer Telekommunikationsanlagen auch aus. „Meist handelt es sich hierbei nur um Basismerkmale wie Rufweiterleitung“, berichtet Informationweek http://www.informationweek.de. Komplexere Funktionen kommen lediglich acht Prozent der Befragten zum Einsatz – magere drei Prozent zählen sich zu den „Power-Usern“. 

Die Hauptursache für die überdimensionierte Technik liege bei den Herstellern, die den Mittelstand stiefmütterlich behandelt. Die Telefonanlagen seien nicht bedürfnisgerecht konzipiert, und kompliziert zu bedienen. „Von den Anwendern in den Unternehmen werden vor allem das umständliche Suchen nach Telefonnummern, die erneute Eingabe von Rufnummern nach Verwählen sowie das wenig intuitive Einrichten von Rufumleitung und Telefonkonferenzen bei vielen Anlagen kritisiert“, so Informationweek. Die Hälfte der Firmen schätzt, dass dadurch pro Mitarbeiter und Arbeitstag etwa 5 Minuten verloren gehen. Weitere 23 Prozent beziffern den Zeitverlust mit 10 Minuten, rund 22 Prozent der Befragten sogar mit mehr als 10 Minuten. Nur fünf Prozent der Unternehmen halten hingegen die Bedienung ihrer TK-Anlagen für so einfach, dass die Mitarbeiter damit keine nennenswerte Zeit verlieren. „Unter dem Strich ergeben diese sinnlosen Verzögerungen bei 60 Prozent der Mittelständler einen theoretischen finanziellen Schaden von 5 Milliarden Euro im Jahr durch nicht genutzte Arbeitszeit und Kapazitäten“, schreibt Informationweek. 

Einen Ausweg aus dem Dilemma könnten Voice-over-IP-Systeme bieten. Beim „Standard-Telefon-System“, einer VoIP-Anlage auf Basis von IP-Centrex, stelle etwa der Nutzer die Telefonfunktionen selbst über den Web-Browser ein. „Somit kann sich jeder Mitarbeiter die Funktionen zurechtlegen, die er benötigt, und somit effizienter mit seinem Telefon arbeiten. Als Endgeräte kommen Telefone von Anbietern wie Aastra, Polycom und Siemens zum Einsatz“, so Informationweek. „Auch Anwender mit wenig Affinitiät zur Technik können die webbasierte Nutzerverwaltung unserer TK-Systeme spielend einfach bedienen“, bestätigt Andreas Latzel, Deutschland-Chef von Aastra http://www.aastra.de. Nicht nur die IP-Centrex-Systeme, sondern alle TK-Systeme seines Unternehmens stellen eine webbasierte Nutzerverwaltung zur Verfügung. „Über die Einstellung der Benutzerdaten hinaus kann der Anwender unterstützende Services für die Telefonie über denselben Browser nutzen“, sagt Latzel im Gespräch mit NeueNachricht http://www.ne-na.de. Es sei keine Installation auf dem Arbeitsplatz nötig. Es werde ausschließlich ein Browser verwendet, der den Anwender mit seinem Kommunikationsportal verbindet und über die Administration seiner Userdaten hinaus weitere Anwendungen wie CTI oder Voicemail. „Einfachheit, Flexibilität und ein exaktes Anpassen des TK-Systems an die Bedürfnisse des Kunden sind wichtig, um auf dem TK-Markt bestehen zu können“, erklärt Latzel.

 

Mobilfunker blockieren Voice over IP – Next Generation Networks führt zu mehr Wahlfreiheiten für Kunden

Medienberichten zufolge überprüft die EU-Kommission die Rechtmäßigkeit der Blockade von Telefonaten über das Internet Protokoll (VoIP) im Mobilfunk. „In Deutschland untersagen alle vier großen Netzbetreiber VoIP-Telefonate über ihr Mobilfunknetz, T-Mobile und Vodafone verbieten auch Chats. Teilweise blockieren sie durch ein eigenes Branding der Handys auch die Funktion, mit der die Nutzer per WLAN Internet-Telefonate führen können. Um ihren Verboten Nachdruck zu verleihen, werden die Ports gesperrt, über die VoIP-Anwendungen wie fring, Nimbuzz oder truphone kommunizieren, oder der Zugang zu bestimmten Telefonnummern eingeschränkt“, berichtet PC-Welt http://www.pcwelt.de.

Das Unternehmen O2 habe eine Protestwelle ausgelöst, weil der Netzbetreiber den Zugang zu den deutschen Festnetznummern des VoIP-Anbieters Rebtel „limitierte“. „Von hundert Versuchen brachte nur einer eine Verbindung zustande. Eine vollständige Blockade war nicht möglich, weil die Kunden von ihrem Vertrag zurücktreten können, wenn Anrufe zu bestimmten Festnetznummern nicht durchgestellt werden. Nach zwei Wochen hob O2 die Sperre aufgrund massiver Kundenbeschwerden wieder auf“, so PC-Welt.

In der TK-Branche stößt die Geschäftspolitik der Mobilfunkunternehmen auf Unverständnis. „Gerade in Deutschland zeigt sich, dass der Mobilfunk eher als Oligopol denn als Wettbewerb funktioniert. Im Festnetz gab und gibt es keine Blockaden der IP-Telefonie. Das Ganze ist eine heißes Eisen, denn mit den schnellen UMTS-Verbindungen wollen die Mobilfunknetzbetreiber konkurrierende Angebote zum DSL-Angebot im Festnetz etablieren. Solange aber das Geschäftsmodell im Mobilfunk auf der Subventionierung der Endgeräte und entsprechenden Minutenpreisen beruht, unterlaufen VoIP-Verbindungen dieses Modell“, weiß Bernhard Steimel von der Düsseldorfer Unternehmensberatung Mind Business http://www.mind-consult.net. Mittel- bis langfristig werde aber die Netzkonvergenz über Next Generation Networks zum generellen Einsatz von IP-Telefonie führen – aus Sicht der Netzbetreiber als Netzbetreiberservice.

„Dafür sprechen neben dem Druck aus Brüssel zwei starke aktuelle Entwicklungstendenzen: Erstens verlagern die Mobilfunknetzbetreiber ihren Schwerpunkt zunehmend von Sprach- zu Datendiensten hin und zweitens wird im NGN-Umfeld zunehmend die Trennung des Transports und der Dienste voranschreiten. Insofern werden bei den Mobilfunknetzbetreibern Anschluss und Dienste bald entkoppelt“, resümiert Omar Khorshed, Vorstandschef von acoreus http://www.acoreus.de. Dauerhaft werde es nicht gelingen, Mobilfunkkunden Wahlfreiheiten vorzuenthalten. 

Zaunkriege am Bürgertelefon und die Illusion vom Amt 2.0: IT-Gipfel muss Impulse geben für Hightech im öffentlichen Dienst

Die im September 2000 gestartete E-Government-Initiative „BundOnline 2005“ hatte zum Ziel, die Dienstleistungs- und Kundenorientierung von Staat und Verwaltung zu stärken. Dazu waren alle internetfähigen Dienstleistungen des Bundes bis zum Jahr 2005 online bereitzustellen. Inzwischen sind nach Angaben der Bundesregierung 440 Verwaltungsdienste online erreichbar. Weitere folgen in den kommenden Jahren. BundOnline habe damit einen deutlichen Modernisierungsschub in der Bundesverwaltung ausgelöst, leistungsfähige IT-Strukturen geschaffen und den Bürokratieabbau unterstützt. Mit BundOnline hat die Bundesverwaltung den Einstieg in das Online-Zeitalter geschafft, die Effizienz und Kundenfreundlichkeit des Verwaltungshandelns verbessert und ein Fundament für die weitere Optimierung der Leistungen der Bundesverwaltung in den kommenden Jahren gelegt“, verkündet stolz das Bundesverwaltungsamt http://www.bund.de auf der eigenen Website.

Von einer nachhaltigen Verbesserung der Serviceleistungen des öffentlichen Dienstes sei man nach Ansicht von Udo Nadolski, Geschäftsführer des Düsseldorfer Beratungshauses Harvey Nash http://www.harveynash.com/de, noch weit entfernt: „Es wird zwar viel über E-Government auf Konferenzen geredet. Geändert hat sich wenig. Bund, Länder und Kommunen sind noch immer nicht in der Lage, ein bürgerfreundliches Amt 2.0 oder das Alles-aus-einer-Hand-Prinzip umzusetzen. Das kann nur funktionieren, wenn man die verkrusteten Strukturen der öffentlichen Verwaltung ordentlich aufmischt“, sagt Nadolski.

Nicht selten gehe ein Vorgang durch dutzende Hände. Das liege nicht etwa an der Unfähigkeit der Mitarbeiter, sondern an den Verfahrensabläufen, die fern der Amtsstuben festgelegt und über die Jahre hinweg ständig schlimmer statt schlanker werden. E-Government brauche in erster Linie anwenderfreundliche Internetangebote für den Bürger. „Nicht selten sind die Nutzer mit einem Absurdum konfrontiert: Die aufwändigen und verworrenen Verfahren werden nun auch elektronisch abgebildet, das war es dann auch schon. Um E-Government wirklich sinnvoll in den Dienst der Menschen zu stellen, müssten erst einmal die Verfahren, die den Bürger allzu oft überfordern, abgespeckt werden. Dass etwa ein unsinniges Formular nun auch online ausgefüllt und elektronisch übermittelt werden kann, ist eben nur die halbe Miete, wenn überhaupt“, so Nadolski.

Kaum ein Online-Projekt des Bundes habe bislang die erhoffte Nutzerfrequenz erreicht. Von einer Führungsrolle des Bundes beim Thema E-Government könne also keine Rede sein. „Bundeskanzlerin Angela Merkel sollte beim IT-Gipfel in Darmstadt keine neuen Projekte in die Welt setzen, sondern einen Rechenschaftsbericht ablegen über den Status quo der Online-Initiativen der vergangenen Jahre. Merkel oder der Bundes-CIO Hans Bernhard Beus müssten dazu Stellung beziehen, wer die Internetdienstleistungen überhaupt in Anspruch genommen hat und was getan werden muss, damit sich der Nutzungsgrad verbessert“, fordert Nadolski. Ein Blick in die Berichte des Bundesrechnungshofes könne dabei helfen.

Der Verband BITKOM http://www.bitkom.de spricht sich für eine konsequente Modernisierung der öffentlichen Verwaltungen, des Gesundheitssystems und des Bildungswesens aus. „Jetzt ist die Gelegenheit, ohnehin notwendige und vielfach überfällige Investitionen in die Hightech-Infrastruktur von Bund, Ländern und Kommunen zu tätigen“, fordert BITKOM-Präsident Professor August-Wilhelm Scheer.

Damit könne die öffentliche Hand zusätzliche Impulse setzen. „Das Gesundheitssystem befindet sich hinsichtlich der Datenverarbeitung noch in der Steinzeit“, sagte Scheer. Die elektronischen Gesundheitskarte komme drei Jahre später als geplant und nur in einer abgespeckten Version, die den Patienten kaum einen Mehrwert biete. Neben neuen Anwendungen für die Gesundheitskarte fordert der BITKOM, den neuen Personalausweis mit einer elektronischen Signatur auszurüsten. „Die Folge wäre ein echter Sprung in der Kommunikation zwischen Bürger und Staat“, erklärt Scheer. Damit könne man die meisten Behördengänge bequem am heimischen Computer erledigen. Als weitere öffentliche Hightech-Projekte nannte Scheer den bislang schleppenden Ausbau des digitalen Behördenfunks sowie eine bessere Ausstattung der Schulen mit neuen Medien. Der IT-Gipfel wird zeigen, wie die BITKOM-Branche Wirtschaft und Verwaltung leistungsfähiger machen kann“, so Scheer. 

Hightech sei nach Ansicht von Bernhard Steimel, Sprecher der Brancheinitiative Voice Business http://www.voicedays.de, auch beim Behördenruf 115 gefragt. „Wer auf ‚One-Stop-Government setzt, der muss damit rechnen, dass die Bürger das Angebot ernst nehmen und wirklich jedes Anliegen bis hin zum Zaunkrieg mit dem Nachbarn vorbringen. Ohne ein vernünftiges Automatisierungskonzept werden die Bürgertelefone heiß laufen und die Kosten explodieren“, warnt Steimel. Das Merkel-Prestigeprojekt in Sachen bürgerfreundliche Verwaltung könne sonst in die Hose gehen.  

Sprachsteuerung: Google macht das iPhone zum Super-Handy

Im Februar 2008 hatte ich schon darüber berichtet, wie die Sprachdialogszene am Super-Handy bastelt: Fortschrittliche Mensch-Maschine-Schnittstellen wie Spracherkennung oder Gestensteuerung könnten aus dem Handy eine Steuerzentrale für Online-Inhalte machen und neue Geschäftsmodelle eröffnen: Sprachdialogsysteme sind nach Auffassung von Lupo Pape, Geschäftsführer des Berliner Unternehmens SemanticEdge http://www.semanticedge.de, ein wichtiger Baustein für das Super-Handy der Zukunft: „Wie häufig hätten wir gerne im Alltag genaue Informationen zu Sportergebnissen, Telefonnummern oder Adressen. Unendlich viele Dinge, die wir, wenn wir gerade im Internet wären, sofort über Google abrufen würden. Da das aber in der Freizeit und von unterwegs selten der Fall ist und der Zugriff über das Handy mit Tastatur oder Touchscreen zu mühselig ist, verzichten wir meistens darauf, unseren Wissenshunger sofort zu stillen. Anders wäre es, wenn wir mit einfachen gesprochenen Suchbefehlen unsere Anfrage starten und die Suche dann bei Bedarf eingrenzen könnten, genauso, wie wir es derzeitig mit der PC-Tastatur und Maus tun und das ganze jederzeit und von jedem Ort aus”, erklärt Sprachdialogexperte Pape zum Start der Call Center Worldhttp://www.callcenterworld.de in Berlin. Seit Freitag wissen wir, dass das keine Hirngespinste sind. Google bringt die Sprachsteuerungstechnik auf das iPhone. 

Nutzer der frei abrufbaren Anwendung müssen nur das Telefon an ihr Ohr halten und können dann praktisch jegliche Art von Fragen stellen, wie beispielsweise „Wo finde ich den nächst gelegenen Starbucks?“ oder „Wie hoch ist der Mount Everest?“ Der Sprachlaut wird dann in eine digitale Datei konvertiert, die anschließend an die Server von Google weiter geleitet wird. Dort werden die gesprochenen Worte ermittelt, die im Anschluss daran an die Google Suchmaschine gehen. 

Die Ergebnisse dieser Suche, die in nur wenigen Sekunden auf einem schnell arbeitenden drahtlosen Netzwerk angezeigt werden können, schließen zum Teil lokale Informationen mit ein. Dabei macht man sich die Funktionalitäten des iPhones zu Nutze, über die man den konkreten Standort bestimmen kann.

Die Fähigkeit, fast jeden gesprochenen Satz von einer x-beliebigen Person identifizieren zu können, war lange Zeit das höchste Ziel der Forscher für Künstlichen Intelligenz. Ihr Bestreben galt dabei besonders dem Erforschen von Methoden, die bewirken sollen, dass die Interaktionen zwischen Mensch und Maschine zu einer Selbstverständlichkeit werden. Systeme, die mit einer solchen Fähigkeit ausgestattet sind, haben kürzlich damit begonnen, als kommerzielle Produkte die Märkte zu erobern.

Sowohl Yahoo als auch Microsoft bieten bereits Sprachdienstleistungen für Handys an. So gibt der Microsoft Tellme Service Informationen nach speziellen Kategorien, wie beispielsweise Anfahrts- und Wegbeschreibungen, Landkarten und Spielfilme wieder. Das Yahoo oneSearch System mit Spracherkennung ist im Vergleich dazu flexibler, dafür scheint es aber nicht so akkurat zu funktionieren wie das Angebot von Google. Das Google-System ist noch lange nicht perfekt und sendet beispielsweise Anfragen zurück, die wie Kauderwelsch klingen. Das Management von Google hat sich bisher zurückgehalten, Schätzungen bekannt zu geben, die besagen, wie oft der Service korrekt funktioniert. Die Verantwortlichen sagten nur, dass sie der Meinung seien, dass der Service zumindest akkurat genug ist, um den Nutzern den großen Vorteil zu bieten, nicht mehr wie bisher ihre Anfragen auf der Touchbildschirm-Tastatur ihres iPhones eintippen zu müssen.

Der Service kann genutzt werden, um Restaurant-Empfehlungen und Anfahrtsbeschreibungen zu erhalten, oder aber um Kontaktadressen aus dem iPhone Addressverzeichnis abzurufen. Genauso kann der Service dafür nützlich sein, Auseinandersetzungen in Bars zu bereinigen. Auf die Frage “Welches ist das beste Pizza-Restaurant in Noe Valley?“ würde der Service beispielsweise mit einer Liste mit drei Restaurants in der Nachbarschaft von San Francisco reagieren, jede einzelne mit Sterne-Kategorie-Beurteilungen von Google Nutzern und weiterführenden Links, durch die man Telefonnummern und Wegbeschreibungen anklicken kann.

Raj Reddy, ein Wissenschaftler der Künstlichen Intelligenz an der Carnegie Mellon University, der Pionierarbeit in der Spracherkennung geleistet hat, sagte, dass der Vorteil von Google sei, riesige Mengen an Daten zu speichern und zu analysieren. „Welches Produkt Google auch immer zum jetzigen Zeitpunkt auf den Markt bringt, wird schon in drei oder sechs Monaten signifikant an Fehlerfreiheit und Akkuratesse hinzu gewonnen haben“, erklärte Reddy.

Reddy fügte ferner hinzu: „Es ist wichtig zu verstehen, dass Spracherkennungssysteme nie richtig perfekt sein können. Die Frage sollte vielmehr lauten: bis zu welchem Punkt ist die Maschinenleistung in der Lage, sich der menschlichen Leistung zu nähern?“ Für Google ist die Technologie von entscheidender Bedeutung, um den nächsten Ansturm auf die Werbewelt vorzubereiten. Das Management von Google kommentierte dies mit der Aussage, dass man durch lokale Anfragen beispielsweise höhere Werbekostensätze von Unternehmen aus der Region verlangen könnte, obgleich der Verkauf einer solchen Werbeform bisher nicht Bestandteil ihres Portfolios sei.

Wie auch bei den übrigen Produkten Googles ist dieser Service für die Nutzer frei verfügbar. Außerdem plant das Unternehmen, den Service später auch anderen Telefonsystemen zur Verfügung zu stellen.

„Durch die Aspekte ‚Standort‘ und ‚Sprache‘ erhöhen wir gegenüber den Werbeträgern den Service-Nutzen auf dramatische Weise,” erklärte Vic Gundotra, ein ehemaliger leitender Angestellter von Microsoft, der nun das Mobile-Business bei Google leitet.

Dabei ist Google keinesfalls das einzige Unternehmen, das daran arbeitet, zukunftsweisende Spracherkennungs-Ressourcen zu erschließen. Eine so genannte Spracherwiderungstechnologie kommt schon heute regelmäßig bei telefonischen Anrufbeantwortersystemen und anderen Verbraucherdienstleistungen und -produkten zum Einsatz. Allerdings haben diese Systeme oft Schwierigkeiten mit der Komplexität von Dialogen. Außerdem offerieren sie in der Regel nur ein eingeschränktes Repertoire an Antworten auf die eingehenden Anfragen.

Vor einigen Wochen hatte Adobe seiner Creative Suite Software die von dem britischen Unternehmen Autonomy entwickelte Spracherkennungstechnologie hinzugefügt. Dadurch wurde die Möglichkeit geschaffen, Videokopien und Audio-Aufzeichnungen mit einem hohen Grad an Genauigkeit zu erstellen.

Gundotra wies darauf hin, dass Google es geschafft hätte, das doppelte Problem der Informationseingabe und der Informationsabfrage für mobile Endgeräte erfolgreich zu lösen.

„Diese zwei zusammenhängenden Probleme auf Weltklasse-Niveau zu lösen, ist unser oberstes Ziel“, erklärte Gundotra.

Die neue iPhone Suchmöglichkeit ist nicht das erste Sprach-basierte Angebot von Google. Schon im März hatte das Unternehmen verlauten lassen, dass das GOOG-411, ein experimenteller Auskunftsdienst, bereits zu einem reellen Produkt herangereift sei. Der Service eröffnet Nutzern die Möglichkeit, Geschäfts-Telefonnummern und Adressinformationen abzufragen. Google sagte, dass es sich die Erfahrungswerte und Dateninformationen, die es durch das GOOG-411 gewinnen konnte, für die Entwicklung des iPhone Services zu Nutze gemacht hätte.

Die neue Dienstleistung ist ein gutes Beispiel dafür, wie Google es schafft, elementare Informatik-Forschung mit Produkttechnik zu verbinden. Um dies zu erreichen hat das Unternehmen einige der besten Spracherkennungs-Forscher der Welt engagiert. Die Teams in New York, London und dem Hauptsitz in Mountain View bearbeiten die Problematik aus unterschiedlichen Blickwinkeln.

Ein verblüffender Teil des Gesamtdesigns der Dienstleistung wurde von einem Google-Researcher aus London beigesteuert, der eine Möglichkeit entdeckte, wie man den iPhone Akzelerometer nutzen kann — das Gerät, das per Sensortechnik erkennt, wie das Telefon gehalten wird. Die Researcher von Google erklärten, dass ein weiterer Vorteil gegenüber der Konkurrenz in der Tatsache bestehen würde, dass die Verbraucher in den vergangenen Jahren bereits Milliarden von Anfragen bei Google getätigt hätten, was allein schon für eine große Erfahrungskompetenz spräche.

„Eine Sache, die sich geändert hat, ist die heute verfügbare Berechnungsgröße und die Datenmenge“, erklärt der Sprachforscher Mike Cohen, der bevor er zu Google kam, als Mitbegründer bei Nuance Communications tätig war. Cohen empfahl darüber hinaus, dass frühere Anfragen dazu genutzt werden könnten, ein statistisches Modell zu erstellen, das demonstriert, auf welche Art und Weise Wörter häufig in einer aneinander gereihten Form auftreten. Dies ist nur eine der vielen Komponenten des Spracherkennungssystems, zu dem außerdem ein Sprachlaut-Analyse-Modell zählt ebenso wie ein Mechanismus, der es ermöglicht, die elementaren Sprachkomponenten mit tatsächlichen Wörtern zu verknüpfen.

Google hat vor kurzem ein technisches Dokument über die Entwicklung von umfangreichen Modellen zur maschinellen Übersetzung der Sprache veröffentlicht. Die Forscher schrieben dazu, dass sie das System an zwei Billionen „Informationsmerkmalen“ oder Wörtern erprobt hätten.

Hier die Demonstration des Dienstes auf Youtube: http://de.youtube.com/watch?v=GQ3Glr5Ff28


 

Telekom öffnet Glasfasernetze für Konkurrenz – Alleingang des Ex-Monopolisten chancenlos

 

Es gibt sie noch, die positiven Nachrichten von der Deutschen Telekom. So überraschte Festnetzchef Timotheus Höttges die Telekommunikationswelt am Wochenende positiv mit der Ankündigung, den Glasfaserausbau in Deutschland gemeinsam mit alternativen Anbietern voran zu treiben. Nach Ansicht von Branchenexperten ist das eine glatte 180-Grad-Wende, nachdem die Telekom die Konkurrenten noch vor zwei Jahren per Gesetz von ihren superschnellen Anschlüssen im Kupfernetz hatte ausschließen lassen. Das neue Modell sieht nach Informationen der Wirtschaftswoche http://www.wiwo.de nun vor, dass sich die Telekom mit dem jeweiligen Wettbewerber ein Stadtgebiet aufteilen und die Partner das Netz des anderen jeweils nutzen dürfen, um ihren Kunden so Fernsehen, Internet und Telefon als Komplettpaket anbieten zu können.

 

Von einer Zeitenwende könne nach Ansicht von Georg Stanossek, Chefredakteur des Fachdienstes Portel http://www.portel.de, allerdings nicht gesprochen werden. „Die Telekom steht im Festnetz mit dem Rücken zur Wand und hat gar keine andere Wahl, als bei so einer Mammut-Aufgabe wie dem Glasfaserausbau mit den Konkurrenten zusammen zu arbeiten. Nach wie vor verliert der rosa Riese jeden Monat zigtausende Kunden entweder an die Konkurrenz im Festnetz oder zunehmend auch im Mobilfunk. Besonders in den Ballungsgebieten, wo gleich ein halbes Dutzend oder mehr Anbieter die Kunden mit Dumpingpreisen und Pauschalen für Telefon und Internet umwerben, liegen die Marktanteile der Wettbewerber in Teilbereichen bereits bei über 70 Prozent“, erläutert Stanossek. Vor allem bei den Geschäftskunden oder der öffentlichen Hand könnten die lokalen Anbieter ihre engen wirtschaftlichen und politischen Kontakte voll ausspielen und zudem noch mit deutlich besseren Serviceangeboten gegenüber dem Ex-Monopolisten punkten. Der Konzern spüre immer stärker die Folgen permanenter Änderungen der Organisation, häufiger Führungswechsel und des Stellenabbaus.

 

„Dabei hat die Zukunft im Telekommunikationsmarkt noch gar nicht einmal so recht begonnen. Und dort wo sie begonnen hat, gehören die Netze in der Regel nicht der Telekom“, weiß Stanossek.

Brandherde gebe es Köln und München, wo Netcologne und M-Net als Lokalmatadoren in enger Zusammenarbeit mit den Stadtwerken und Wohnungsbaugesellschaften schon vor Jahren begonnen haben, in einzelnen Wohnblocks aber auch in ganzen Stadtteilen tausende von Haushalten per Glasfaser direkt auf das eigene Netz zu nehmen. „Ganz ohne die Telekom können die Kunden nun plötzlich einen Internet-Zugang mit 100 Mbit/s zum marktüblichen Preis erhalten. Schlagendes Argument für den Wechsel auf die Glasfaser ist dabei für die Kunden häufig nicht das deutlich schnellere Internet, sondern – Marcel Reich-Ranicki und Elke Heidenreich zum Trotz – das im Triple Play-Paket enthaltende TV-Angebot“, sagt Stanossek.

 

Der Aufbau der Glasfasernetze sei dabei keineswegs auf die Metropolen beschränkt. Im Gegenteil: Gerade auf dem Land mehren sich die Breitbandinitiativen, nachdem dort selbst wichtige mittelständische Unternehmen, beispielsweise aus der Zuliefererindustrie, lange genug und meistens vergebens bei der Telekom um DSL gebettelt haben. Alveslohe, Hamm, Meschede, Neuler, Nordhorn, Premnitz, Schwerte, Steinfurt, Zernsdorf – gerade diese vermeintlich unbedeutenden ehemals ‚weißen Flecken’ auf dem deutschen Breitbandatlas sind es, welche die Telekom nun anscheinend zur Vernunft gebracht, um nicht zu sagen in die Knie gezwungen, haben“, glaubt der Portel-Chefredakteur. Abseits der „großen“ Telekom-Themen Stellenabbau, Datenklau und Abhörskandal hätten sich diese Orte klammheimlich von der Telekom-Fessel „Teilnehmeranschlussleitung (TAL)“ befreit und auf eigene Faust und in einer Art Bürgerbewegung teils mit eigenen, teils öffentlichen Fördergeldern bessere und preiswertere Kommunikationsinfrastrukturen geschaffen. 

 

„Offenbar hat sich mittlerweile auch bis in den Vorstand herumgesprochen, dass der Konzern hier im Wettbewerb keine Chancen hat, seine Kunden zu behalten, wenn eine Gemeinde sich einmal entschließt, ihre Bürger mit Glasfaser zu versorgen. Gleichzeitig hat die Telekom nicht die Mittel, den flächendeckenden Ausbau ihres Glasfasernetzes auf der letzten Meile, also den letzten Metern vom Kabelverzweiger bis ins Gebäude, aus der eigenen Kasse zu finanzieren. Bis zu 60 Milliarden Euro sind dafür nach Einschätzung von Experten erforderlich. Timotheus Höttges zieht für die Telekom also lediglich die Notbremse, wenn er nun beim Glasfaserausbau die Zusammenarbeit mit den lokalen Anbietern sucht“, kommentiert Stanossek.

 

Und selbst wenn die Telekom die finanziellen Mittel hätte: Die EU-Kommissarin Viviane Reding habe längst klar gemacht, dass sie auch die Glasfasernetze in Europa regulieren und für den Wettbewerb öffnen will. Die Kommission führt zum Next Generation Access (NGA) derzeit entsprechende Konsultationen durch. Über einen gemeinsamen regulatorischen Rahmen für NGA-Netze soll eine einheitliche Behandlung der Netzbetreiber in der EU erreicht und so die für Investitionen erforderliche Rechtssicherheit geschaffen werden. „Ein flächendeckendes Glasfasernetz, das alle Dienste-Provider als Open Access-Netz zu gleichen fairen Konditionen nutzen können, ist für den Wirtschaftsstandort Deutschland von entscheidender Bedeutung im internationalen Wettbewerb“, meint Stanossek. Am Ende wäre es für den Markt aber auch schon ein positiver Effekt, wenn die Fixierung der Deutschen Telekom und anderer Unternehmen auf kurzsichtige Gewinnmaximierung und die damit verbundenen kurzfristigen Abschreibungszeiten für Investitionen nun einem nachhaltigen Investitionsverhalten und einem Denken in langfristige Renditen weichen würde. Siehe auch: http://www.inside-digital.de/news/2137.html; http://www.voip-info.de/news/newsartikel__968.php; http://www.dsl-magazin.de/news/telekom-konkurrenz-fordert-zugang-zu-ip-glasfasernetzen_21507.html; http://www.portel.de/nc/nachricht/artikel/14348-vatm-bnetza-will-wettbewerbern-eingeschraenkten-zugang-zum-glasfaser-netz-gewaehren/; http://www.portel.de/nc/nachricht/artikel/20245-diw-studie-deutschland-muss-bei-telekom-investitionen-nachlegen/.

Branchenexperte kritisiert Abzocke der Mobilfunker und Untätigkeit der Bundesnetzagentur – „Regulierer hängt die Kleinen und lässt die Großen laufen“

„Die Aufschläge der Mobilfunknetzbetreiber sind exorbitant, ohne dass die Inhalteanbieter, die auch das geschäftliche Risiko tragen, daran partizipieren würden.“ Renatus Zilles, Vorsitzender der Geschäftsführung des Bonner Mehrwertdiensteanbieters NEXT ID http://www.next-id.de und Präsidiumsmitglied des Verbandes alternativer Anbieter von Telekommunikations- und Mehrwertdiensten VATM http://www.vatm.de ist mehr als ungehalten. Im Interview mit dem Deutschlandfunk http://www.podcast.de/episode/789763/Interview_mit_Renatus_Zilles kritisierte er die freie Preisgestaltung der Mobilfunker für Mehrwertdienste, für die sie lediglich den Zugang ermöglichen. Darin sieht er eine Ungleichbehandlung, die auch durch die vom Bundeskabinett beschlossenen Änderungen des Telekommunikationsgesetzes nicht beseitigt werden. „Während im Festnetz ein einheitlicher Preis für alle Verbraucher gilt, können die Mobilfunkanbieter den Endkundenpreis für Gespräche etwa zu 118xy oder 0900 nach freiem Ermessen bestimmen.“ Auch durch die neue Gesetzgebung werde nicht transparent, wie sich die Aufschläge zusammensetzen und worin sie begründet seien.
 
Bundeswirtschaftsminister Glos konzentriere sich einseitig auf die 0180-Nummern. Die Preisobergrenze für Mobilfunker in Höhe von 28 Cent pro Minute sei zwar nach Meinung von Zilles ein Schritt in die richtige Richtung: „Aber das Bundeskabinett zu kurz gesprungen. Wie kommt Glos auf die 28 Cent? Wir kommen bei wohlwollender Berechnung ungefähr auf 22 Cent. Da sind immer noch Terminierungsentgelte von acht bis neun Cent enthalten. EU-Kommissarin Viviane Reding will in den nächsten zwei bis drei Jahren diese Terminierungsentgelte auf 1,2 Cent reduzieren, so wie sie im Festnetz sind. Mit welcher Logik nimmt ein Mobilfunker ein Vielfaches von dem, was ein Festnetzanbieter berechnen darf. Das kann mir keiner erklären.“ Das alles führe zu Verärgerungen beim Kunden, der die Mehrwertdiensteanbieter gerne als Abzocker bezeichne. Diesen Vorwurf müssen sich aber tatsächlich die Mobilfunkanbieter gefallen lassen. „Wenn die Inhalteanbieter die Preise bestimmen könnten, gäbe es die Abzocker-Diskussion nicht“, betont Zilles. Die Mobilfunkanbieter nähmen teilweise Aufschläge von bis zu 2000 Prozent vor.
 
Dass die Bundesnetzagentur http://www.bundesnetzagentur.de als „Hüterin der Rufnummern“ ein Verfahren gegen die Deutsche Bahn eingeleitet hat, weil diese anders als im Telekommunikationsgesetz vorgesehen, nur den Sekundenpreis von drei Cent statt des Minutenpreises von 1,80 Euro angibt, begrüßt er. Eigentlich könne nämlich die Bundesnetzagentur Chancengleichheit herstellen. Aber in Bezug auf die Bahn gebe es schon seit mindestens zwei Jahren immer wieder erhebliche Beschwerden, weil diese Tarife für Telefondienste nicht oder unzureichend angebe. Hier wünsche man sich stringenteres Vorgehen. „Bei vielen anderen Anbietern reichen schon kleinere Verstöße aus, um Rufnummern entzogen zu bekommen“, so seine Kritik an die Bonner Behörde. „Wir würden uns wünschen, dass hier mit gleichem Maß gemessen würde und sich die Bundesnetzagentur dem Thema Mobilfunk stärker widmen würde“, forderte Zilles. Die Kleinen würde man hängen und die Großen lasse man laufen. „Mit den Verstößen des Mehdorn-Konzerns kann man inzwischen ganze Bildbände füllen. Aber von der Bundesnetzagentur kommen hier kaum Interventionen, außer ein paar netten Briefen. Bei private Anbietern klemmt der Regulierer die Rufnummern ab und bewirkt Millionenschäden“, kritisiert der NEXT-ID-Chef auf Nachfrage von NeueNachricht http://www.ne-na.de.
 
Ein denkbares Modell sieht er im Nachbarland. „In Österreich sind die Endkundetarife im Prinzip gleich, zum Beispiel zwei Euro für einen Dienst. Davon verbleiben vom Endkundentarif 15 bis 20 Prozent beim Netzbetreiber, sowohl im Festnetz wie im Mobilfunk. Für die gleiche Leistung beanspruchen die Mobilfunkbetreiber in Deutschland bis zu 52 Prozent“, erläutert er die Diskrepanz. „Das heißt, beim österreichischen Modell bekommt der Endverbraucher hat eine klare Preisansage und weiß, was auf ihn zukommt, egal ob er vom Festnetz oder dem Handy anruft.“