Eine Übernahme von Yahoo durch den Software-Konzern Microsoft hätte nach Ansicht von Voice Days Plus-Sprecher Bernhard Steimel noch Sinn gemacht. Allerdings nur beim Kampf um die Hoheit des mobilen Internets. Beim stationären Internet sei gegen Google kein Blumentopf mehr zu gewinnen. „Mit dem Handy kommen Menschen ins Internet, die den Weg über den PC nie genutzt haben oder nutzen werden. Aufgrund des Formfaktors, den Screengrößen, Bedienungslimitierungen und verfügbaren Bandbreiten muss die Suche, also der primäre Zugang zu allen Inhalten und Diensten, auf dem Handy erschwerten Anforderungen gerecht werden. Sie muss sich zur Antwortmaschine weiter entwickeln, die aus der Verknüpfung von Web 2.0 und dem Semantischen Web richtige ‚Antworten’ produziert, statt lange Linklisten auszuspucken. Zudem muss die mobile Suche einfach zu bedienen sein“, weiß Steimel.
Wer von den Suchanbietern schließlich das Rennen gewinnen werde, hängt nach seiner Auffassung davon ab, wer den „Kampf um die besten Köpfe“ mit der größten Marktmacht verbinden kann. „Den Kampf um die Köpfe hat Google bereits gewonnen – besonders durch die Art von Google, immer alles neu zu entwickeln und die geniale Strategie, mit GOOG411 im weltgrößten ‚Freiland-Versuch’ das eigene Sprachmodell zu validieren und mit einer exzellenten Qualität aufzuwarten. Und auch bei der Marktmacht hat Google noch die Nase vorn. Auf der ersten Seite der meisten TK-Unternehmen, die ihren mobilen Kunden eine Suche anbieten, steht in der Regel die mobile Google-Suche“, führte Steimel aus.
Das gestern verkündete Kooperationsmodell zwischen Microsoft und Yahoo sei allerdings eine Totgeburt. Hier stimme Steimel mit der Analyse von netzwertig überein. Wenn der Blinde mit dem Lahmen marschiert, entstehe kein Weltklassesprinter. „17 Monate nach den ersten Fusionsgerüchten haben Microsoft und Yahoo sich nun endlich auf eine langjährige Zusammenarbeit geeinigt. Doch auch wenn dieser ausgesprochen wirre Deal kurzfristig ein Gegengewicht zu Google schafft, wird er die beiden Firmen nicht vor ihrem Abstieg im Internetgeschäft retten“, spekuliert netzwertig. Es könne sehr gut sein, dass Microsoft und Yahoo mit diesem überkomplizierten Deal Google endgültig die Dominanz bei der Websuche geschenkt haben.
„Der Deal ist aus der Not geboren und wird in der praktischen Umsetzung scheitern, wie viele anderen strategischen Kooperationen zuvor. Wenn man mit aller Macht konsolidieren will, dann wäre eine Fusion wohl der bessere Weg gewesen“, resümiert der Kundenservice-Experte Steimel.
Sowohl Microsoft als auch Open-Source-Initiativen sehen ein großes Potenzial für den Einsatz von Internet-Software in Autos. Ein System von Microsoft und Fiat soll nach einem ORF-Bericht den Nutzern dabei helfen, ihren Fahrstil umweltfreundlicher zu machen. „In den USA hockt schon ein virtueller Versicherungsagent mit im Bordcomputer, der risikoreiches Fahren mit höheren Prämien bestraft“, so der Fernsehsender ORF. „Microsoft bringt webbasierte Dienste ins Auto“, kündigte Microsoft-Manager Tom Philipps im Gespräch mit ORF.at an. Seit etwa zehn Jahren spiele Software im Auto eine zunehmend wichtigere Rolle. Microsoft möchte Autoanwendungen um Internet-Dienste erweitern. Philipps bezeichnet das Auto als „Aktivitätsinsel“, da es bisher nicht ins Internet integriert war. Ein Beispiel für die Verschränkung von Fahrzeug und Web sei das eco-Drive-Programm, das der italienische Autohersteller Fiat auf Basis der Software-Plattform „Microsoft Auto“ entwickelte. Hier die komplette Meldung.
Was als unanständig, unkorrekt, kulturell verwerflich, pädagogisch bedenklich oder anarchisch gilt, scheint im Internet mittlerweile unter Generalverdacht gestellt zu werden. Es wimmelt von Warnhinweisen und Verbotsschildern. Die politischen Volkspädagogen haben die Welt der Geräte, Maschinen und Informationstechnologien als Spielwiese für ihre Borderline-Kontrollsucht entdeckt. Gebt doch einfach mal in der neuen Microsoft-Suchmaschine „Bing“ Begriffe wie „Strumpfhose“ oder „Nackt“ ein. Es erscheint jetzt nicht Zensursula mit erhobenem Zeigefinger, keine Angst. Aber Ursel könnte der Mentor dieser Maßregelung der „Entscheidungsmaschine“ sein.
Bang. Jetzt erkenne ich den tieferen Sinn des technologischen Konzeptes der „Entscheidungsmaschine“: Mir werden von Bing die Entscheidungen und Konsequenzen meiner Suche schlichtweg abgenommen, da ich in Gefahr bin, moralisch verwerfliche Stumpfhosen zu kaufen oder Nacktbadestrände zu recherchieren. Bing meint es gut mit mir. Ursel meint es gut mit mir. Und die Entwickler von Maschinen, Geräten, Software und Systemen meinen es auch nur gut mit mir. Ursel und Bing sind wie Mutter und Vater. Da bekommt das lateinische Wort „Pater“ eine neue Geltung. Der Paternalismus entstammt einem hierarchischen Familienmodell, in dem der Vater für seine Kinder sorgt und ihnen vorschreibt, wie sie sich zu verhalten haben.
Ähnlich strukturiert läuft der Züchtigungsdrang beim Technologiepaternalismus ab. Harmlos fängt es noch mit der „Anschnallerinnerung“ an, die heutzutage in praktisch allen Fahrzeugen das Anlegen des Sicherheitsgurtes „vorschlägt“ – begleitet von nervigen Pieptönen, die unsere Gehörgänge malträtieren. Etwas penetranter ist da der „Alcokey“ von Saab, der das Fahrzeug nur dann startet, wenn der Fahrer nicht alkoholisiert ist. Auch ein großer deutscher Autohersteller meint es doch nur gut mit uns, wenn die mit „Connected Drive“ ausgestatteten Limousinen im Ernstfall automatisch Hilfe rufen. Öffnet sich der Airbag, informiert das Auto über das Mobilfunknetz den Notdienst. „Das tat es auch, als ein Hamburger seinen Wagen nächtens versehentlich in ein Hafenbecken lenkte. Als der Havarist sich ohne fremde Hilfe aus dem Fahrzeug befreite, hatte der BMW allerdings schon längst SOS gefunkt. Polizei und Rettungskräfte waren binnen Minuten an der Unfallstelle, fanden den Wagen – und kurz darauf dessen angesäuselten Fahrer. Das unrühmliche Ende der Tour: Fahrerlaubnis futsch, und den Schaden am Auto musste der Alkoholsünder auch tragen. Ohne Connected Drive hätte er sich eine plausible Geschichte für die Versicherung ausdenken können. Weil er sich um diese Chance gebracht sah, verklagte er den Automobilhersteller – allerdings erfolglos“, berichtet Technology Review.
Selbst Espressomaschinen ermahnen uns durch laute Signale, die Reinigung nicht zu vernachlässigen und Bohrmaschinen verweigern den Dienst, wenn Schutzhelm und Schutzbrille fehlen. Maschinen werden so zu Vollstreckern von Zwangsmaßnahmen gedrillt – anfänglich hilfreiche Technik mutiert zum repressiven Oberlehrer.
Wenn Systeme, Geräte, Suchmaschinen oder virtuelle Verbotsschilder entscheiden, was richtig und was falsch für uns ist und unser Verhalten einschränken oder sogar sanktionieren, dann bekommen wir eine Automaten-Diktatur. Und die könnte sich nachhaltiger auswirken als das paternalistische Verhalten unter Menschen, warnen die Wissenschaftler Sarah Spiekermann und Frank Pallas in einem Beitrag für das Fachbuch „Die Informatisierung des Alltags“ (Hrsg. Friedemann Mattern, Springer-Verlag): „Zum einen reagieren Maschinen automatisch und autonom und lassen den Betroffenen damit nur wenig Möglichkeit zur Antizipation oder Reaktion. Zum anderen ist Technik absolut. Hat beispielsweise ein Fahrer Alkohol in der Atemluft, so ist es ihm gänzlich unmöglich, das entsprechende Auto zu starten – auch in Notfällen, in denen das Fahren unter Alkoholeinfluss üblicherweise akzeptiert würde“.
Der Paternalismus der gutmeinenden Kontrolleure sei bei Technologien nicht nur mit Gehorsam oder Obrigkeitshörigkeit verbunden, sondern erzeuge einen Zwang zu absoluter Konformität. Autonom agierende Maschinen werden zu absoluten Kräften, deren Entscheidungen und Handlungen nicht umgangen oder missachtet werden können. Staatliche Maßregelungsinteressen könnten als Katalysator wirken und sogar zwingend vorschreiben, automatische Sanktionsinstrumente zu etablieren.
Die guten Absichten von Ursel und Co. können dabei massentauglich ins Spiel gebracht werden, um die fatale gesellschaftspolitische Wirkung klein zu reden. Aber schon Immanuel Kant meinte, eine Regierung, die ihr Volk so behandele wie ein Vater seine unmündigen Kinder, die nicht wüssten, was für sie nützlich oder schädlich sei, wäre „der größte denkbare Despotismus”.
Menschen sollten daher immer die Möglichkeit haben, die Technik zu überstimmen. Sie darf weder bestrafen noch sanktionieren. Erlauben könnte man höchstens einen Schleim- oder Motivationsmodus.
Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.
Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.
Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.
Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.
Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.
Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.
IBM-Forscher Moshe RappoportMicrosoft-Chef Steve Ballmer erwartet in den kommenden Jahren unglaubliche Dinge: Bildschirme, flexibel wie Papier, Computer, die sich mit Sprache oder Gesten steuern lassen und Software, die aus der Wolke kommt. Selbst in der prekären Wirtschaftslage werde das Tempo der technischen Entwicklung nicht verlangsamt. Ganz im Gegenteil. Zu dieser Einschätzung gelangte Ballmer auf einer Konferenz der Financial Times Deutschland in Köln.
Experten bestätigen, dass die Sprachsteuerung (nicht zu verwechseln mit den dämlichen Ansagen am Telefon „Drücken Sie 1, 2 oder 3 und warten dreitausend Jahre auf den Call Center-Agenten, der Ihnen auch nicht weiterhelfen kann) für das Surfen im Internet an Relevanz gewinnen wird. Davon sind auch die Forscher von IBM überzeugt. Die neue Technologie werde einen Veränderungsprozess einleiten und die Art und Weise beeinflussen, wie der Mensch mit Informationen und E-Commerce umgeht. „Wir wissen, dass das machbar ist, da uns bereits heute die erforderliche Technologie zur Verfügung steht, wir wissen aber auch, dass die Zeit dafür reif ist“, so IBM. In Ländern wie Indien, in denen das gesprochene Wort im Bildungswesen, in Regierungskreisen und in der Kultur eine größere Bedeutung habe als das geschriebene Wort, stellt das „Sprechen” mit dem Internet bereits alle anderen Kommunikationsschnittstellen in den Schatten.
„Gleiches geschieht bei Mobiltelefonen, die mittlerweile die PC-Anwendung übertrumpfen. Durch die Nutzung der ‚Voice Sites’ werden in Zukunft auch die Menschen ohne Zugang zu einem Computer oder Internet ebenso wie diejenigen, die weder schreiben noch lesen können, von den zahlreichen Vorteilen und Annehmlichkeiten des Internets profitieren“, betont IBM.
Eine Reduzierung der Komplexität im Netz und eine Demokratisierung des Internetzugangs erhoffen sich Computerexperten durch personalisierte, lernfähige und vertraute elektronische Begleiter. „Sie werden dann die lästigen ersten Schritte einer Identifizierung von relevanten Informationen mittels Machine-to-Machine-Kommunikation mit einzelnen Instanzen im ‚Internet der Dinge’ aushandeln“, so die Vision von Andreas Dippelhofer, Mitglied der Geschäftsführung des Düsseldorfer ITK-Dienstleisters acoreus.
Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung für das iPhone ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.
Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“
Intelligente Assistenten werden auch die Shopping-Welt verändern. „Dabei wird die symbiotische Verknüpfung einer neuen Technologie und einer neuen Generation von Mobilgeräten den Einkaufserfahrungen im Einzelhandel dramatische Impulse verleihen. So werden Ankleideräume bald mit digitalen Shopping-Assistenten ausgestattet sein – Touchscreens und sprachgesteuerte Kioske werden Kunden zudem die Möglichkeit eröffnen, Bekleidungsstücke und Accessoires auszuwählen als Ergänzung oder Ersatz für die bereits zusammen gestellte Garderobe“, führt IBM aus.
Die letzte Meile im Einzelhandel werde in einigen Jahren völlig anders aussehen. „Das klassische Ladengeschäft muss nicht mehr Teil des Distributionsnetzes sein. Als Konsument möchte ich nur die allernötigsten Artikel an Ort und Stelle mitnehmen. Was darüber hinausgeht, soll mir nach Hause gebracht werden. Statt weit zu fahren, damit ich zu einem großen Sortiment komme, werde ich zu einem Showroom gehen, wo man mir das ganze Sortiment zeigt – echt oder virtuell“, sagt Moshe Rappoport, IBM- Experte für Technologie- und Innovationstrends. Es müssten nicht mehr alle Artikel im Laden vorrätig sein. Es reiche vollkommen aus, alles zeigen zu können. Nicht mehr das Produkte steht im Vordergrund, sondern der Service. „Nehmen wir Kleider als Beispiel. Ich muss nicht alle Größen in allen Farben haben. Das kann ich in einem elektronischen Dressing-Room in allen Varianten ausprobieren und meine Kaufentscheidung treffen. Komme ich nach meiner Shopping-Tour wieder ins eigene Heim, wartet das Paket schon auf mich und ich kann die Kleidung anziehen“, so der Ausblick von Rappoport.
In den vergangenen Tagen ist ja schon kräftig darüber berichtet worden, wie Cisco den Markt für Rechenzentrumstechnik aufmischen will. Der weltgrößte Netzwerkausrüster verkauft ab Mitte des Jahres ein Paket aus Computer, Netztechnik und Software, mit dem Unternehmen ihre zentralen IT-Abteilungen besser auslasten und die Betriebskosten senken könnten.
IT-Dienste sollen laut Cisco-Chef John Chambers stärker ins Web verlegt werden – also folgt er dem Cloud Computing-Trend. Rechenzentrum 3.0 oder Unified Computer System (USC), unter welchem Begriff auch immer, Cisco greift massiv in den Servermarkt ein. Bestand die Produktstrategie bisher darin, Aplliances mit Software-Lizenzen und eigenen Betriebssystemen für Netzwerk-Funktionen anzubieten, geht Cisco nun in das Geschäft der Intel-basierten Server, der von IBM und HP dominiert wird, gefolgt von Dell und Sun. Cisco setzt dabei auf eine Kombination von Blade-Architektur (Cisco UCS-B), Virtualisierung (Integration von VMware vCenter), Hochgeschwindigkeitsvernetzung (10 Gigabit LANs), und das Service Management von BMC. Hinzu kommen Kooperatioonen mit Microsoft, Redhat, Novell und weiteren Softwareherstellern.
Die Servermarktstrategie von Cisco wird die Bereitschaft von anderen Schwergewichten wie IBM und HP beeinträchtigen, mit Cisco zu kooperieren. Da HP mit ProCurve bei Netzwerkkomponenten auf Expansion setzt, ist es abzusehen, dass Cisco und HP immer stärker gegnerische Positionen im Markt einnehmen. Bei der Partnersuche führte Procurve Schlüsselattribute wie Offenheit und Standardtreue ins Feld – ein Konzept, das offenbar ankam: F5 wird sich in dieser Allianz um die Beschleunigung von Enterprise-Applikationen kümmern, Riverbed um WAN-Optimierung, Aastra um Voice-over-IP und Ekahau um WLAN-basierte Ortung in Echtzeit.
Bei Großkunden ist es eher unwahrscheinlich, dass Anwender eine komplette Single-Vendor-Strategie auf Basis von Cisco wählen. Was Cisco mit UCS anbietet, ist eher eine Vor-Integration verschiedener Komponenten, die natürlich ein System-Integrator für seinen Kunden vornehmen kann. IBM und HP, die ja im Unterschied zum reinen Hersteller Cisco stark in der Systemintegration sind, dürften kaum Probleme haben, sich beim Kunden gegen Cisco UCS zu positionieren.
Für Mittelstandskunden, die den hohen individuellen Integrationsaufwand verschiedener Lösungen nicht wünschen, kann aber ein Komplettangebot von Cisco durchaus interessant sein. Unterm Strich ist aber noch nicht abzusehen, ob Cisco die Umsätze, die es über UCS gewinnen wird, nicht in anderen Bereichen durch verschärften Wettbewerb gleichzeitig verliert.
Warum Unternehmer mit der Kommunikation über das Internet Protokoll hadern
VoIP für Mutti?Voice over IP ist ein Dauerbrenner in den Fachmedien für Informationstechnik und Telekommunikation. Von der Realität der Kommunikation in Privathaushalten und der Geschäftswelt erfährt der geneigte Leser wenig. Umfragen, Analysten und Branchenvertreter gehen in ihren VoIP-Prognosen häufig nur von Optionen und Wünschen aus. In Studien werden dann Fragen gestellt „Wird sich VoIP“ in den nächsten fünf Jahren durchsetzen“ oder „Halten Sie VoIP für sinnvoll“. Das sind die berühmten und empirisch höchst unseriösen Fragetechniken nach dem Prinzip „Wollen Sie arm oder reich sein?“. Schaut man sich das nackte Zahlenmaterial der Bundesnetzagentur an, bleibt von dem VoIP-Wortschwall der ITK-Szene nicht mehr viel übrig. Nach dem aktuellen Tätigkeitsbericht der Bundesnetzagentur kann man Ableitungen für 2007 vornehmen. Danach liegt der Anteil der VoIP-Nutzung bei mickrigen 8,6 Prozent. Für das vergangene Jahr schätzt das Wissenschaftliche Institut für Infrastruktur und Kommunikationsdienste (WIK) den Wert auf rund 10 Prozent.
„Für Geschäftskunden, die sehr häufig Nebenstellenanlagen betreiben, deren weitere Wartung durch die Lieferanten zu Ende geht, erwarte ich persönlich eine schnellere Migration zu VoIP als bei den Privatkunden, wenngleich die Nachfrage nach Lösungen für VoIP-Centrex dem Vernehmen der Anbieter nach enttäuschend ist. Hier liegen uns belastbare Zahlen jedoch nicht vor“, so WIK-Senior Consultant Dr. Thomas Plückebaum gegenüber NeueNachricht. Die Übertragung von Sprache, Bild und Daten über das Internet Protokoll ist kein Kinderspiel und mit reinen Modephrasen bewegt sich der Markt keinen Millimeter. Wenn man jeden Tag mit PR-Texten von Firmen bombardiert wird, die eine „nachhaltige und ganzheitliche VoIP-Strategie garantieren, Prozesse optimieren und implementieren, eine Vielzahl von Synergien realisieren und mit leistungsfähigen Tools basierend auf einem Netzwerk von Applikationen für geringere Kosten und einer höheren Effizienz sorgen“, darf man sich über die starre Haltung der Unternehmer gegenüber neuen Kommunikationstechnologien nicht wundern.
Spielzeug für VatiUnd wenn man jetzt schon auf jedem sich bietenden Fachkongress vom Trend zur Unified Communications spricht, fehlt den Branchenexperten augenscheinlich eine gehörige Portion Wahrnehmungskompetenz: In neun von zehn Unternehmen dominiert nach wie vor die klassische Festnetz-Telefonie. Das belegt eine aktuelle Umfrage der Experton Group, die fast punktgenau die Erkenntnisse der Bundesnetzagentur wiederspiegelt. Entwickler und Hersteller der Telekom-Branche sowie Anwender müssen noch einen dornenreichen Weg zurücklegen, um VoIP auf breiter Front durchzusetzen. Man benötigt Anbieter mit Sachverstand, fundiertem Praxiswissen und einer exzellenten Expertise in der Telekommunikation. VoIP stellt langjährig eingeübte Telefongewohnheiten in Frage. „Über den Computer zu telefonieren und mit dem Telefon im Web suchen, das muss ein Anwender erst einmal verdauen“, so Dr. Jörg Fischer, Autor des Buches „VoIP-Praxisleitfaden“ (Hanser Verlag).
Ähnlich sieht es Andreas Rebetzky, Sprecher des cioforums in München: „Es ist ein weiter Weg von der Idee zur Umsetzung. Zudem verschieben sich notwendige Investitionen für VoIP durch die angespannte Wirtschaftslage. Die alte Telefonanlage tut es noch ein Jährchen, vielleicht mit ein wenig höheren Reparaturkosten“, sagt Rebetzky. Daher sei VoIP in den Vorstandsetagen erst einmal in die zweite Reihe gerückt. „Man konzentriert sich eher auf Prozessoptimierungen in der Logistik oder Bestellabwicklung. Dennoch: Die Zeit wird wiederkommen und wohl denen, die schon mit gereiften Konzepten in den Startlöchern stehen“, resümiert Rebetzky, CIO des Lebensmitteltechnologie-Spezialisten Bizerba.
Folgt man den Analysen des Beratungshauses Berlecon, hält zwar eine große Mehrheit der Entscheider in deutschen Unternehmen die Integration verschiedener Kommunikationskanäle und deren Einbindung in Geschäftsanwendungen für sinnvoll. Allerdings sind in vielen Unternehmen die notwendigen technischen Voraussetzungen gar nicht vorhanden: „Nur ein geringer Teil verfügt bisher über eine VoIP-Infrastruktur, wie etwa IP PBX oder gemeinsame Netze für Daten und Sprache. Von einer Sättigung ist der deutsche VoIP-Markt demnach noch weit entfernt und für die Anbieter gibt es noch erhebliche ungenutzte Potenziale zu aktivieren“, so Berlecon. „Was nutzen mir die effektvollen Powerpoint-Präsentationen über Unified Communications und die Versprechen einer schöneren Kommunikationswelt im IP-Zeitalter, wenn die Softwarebubis mit meiner alten TK-Anlage nichts anfangen können. Ich schmeiße doch meine gesamte Infrastruktur nicht über Bord“, klagt ein mittelständischer Firmenchef im Gespräch mit NeueNachricht.
Der Deutschland-Chef des ITK-Unternehmens Aastra, Andreas Latzel, kann den Unmut vieler Unternehmer verstehen. „Man sollte nicht das Blaue vom Himmel versprechen oder eierlegende Wollmilchsäue verkaufen. Wer die alte TK-Welt nicht versteht, besitzt keine Kompetenz, um Firmen in die IP-Welt zu transformieren. Der Philosoph Odo Marquard hat die technische Herausforderung treffend formuliert: Zukunft braucht Herkunft. Deswegen scheitern VoIP-Strategien, die den dritten vor dem ersten Schritt machen, wie es zur Zeit in der Software-Branche zu beobachten ist. Es geht um eine sehr komplexe Integrationsaufgabe. Innovation und Kontinuität gehören zusammen“, so das Credo von Latzel. Zunächst müsse man einige Hürde überwinden, um mit VoIP die gleiche Qualität und Sicherheit wie bei der klassischen Telefonie zu bieten.
„Das klingt zunächst trivial, ist es aber nicht. Bei der Integration der Sprachkommunikation in die IT-Infrastruktur sind besondere Dinge zu berücksichtigen, wie etwa die Echtzeitanforderung und hohe Verfügbarkeit. Die klassische Telefonie bietet Leistungsmerkmale, an die sich die Anwender in vielen Jahren gewöhnt haben und so in der IT nicht vorkommen: Vermittlungsarbeitsplätze, verkettete Anrufweiterschaltung, Chefsekretärin-Funktion und ähnliches. Viele reine IP-Lösungen haben heute genau mit diesen Funktionen ihre Schwachstellen. Ob der Anwender hingegen die vielgerühmten neuen Funktionen der Unified Communications immer nutzen kann und möchte, steht auf einem ganz anderen Blatt. Das unterscheidet sich deutlich von Unternehmen zu Unternehmen, hängt von Firmenkultur, Demokratie der Arbeit, Hierarchie- und Entscheidungsmodell, von Branche und dem Arbeitsplatz selbst ab. Stark virtualisierte Unternehmen der Beratungsbranche, die mit wenigen festen Büroarbeitsplätzen und Desk Sharing auskommen, stehen eher klassisch arbeitenden Produktions- und Verwaltungsbetriebe gegenüber, wo das Telefon zum Telefonieren benutzt wird und es wenig bis gar nichts mit der IT zu tun hat“, erläutert Latzel.
Einen Trägheitsmoment bei Geschäftskunden sieht auch Bernhard Steimel von Mind Business Consultants. „Bei bereits getätigten TK-Investitionen sowie Miet- und Wartungsverträgen mit Laufzeiten von bis zu zehn Jahren geht man konservativ vor. Zudem wird die Kommunikation als unternehmenskritische Funktion angesehen und das Misstrauen in die Zuverlässigkeit der VoIP-Technik ist besonders im Mittelstand weit verbreitet. VoIP wird sich sicherlich durchsetzen. Die Frage ist nur, wie schnell“, so Steimel.
Technikjournalisten zufolge haben der Mobile World Congress in Barcelona und die Cebit in Hannover keine Impulse für die Mobilfunkwelt gebracht. Am Ende bleibe nur Enttäuschung und Ratlosigkeit: Keine spektakulären Ideen, wenig Neuvorstellungen und Inspirationen. „Was in diesem Jahr geboten wurde, war vor allem peinlich. Einer guckt vom anderen ab. Microsoft kommt mit seinem neuen Betriebssystem 7 für Taschencomputer nicht in die Puschen. Was macht der Konzern? Er präsentiert ein Interims-Release, Windows Mobile 6.5, und die wichtigste Neuerung ist die Möglichkeit, die Geräte nun besser mit dem Finger zu steuern. Abgeschaut bei HTC und seinem Touch Flo-System und natürlich bei Apples iPhone“, schreibt FAZ-Redakteur Michael Spehr. Auch der vom Handy aus erreichbare Marktplatz für Software stamme ursprünglich von Apple. Microsoft mit dem Windows Marketplace und Nokia mit dem Ovi Store würden nur nachahmen. „Wenn Apple neuerdings den Handy-Speicher mit seinem ‚Mobile Me’ ins Internet hinein erweitert, auf dass man mit iPhone und PC auf ein und denselben Datenbestand zugreife, heißt das Plagiat von Microsoft ‚My Phone’ und bei Nokia abermals ‚Ovi’. Die Zielrichtung der großen drei ist damit klar: Wer sich für eines dieser Konvergenzprodukte entscheidet, bindet sich fest an den betreffenden Anbieter, denn natürlich ist nichts untereinander kompatibel“, so Spehr. Insgesamt sei der Auftakt des Mobilfunkjahres 2009 ein Debakel.
„Diese Einschätzung kann ich nicht teilen. Man sollte sein Augenmerk auch nicht nur auf neue Handys oder Smartphones setzen oder welche Apple Store-Kopien sich durchsetzen werden. Vielmehr zeigte der Kongress in Barcelona dem geneigten Fachbesucher zum Beispiel eines: Die neue Technologie Long Term Evolution (LTE) oder 4G, also die vierte Mobilfunk-Generation kommt ins Laufen. Das konnte man zum Beispiel an der Ankündigung von Verizon ablesen, dem größten US-Mobilfunkanbieter, sein Netzwerk in den nächsten Jahren auf LTE umzustellen. Dabei haben Alcatel-Lucent und Ericsson den Zuschlag bekommen. Wie ich finde, eine gute Nachricht für die europäische Telekom-Branche. Nicht zu übersehen war auch die fulminante Präsenz von Ausrüstern aus Asien, allen voran China mit Huawei und ZTE, die eine zunehmende Konkurrenz für die europäischen und amerikanischen Platzhirsche darstellen. Die haben den Ernst der Lage jedoch erkannt“, erläutert Mobilfunk-Experte Dirk Zetzsche von Nash Technologies in Nürnberg. Er geht davon aus, dass vor allen Dingen die Länder der westlichen Hemisphäre auf die LTE-Technologie setzen werden. Sein Unternehmen betreibe in Nürnberg bereits ein eigenes Netz für Feldtests der Netzbetreiber.
So habe der Nokio-Chef Olli Pekka Kallasvuo eine Partnerschaft mit dem Erzrivalen Qualcomm angekündigt, um neue Handys zu bauen, basierend auf den Chipsätzen von Qaulcomm und Nokias S60 Plattform. „Alles in allem kein schlechter Auftakt in das Mobilfunkjahr 2009, auch wenn das kaffeekochende Smartphone und der einzigartige Superstore nicht gezeigt wurden“, meint Zetzsche im Gespräch mit NeueNachricht.
Allerdings klaffen zwischen den Funktionen der neuen Endgeräte und den angebotenen Diensten der Netzbetreiber noch Lücken, betont Aastra-Deutschlandchef Andrea Latzel. „Ob die eingebaute Kamera sechs, acht oder zwölf Megapixel Auflösung hat, spielt im Grunde keine Rolle, genauso wenig, ob das Betriebsystem des Smartphones Mac OS X, Windows Mobile, Symbian oder Android heißt. Insofern variieren die gezeigten Geräte den zur Verfügung stehenden Pool an Leistungsmerkmalen in beliebiger Kombination. Was aber auch nicht wundert, da die den technischen Plattformen der Handys zugrunde liegenden Prozessoren und Chips ziemlich gleich sind“, sagt Latzel. Die Rückkopplung der Leistungsmerkmale auf die angebotenen Dienste der Netzbetreiber entscheidet, ob Geräte in die Subventionierung über Mobilfunkverträge gehen oder nicht. „Und damit entscheidet sich, ob ein Gerät ein Massenmodell wird oder ein Nischenmodell in geringer Stückzahl bleibt. Die Situation um mobiles Fernsehen in Deutschland und das Mobile 3.0 Konsortium hat deutlich gezeigt, dass Technologie und Inhalte keine kommerzielle Chance haben, wenn die Netzbetreiber nicht in die Geschäftsmodelle involviert sind. Mit der Broadcast-Übertragung über DVB-H und der Lizenz im Besitz eines Konsortiums ohne Teilnahme der Mobilfunknetzbetreiber war im Grunde das Scheitern dieses Dienstes vorprogrammiert“, kritisiert Latzel.
Was derzeit weiter fehle, seien interessante und gleichzeitig für den Betreiber profitable Anwendungen. Apple habe das mit dem iPhone und iTunes exemplarisch vorexerziert, und damit auch die Netzbetreiber eingefangen. Wobei die Mobilfunknetzbetreiber nur als Vertriebsvehikel und Bitpipe für Apple dienen würden. Richtig Spaß wird der Mobilfunk erst machen, wenn man sich als Anwender über die kryptischen Abkürzungen wie GMS, GPRS, HSDPA, EDGE, Bluetooth, UMTS, WLAN oder LTE keine Gedanken mehr machen muss. Abhilfe könnte der so genannte „kognitive Funk“ schaffen: „Das Telefon der Zukunft sucht sich die schnellste oder billigste Verbindung automatisch aus – der Nutzer muss sich um lästige Details nicht mehr kümmern. Kommt man unterwegs zum Beispiel an einem offenen WLAN vorbei, schaltet das Handy nahtlos von der teuren UMTS-Verbindung auf WLAN um – und verbindet sich beim Verlassen des Netzes ohne Unterbrechung wieder mit UMTS“, berichtet die Zeitschrift „Technology Review“.
Bereits in drei Jahren könnte es nach Prognosen von Intel-Forscher Krishnamurthy Soumyanath erste Chips geben, in denen Ansätze von kognitiver Funktechnik enthalten sind. Das größte Problem sei nicht technischer, sondern wirtschaftlicher Natur. Man brauche völlig neue Vertragsmodelle, Bezahlsysteme und gegenseitige Vereinbarungen der Netzbetreiber.
In Kinofilmen und Romanen sind sie schon längst Realität: Maschinen, die reden, denken und fühlen wie Menschen, technisch optimierte Zwitterwesen, denen Neuroimplantate übermenschliche Kräfte und Fähigkeiten verleihen oder intelligente, allwissende Computersysteme. Wissenschaftler für Künstliche Intelligenz (KI) sind davon überzeugt, dass es eines Tages tatsächlich Cyborgs und Androiden geben wird – denkende Maschinenwesen. Künstliche Intelligenz soll auch das Google-Betriebssystems Android erlangen, das nach einer Ankündigung von Asus auf Netbooks installiert werden soll. Derzeit werde der Einsatz des bisher auf Handys zugeschnittenen Betriebssystems auf Netbook-Modellen der EeePC-Serie getestet, bestätigte Asus-Europachef Eric Chen der Nachrichtenagentur dpa auf der Cebit in Hannover. Noch sei das Projekt in der Versuchsphase, sagte Chen. Erste Ergebnisse werden laut Chen in ein bis zwei Monaten vorliegen. „Mit Preisen von 200 bis 600 Euro sind die kleinen und leichten Netbooks derzeit das einzige deutlich wachsende Segment im PC-Markt. Die Marktforscher von Gartner prognostizieren für dieses Jahr einen Absatzsprung von 11,7 auf 21 Millionen Geräte. Zugleich werde der PC-Markt insgesamt mit einem Absatzrückgang von 11,9 Prozent auf 257 Millionen Computer den stärksten Einbruch seiner Geschichte erleben“, berichtet Spiegel Online.
Wenn Asus Android-Netbooks auf den Markt bringt, werde das weitreichende Folgen haben: „Da Android auf Linux aufbaut, unterliegt es keinerlei Beschränkungen, was die Hardware angeht. Zudem ist Android bereits bestens auf mobile Kommunikation vorbereitet. Damit würde es sich perfekt für Netbooks mit eingebauter Mobilfunkkarte eignen. Diese neue Kategorie der UMTS-Netbooks ist noch vergleichsweise jung und rennt vor allem bei Mobilfunkanbietern offene Türen ein“, so Spiegel Online.
Ein günstiges und hübsches UMTS-Netbook mit guter Hardwareausstattung, integrierter Mobilfunkkarte und Android-Betriebssystem wäre ein fast sicherer Erfolg – auch für Google: „Nicht ungeschickt, die Stärken von Linux zu nutzen, und die Schwächen durch eine eigene Entwicklung auszumerzen. Was rauskommt, könnte ein Fancy-Mobile-Linux sein, Android eben. Für den Privatkundenmarkt wird dies aus meiner Sicht auch hohe Erfolgschancen haben, vielleicht nicht bei der Kundschaft für Computerspiele, aber bei den ‚allways on’ urbanen Anwendern schon“, prognostiziert Andreas Rebetzky, Sprecher des cioforums in München und CIO des Technologiespezialisten Bizerba. Damit werde der Kampf um die Computer-Hoheit zwischen Microsoft und Google neu und intensiv entfacht.
„Für Unternehmen sehe ich derzeitig keine Auswirkungen. Dort liegen die Kriterien und Messlatten an anderer Stelle: Administrative Einbindung in die Unternehmenssoftware, Verfügbarkeit von Unternehmenssoftware, Aufwandsbewertung für die Systemintegrationen. Dennoch könnte es in der Geschäftswelt auch Nischen geben, beispielsweise bei mobilen Anwendungen, wo bereits heute mit Sonderlösungen gearbeitet wird. Windows Mobile ist ein Betriebssystem, das durch Windows 7 oder Android mittelfristig ersetzt werden könnte. Denn ein E-Book ist eines Tages nichts anderes mehr als ein etwas zu groß geratenes Multifunktionshandy“, resümiert Rebetzy.
Mehr als jeder zweite Manager und IT-Chef sieht in Cloud Computing eine nützliche Technologie-Option, um die Wirtschaftlichkeit in Unternehmen anzukurbeln. Das ist das Ergebnis einer global durchgeführten Umfrage des Beratungsunternehmens Avanade unter mehr als 500 Wirtschaftsentscheidern in Deutschland und 16 weiteren Ländern.
72 Prozent aller Befragten weltweit und 80 Prozent der Unternehmen in Deutschland vertrauen zur Zeit ihren eigenen Systemen und sehen die Nutzung von Software und Hardware als Internetservice von Drittanbietern noch skeptisch. Grund sind Sicherheitsbedenken und die Angst davor, die Kontrolle über Daten und Systeme zu verlieren. Gleichzeitig jedoch berichtet ein großer Teil der Unternehmen (42 Prozent weltweit, 25 Prozent deutschlandweit), dass ihre aktuellen internen Systeme zu teuer sind.
„Die globale Studie zeigt, dass Unternehmens- und IT-Manager die Vorteile von Cloud Computing bereits verstanden haben – sie wissen, dass die Systeme entscheidende Verbesserungen bedeuten können”, sagt der Avanade-Manager Tyson Hartman. Gleichzeitig blockieren jedoch Sicherheitsbedenken und die Angst vor einem Kontrollverlust über Daten eine weitere Verbreitung im Markt. „Unsere Branche steht nun vor der Herausforderung, mit diesen Bedenken aufzuräumen und handfeste Strategien und Wege aufzuzeigen. Cloud-basierte Services sollen schon heute implementiert und ein langfristiger Plan in die Wege geleitet werden, um einen wirtschaftlichen Nutzen für die Zukunft zu schaffen“, erklärt Hartmann.
Beim Cloud Computing zweifeln viele deutsche Unternehmen jedoch noch, ob es sich um eine zukunftsfähiges Konzept oder nur um einen „Hype“ handelt: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, so Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra.
Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.
Als Skeptiker hat sich auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. „Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert Andreas Rebetzky, Sprecher des cioforums.
Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert Rebetzky, CIO des Technologiespezialisten Bizerba.