Software schlägt Hardware – auch bei HP


Mit dem radikalen Kurswechsel läutet HP-Chef Leo Apotheker nun wohl endgültig die Post-PC-Phase der IT-Branche ein. Der weltgrößte KarlssonComputerhersteller setzt in Zukunft auf Software und Dienstleistungen – ähnlich wie IBM. „Gleichzeitig teilte Hewlett-Packard mit, das Geschäft mit Smartphones und Tablets mit dem Betriebssystem WebOS zu stoppen. Sie konnten zuletzt mit erfolgreicheren Rivalen wie Apples iPhone und iPad sowie Geräten mit dem Google Betriebssystem Android nicht mithalten“, schreibt die FTD. Dabei klang Apotheker in einem Bericht in der Juli-Ausgabe des Manager Magazins über den angeblichen Niedergang von Apple doch noch so optimistisch: „Heute ist Apple obenauf, aber in ein paar Jahren kann das ganz anders sein.“ Kann. Er sagte aber auch: „Innerhalb der IT-Branche können sich die Dinge sehr schnell ändern. Es wird keine Monopole geben, und schon gar nicht solche von Dauer“, so Apotheker. Dabei meinte er auch den möglichen Abstieg des Steve Jobs-Imperiums. Nun kann man die Aussage des HP-Chefs auch ganz anders deuten:

Für die Maschinisten und Internetausdrucker in Deutschland dürfte der HP-Kurswechsel recht lehrreich sein. Nachzulesen in meiner Kolumne für Service Insiders: Insgesamt müsse Deutschland endlich erkennen, sich nicht nur über die Produktion von Gütern zu definieren. Es würden zu viele Maschinisten und Internetausdrucker den Ton angeben, so Bernhard Steimel von der Unternehmensberatung Mind Business: „Unternehmen, die sich nur über ihre herstellende Rolle definieren, haben ein Problem. Das Endgerät ist häufig nur noch das Tor zur Nutzung eines Dienstes. Es kann der Antrieb sein für neue Dienste, wie man das beim iPad derzeit erlebt. Ohne iTunes und die App-Economy wäre Apple niemals erfolgreich. Produkte und Anwendungen des Steve Jobs-Konzerns üben so viele Reize aus, dass im Moment pro Quartal 150 Millionen iOS-fähige Endgeräte verkauft werden. Das haut einen um. Apple pulverisiert gerade mit dem iPad den PC-Markt. Was wird denn passieren, wenn auch Fernseher mit dem Apfel-Symbol ins Portfolio aufgenommen und nahtlos in die Anwendungsmöglichkeiten von Apple integriert werden? Das dürfte den etablierten Herstellern einige Kopfschmerzen bereiten. Es geht am Ende des Tages natürlich um Produkte. Doch der Mächtige ist derjenige, der die bessere Software hat“, so die Überzeugung von Steimel.

Die Wertschöpfung von Apple liege klar bei den Applikationen. Analysten hätten berechnet, dass die angekoppelten Verkäufe nach dem Erwerb eine iPhones das Achtfache ausmachen. Das sei ein eindeutiger Befund für die Kraft von Software.
„Infrastrukturen des Wissens und Handelns fokussiert auf die Aufgaben der Kunden eingesetzt, führt zu den Systeminnovationen, welche die Trends für die Zukunft setzen werden. Die dabei entstehenden neuen Businessmodelle gestalten die Wertschöpfungsketten fundamental neu und verändern die Rollen aller Unternehmen im Markt grundsätzlich“, bestätigt Bruno Weisshaupt, Geschäftsführer des Beratungsbüros Origo in Schweiz.

Und kurzgefasst kann man das Ganze auch so resümieren:

Starke These: Der Mächtige hat die bessere Software – Bekommen das auch die TV-Gerätehersteller zu spüren?

Michael J. Saylor, Vorstandschef von Microstrategy, hat bei einer Konferenz in Monte Carlo sein Portmonee ausgepackt und bekundet, wie er es hassen würde, den ganzen Bargeld-Kram mit sich herumschleppen zu müssen. „Gibt es nicht eine Möglichkeit, daraus eine Software-Lösung zu machen“, fragte Saylor das Publikum. Das sei ein wichtiger Punkt, so der Unternehmensberater Bernhard Steimel im Interview mit Service Insiders: „Grundsätzlich werden Dinge anders, wenn man sie in Software abbildet. Einer Kreditkarte, die ich als Software-Funktion konzipiere, kann ich andere Eigenschaften geben. Etwa bei der Teilung einer Restaurant-Rechnung oder beim Verschenken eines Gutscheins über 20 Euro – so bekomme ich einen virtuellen Spesendeckel. Wenn man den Dingen das Physische nimmt, wird der Möglichkeitsraum gigantisch“, erläutert Steimel. Er zählt das zu den Top-Trends im Kundenservice für die nächsten fünf Jahre. Bei den Transaktionen werde man einige Innovationen sehen.

Unternehmen definieren sich zu stark über ihre herstellende Rolle

Insgesamt müsse Deutschland endlich erkennen, sich nicht nur über die Produktion von Gütern zu definieren. Es würden zu viele Maschinisten und Internetausdrucker den Ton angeben. „Unternehmen, die sich nur über ihre herstellende Rolle definieren, haben ein Problem. Das Endgerät ist häufig nur noch das Tor zur Nutzung eines Dienstes. Es kann der Antrieb sein für neue Dienste, wie man das beim iPad derzeit erlebt. Ohne iTunes und die App-Economy wäre Apple niemals erfolgreich. Produkte und Anwendungen des Steve Jobs-Konzerns üben so viele Reize aus, dass im Moment pro Quartal 150 Millionen iOS-fähige Endgeräte verkauft werden. Das haut einen um. Apple pulverisiert gerade mit dem iPad den PC-Markt. Was wird denn passieren, wenn auch Fernseher mit dem Apfel-Symbol ins Portfolio aufgenommen und nahtlos in die Anwendungsmöglichkeiten von Apple integriert werden? Das dürfte den etablierten Herstellern einige Kopfschmerzen bereiten. Es geht am Ende des Tages natürlich um Produkte. Doch der Mächtige ist derjenige, der die bessere Software hat“, so die Überzeugung von Steimel. Die Wertschöpfung von Apple liege klar bei den Applikationen. Analysten hätten berechnet, dass die angekoppelten Verkäufe nach dem Erwerb eine iPhones das Achtfache ausmachen. Das sei ein eindeutiger Befund für die Kraft von Software.

Hier geht es zu meiner Freitagskolumne für Service Insiders.

Zum Apple-Fernseher: Auch der FAZ-Netzökonom Holger Schmidt spekuliert in diese Richtung: Innovationen sind es, die Apple so stark machen. Das erst im Jahr 2007 eingeführte iPhone steuert inzwischen rund die Hälfte zum Apple-Umsatz bei. Mit der jüngsten Generation, dem iPhone 4, hat Apple erstmals einen gleichmäßig hohen Umsatz über den gesamten Lebenszyklus erreicht. Der iPhone-Anteil wäre noch höher, wenn nicht die nächste Innovation, das iPad, innerhalb eines Jahres einen ähnlichen hohen Umsatzanteil wie das Stammgeschäft mit den Mac-Computern erreicht hätte. Da stört kaum, dass Apples iPhone sein eigenes Geschäft mit dem digitalen Musikspieler iPod kannibalisiert hat. Denn die nächste Innovation könnte noch viel größer werden: Ein Fernseher von Apple – so ein hartnäckiges Gerücht – könnte schon bald ähnlich einschlagen wie das iPhone im Handymarkt und das iPad im Computermarkt. Eine intelligente Software könnte das Fernsehen mit dem iPad, der Videosammlung in der Cloud und natürlich dem iPhone verbinden. Dann wäre Apple bald das wertvollste Unternehmen der Welt – und nicht „nur“ die Nummer zwei hinter Exxon.

Eure Meinung interessiert mich. Wann, wie, warum, was wird das bewirken? Vor zwei Jahren habe ich dazu ja mal was geschrieben:

Antwortmaschinen, Entscheidungsmaschinen und Google-Killer: Die Verheißungen des semantischen Webs bleiben bislang aus

Die "Entscheidungsmaschine"Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.

Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.

Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.

Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.

Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.

Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.

Leere VoIP-Versprechen und überforderte „Softwarebubis“

Warum Unternehmer mit der Kommunikation über das Internet Protokoll hadern

VoIP für Mutti?
VoIP für Mutti?
Voice over IP ist ein Dauerbrenner in den Fachmedien für Informationstechnik und Telekommunikation. Von der Realität der Kommunikation in Privathaushalten und der Geschäftswelt erfährt der geneigte Leser wenig. Umfragen, Analysten und Branchenvertreter gehen in ihren VoIP-Prognosen häufig nur von Optionen und Wünschen aus. In Studien werden dann Fragen gestellt „Wird sich VoIP“ in den nächsten fünf Jahren durchsetzen“ oder „Halten Sie VoIP für sinnvoll“. Das sind die berühmten und empirisch höchst unseriösen Fragetechniken nach dem Prinzip „Wollen Sie arm oder reich sein?“. Schaut man sich das nackte Zahlenmaterial der Bundesnetzagentur an, bleibt von dem VoIP-Wortschwall der ITK-Szene nicht mehr viel übrig. Nach dem aktuellen Tätigkeitsbericht der Bundesnetzagentur kann man Ableitungen für 2007 vornehmen. Danach liegt der Anteil der VoIP-Nutzung bei mickrigen 8,6 Prozent. Für das vergangene Jahr schätzt das Wissenschaftliche Institut für Infrastruktur und Kommunikationsdienste (WIK) den Wert auf rund 10 Prozent.

„Für Geschäftskunden, die sehr häufig Nebenstellenanlagen betreiben, deren weitere Wartung durch die Lieferanten zu Ende geht, erwarte ich persönlich eine schnellere Migration zu VoIP als bei den Privatkunden, wenngleich die Nachfrage nach Lösungen für VoIP-Centrex dem Vernehmen der Anbieter nach enttäuschend ist. Hier liegen uns belastbare Zahlen jedoch nicht vor“, so WIK-Senior Consultant Dr. Thomas Plückebaum gegenüber NeueNachricht. Die Übertragung von Sprache, Bild und Daten über das Internet Protokoll ist kein Kinderspiel und mit reinen Modephrasen bewegt sich der Markt keinen Millimeter. Wenn man jeden Tag mit PR-Texten von Firmen bombardiert wird, die eine „nachhaltige und ganzheitliche VoIP-Strategie garantieren, Prozesse optimieren und implementieren, eine Vielzahl von Synergien realisieren und mit leistungsfähigen Tools basierend auf einem Netzwerk von Applikationen für geringere Kosten und einer höheren Effizienz sorgen“, darf man sich über die starre Haltung der Unternehmer gegenüber neuen Kommunikationstechnologien nicht wundern.

Spielzeug für Vati
Spielzeug für Vati
Und wenn man jetzt schon auf jedem sich bietenden Fachkongress vom Trend zur Unified Communications spricht, fehlt den Branchenexperten augenscheinlich eine gehörige Portion Wahrnehmungskompetenz: In neun von zehn Unternehmen dominiert nach wie vor die klassische Festnetz-Telefonie. Das belegt eine aktuelle Umfrage der Experton Group, die fast punktgenau die Erkenntnisse der Bundesnetzagentur wiederspiegelt. Entwickler und Hersteller der Telekom-Branche sowie Anwender müssen noch einen dornenreichen Weg zurücklegen, um VoIP auf breiter Front durchzusetzen. Man benötigt Anbieter mit Sachverstand, fundiertem Praxiswissen und einer exzellenten Expertise in der Telekommunikation. VoIP stellt langjährig eingeübte Telefongewohnheiten in Frage. „Über den Computer zu telefonieren und mit dem Telefon im Web suchen, das muss ein Anwender erst einmal verdauen“, so Dr. Jörg Fischer, Autor des Buches „VoIP-Praxisleitfaden“ (Hanser Verlag).

Ähnlich sieht es Andreas Rebetzky, Sprecher des cioforums in München: „Es ist ein weiter Weg von der Idee zur Umsetzung. Zudem verschieben sich notwendige Investitionen für VoIP durch die angespannte Wirtschaftslage. Die alte Telefonanlage tut es noch ein Jährchen, vielleicht mit ein wenig höheren Reparaturkosten“, sagt Rebetzky. Daher sei VoIP in den Vorstandsetagen erst einmal in die zweite Reihe gerückt. „Man konzentriert sich eher auf Prozessoptimierungen in der Logistik oder Bestellabwicklung. Dennoch: Die Zeit wird wiederkommen und wohl denen, die schon mit gereiften Konzepten in den Startlöchern stehen“, resümiert Rebetzky, CIO des Lebensmitteltechnologie-Spezialisten Bizerba.

Folgt man den Analysen des Beratungshauses Berlecon, hält zwar eine große Mehrheit der Entscheider in deutschen Unternehmen die Integration verschiedener Kommunikationskanäle und deren Einbindung in Geschäftsanwendungen für sinnvoll. Allerdings sind in vielen Unternehmen die notwendigen technischen Voraussetzungen gar nicht vorhanden: „Nur ein geringer Teil verfügt bisher über eine VoIP-Infrastruktur, wie etwa IP PBX oder gemeinsame Netze für Daten und Sprache. Von einer Sättigung ist der deutsche VoIP-Markt demnach noch weit entfernt und für die Anbieter gibt es noch erhebliche ungenutzte Potenziale zu aktivieren“, so Berlecon. „Was nutzen mir die effektvollen Powerpoint-Präsentationen über Unified Communications und die Versprechen einer schöneren Kommunikationswelt im IP-Zeitalter, wenn die Softwarebubis mit meiner alten TK-Anlage nichts anfangen können. Ich schmeiße doch meine gesamte Infrastruktur nicht über Bord“, klagt ein mittelständischer Firmenchef im Gespräch mit NeueNachricht.

Der Deutschland-Chef des ITK-Unternehmens Aastra, Andreas Latzel, kann den Unmut vieler Unternehmer verstehen. „Man sollte nicht das Blaue vom Himmel versprechen oder eierlegende Wollmilchsäue verkaufen. Wer die alte TK-Welt nicht versteht, besitzt keine Kompetenz, um Firmen in die IP-Welt zu transformieren. Der Philosoph Odo Marquard hat die technische Herausforderung treffend formuliert: Zukunft braucht Herkunft. Deswegen scheitern VoIP-Strategien, die den dritten vor dem ersten Schritt machen, wie es zur Zeit in der Software-Branche zu beobachten ist. Es geht um eine sehr komplexe Integrationsaufgabe. Innovation und Kontinuität gehören zusammen“, so das Credo von Latzel. Zunächst müsse man einige Hürde überwinden, um mit VoIP die gleiche Qualität und Sicherheit wie bei der klassischen Telefonie zu bieten.

dsc_0011„Das klingt zunächst trivial, ist es aber nicht. Bei der Integration der Sprachkommunikation in die IT-Infrastruktur sind besondere Dinge zu berücksichtigen, wie etwa die Echtzeitanforderung und hohe Verfügbarkeit. Die klassische Telefonie bietet Leistungsmerkmale, an die sich die Anwender in vielen Jahren gewöhnt haben und so in der IT nicht vorkommen: Vermittlungsarbeitsplätze, verkettete Anrufweiterschaltung, Chefsekretärin-Funktion und ähnliches. Viele reine IP-Lösungen haben heute genau mit diesen Funktionen ihre Schwachstellen. Ob der Anwender hingegen die vielgerühmten neuen Funktionen der Unified Communications immer nutzen kann und möchte, steht auf einem ganz anderen Blatt. Das unterscheidet sich deutlich von Unternehmen zu Unternehmen, hängt von Firmenkultur, Demokratie der Arbeit, Hierarchie- und Entscheidungsmodell, von Branche und dem Arbeitsplatz selbst ab. Stark virtualisierte Unternehmen der Beratungsbranche, die mit wenigen festen Büroarbeitsplätzen und Desk Sharing auskommen, stehen eher klassisch arbeitenden Produktions- und Verwaltungsbetriebe gegenüber, wo das Telefon zum Telefonieren benutzt wird und es wenig bis gar nichts mit der IT zu tun hat“, erläutert Latzel.

Einen Trägheitsmoment bei Geschäftskunden sieht auch Bernhard Steimel von Mind Business Consultants. „Bei bereits getätigten TK-Investitionen sowie Miet- und Wartungsverträgen mit Laufzeiten von bis zu zehn Jahren geht man konservativ vor. Zudem wird die Kommunikation als unternehmenskritische Funktion angesehen und das Misstrauen in die Zuverlässigkeit der VoIP-Technik ist besonders im Mittelstand weit verbreitet. VoIP wird sich sicherlich durchsetzen. Die Frage ist nur, wie schnell“, so Steimel.