Sixtus vs. Lobo 4: Frei oder proprietär – Amüsanter Disput

Neue Streitkultur
Neue Streitkultur
Hier zu sehen.

Barcelona und der Jahrmarkt der Zukunftssehnsüchte: Emotionen schlagen Technikschnickschnack

Spätestens seit dem Eröffnungstag des Mobile World Kongresses http://www.mobileworldcongress.com in Barcelona hat der Mobilfunk-Markt einen neuen Hype: „Das Produkt der Stunde ist der sogenannte Application Store – eine Art digitaler Gemischtwarenladen, in dem Nutzer ihr mobiles Endgerät mit individuellen Diensten, Spielen und Programmen bestücken können“, berichtet Spiegel Online .

Wieder einmal folgen die Branchengrößen Palm, Research in Motion mit dem Blackberry, Nokia und auch Microsoft dem Trendsetter Apple, der mit dem App Store für das iPhone Maßstäbe gesetzt hat. „Das Konzept des App Store, das nun immer mehr Konkurrenten kopieren, ist so einfach wie bestechend. Apples Handy-Software folgt dem sogenannten Open-Source-Prinzip: Jeder kann eigene Anwendungen programmieren. Nach einer Qualitätsprüfung durch das Unternehmen wird die Software dann im Store veröffentlicht und ein Preis definiert. Der Programmierer erhält bei jedem Download 70 Prozent der Erlöse, Apple den Rest“, so Spiegel online.

Programme gibt es für nahezu alle Bedürfnisse und Lebenslagen. Computerspiele, mobile Fahrplanauskünfte, sprachgesteuerte Suchfunktionen, Übersetzungstools und völlig sinnfreie Anwendungen wie das virtuelle Bierglas. „Plattform-Anbieter haben nur eine Chance, wenn die Shops einfach zu erreichen und zu bedienen sind, Idealerweise eingebunden in das Bedienkonzept des jeweiligen Mobiltelefons. Plattformen, die eine Vielzahl von kostenlosen und cleveren Programmen anbieten, werden Erfolg haben. Dabei muss externen Entwicklern das Einstellen ihrer Programme einfach und vom Businessmodell attraktiv gemacht werden. Ebenso wichtig ist eine smarte Bezahlmöglichkeit, bei der man die Konto- und Kreditkartendaten nur einmalig eingeben muss. Auch hier gilt: Der App Store ist das Maß der Dinge, an dem sich Marktneulinge messen lassen müssen“, sagt Dirk Zetzsche von Nash Technologies.

Gute Zukunftschancen prognostiziert der Nürnberger Experte für kabellose Kommunikation für unabhängige Service Provider, die praktisch als „neutrale“ Instanz die Netze warten, Fehler unvoreingenommen finden und beseitigen können. „Durch diese Symbiose von Mobilfunk-Anbieter, Netz-Ausrüster und Service Provider können neue Netz kosteneffektivaufgebaut und betrieben werden“, sagt Zetzsche.

Analysten und Branchenkenner sind davon überzeugt, dass neue Dienste in Kombination mit Smartphones der Hebel für mehr Wachstum sind. Am iPhone-Standard kommt niemand mehr vorbei. Das ist auf dem Mobile World Kongress in Barcelona als Jahrmarkt der Zukunftssehnsüchte spürbar. Nach Ansicht des Publizisten Hilmar Schmundt reicht es nicht aus, ein Alleskönnertelefon mit neuen Diensten auf den Markt zu bringen, wie es Nokia versucht. Das Morgen des finnischen Handyriesen sei von gestern, „es erinnert an die ungebrochene Zukunftseuphorie der Weltausstellungen, die Sommernachtsträume des 19. Jahrhunderts. Nokias Utopie erzählt von Vorsprung durch Technik. Apple erzählt von Vorsprung durch Erzähltechnik“, so Schmundt in seinem Beitrag für das Merkur Sonderheft „Neugier“.

Das iPhone erinnere durch seine Beschränkungen immer wieder an die Kehrseite des Forschritts: die Ablenkung, das Zuviel, die Überforderung. Das iPhone ist gleichzeitig affirmativ und oppositionell. Es verspricht gleichzeitig Hedonismus und Protest. Das Gerät sei ein Handschmeichler mit einer intuitiven Menüführung, dass man meinen könne, das iPhone erahne die innersten Wünsche. Viele Hersteller und Mobilunkprovider hätten das noch nicht begriffen. Multitouch, Gebimmel und Getudel alleine reichten nicht aus, um neue Märkte zu erobern. „Mobiltelefone sind doch langweilig“, konstatiert Alex Vieux, Herausgeber der Zeitschrift Red Herring http://www.redherring.com. „Was wirklich zählt, sind Emotionen“. Das mobile Netz werde bald Teil der Identität und genau dafür stehe das iPhone, das Ichtelefon.

Was kommt nach der Google-Ära und welche Chancen haben Konkurrenten?

Analysten von Forrester Research zufolge könnte es sich trotzdem bald ausgegoogelt haben. Das veröffentliche der Themenblog. Die Analysten wollen herausgefunden haben, dass alternative Suchen wie AltaVista, Yahoo oder Lycos gute Chancen haben. In ihrer neuesten Studie belegen sie, dass die Markentreue von Suchmaschinennutzern sehr gering ist. Außerdem ist es für den User einfach, auf zu einer anderen Suche zu wechseln. Das macht den Suchmaschinenmarkt zu einem offenen Spielfeld – für alle Player.

An der Umfrage beteiligten sich über 4.800 erwachsene US-Bürger: sie berichteten von ihrem Suchverhalten und wurden nicht getrackt. Demnach hat Google im Gegensatz zu den comScore-Ergebnissen aber nur einen Anteil von 59 Prozent. Nur 20 Prozent der Studienteilnemer verlassen sich auf Google allein und benutzen lieber mehrere Suchen. Acht Prozent gaben an, ausschließlich Yahoo zu benutzen. Für AOL blieben drei Prozent exklusive Nutzer und für MSN gerade mal eines übrig.

Trotzdem, so fasst die Adweek zusammen, gibt es Hoffnung für die Hauptkonkurrenten Microsoft und Yahoo, die sich gegen Google aufrüsten. Gerade Yahoo habe deutliche Vorteile: im Gegenteil zu Google nutzen bis zu 30 Prozent die Suchseite als ihre Startseite. Blöd nur, dass gerade mal die Hälfte davon die Yahoo-Suche auch nutzen.

Potenzial gibt es für Yahoo und Co. laut Forrester-Untersuchung vor allem darin, eine andere Art der Suchfunktion zur Verfügung zu stellen. Die Befragten gaben an, dass sie zwar bei Google gut zu einem bestimmten Thema informiert werden. Microsoft und Yahoo liefern dagegen bessere Nachrichten und Inhalte zu Finanz und Medien-Themen. Das ist eine ziemlich beschränkte Sichtweise von Forrester und erinnert ein wenig an die verzweifelten versuche von Microsoft, mit einem eigenen MP3-Player namens Zune dem Konkurrenten Apple Marktanteile abzujagen. Nur vergisst man dabei das Gesamtpaket von Apple. Mit iTunes, den kultigen iPods und dem iPhone, den Apps und vielen sinnvollen Hifi-Geräten bis hin zum Airport hat Apple eine eigene Welt geschaffen, die man in den nächsten Jahren kaum knacken kann. Ähnliches praktiziert Google über Dienste, die weit über die Suchmaschinen-Funktion hinausgehen. Hier sind einfach sehr intelligente Forscher am Werk, die sich nicht auf die reine Suche im Netz reduzieren. Die Kombination vieler Services macht Google so stark.

Cloud Computing und die neuen Maßstäbe der Google-Ära: Suchmaschinen-Gigant wird die Telekommunikation und Informationstechnik umpflügen

Im Softwaremarkt zählt „Cloud Computing“ zu den beherrschenden Trendthemen. Was in den Neunzigern als Application Service Providing (ASP) startete, wird heute unter dem Begriff „Cloud“ für online genutzte Software aufgewärmt. Dem Nutzer, egal ob Geschäftskunde oder Konsument, reicht zum Arbeiten ein leistungsschwächerer Computer mit Internetanschluss. Sämtliche Softwareanwendungen, Prozessorleistung und sogar der Speicherplatz wird von einem Dienstleister über das Netz angeboten, gepflegt und gesichert: „Alle IT-Größen reagieren auf die steigende Nachfrage und tüfteln bereits an tragfähigen Konzepten. Der Hardware-Riese Hewlett-Packard leistete sich einen 13 Milliarden Dollar schweren Einstieg beim IT-Infrastrukturspezialisten EDS, und Microsofts Chef Steve Ballmer will sein weltweites Rechnernetz für den Aufbau einer ‚Windows Cloud’ nutzen“, berichtet das Fachmagazin absatzwirtschaft in der Februar-Ausgabe. Amazon mit „Elastic Compute Cloud“ und Google mit „Google Apps“ seien etwas weiter. Der Amazon-Service biete Rechenleistung für webbasierte Applikationen, während der Suchmaschinenriese gleich ganze Anwendungen wie Textverarbeitung, Präsentations-Software und Tabellenkalkulation, E-Mail-Dienste und Sicherheitslösungen ins Netz gestellt hat.

„Experten sind sich sicher, dass die ‚Software aus der Wolke’ den Einsatz von IT-Anwendungen in den nächsten Jahren verändern wird. Verbrauchs- oder nutzerbasierte Geschäftsmodelle der Netzprogramme gefährden die Zukunft der etablierten Lizenzmodelle im Softwaregeschäft. Denn wo der Nutzer die Software nicht mehr auf seinem Rechner betreiben muss, bezahlt er beim Kauf der Hardware auch nicht mehr für deren Nutzung mit“, so die absatzwirtschaft. Bei der heutigen Konstellation würde der Branchenprimus Microsoft am meisten profitieren. Da die Bereitstellung von Applikationen und Dienstleistungen über das Internet erfolge, müssten auch die Geschäftsmodelle bereits auf dem Desktop der Kunden beginnen. „Mit seinem Explorer ist Microsoft bei mehr als 80 Prozent aller privaten Nutzer erste Wahl und hätte Macht über die Lesezeichen im Browser, so genannte Bookmarks. Wer dort per Schnellauswahl hinterlegt ist, der macht recht sicher das Geschäft“, führt die Düsseldorfer Marketing-Zeitschrift weiter aus. Wie stark sich Cloud Computing am Ende durchsetzen wird, ist noch offen. „Es gibt komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer. Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source-Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen“, erklärt Aastra-Deutschlandchef Andreas Latzel.

Cloud Computing sei nach Ansicht des cioforums-Sprecher Andreas Rebetky nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. „Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, so die Bedenken von Rebetzky, CIO des Technologiespezialisten Bizerba. Sie leide immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der Bizerba-Manager.

Eine Abrundung des Produktportfolios erwartet die absatzwirtschaft bei Google. Der Internet-Gigant habe seinen eigenen Browser namens „Chrome“ entwickelt und eroberte schon mit der Beta-Version innerhalb weniger Wochen beachtliche Marktanteile. Wenn Chrome weit genug verbreitet sei, könnte sich Google neben Suchmaschinendiensten als Anbieter von On-Demand-Lösungen positionieren. Capgemini, General Electric und L’Oreal sollen schon Kunden von Google Apps sein. „Google denkt noch weiter: Weil der Explorer so fest in das alles beherrschende Betriebssystem Windows eingebunden ist, machen sich Konsumenten nicht viel Mühe und nutzen ihn mit. Google will auch das ändern und kommt mit ‚Spon’, einem heute schon Mythen umrankten Betriebssystem. Es kombiniert Cloud Computing mit der Rechenpower des heimischen Rechners und soll anspruchsvolle Anwendungen im Netz erst möglich machen“, prognostiziert die absatzwirtschaft.

Eine noch stärkere Google-Expansion prognostiziert die Zeitschrift PC-Praxis. Im Sonderheft „Google Praxis“, das ich Euch übrigens dringend ans Herz lege, spekuliert sie über eine Ausweitung des Suchmaschinen-Anbieter in die Telekommunikation: „Ähnlich wie mit Google Mail, das als zentrales Bindeglied zwischen allen weiteren Google-Diensten fungiert, könnte die Übernahme von GrandCentrals auf eine kommende Ausrichtung auf den Kommunikationsmarkt hindeuten. GrandCentrals verspricht dem Kunden eine einzige Telefonnummer für das gesamte Leben – für alle Telefone“. Forciert werden auch die Übernahmen im Mobilfunk. So solle der Spracherkennungsspezialist und frühere Microsoft-Manager Kai-Fu Lee die Bestrebungen vorantreiben, die Suchmaschine auch über das Mobiltelefon per Sprache befragen zu können. SemanticEdge-Chef Lupo Pape rechnet schon seit langem damit, dass Google mit der Sprachsteuerung aus dem Handy eine Steuerzentrale für Online-Inhalte machen will und damit eine komfortable Mensch-Maschine-Schnittstelle für den Massenmarkt etabliert. „Sprachdialogsysteme sind ein wichtiger Baustein für das Super-Handy der Zukunft“, so Pape

Waren vor ein paar Jahrzehnten noch Hardwarehersteller wie IBM und Sun die beherrschenden Größen im Markt, wurden sie in den Neunzigern vom Softwarehersteller Microsoft überholt. Jetzt werde Google den Takt vorgeben und eine neue Ära begründen, da sind sich die Autoren von absatzwirtschaft und PC-Praxis einig: „Google beherrscht den Markt von Suchmaschinen, Geosoftware und sozialen Netzen immer stärker“, sagt Professor Max Mühlhäuser von der TU Darmstadt: „Nun kommt der Angriff auf die Browser, und der Angriff auf Betriebssysteme und Standardsoftware sowie Mobiltelefone ist schon ,eingebaut’.“ Google sei das Unternehmen, welches nicht nur neue Maßstäbe in der Weiterentwicklung seines Produktportfolios und in dessen Vermarktung setze, sondern dank von Suchmaschinen wie Youtube und Co. auch am stärksten von den aktuellen Werbetrends profitiere.

Freiheit für die Unternehmenssoftware – netzwertiges Plädoyer für neue Geschäftsmodelle

Das Internet ändert nach Auffassung von Andreas Göldi, Autor des Blogs netzwertig die meisten Variablen des Softwaregeschäfts fundamental: „Das fängt schon beim Entwicklungsprozess an: Wer früher ein hochstehendes Softwareprodukt schreiben wollte, brauchte erst einmal teure Lizenzen für Datenbanken, Entwicklungstools, Komponentenbibliotheken und dergleichen. Das Produkt wurde in komplexen Hochsprachen wie C++ oder Java geschrieben, und dafür braucht man sehr hochqualifizierte Programmierer“, so Göldi.

Die Basissoftware für internet-basierte Produkte sei heute dank Open Source faktisch gratis. „Für Produkte mit der heutigen Leistungsfähigkeit von Linux, Eclipse oder MySQL hätte man vor zehn Jahren noch fünf- oder sechsstellige Beträge ausgegeben. Nützliche Libraries mit umfassender Funktionalität gibt es ebenfalls wie Sand am Meer. Und dazu kann man dank immer leistungsfähigerer Hardware größere Projekte auch in interpretierten, schlanken Sprachen wie Python, Ruby oder gar PHP schreiben, ohne einen wesentlichen Qualitätsverlust zu erleiden. Grob geschätzt fallen damit die Entwicklungskosten um einen Faktor 10 oder mehr“, schreibt der netzwertig-Blogger.

Auch die Distribution und Installation sei erheblich einfacher geworden. Während früher Enterprise Software praktisch immer lokal auf eigens angeschafften Servern installiert werden musste, reiche heute für Software as a Service-Kunden (SaaS) ein Webbrowser und eine anständige Internetverbindung. Der Gewinn an Geschwindigkeit und Kosteneffizienz sei kaum auszudrücken. Dank Diensten wie Amazon EC2 brauche der Anbieter dabei nicht mal unbedingt eine eigene Hosting-Infrastruktur, sondern kann Serverkapazität recht billig mieten. „Aus den Fehlern der Enterprise-Software-Ära haben die heutigen Softwareanbieter gelernt, und oft sind die Internet-basierten Tools zwar flexibel, aber nicht so extrem verbiegbar wie die traditionelle Software. Auch die Kunden wissen nämlich inzwischen, dass man oft besser einen internen Prozess etwas anpasst, statt ein Softwareprodukt mit hohen Kosten hinzubiegen. Allerdings sind SaaS-Produkte bisher nur selten in wirklich großen Firmen vollständig unternehmensweit im Einsatz, weshalb sich das noch ändern könnte“, glaubt Göldi.

Beim Software-Anbieter Nuance sieht man das differenzierter: „Die Argumente des Autoren sind richtig und wichtig, gelten jedoch kaum für große Unternehmen. Diese legen immer noch sehr viel Wert auf ausgereifte Lösungen und professionelle Kundenbetreuung“, so die Markterfahrung von Nuance General Manager Michael-Maria Bommer. Investitionen in Enterprise-Software würden sich nach wie vor rechnen, denn man zahle nicht nur das Produkt, sondern Upgrade, Wartung, Erfahrung oder Wissen. „Eigene Server sind auch nicht mehr relevant. Die Alternative sind Hosting-Lösungen: sie sind günstiger als eine Inhouse-Lösung und qualitativ besser als Freeware“, resümiert Bommer.

Studie: Kollaborieren oder kollabieren? – Organisationen im Netzwerkstress

„Von einem Ameisenhaufen können wir mehr über Organisationsformen und Prozesse lernen als durch Rechenmodelle“, postulierte der Internet-Pionier Kevin Kelly schon vor rund 15 Jahren. Die Wirtschaft ist ein komplexes, dynamisches System: Alle Ereignisse werden permanent durch das Zusammenspiel von Ordnung und Chaos, Gesetz und Zufall, Freiheit und Strukturierung beeinflusst. Rationale Berechnung zukünftiger Ereignisse, letzte Gewissheit für Voraussagen sind nicht möglich – Zukunft ist nicht berechenbar – was man an der Finanzkrise schmerzlich erkennt. Die zukünftige Gestalt von Unternehmen und Großorganisationen sollte nach Auffassung von Kelly daher folgende Eigenschaften haben: verteilt, dezentralisiert, auf Zusammenarbeit bedacht und anpassungsfähig. „Ein sehr großes globales Unternehmen, das ganz die Form eines Netzwerks annehmen würde, kann als ein System von Zellen mit jeweils einem Dutzend Personen angesehen werden, das folgendes umfasst: Kleinfabriken mit einem Dutzend Leuten, eine Zentrale mit einem Stab von zwölf Menschen, Profit Centers, die von acht Personen geleitet werden, und Zuliefererbetriebe, bei denen zehn Menschen arbeiten“, empfiehlt Kelly.

Aber wie organisiert man Netzwerke? „Die Zunahme vernetzter und kooperativer Organisationen, die man unter dem Begriff ‚Team Collaboration’ zusammen fassen kann, stellt Führungskräfte vor neue Herausforderungen“, so Karl-Heinz Land, Chairman der Düsseldorfer Beratungsfirma Mind. Das Unternehmen hat in Zusammenarbeit mit den Agenturen Wort + Welt und Projektkomplex.net die Studie „Kollaborieren oder Kollabieren? Team Collaboration in der Enterprise 2.0“ erstellt. Viele Organisationen würden unter Netzwerkstress leiden: Überforderung der Mitarbeiter, Projektverzögerungen durch „Entscheidungsstaus“ oder technische Pannen. Mangelhafte Soft- oder Hardwarekomponenten können erschwerend hinzukommen: „Die massenhafte Bearbeitung von kollaborativen und kommunikativen Aufgaben hält mittlerweile bis zu 30 Prozent des Managements von der Erledigung der wichtigsten Dinge ab“, Studienautor Sebastian Paulke, Geschäftsführer von Wort + Welt.

In einer Online-Befragung, an der über 150 Managern aus verschiedenen Wirtschaftsbranchen teilnahmen, geht die Studie der Frage nach, ob sich die aktuellen IT-Werkzeuge für die Projektarbeit eignen. Mind-Geschäftsführer Bernhard Steimel sieht seine Einschätzung durch die Umfrage-Ergebnisse bestätigt: „Wissensarbeiter fühlen sich von den ihnen zur Verfügung gestellten Arbeitsmitteln nicht ausreichend unterstützt: Für 84 Prozent der befragten Entscheider aus Großunternehmen und Dienstleistungsbranchen wird der Büroalltag stressiger. Die Erledigung der wichtigsten Aufgaben kommt bei 73 Prozent der Befragten zu kurz. Emails, Meetings und unwichtige Aufgaben sind die wichtigsten ‚Zeit-Killer’“. Klassische Kommunikationsplattformen wie MS Outlook, Excel oder Project eigneten sich nur eingeschränkt als Kollaborationstools.

„Auch Intranets und Wikis unterstützen nicht für alle Befragten optimal das Wissensmanagement im Unternehmen. Dokumenten-Management ist in vielen Unternehmen noch ein Fremdwort, nur jedes vierte Unternehmen setzt es ein“, fasst Steimel die Befragungsergebnisse zusammen. „Echte“ Tools für die Kollaboration wie MS Sharepoint werden nur von 29 Prozent der Befragten genutzt. Aber knapp 90 Prozent geben zu Protokoll, dass solche Tools die Zusammenarbeit verbessern könnte. „Sie sollen durch attraktive, intuitive und leicht zu bedienende Nutzerschnittstellen die Informations-, Kommunikations- und Kooperations- sowie Koordinationsprozesse entschlacken, beschleunigen und wertschöpfender gestalten“, erklärt Medienberater Stefan Simons von Projektkomplex.net. Solche Lösungen sollten das Management unterstützen, jeweils den aktuellen, „synchronen“ Projektstatus zu identifizieren, Aufgaben zu verteilen, ihre Erledigung zu verfolgen und das Geleistete zu dokumentieren.

Die Studienautoren argumentieren, dass Unternehmen zugleich neue Organisationskonzepte einführen sollten, damit die neuen Technologien ihre Wirkung voll entfalten können. Dafür sprechen vier „Megatrends“, die bereits „in voller Blüte“ stehen: Die „Demokratisierung“ der Arbeit, die wachsende Bedeutung der Verbraucher für den Unternehmenserfolg, die zunehmende Beschleunigung der Information, Kommunikation, Kooperation sowie Koordination und die sinkende Bedeutung von Unternehmen und „starren“ Organisationen für die volkswirtschaftliche Wertschöpfung. „Starre Strukturen weichen flexiblen Organisationsformen. Der Unternehmenszweck verändert sich radikal. Schon ab 2010 wird man sich mit den Themen kollektive Unternehmensintelligenz, semantische Technologien, nicht-deterministische, ereignisgetriebene Prozesse und Software basierte Antizipation von Marktentwicklungen befassen müssen“, prognostiziert Land. Das sei der eigentliche Kern der Enterprise 2.0-Philosophie. Um fit für die Zukunft zu sein, müssten Unternehmen offen für Open Source-Systemarchitekturen sein, Kompetenzen im permanenten Change Management erwerben und neue projektorientierte Arbeitsformen entwickeln. „Ohne tiefgreifende Wandlungen der Unternehmensorganisation, seiner Prozesse und seiner Kultur nutzen neue Softwaretools und Anwendungen nichts. Im Gegenteil, sie hemmen nur etablierte Betriebsabläufe und werden für die Mitarbeiter zum Stressfaktor“, bestätigt IT-Experte Lupo Pape, Geschäftsführer von SemanticEdge in Berlin.

Das werde mit der Studienthese von der „Demokratisierung der Arbeit“ gut beschrieben. „Es betrifft sowohl die Arbeit im Unternehmen als auch die Arbeit mit den Kunden. Team-Kollaboration steht gegen rigide Strukturen. Diese Dissonanz erfahren auch häufig große Weltunternehmen, die einerseits auf global einheitliche Strukturen und Prozesse setzen, andererseits aber ihre Mitarbeiter stärker ermächtigen und emanzipieren wollen. Dieser Gegensatz lässt sich nur aufheben, wenn ein irgendeiner Stelle im Unternehmen eine Trennlinie gezogen wird, zwischen globaler Dominanz und lokaler Verantwortung. Ansonsten besteht die Gefahr, dass Team-Kollaboration und seine Anwendungen zu einem noch höheren internen Kommunikations- und Abstimmungsbedarf führen – und zum Zeitkiller werden“, weiß Sprachdialogexperte Pape.

Das ganze Thema sei in hohem Maße eine Frage der Unternehmenskultur. Baut die Unternehmenskultur auf einem hohen Maß an lokaler Selbständigkeit und Verantwortung auf, sei das kooperative Organisationsmodell schon inhärent vorhanden, und neue Kommunikations- und Informationsaustauschprozesse könnten alte Prozesse und Anwendungen ersetzen. „Klein- und mittelständische Unternehmen haben hier grundsätzliche Vorteile, wenn gleichzeitig eine ‚Unternehmenskultur 2.0’ vorhanden ist“, so das Fazit von Pape.

US-Experte: Computer zwingen uns zu einem Dasein als Aktenknecht

Computer und Computersoftware sind immer noch unausgereift: „Die Betriebssysteme von Microsoft, Linux und in geringerem Maße auch von Apple sind zu kompliziert, schlecht gemacht und nicht intuitiv. Da hat sich in den vergangenen zwanzig Jahren kaum etwas gebessert. Ich beobachte viele hochintelligente Leute, die es gerade noch so knapp schaffen, einen Computer zu bedienen. Viele geben sich selber die Schuld – dabei liegt es an der lausigen Software. Anstatt dass Computer unseren Alltag erleichtern, sind sie eine einzige Quelle des Ärgers“, kritisiert der US-Computerexperte David Gelernter im Interview mit dem Magazin GDI Impuls.

Während die Hardware immer besser wurde, blieb das Grundprinzip der Software – die Benutzeroberfläche – in den 1970er-Jahren stehen: Hierarchisches Filesystem, Icons, Desktop-Interface, die Maus, all das wurde in den späten 1970ern von Xerox und Bell erfunden. Apple brachte es dann 1984 als erstes kommerzielles Produkt auf den Markt. „Seitdem entwickelte sich die Software kaum weiter, obwohl sich unser Nutzerverhalten radikal verändert hat. Anfang der 1980er-Jahre war es ungewöhnlich, einen Computer zu Hause zu haben. Computer wurden von professionellen Usern bedient; das Internet war praktisch nicht existent. Heute ist das Web allgegenwärtig und jedermann nutzt Computer. Die Grafik hat sich extrem verbessert – aber wir arbeiten immer noch mit den gleichen Benutzeroberflächen wie in den 1970er-Jahren“, so Gelernter, der mit seinen Thesen Widerspruch erntet: „Prinzipiell hat Gelernter recht. Betrachten wir aber die Bandbreite der Oberflächen, so bemerken wir Fortschritte. Der Erfolg von Apple basiert hauptsächlich auf der Ergonomie des ‚Desktops’. Auf die Spitze getrieben im iPhone. Also es gibt Fortschritte – und die fangen in der Regel in Nischen an“, sagt Andreas Rebetzky, Sprecher des cioforums.

Nach Meinung von Gelernter sind die Benutzeroberflächen immer noch die Achillesferse und zwingen den Anwender zu einem „Dasein als Aktenknecht“, der seine Zeit damit verplempert, Dateien zu beschriften und einzuordnen. „Das Desktop-Interface wurde nach dem Vorbild des Büroschreibtischs entwickelt: Man sitzt an einem Tisch mit Akten, und es gibt Schubladen und Ordner, in die man sie ablegt“, führt der amerikanische Spezialist für Künstliche Intelligenz aus. So arbeitete man bereits vor 80 Jahren. In den 1970ern sei dieses System dann einfach auf den Computer übertragen. Man verfolge dabei eine nicht mehr zeitgemäße Logik – sie entspreche nicht mehr der Funktion von Computern. „Ein Schreibtisch ist passiv, der Computer ist aktiv – er kann Dokumente selber beschriften, suchen und ordnen. Die Idee, dass wir jedem Dokument einen Namen geben sollen, ist schlicht lachhaft. Wenn Sie drei Hunde haben, ist das sinnvoll. Besitzen Sie aber 10.000 Schafe, ist es Irrsinn“, bemängelt Gelernter. Rebetzky sieht das ähnlich. Damals geizte man noch mit Bits und Bytes – eine Festplatte mit 10 MByte kostete mehrere tausend Euros. „Daher kam die Entwicklung des Dateinamens – das ist eine sehr kanonische Entwicklung. Heute gibt es bereits Systeme, die in Workflows und Timeflows arbeiten. Systeme, die Metadaten zulassen, volltextorientierte Suchmechanismen, die sogar zum Teil auf unscharfen Pattern basieren. Wir müssen das nur nutzen. Und das erfordert Zeit, den die tradierten Anwender werden zunächst erst mal in den bekannten Ordnern suchen“, glaubt Rebetzky, CIO des Technologieherstellers Bizerba.

Gelernter entwickelte eine Software, die Informationen auf völlig neue Art strukturiert. Jedes Dokument will er in einer Zeitachse anordnen – einem „Lifestream“. Informationen werden zeitlich strukturiert statt räumlich in Ordnern. So korrespondiert die Anordnung der Information mit den Ereignissen des Lebens. „Unser erstes Dokument ist die elektronische Geburtsurkunde, und jedes Dokument, das hinzukommt, wird chronologisch bis zur Gegenwart eingeordnet. Dabei spielt es keine Rolle, ob es sich um E-Mails, Fotos, MP3s oder den Entwurf eines Buchkapitels handelt – alles wird einfach in den Lifestream geworfen“, erläutert Gelernter. Dateien müsse man dann mehr mit Namen bezeichnen, da sie sich selbstständig nach Inhalten, Stichworten, Ort und Zeit vernetzen. Ordner werden überflüssig. Der Lifestream erstrecke sich auch in die Zukunft: Man könne ein Dokument an jene Stelle auf der Zeitachse kopieren, an der es wieder auftauchen soll.

Für den IT-Fachmann Rebetzky ist das eine nette Idee, aber zu eindimensional: „Bilden wir dadurch nicht alles auf einer Perlenschnur ab? Ich glaube, wir müssen Informationen aus dem Cyberpool filtern, indem wir sie in einen Kontext stellen. Zum Beispiel können wir den Kontext ‚Globalisierung’ mit dem Kontext ‚Offshore Softwareentwicklung’ kombinieren und damit im Cyberpool suchen. Ich bin der festen Überzeugung, dass Google und Co. genau diesen Weg beschreiten werden. Derzeit ist die Suche immer noch zu unspezifisch“. Gelernter setzt auf Assoziationen. Wer eine Stimme höre, denke an ein Gesicht. „Damit ist eine zeitliche Information verbunden: Wann habe ich die Person das letzte Mal gesehen? Eine Kombination aus assoziativer Vernetzung und zeitlicher Strukturierung ist die natürliche Art, Information in einer Software zu speichern“. Leider könnten die meisten Softwaresysteme nicht assoziativ „denken“, bemängelt Rebetzky: „Darin unterscheiden sich Computer noch von Menschen. Höchstwahrscheinlich werden die assoziativen Fähigkeiten von Softwaresystemen in den nächsten 20 bis 30 Jahren extrem zunehmen, was unsere Interaktionsmöglichkeiten mit dem Cyberspace erheblich beeinflussen wird. Vorhersehen kann das aus meiner Sicht niemand: Selbst Computergrößen wie Bill Gates dachten ja einst, dass 640 kByte für jeden völlig ausreichen. Welch ein Irrtum“, stellt Rebetzky fest.

Gelernter geht in Zukunft von dreidimensionalen Benutzeroberflächen aus. Das Interface ähnele dann mehr einem Videospiel: „Statt auf den Screen werden wir durch ihn auf eine beliebig große virtuelle Welt sehen. Der Bildschirm wird wie eine Art Fenster sein. Wenn Sie Ihren Computer anstellen, öffnet sich eine Cyberlandschaft vor Ihren Augen, in die Sie meilenweit hineinsehen können. Im Vergleich dazu ist die heutige Desktop-Benutzeroberfläche furchtbar limitiert und langweilig: Ein Hintergrund mit Dokumenten. Ich sehe lieber aus dem Fenster auf Bäume, Menschen und Verkehr als auf Akten auf einem Schreibtisch. Mit dem Lifestream erlauben Benutzeroberflächen virtuelle Zeitreisen: Wir fliegen dann durch die Cyberlandschaft in die Zukunft und die Vergangenheit“. 3D sei nicht der Stein der Weisen, kontert Bizerba-CIO Rebetzky. „Die virtuelle Welt des Business bedeutet Meeting, Prioritäten, Projekte in ständigem Wandel. Wenn mir mein Kalender einmal für die Tagesbesprechungen die Referenzen zu den Dokumenten vorlegt, die für die folgenden Meetings sinnvoll sind, dann haben wir einen ersten Fortschritt. Stand heute: Miles away”.

Strategien gegen das Account-Chaos – Software VoxOn bündelt Kommunikationswege im Internet

Die Internet-Revolution bringt nach einem Bericht von Technology Review http://www.heise.de/tr derart viele Kommunikationsmöglichkeiten mit sich, dass man leicht den Überblick verlieren kann. „Die vielen Wege, Freunde und Bekannte online und offline zu erreichen, sind allerdings nicht unbedingt bequem: Jeden einzelnen Dienst nach neuen Botschaften zu durchforsten, ist anstrengend und kostet Zeit. Fast jeder von uns verfügt inzwischen über mehrere Telefonnummern, E-Mail-Adressen und Instant-Messaging-Zugänge (IM), hinzu gesellen sich in letzter Zeit nicht selten diverse Identitäten in sozialen Netzwerken“, schreibt Technology Review. TelCentris, eine Firma aus dem kalifornischen San Diego, möchte das Account-Chaos lichten. Die Software VoxOX http://www.voxox.com solle dafür sorgen, mit den eigenen Kontakten auf verschiedensten Wegen zu kommunizieren.

„Solche ‚Unified Communicator’-Lösungen sind keineswegs eine neue Idee. In den letzten Jahren entwickelten mehrere populäre IM-Netzwerke Software, mit der es möglich war, auch mit Angehörigen anderer Netze zu kommunizieren. Mit der zunehmenden Verwendung von Handys entwickelten sich derweil Systeme, die mehrere Nummern auf eine umleiteten, heute sind etwa Google (‚Grand Central’) oder BT (‚Riddit’) auf dem Markt tätig. Der Ansatz ist insbesondere im geschäftlichen Bereich populär, wo Firmen Werkzeuge schaffen, die diverse Kommunikationswerkzeuge zusammenbringen – IBM beispielsweise IM, Voicemail und Web-Konferenzen in seiner Lösung Lotus Notes. VoxOx setzt diesen Trend fort, offeriert aber eine deutlich längere Liste unterstützter Dienste. Nutzer können E-Mails und IM-Botschaften verschicken, SMS absetzen, Videokonferenzen starten, Telefonate führen, Nachrichten an soziale Netzwerke schicken und Dateien mit anderen austauschen – alles von einem Ort aus und von diversen Serviceanbietern“, so Technology Review.

Eine Vorabversion von VoxOx ist für Mac- und Windows-Rechner kostenlos verfügbar. Nach der Erstellung eines Accounts erhält man eine kostenlose Rufnummer und konfiguriert den Rest des Dienstes, in dem man seine Nutzernamen und Passwörter für unterstützte IM-, E-Mail- und Social Networking-Services an die Anwendung übergibt. VoxOx zieht die Kontakte heraus und erlaubt es dem Nutzer, eine vollständige Liste durchzusehen, um auszuwählen, mit wem und über welche Wege künftig kommuniziert werden soll. Was VoxOx anbietet, ist ein SIP-Telefon-Account und dazu ein Software Client für den PC, um andere Message-Services zu nutzen. „In erster Linie aber ist es ein Service, wie wir ihn von Sipgate und anderen Anbietern von SIP-Telefonie kennen, mit einem benutzerfreundlichen, attraktiven Client für den PC oder Mac. Der Schritt zum SIP-Client ist richtig, aber der Erfolg ist weniger von der Anwendung selbst abhängig, sondern vom Angebot des SIP-Service“, erläutert Internetexperte Sebastian Paulke von der Agentur Wort+Welt http://www.wortundwelt.eu.

Zur Zeit seien das noch Nischenprodukte. Das werde sich ändern, wenn die großen Netzbetreiber SIP-Telefonanschlüsse zusätzlich zum DSL anbieten. „Ob sich aber die eigene Software eines kleinen Anbieters etwa gegen Microsoft durchsetzen wird, ist sehr fraglich. Insofern ist VoxOx noch als ein Produkt einer sehr frühen Marktphase zu betrachten“, vermutet Paulke. Für Geschäftskunden gehöre das Thema Web 2.0 und Social Networks noch lange nicht zu den üblichen Anforderungen an Kommunikationslösungen. „Wir werden in etwa zwei oder drei Jahren hier verstärkte Aktivitäten in innovativen Branchen sehen, die auch den Access zu Communities in die Lösungen für Unified Communications einbeziehen werden“, prognostiziert der Wort+Welt-Chef.

Visionäre Computer-Wolken von Google und die Warnung vor neuen Monopolen

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager. 

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. 

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. 

Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus. 

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman http://www.stallman.org offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon. 

medienbüro.sohn/NeueNachricht/Zehn Jahre Google und das Endspiel um die Vorherrschaft im Internet

In den vergangenen zehn Jahren hat Google das Suchen und Finden im Internet revolutioniert. Jetzt stößt der Gigant in neue Geschäftsfelder vor. „Umwelt, Gesundheit, Bibliotheken – überall hat Google die Finger im Spiel. So könnte die Zukunft aussehen: Das grenzenlos mobile Internet wird künftig gesteuert über webbasierte Software, ist jederzeit und überall einsetzbar. Spracherkennung macht den Blick auf das Display überflüssig“, spekuliert Welt-Online http://www.welt.de und wird von Branchenexperten bestätigt: „Google hat schon vor Jahren die Spracherkennung als Schlüsseltechnologie für seine Expansionspläne entdeckt. So beobachten wir seit längerer Zeit wie der Suchmaschinen-Gigant in die Erforschung der Einsatzfelder von Sprachtechnologie und Entwicklung eigener Produkte investiert. Für Google ist der Einsatz von Spracherkennung ein strategisches Projekt im Rahmen der selbsternannten Mission ‚Organize the world’s information’. Denn das Internet wächst und dehnt sich aus – es wird immer mehr zum Bewegtbild und zum mobilen Medium“, sagt Bernhard Steimel, Sprecher der Brancheninitiative Voice Business, die Mitte Oktober in Wiesbaden den Kongress Voice Days http://www.voicedays.de/

veranstaltet. 

Die Rolle der Sprachtechnologie könne man anhand von drei Zielen erläutern, die auch als Entwicklungsstufen eines strategischen Plans von Google betrachtet werden können: „Es soll in der ersten Stufe einen einfachen Zugang zu Internet-Suchdiensten auch per Telefon geben. Der Zugang soll von überall und über jedes Endgerät möglich sein – die Sprachsteuerung dient als Dialogmedium. In der zweiten Stufe wird die Suchfunktion auf nicht-textbasierte Informationen wie Audio- und Video-Content ausgeweitet. Die Sprachtechnologie dient hier als Analyse-Medium. In der dritten Stufe wird man die Suche auf andere Trägermedien ausdehnen und alle Inhalte, auch lokale, erfassen. Die Sprachtechnologie wird dann als Eingabemedium eingesetzt“, erläutert Steimel im Gespräch mit dem Bonner Magazin NeueNachricht http://www.ne-na.de.

 

Erste Maßnahmen habe Google bereits eingeleitet. Ein Spracherkenner sei bereits entwickelt worden, der mit Daten aus der Telefonauskunft 0800-GOOG-411 http://www.google.com/goog411/

gefüttert werde. „Mit dem Start des Video Search Dienstes geht man noch einen Schritt weiter. Wenn auch Videoinhalte anhand von konkreten Äußerungen in die Suchfunktionen einbezieht, lässt sich die Online-Werbung passgenau platzieren und kann generell für die Werbeindustrie die Media-Analyse effizienter im Internet betrieben werden“, glaubt Steimel.

 

Je mehr das Handy zum Computer werde und als Multimedia-Speicher und Abspielmedium fungiere, desto mehr werden nach den Plänen des Mountain View-Konzerns auch hier Suchdienste vonnöten sein. Dabei stoße die Tastatur als Eingabemedium an ihre Grenzen, denn die Eingabe von Suchanfragen über die Zifferntastatur sei wenig komfortabel. Spracherkenner könnten zu einer Vereinfachung beitragen: „Vor diesem Hintergrund erlangt das Google-Betriebssystem Android eine zusätzliche Bedeutung – die Spracherkennung wird wohl direkt mit eingebaut“, erwartet Steimel. Google, frohlocken seine Freunde und fürchten seine Feinde, werde auch in den nächsten zehn Jahren das Cyberspace entscheidend prägen.

 

„Mit diversen Projekten und Beteiligungen hat sich der Suchmaschinenkonzern schon in Position gebracht“, berichtet Welt-Online: Nach den Worten von Vorstandschef Eric Schmidt will Google eines Tages ein „Supercomputer“ sein, über den die Nutzer alles online erledigen können. Jede Anwendung wäre internetbasiert und der Kauf von externer Software überflüssig. Ob Mailen, Surfen, Textverarbeitung, Präsentationen, Buchhaltung oder Statistik, alles würde von riesigen Serverfeldern ausgehen und Google wäre deren Eintrittstor und Gehirn zugleich. Das Stichwort dafür heißt Cloud-Computing: Es läutet nach Auffassung von FAZ-Redakteur Holger Schmidt das Endspiel um die Vorherrschaft im Internet ein: „Dokumente, Internetseiten, Fotos und Videos müssen künftig nicht mehr auf dem heimischen Rechner abgelegt werden, sondern irgendwo ‚in der Wolke’, womit riesige, über die ganze Welt verteilte Datenzentren gemeint sind. Die Internetnutzer können dann überall und mit allen Geräten auf ihre Daten zugreifen und mit anderen Nutzern teilen.“

 

Was werde Google in zehn Jahren sein? „Wenn es nach dem Willen von Larry Page ginge, dann wäre Google eines Tages eine perfekte künstliche Intelligenz, die ‚alles weiß, und das heißt, dass man alles wird tun können’“, schreibt Welt-Online. Dann werde Google vielleicht nicht nur suchen und finden, sammeln und verbreiten, sondern auch fragen und antworten, bewerten, belohnen und bestrafen. Google werde dann zu einer mächtigen Denkmaschine.

 

Siehe auch:

 

http://www.digitalnext.de/die-google-oekonomie

 

http://www.faz.net/s/Rub4C34FD0B1A7E46B88B0653D6358499FF/Doc~ECF21B6D568F948389F884C3CFC556A8D~ATpl~Ecommon~Sspezial.html

 

http://www.welt.de/webwelt/article2400155/Die-Google-Zukunft-Vom-Suchen-zum-Denken.html

 

http://www.absatzwirtschaft.de/Content/Online-Marketing/News/_pv/_p/1003186/_t/ft/_b/64088/default.aspx/google-hat-bei-der-spracheingabe-die-nase-vorn—microsoft-kann-kontern.html

 

http://www.pte.at/pte.mc?pte=070412027

 

http://www.nmz.de/kiz/modules.php?op=modload&name=News&file=article&sid=11457