Wenn die Birne glüht: Über die Bedeutung von bunten Bildern in der Hirnforschung

In mehreren sehr guten Berichten sind die Neuro-Thesen von Manfred Spitzer demontiert worden. Besonders gefallen hat mir der gestrige Beitrag in der Frankfurter Allgemeinen Sonntagszeitung: „Mein Kopf gehört mir“.

„Digitale Demenz“ sei ein unleserliches Buch, ein aus rostigen Studien, lahmen Alltagsweisheiten und gebrauchten Papers zusammengeschweißtes Konvolut, und wenn man ihm die Ferne zu seinem Gegenstand nicht auf jeder Seite ansehen würde, würde man ein Computerprogramm aus dem Internet für seinen Autor halten, schreibt Harald Staun.

„Vielleicht wäre es wirklich das Beste, wenn man kein Wort mehr darüber verlöre. Dummheitsbücher haben Konjunktur, das wird sich so schnell nicht ändern. Doch leider ist Spitzers Beitrag nicht einfach der übliche Kulturpessimismus; es ist Kulturpessimismus im Gewand der Naturwissenschaft. Spitzer verbreitet nicht seine Meinung, er doziert Gesetze.“

Der letzte Satz von Staun triff den Kern. Man muss sich wohl im politischen Diskurs intensiver mit der Neuro-Scharlatanerie auseinandersetzen. Irgendwelche „Hirnforscher“ stecken in ihr krudes Weltbild eine Prise Neurowissenschaften rein und schon erstarrt die Öffentlichkeit in Ehrfurcht und Schockstarre. Nachzulesen auch in meiner Kolumne am Freitag. Digitaler Alarm – Die pathologische Schnappatmung der Neuro-Phrasendrescher. Wer die wissenschaftliche Seriosität der Hirn-Bubis anzweifelt, bekommt direkt die Empfehlung zu einem Praktikum in der Psychiatrie.

„Ihre Autorität gewinnen die Erkenntnisse der Hirnforschung vor allem aus den bunten Bildern der funktionellen Magnetresonanztomographie (fMRT). Weil sich dieser Blick ins Innere des Kopfes auch bei lebenden Menschen relativ unkompliziert vornehmen lässt, kann man so einem Hirn auch dabei zusehen, wenn es tut, was es eben tut: Sauerstoff verbrauchen, Glucose verbrennen, Botenstoffe ausschütten, Synapsen bilden“, so FAZ-Redakteur Staun.

Und in diese bunten Bilder werden willkürlich politische, psychologische oder sonstige Erkenntnisse gegossen. Um nicht immer auf Spitzer herumzutrampeln, verweise ich auf das Beispiel der Gehirnjogging-Computerspiele:

„Man sollte sehr misstrauisch sein gegenüber den Weisheiten, die aus diesem Bereich kommen und zwar insbesondere wenn sie über die Macht der Bilder erzielt werden. Fast alle Medien würden zur Zeit Bilder der Kernspintomographie veröffentlichen. Da taucht ein Fleck im Gehirn auf, also muss das irgendwas bedeuten“, so Scheich. Da gebe es sehr viel Rattenfängerei. Es sei einfach nicht richtig zu glauben, wenn die Birne aufleuchtet und die Aktivierung im Gehirn größer wird, ein besserer Zustand des Gehirns erreicht werde.

Im Gegenteil:

„Große Aktivierung im Gehirn bedeutet Unsicherheit des Gehirns. Wenn Sie Aufgaben untersuchen, wie sie gelöst werden, von unsicherem Status bis zum Profi, dann finden Sie eine negative Korrelation mit der Größe der Hirnaktivierung. Der Profi setzt eigentlich nur noch seine spezifischen Mechanismen für etwas ein“, so der Hinweis von Professor Henning Scheich, Direktor des Leibniz-Instituts für Neurobiologie in Magdeburg.

Gehirnjogging mit riesiger Hinaktivierung nachzuweisen, sei Unfug. Die kleine Aktivierung, die beim scharfen Nachdenken von einem Profi produziert werde, das ist die eigentliche Aktivierung, die richtig ist.

Der Züricher Neuropsychologe Lutz Jähnke hält den Erklärungsdrang vieler seiner Kollegen für eine „problematische Grenzüberschreitung“.

„Und wer an wissenschaftliche Beweise glaubt, sollte sich einmal die Studie durchlesen, in der ein Team von Psychologen aus Yale vor ein paar Jahren ermittelte, dass selbst absolut unlogische Aussagen Glaubwürdigkeit genießen, wenn dabeisteht, dass Ergebnisse aus dem Hirnscanner ihre Richtigkeit unterstreichen“, erläutert Staun.

Die Süddeutsche Zeitung erwähnt den Wiener Arzt und Anti-Aging-Aktivisten Johannes Huber. So sei es angeblich gesund und führe zu einem längeren Leben, wenn man sich von einem anständigen Abendessen fernhält.

„Da er wohl ahnt, dass seine Thesen einer seriösen wissenschaftlichen Prüfung nicht standhalten, streut Huber gerne allerlei Abbildungen von Gensequenzen, histologischen Färbungen und molekularbiologischen Analysen in seine Vorträge. Dieses pseudowissenschaftliche Allerlei ist inhaltlich nur zusammenhangsloser Zierrat, beeindruckt aber viele Zuhörer wie auch die meisten Leser seiner Bücher. Sie verstehen zwar nicht so genau, was da gezeigt wird, denken sich aber: Der Mann kennt sich aus!“

Den Neuro-Fritzen sollte man etwas mehr auf die Pelle rücken.

Siehe auch:

Manfred Spitzers digitale Demenz.

Warum uns Hirnforscher krankmachen – Über neuro-pseudo-wissenschaftliche Meinungsmanipulation.

Eigensinnige Technik: Gescheiterte Innovationen und Prognosen für die Zukunft

Der technische Fortschritt ist unberechenbar und eigensinnig, meint der FAZ-Redakteur Michael Spehr und analysiert die Tops und Flops des vergangenen Jahres: In Fachzeitschriften war die Rede vom Siegeszug der OLED-Displays, die ein sehr kontrastreiches Bild liefern, von Brennstoffzellen als alternativer Stromversorgung elektronischer Kleingeräte, von der Durchsetzung des DVB-H-Standards für mobilen Fernsehempfang mit dem Handy. Dann sollte die Bluray-Scheibe der DVD den Garaus machen und USB 3.0 mehr Tempo bei der Datenübertragung bieten. Die Handy-Magazine präsentierten Nokias „iPhone-Killer“ mit berührungsempfindlichem Display, und die PC-Zeitschriften beschworen in der Computerwelt das Credo von „noch mehr Leistung“ mit Achtkernprozessoren und dass natürlich alles immer schneller und besser wird.

„Keiner dieser Hellseher lag richtig, DVB-H wurde zum Technik-Flop des Jahres, USB 3.0 ist gerade mal angekündigt worden, und die Bluray verkauft sich nur sehr verhalten. Der Markt hat sich vollkommen anders entwickelt. Das Paradebeispiel ist der Überraschungserfolg der Netbooks, der kleinen Mini-Notebooks in der Preisklasse von um die 400 Euro, die allemal genug Leistung für Internet, E-Mail und Textverarbeitung bieten und ausnahmslos unter Windows XP laufen. Für Standardaufgaben am PC braucht kein Mensch einen Achtkernprozessor, und das ressourcenhungrige Vista hat paradoxerweise nicht zu dem erwarteten Ansturm auf neue PCs mit mehr Rechenleistung und Speicher geführt, sondern zu einem neuen Trend, der sich besinnt auf Werte wie Nachhaltigkeit und Effizienz“, so Spehr. Das erkläre auch den Erfolg der Mac-Rechner von Apple: Sie sind schick, schnuckelig, schnell, sicher, selbsterklärend und werden auch in diesem Jahr ihren Marktanteil gewaltig vergrößern.

„Auch bei der Software lief alles anders als vorhergesehen: weg von der Opulenz überdimensionierter Pakete hin zu kompakten und schlichten Programmen, die genau das tun, was sie sollen, und auf nervigen Schnickschnack verzichten. Solche Anwendungen kommen meist aus der Open-Source-Bewegung, wie der Firefox-Browser 3 oder das Büropaket Open Office 3, das sich hinter einem Microsoft Office nicht zu verstecken braucht. Alle diese Programme sind kostenlos, klar dokumentiert und haben keine Falltüren à la Zwangsregistrierung oder Kopierschutz“, erklärt Spehr. Generell werde Mammut-Software aussterben und mit ihr jene Unternehmen, die das nicht begreifen. Man müsse nicht mehr alles mitmachen, was die Industrie als „neu“ oder „modern“ anpreist. Einfache, faire und überschaubare Produkte seien stärker denn je gefragt, etwa die Flatrate fürs Telefonieren und in diesem Jahr die Datenflatrate, die einen endlich unabhängig macht vom DSL-Anschluss der Telekom. Zudem wachse das Unbehagen gegenüber Gängelungen.

„Die Macht der Meinungen im Internet wird stärker. Bewertungsportale, Foren und private Seiten legen Finger in die Wunden und werden von potentiellen Käufern um so mehr gelesen, wie der Technikjournalismus der Fachzeitschriften seine Jubelarien mit hübschen Produktbildern und halbnackten Mädels garniert“, resümiert Spehr.

Nach Ansicht von Udo Nadolski, Geschäftsführer des Düsseldorfer Beratungshauses Harvey Nash, hängt der Markterfolg neuer Technologien nicht vom Featurismus ab: „Der iPod von Apple in Verbindung mit iTunes ist ein gutes Beispiel hierfür, ebenso das iPhone und der iPod Touch, die ja auch über den iTunes-Store Musik, Videos und Software herunterladen können. Nach nur etwa einem Jahr hat das iPhone den Spitzenplatz unter den verkauften Smartphones eingenommen, da Komfort wie auch Inhalte den überzeugend sind. Sollte Apple tatsächlich einen XXL-iPod Touch mit 9 bis 10 Zoll Display bringen, könnte das den Markt der so genannten Netbooks noch stärker beflügeln“, prognostiziert der IT-Experte Nadolski.

Innovationen wie HDSPA, Blu-ray und USB 3.0 seien wirkungslos, solange sie nicht auf tragfähigen Geschäftsmodellen beruhen und attraktive Dienste für Anwender erbringen. „Das Dilemma bei Mobile TV in Deutschland belegt diese These genauso wie das Scheitern des digitalen Radio-Standards DAB. Wenn sich für den Anwender keine Vorteile hinsichtlich Inhalt, Komfort und Qualität in einem Maße ergeben, dass er bereit ist, dafür extra zu bezahlen, bleibt nur noch eine Finanzierung über Dritte durch Werbung, Kunden-Profiling und andere Dienste. Hat die Anwendung aber noch keine kritische Masse im Markt erreicht, wird auch die Drittfinanzierung nicht funktionieren“, sagt Nadolski.

Das Problem der Tragfähigkeit der Geschäftsmodelle stelle sich auch den Online Communities, die oft als typische Beispiele für das Web 2.0 genannt werden. „Mit Ausnahme von Xing ist vermutlich keine der vielfältigen Communities von Facebook bis Wer-kennt-wen? heute profitabel. Der Nutzen gerade der privat orientierten Communities ist zwar für Anwender greifbar, aber die Akzeptanz und Verbreitung beruht in hohem Maße darauf, dass sie kostenlos sind. Die Drittfinanzierung funktioniert bisher nicht ausreichend. Das dürfte auch das Problem des Open Source-Betriebssystems Linux sein. Mit allen Distributionen hat Linux heute einen Marktanteil von weniger als einem Prozent bei Desktop oder mobilen Computern. Ein akzeptables Geschäftsmodell fehlt bislang“, meint der Harvey Nash-Chef.

Online Communities werden sich nach Marktanalysen von Mind-Geschäftsführer Bernhard Steimel weiter ausbreiten mit einer stärkeren Spezialisierung. Ein gutes Beispiel ist ‚World of Warcraft‘. Die Erweiterung des System unter dem Namen ‚Wrath of the Lich King‘ verkaufte sich am ersten Tag 2,8 Millionen mal und die Spielteilnahme kostet pro Monat 11 bis 13 Euro“, erläutert Steimel. Cloud Computing, also die Nutzung von Applikationen über das Netz, wurde schon oft propagiert, wird sich nach Expertenansicht auch mit den Netbooks für Standard-Anwendungen wie Office-Applikationen nicht durchsetzen. „Warum soll der Anwender für die Nutzung einer Software bezahlen, die er ebenso gut kostenlos als Open Source installieren kann, und die dabei immer – unabhängig vom Online-Zugang – verfügbar ist“, so Nadolski.

Internet-Telefonie – mittlerweile in der SIP-Variante – werde sich nach seiner Erfahrung durchsetzen, wenn die Netzbetreiber eine direkte SIP-Anbindung bieten. „Es ist davon auszugehen, dass in diesem oder im nächsten Jahr derartige Dienste massiv angeboten werden. Mobile Breitbandzugänge, HSDPA oder später LTE (Long Term Evolution) werden dann interessant, wenn die Flat Rate-Tarife marktgerecht sind und SIP-Telefonie gleich mit angeboten wird. Auch die Anbieter von Breitbandzugängen werden noch einmal neu sortiert, wobei wenige Anbieter mit xDSL- und 3G-Portfolio übrig bleiben“, vermutet Nadolski.

Sprachcomputer führen noch zu Verbraucherfrust

Viele Verbraucher empfinden Sprachcomputer als nervig und fühlen sich von den automatischen Systemen abgewimmelt. Eine Akzeptanzstudie des Fraunhofer-Instituts im Auftrag der Initiative Voice Business (IVB) http://www.voicedays.de bestätigt, dass die telefonische Selbstbedienung nur als notwendiges Übel betrachtet wird – eine Liebeshochzeit ist es noch nicht. Kein Wunder, dass im Web und bei TV-Sendungen Anleitungen kursieren, wie man Sprachsysteme überlisten kann.

 

„Einige Betreiber gewährleisten keine vernünftige Call Center-Integration, dann müssen Anrufer ihre Anliegen nach einem Scheitern des automatischen Sprachsystems gegenüber Call Center-Agenten wiederholen. Das schafft Frust und senkt die Servicequalität, obwohl es dazu mittlerweile ausgereifte Lösungen gibt“, weiß Call Center-Experte Jens Klemann von der Unternehmensberatung Strateco http://www.strateco.de. Auf der Mängelliste der Experten stehen unübersichtliche Menus, unvollständige oder schlecht gepflegte Vokabulare, die die Erkennungsraten senken sowie keine Fall abschließende Erledigung von Kundenwünschen.

 

„Einheitliche Qualitätskriterien und ein geschärftes Qualitätsbewusstsein auf Kundenseite tun Not. Sehr viele Systeme, die von uns während des Auswahlverfahrens für die Voice Awards getestet werden, weisen eklatante Mängel auf. Die Qualitätssicherung muss ernster genommen werden“, fordert Voice Days-Sprecher Bernhard Steimel. „Seit 2007 arbeiten wir für die Initiative Voice Business gemeinsam mit führenden Experten der deutschsprachigen Fachszene an einem industrienahen Qualitätsstandard für Sprachapplikationen“, erläutert Professor Dieter Spath, Leiter des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO http://www.iao.fraunhofer.de. Die Ergebnisse der ersten Projektphase wurden in der Studie „Leitfaden – Qualitätskriterien für Sprachapplikationen“ veröffentlicht.

 

In der zweiten Projektphase wird nun die Anwendung in konkreten Projekten im Mittelpunkt stehen. In Form eines „Kochbuchs“ sollen für typische Applikationsszenarien spezifische Entwicklungsprozesse skizziert werden. „Es muss sehr schnell die Spreu vom Weizen getrennt werden, damit sich am Markt ausschließlich die intelligenten Dialogsysteme durchsetzen. Der Benutzer muss den Dialog mit der Maschine aktiv steuern können. Der Sprachcomputer sollte sich dem Anrufer dabei anpassen und auf mehrere Äußerungen gleichzeitig reagieren. Erst wenn der Anrufer auf eine offene Frage nicht mehr antwortet oder es zu Verständnisproblemen kommt, greift das System ein, überführt das Gespräch in einen Dialog mit klaren Anweisungen und stellt Reaktionsalternativen vor“, so Lupo Pape, Geschäftsführer von SemanticEdge http://www.semanticedge.de in Berlin.

Der Roboter als Fitnesstrainer – Künstliche Intelligenz stellt sich auf den Menschen ein

Japan ist das Land der Automaten. „Man findet sie sprichwörtlich an jeder Straßenecke, auch in den abgelegensten Winkeln des Inselstaates. Selbst in Tempelanlagen und auf den heiligsten Berg der Japaner, den Fuji-San, sind sie vorgedrungen. Die Rede ist von den stummen, immerbereiten Verkäufern Japans, den Jido-Hanbai-ki“, schreibt Robin Loch in einer Beilage für das Fachblatt Catering Management http://www.catering.de. Dabei entwickeln sich die Automaten immer weiter. „Die berühmt-berüchtigte japanische Erfindungswut treibt die Perfektionierung dieser Spielzeuge ständig gnadenlos voran“, so der Autor. Unter anderem würden die Geräte so konzipiert, dass „Kinder, Ausländer, alte und behinderte Menschen die Geräte gleichermaßen intuitiv bedienen können.“

Doch Japans Automatenlust geht noch viel weiter: Das National Institute of Advanced Industrial Science and Technology http://www.aist.go.jp/index_en.html plant in Kooperation mit einem Roboterhersteller einen 60 Zentimeter großen humanoiden Roboter, der als Fitnesstrainer agiert. Er soll älteren Menschen verschiedene Gymnastikübungen zeigen, mit denen diese sich fit halten können. Wie Menschen und Maschinen miteinander kommunizieren, fasziniert schon seit Jahrhunderten die Forschung. Und die Geschichte der Roboter, die damit einhergeht, ist älter als man glaubt. Da war der  Trompeterautomat aus dem 19. Jahrhundert, da war Maschinen-Maria aus dem Stummfilmklassiker „Metropolis“ oder der vom Schweizer Henri Maillardet konstruierte Automat, der in der Lage war, Landschaften zu zeichnen und auf Englisch und Französisch zu schreiben.

 

Heute gehört ein Roboter nicht nur zur Grundausstattung vieler Kinderzimmer. Auch Seniorenheime machten bislang positive Erfahrungen. „In Japan wird der künstliche Heuler schon länger in der Altenpflege eingesetzt – jetzt testen auch Heime in Deutschland die Kuscheltiere als Begleiter für ihre Bewohner“, berichtet die Aachener Zeitung http://www.az-web.de über einen Streichelroboter in Robben-Outfit. „Der Unterschied zu einfachen Kuscheltieren sei die künstliche Intelligenz: Der Roboter besitze eine ausgeklügelte Software und werde erst dadurch liebenswert“, zitiert die Zeitung William Banks von der Saint Louis Universität im US-Bundesstaat Missouri. „Die Robotik ist eine Antwort auf die Probleme, die die alternde Gesellschaft mit sich bringt. Und eine Möglichkeit, sich als Exportnation auf dem Weltmarkt zu halten“, beschreibt die Financial Times Deutschland http://www.ftd.de die Verbreitung der Roboter auch auf dem Gesundheitsmarkt.

 

Die Maschinen kommen dem Menschen dabei immer näher und stellen sich auf ihn ein. Das beweist auch die Entwicklung der Sprachtechnik. „Das hat mit mechanischen Mitteln im 18. Jahrhundert schon der Hofrat Wolfgang Baron von Kempelen am Hofe von Kaiserin Maria Theresia unter Beweis gestellt. Die Sprechmaschine von Kempelen folgte den Ideen der Aufklärung und sollte Gehörlosen eine vernehmbare Stimme verleihen. Dabei war Kempelen, wie später Charles Wheatstone oder Alexander Bell, davon überzeugt, dass sich die Konstruktion sprechender Maschinen am Vorbild des menschlichen Artikulationsapparats zu orientieren hätte. Dieser Forschungsansatz hat sich auch heute nicht wesentlich geändert. Softgesteuerte Sprachdialogsysteme müssen intelligenter werden, damit sie besser verstehen, was der Mensch von ihnen will“, resümiert Lupo Pape, Geschäftsführer von SemanticEdge http://www.semanticedge.de.

Hackerszene treibt iPhone-Entwicklung voran: Experten rechnen mit neuer Mobilfunkstrategie von Apple – Providerbindung schränkt Verkaufserfolg ein

Nach Spekulationen von Ezra Gottheil, Analyst bei Technology Business Research http://www.tbri.com, werde Apple sein Geschäftsmodell für das iPhone aufgeben und die Telefone auch ohne Providerbindung verkaufen. Damit hätte sich auch die Umsatzbeteiligung erledigt, die Apple mit seinen exklusiven Partnern vereinbart hat. Gottheil schließt aus Apples Zuversicht, in diesem Jahr zehn Millionen iPhones zu verkaufen, auf ein ungebundenes Handy. Bislang seien die Verkaufszahlen enttäuschend. Die britische „Times“ berichtete, dass die europäischen Anbieter große Verluste mit dem Apple-Handy machen würden. Die Handyprovider hätten sich gründlich verkalkuliert. So sei man davon ausgegangen, im vergangenen Jahr etwa 500.000 bis 600.000 iPhones in Europa absetzen zu können. Gerade einmal 330.000 Exemplare gingen bis Dezember über die Ladentheken.

 

Die Providerbindung war nach Expertenmeinung von Anfang an ein Fehler. Sie würde nicht der Kundenphilosophie des Steve Jobs-Kozerns entsprechen und wirke sich kontraproduktiv für das Image aus. Apple könnte über Business Process Outsourcing-Verträge das iPhone als eigene Mobilfunkmarke etablieren – als virtueller Netzbetreiber (MVNO). Stattdessen mache man den Kauf des mobilen Endgerätes vom Wechsel des Netzbetreibers abhängig. „Apple könnte als MVNO sogar weltweit auf Outsourcing-Modelle setzen und völlig frei am Markt agieren“, empfiehlt Omar Khorshed, Vorstandschef des Dienstleisters acoreus http://www.acoreus.de in Düsseldorf.

 

Apple habe mit seinen „iProducts“ die Endkundenmärkte kräftig in Bewegung gebracht, weil sie perfekt den „iCustomer“ adressieren. „Der Kunde, der seine Konsumgüterprodukte danach auswählt, wie sie sich in seinen persönlichen Lebensstil einpassen, steht im Fadenkreuz der Produktentwickler von Apple. Wenn Apple nun seinen Kunden abverlangt, seine Produkte nur mit bestimmten Infrastrukturanbietern zu nutzen – ist das nichts als ein Schlag ins Gesicht der Kundschaft, die ja gerade Apple wählt, um ihre individuellen Bedürfnisse zu befriedigen“, kritisiert Bernhard Steimel, Sprecher der Voice Days http://www.voicedays.de  und Co-Autor der Studie „Praxisleitfaden Mobile Marketing“ http://www.absatzwirtschaft.de/mobile-marketing.

 

Die Providerbindung führte mit einem Marktanteil von 10 bis 15 Prozent zu einem florierenden Graumarkt. Besonders die Hackerszene, für die das iPhone als vollwertige Linux-Maschine geradezu ein „must have” darstellt, sah die Providerbindung als Herausforderung an. So wurden die „Hacks” für die freie Verwendung des iPhones schneller veröffentlicht, als die meisten Nutzer das neue Update auf ihr „legales” Gerät herunterladen konnten. Der Graumarkt hat nicht nur negative Effekte, meint der Mobilfunkexperte Steimel: „Die Hackerszene treibt die Entwicklung von Anwendungen für das iPhone voran: Erst ein lebendiges Ecosystem aus einer Fülle von Anwendungen für Geschäfts- und Privatkunden schafft die Basis für Umsätze mit iPhone-Software und könnte so erfolgreich werden wie iTunes.“ Insgesamt sei die Providerbindung falsch, weil Apple künstlich den adressierbaren Markt einschränkt.

 

„Die Providerbindung hat Apple mehr geschadet, als die Umsatzanteile dem Giganten aus Cuperino kurzfristig beschert haben: Denn viele potenzielle Kunden und Multiplikatoren können aufgrund ihrer Vertragslage mit einem anderen Provider nicht auf das iPhone wechseln, weil sie dann einen eventuell noch 22 Monate laufenden Vertrag weiterbezahlen müssen. Deutlich wird der Unsinn, wenn man das Modell auf das MacBookPro überträgt. Die Arbeitsmaschine vieler Kreativer wäre doch vermutlich so unverkäuflich wie ein alter Gummistiefel, dürfte man sie nur mit einem DSL-Vertrag eines speziellen TK-Anbieters nutzen“, so der Einwand von Jens Klemann, Geschäftsführer der Bad Homburger Unternehmensberatung Strateco http://www.strateco.de.

 

Apple sollte als virtueller Mobilfunkanbieter mit einem eigenen Mobilfunktarif kostengünstige iTunes-Downloads ermöglichen.Man darf davon ausgehen, dass die Kalifornier bereits intensiv darüber nachdenken, als MVNO mit attraktiven Tarifen an den Markt zu gehen“, spekuliert Klemann. Vor allen Dingen in einer Kopplung mit einem großen Hot-Spot-Anbieter für WLAN würde die Apple-Welt noch stimmiger und nahtloser. Apple käme zudem in den Besitz der Kundendaten und Userprofile, die für die Weiterentwicklung der Produkte und Dienste von höchstem Wert sind.