Virtuelle Shopping-Assistenten werden die letzte Meile im Einzelhandel umpflügen

Netzwertig.com berichtet über biometrische Erkennungsverfahren, die zur nächsten Revolution im E-Commerce führen können.

„Technologie zur Fern-Körpervermessung erscheint auf den ersten Blick noch futuristisch. Händler, die dieses Verfahren zur Reife bringen, haben jedoch die Chance, im Textil-Versand eine Marktmacht zu erlangen, die diesen Bereich des elektronischen Handels grundlegend verändern könnte.“

Die Geschäftsidee des 2010 gegründeten Berliner Startups Upcload offenbare im aktuellen Entwicklungsstadium lediglich einen Bruchteil ihres Potentials.

„Kunden im Textilien-Onlineversandhandel via Webcam per Körperscan aus der Ferne von der Notwendigkeit einer Anprobe zu befreien, wirkt zwar von technischer Seite aus innovativ, eine Einschätzung der Einsatzgebiete über Nischenmärkte im Bereich der Maßanfertigung des Textilhandels hinaus erschließt sich bei vordergründiger Beurteilung jedoch nicht ohne weiteres.Legt man jedoch einen Fokus auf die Wertschöpfungskette in dieser Industrie und unterstellt entlang derer einen ganzheitlichen Einsatz dieser Technik, dann werden die Anwendungsmöglichkeiten in einer Tragweite deutlich, die sich für die weitere Entwicklung der Branche als Meilenstein herausstellen könnte: Eine automatisierte Zuordnung von passenden Kleidergrößen für Käufer im Versandhandel, die die individuellen Maße jedes einzelnen Kunden berücksichtigt. Logistische Systeme wären bereits jetzt dazu in Lage, individuelle Körpermaße der Kunden mit den Fertigungsmaßen der Kleidungshersteller abzugleichen. Das entscheidende Merkmal, das die bahnbrechende Neuerung für den Fashion-Versandhandel bedeuten würde, wäre vielmehr eine Logistik-IT in Kombination mit diesem neuen biometrischen Erkennungsverfahren. Diese könnte selbst die hohen Ungenauigkeiten innerhalb der Größenangaben von Konfektionswaren ausgleichen“, so netzwertig.

Der sehr ausführliche und interessante Beitrag beleuchtet noch weitere Aspekte. Witzig ist die Analogie zu einem Posting von mir aus dem Jahr 2008: IBM-Innovationstrends: Sprechendes Internet und digitale Shopping-Assistenten.

Intelligente Assistenten werden die Shopping-Welt verändern:

„Dabei wird die symbiotische Verknüpfung einer neuen Technologie und einer neuen Generation von Mobilgeräten den Einkaufserfahrungen im Einzelhandel dramatische Impulse verleihen. So werden Ankleideräume bald mit digitalen Shopping-Assistenten ausgestattet sein – Touchscreens und sprachgesteuerte Kioske werden Kunden zudem die Möglichkeit eröffnen, Bekleidungsstücke und Accessoires auszuwählen als Ergänzung oder Ersatz für die bereits zusammen gestellte Garderobe“, führt IBM aus.

Die letzte Meile im Einzelhandel werde in einigen Jahren völlig anders aussehen.

„Das klassische Ladengeschäft muss nicht mehr Teil des Distributionsnetzes sein. Als Konsument möchte ich nur die allernötigsten Artikel an Ort und Stelle mitnehmen. Was darüber hinausgeht, soll mir nach Hause gebracht werden. Statt weit zu fahren, damit ich zu einem großen Sortiment komme, werde ich zu einem Showroom gehen, wo man mir das ganze Sortiment zeigt – echt oder virtuell“, sagt Moshe Rappaport, IBM- Experte für Technologie- und Innovationstrends.

Es müssten nicht mehr alle Artikel im Laden vorrätig sein. Es reiche vollkommen aus, alles zeigen zu können. Nicht mehr das Produkte steht im Vordergrund, sondern der Service.

„Nehmen wir Kleider als Beispiel. Ich muss nicht alle Größen in allen Farben haben. Das kann ich in einem elektronischen Dressing-Room in allen Varianten ausprobieren und meine Kaufentscheidung treffen. Komme ich nach meiner Shopping-Tour wieder ins eigene Heim, wartet das Paket schon auf mich und ich kann die Kleidung anziehen“, so der Ausblick von Rapport vor drei Jahren.

So langsam kann man die Konturen dieser Visionen erkennen.

Tweets: Verschmelzende Software, Informatikerkarrieren und übermütige Staatsaufseher im Datenschutz

http://twitter.com/#!/gsohn/statuses/43375171666583552

http://twitter.com/#!/gsohn/statuses/43374432491810816

http://twitter.com/#!/kathaka/statuses/43214451796750337

E-Christmas und helfende Kunden

Für Service Insiders hat unser NeueNachricht-Team eine E-Christmas-Story geschrieben. „Das Internet ist der Todesstoß für Universalanbieter. Und die Kundenansprüche an Service und Leistungen wachsen rasant“, so Heinemann. Auf der Webseite des Versandhändlers Otto wird zurzeit gewichtelt: Nach der Anmeldung beim „Geschenke-Tauschrausch“ bekommt jeder User ein verpacktes Geschenk zugelost und kann es gegen Geschenke anderer User eintauschen. Allein zum Start haben sich 13.000 User registriert. Die durchschnittliche Verweildauer liegt laut Otto.de bei fast 13 Minuten pro Tag. Hier die komplette Story.

Wo die Reise im Kundenservice hingeht, könne man am Konzern LG ablesen, betont Bernhard Steimel, Sprecher der Smart Service-Initiative. „Der Elektronik-Riese baut seine Präsenz in sozialen Netzwerken aus. Sehr schnell bildete sich eine Community von mehr als 30 000 Kunden. 60 Prozent der Postings bestanden aus Serviceanfragen: Probleme mit der Technik, Fragen nach Reparaturmöglichkeiten, Inbetriebnahme von Geräten und vieles mehr. Management und Serviceabteilung setzten sich zusammen und bildete eine Task Force, die damit begann, die Probleme abzuarbeiten. Drei Monate nach der Gründung der Community wurde der Kunden-helfen-Kunden-Effekt immer prägnanter. 70 Prozent der Serviceanfragen werden mittlerweile von Bloggern oder Community- Mitgliedern selbst beantwortet. Nur rund 30 Prozent mussten von Mitarbeitern der Serviceabteilung bearbeitet werden. Mit wenigen Postings im Netz, die vom Unternehmen selbst kommen, gewinnt LG in den sozialen Netzwerken eine unglaublich hohe Reichweite. Zum Beispiel konnten mit 47 Blogpostings die Probleme von rund 30 000 Kunden gelöst werden. Die Kosten pro Nutzer liegen bei zwölf Cent. Sie wären deutlich höher, würden sich die Kunden mehrheitlich über die Hotline an das Unternehmen wenden“, so die Erfahrung von Steimel.

Meine komplette Story ist im Fachdienst MarketingIT der absatzwirtschaft erschienen.

Themenvorschläge für weitere Storys?

Warum „Frankenstein“ kein Bestseller wurde und die Printjünger ins Abseits marschieren

Das Handelsblatt versucht sich als Orakel von Delphi und verkündet „das Ende der Gratiskultur im Internet“. Zwanzig Jahre nach der Erfindung des Internets würde jetzt eine neue Epoche anbrechen: „Inhalte gibt es künftig nicht mehr umsonst. Medienunternehmen führen weltweit immer mehr Bezahlangebote im Web und in der Mobiltelefonie ein und haben damit großen Erfolg“, so die frohe Botschaft der Printjünger, die fast schon sakrale Töne trägt. Man könnte es auch als Pfeifen im Walde bezeichnen oder als Durchhalteparolen im Grabenkampf wie bei der Schlacht von Verdun.

Der ehemalige Handelblatt-Redakteur Thomas Knüwer ordnet das Elaborat in die psychologische Kategorie der Autosuggestion ein. Sie wird bekanntlich durch Selbsthypnose oder wiederholte Selbst-Affirmationen erreicht, und kann als eine Form von selbstinduzierter „Gehirnwäsche“ angesehen werden. Die Wirksamkeit der autosuggestiven Gedankenformeln kann durch mentale Visualisierungen des erwünschten Ziels erhöht werden. Der Erfolg der Autosuggestion wird umso wahrscheinlicher, je konsistenter und öfter sie angewendet wird. Doch dann ist Schluss mit dem esoterischen Schabernack und Knüwer kommt zur Sache: Die Rückkehr-zur-Normalität-Strecke des Handelsblattes sein eine Anhäufung von Halb- und Unwahrheiten, von unkritischem Widerkäuen falscher Floskeln und schließlich mündet all dies in einem Interview mit Matthias Döpfner, der anscheinend zur Lichtgestalt der Gedrucktbranche mutiert.

So behaupten die Handelsblatt-Autoren, dass der Wired-Chefredakteur Chris Anderson in seinem Buch „Free“ die Vision von der neuen, schönen Medienwelt mit dem „Umsonst-Journalismus“ vertreten würden. Das tue Anderson aber überhaupt nicht, so Knüwer. Er sage ganz klar, dass die Leser für gewisse Inhalte nicht mit Geld zahlen – dass aber eine Finanzierung möglich ist. Nur die alten Geschäftsmodelle der Verlage aus den alten Zeiten des Printmonopols sind eben nicht mehr tragfähig. Wer ist denn noch so dumm, Anzeigen in Printmedien zu schalten, wenn über Portale für Immobilien, Jobs oder Bekanntschaften bessere Trefferquoten erzielt werden und klassische Anzeigen über AdWords zu einer Form der personalisierten Werbung führen – weg von der unspezifischen Reklame-Berieselung.

Man muss halt mit neuen Modellen experimentieren. Und wenn die Handelsblatt-Printjünger mal in ihr Archiv schauen würden, könnten sie sogar Anregungen finden:

Godin äußert sich zum Niedergang des traditionelles Marketings. Einen Test für neue Wege hat er vor zehn Jahren mit seinem „Unleashing the I-dea-Virus“ gewagt. Zum Start hat er es einfach verschenkt und trotzdem Geld verdient. „Mein Buch handelt davon, wie sich Ideen verbreiten. Ideen sind ansteckend wie ein Virus. Und je mehr Leute einer Idee ausgesetzt sind, desto schneller verbreitet sie sich. Genau das wollte ich zeigen, als ich das Buch kostenlos ins Internet stellte. Und die Zahlen zeigen: Es funktioniert. Seit Mitte Juli haben sich 200 000 Leute den Text heruntergeladen. Für Wirtschaftsbücher gilt schon eine Auflage von 20 000 bis 30 000 als Riesenerfolg.“

In gebundener Form hat er das Buch für 40 Dollar verkauft. „Wer das Buch nur lesen will, kann das im Internet gratis tun. Wer aber eine gedruckte Ausgabe als Souvenir will, kann es kaufen. Das ist wie mit T-Shirts: Die gibt es im Kaufhaus für ein paar Dollar im Zehnerpack. Wer aber eins mit dem Aufdruck der Freiheitsstatue haben will, muss dafür 40 Dollar hinblättern. Inzwischen habe ich mit dem Buch innerhalb von fünf Wochen mehr Geld verdient als mit meinem ersten Buch in eineinhalb Jahren“, erklärte Godin.

Unverständlich sei der Aktivismus der Industrie gegen die Musiktauschbörse Napster gewesen: „Ich verstehe überhaupt nicht, warum die Musik-Industrie so dagegen ist. Je mehr Leute einen Song hören, desto mehr werden später auch die Platte kaufen. Deshalb bemühen sich die Plattenfirmen ja auch so, die Songs ihrer Künstler ins Radio oder auf MTV zu bekommen. Da akzeptieren sie ein Prinzip, das sie bei Napster ablehen“, erläuterte Godin. Genau um diese Effekte geht es auch dem Wired-Chefredakteur. Free heißt eben nicht kostenlos. Wenn ein Dienst in einer Grundversion nichts kostet und bei den Kunden einschlägt wie eine Bombe, wollen die Anwender mehr davon haben und sind auch bereit, für die Upgrades zu zahlen. Das habe ich beispielsweise bei WordPress auch getan, um Audio-Dateien in meinem Blog zu präsentieren. Mit dem kostenlosen Content Management System bin ich seit Jahren sehr zufrieden und war daher auch bereit, in sinnvolle Erweiterungen zu investieren. Also muss das Pflichtprogramm die Nutzer überzeugen, um dann in der Kür entsprechend Geld zu verlangen, liebe Verleger. Ihr seid ja noch nicht mal in der Lage, vernünftige Micropayment-Dienste zu entwickeln. So kosten die zwei Autosuggestion-Artikelchen über die Weltrettung des Printimperiums schlappe 6.90 Euro – eine Frechheit. Siehe auch: Das Schlafen der Verlage: Warum die E-Commerce-Modelle der Massenmedien Schrott sind.

Die Verlage könnten doch etwas anderes ausprobieren. Lasst die Leser entscheiden, was ihnen die Online-Artikel wert sind. In der Masse würden die Zeitungen dann jedenfalls mehr einnehmen als mit den Genios-Apothekenpreisen.

Wenn jetzt noch weitere Bezahlschranken errichtet werden, werden die Printverlage endgültig in die Knie gehen. Mit merkantilistischen Schutzzöllen, Schutzgebühren, Abmahn-Gefechten und mit dem von Döpfner und seinen Printjüngern so sehr herbeigesehnten Leistungsschutzrecht werden sich die Verlage ihr eigenes Grab schaufeln. „Die Verlage zeigen ihr Unvermögen, auf die Abwanderung der Konsumenten und damit auch der Werbung ins Internet sinnvoll zu reagieren. Sie versuchen dieses mit einem Abgabengesetz zu kompensieren und ihre Kosten über Subventionen zu sozialisieren. Die Ausrede, wonach die Gratiskultur im Internet dies erfordere, ist doppelt falsch: Erstens machen die Verlage ihre Inhalte freiwillig im Internet zugänglich, und zweitens zeigen Firmen wie Amazon, Apple, Ebay, Google oder auch Facebook eindeutig, dass man im Internet Geld verdienen kann“, schreibt Cognita-Geschäftsführer Denis Nordmann in einem Gastbeitrag für die NZZ.

Eine Zwangsabgabe zugunsten der Verlage würde den Wettbewerb verzerren und Innovationen lähmen. Genau das hat der Wissenschaftler Eckhard Höffner akribisch in seinem zweibändigen Werk „Geschichte und Wesen des Urheberrechts“ (Verlag Europäische Wirtschaft) nachgewiesen. Im 19. Jahrhundert gab es in Deutschland – im Gegensatz zu England und Frankreich – eine Explosion des Wissens. Den Grund sieht Höffner im Urheberrecht. Das strenge Copyright im Vereinten Königreich wurde bereits 1710 eingeführt und würgte die Buchproduktion ab. In Deutschland hingegen scherte sich lange Zeit niemand um Autorenrecht. Preußen führte das Urheberrecht zwar 1837 ein. Doch wegen der Kleinstaaterei bis 1871 war das Gesetz deutschlandweit ohne große Wirkung. So wurden die Werke der vor dem 9. November 1837 verstorbenen Klassiker am 9. November 1867 gemeinfrei. „Kaum lief der Schutz aus, wurden hunderttausende von günstigen Büchern verkauft. Reclam beispielsweise brachte Faust unter Ausnutzung der modernen Drucktechniken zum Preis von zwei Groschen – ein Bruchteil des Preises der Ausgabe Cottas – auf den Markt und verkaufte innerhalb weniger Monate zwanzigtausend Exemplare. Zugleich bot Hempel in Berlin die Gedichte Bürgers an; 150.000 Subskribenten und offenbar innerhalb von einigen Monaten insgesamt 300.000 verkaufte Exemplare sprechen eine deutliche Sprache.“ Es gab eine riesige Nachfrage, die infolge des Urheberrechts unbefriedigt blieb.

Wer neue Schutzwälle errichten will, strebt monopolistische Marktstrukturen an. Dieses Konzept geht im Internet aber nicht auf, liebes Handelsblatt. Eure Stellung kann mittlerweile von jedermann angegriffen werden. Ihr kapiert es einfach nicht. So erzielte 1806 der Chemie-Professor Sigismund Hermbstädt mit seinem drögen Werk „Grundsätze der Ledergerberei“ in Deutschland ohne urheberrechtliche Flankierung ein höheres Honorar als die britische Autorin Mary Shelley mit ihrem bis heute berühmten Horrorstück „Frankenstein“.

Und auch mit dem Google-Bashing kommt ihr nicht weiter: „Natürlich darf auch die meistverbreitete Lüge der deutschen Zeitungslandschaft im ‚Handelsblatt‘ nicht fehlen: ‚Viele Jahre haben Suchmaschinen wie Google und Yahoo, Social Communities wie Facebook oder unzählige Blogs viel Geld mit den Inhalten von Zeitungen, Zeitschriften, Radio- und Fernsehsendern verdient'“, führt Knüwer aus und kontert:

„Viele Jahre haben Suchmaschinen den Verlagen Leser online herbeigespült, mit denen die Medienhäuser nichts anzufangen wissen. Und das mit Facebook und Blogs ist geistesgestörter Schwachsinn von unfassbar tiefem Niveau. Die Verlage könnten den angeblichen Diebstahl innerhalb von Minuten unterbinden – wollen sie aber nicht. Denn mit Suchmaschinen geht es ihnen besser als ohne. Eine Situation, die man gemeinhin nur vom Versicherungsbetrug kennt.“ Man könnte sich auch die Frage stellen, warum die Redakteure von ihren Heeresleitungen angehalten werden, “Google-optimiert” zu schreiben, also die richtigen Schlagworte in der richtigen Häufigkeit einzusetzen. Denn auch Verlage wissen längst: Zugriffe auf Artikel, die auf Google News oben stehen, schnellen sofort hoch.

Wessen Artikel nur unter einer Sammeladresse wie “und 856 ähnliche Artikel” aufgeführt ist, hat es schwer, die gewünschte Aufmerksamkeit zu bekommen. Und hat nicht Springer gerade eine Mehrheitsbeteiligung bei SOHOMINT erworben – einem Dienstleister für Suchmaschinen-Optimierung und Keyword-Management? Die Attacken gegen Google sind also nur ein Ablenkungsmanöver der Printjünger. Man könnte es auch Futter-Neid nennen.

Sehr lesenswert zum Thema ist auch „Verdi: Gewerkschaft an der Sperr-Spitze“.

Ilse Aigner-Gedenkstunde auf den Kölner AdWords Days: Wer überwacht die Hüter des Datenschutzes bei der Auslegung geltenden Rechts?

Auf den AdWords Days in Köln hat Rechtsanwalt Jens Eckhardt von der Kanzlei Juconomy einen interessanten Vortrag über die Datenschutzbestimmungen bei Werbekampagnen im Internet gehalten. Wichtig war sein Hinweis auf die rechtlichen Folgen der Beschlüsse des so genannten Düsseldorfer Kreises vom 26. und 27. November 2009. Diese illustre Runde ist eine informelle Vereinigung der obersten Aufsichtsbehörden, die in Deutschland die Einhaltung des Datenschutzes im nicht-öffentlichen Bereich überwachen. Wer überwacht aber die Hüter des Datenschutzes bei der Auslegung des geltenden Rechts? Jedenfalls haben die Beschlüsse dieses Gremiums weitreichende Folgen für die Wirtschaft und besonders für die kommerziellen Aktivitäten im Internet. Ein Beschluss sollte näher betrachtet werden. Er betrifft die „Datenschutzkonforme Ausgestaltung von Analyseverfahren zur Reichweitenmessung bei Internet-Angeboten“. Beschluss der obersten Aufsichtsbehörden für den Datenschutz im nicht-öffentlichen Bereich am 26./27. November 2009 in Stralsund. Hier der komplette Text:
Viele Web-Seitenbetreiber analysieren zu Zwecken der Werbung und Marktforschung oder bedarfsgerechten Gestaltung ihres Angebotes das Surf-Verhalten der Nutzerinnen und Nutzer. Zur Erstellung derartiger Nutzungsprofile verwenden sie vielfach Software bzw. Dienste, die von Dritten kostenlos oder gegen Entgelt angeboten werden. Die obersten Aufsichtsbehörden für den Datenschutz im nicht-öffentlichen Bereich weisen darauf hin, dass bei Erstellung von Nutzungsprofilen durch Web-Seitenbetreiber die Bestimmungen des Telemediengesetzes (TMG) zu beachten sind. Demnach dürfen Nutzungsprofile nur bei Verwendung von Pseudonymen erstellt werden. Die IP-Adresse ist kein Pseudonym im Sinne des Telemediengesetzes.
Im Einzelnen sind folgende Vorgaben aus dem TMG zu beachten:

• Den Betroffenen ist eine Möglichkeit zum Widerspruch gegen die Erstellung von Nutzungsprofilen einzuräumen. Derartige Widersprüche sind wirksam umzusetzen.

• Die pseudonymisierten Nutzungsdaten dürfen nicht mit Daten über den Träger des Pseudonyms zusammengeführt werden. Sie müssen gelöscht werden, wenn ihre Speicherung für die Erstellung der Nutzungsanalyse nicht mehr erforderlich ist oder der Nutzer dies verlangt.

• Auf die Erstellung von pseudonymen Nutzungsprofilen und die Möglichkeit zum Widerspruch müssen die Anbieter in deutlicher Form im Rahmen der Datenschutzerklärung auf ihrer Internetseite hinweisen.

• Personenbezogene Daten eines Nutzers dürfen ohne Einwilligung nur erhoben und verwendet werden, soweit dies erforderlich ist, um die Inanspruchnahme von Telemedien zu ermöglichen und abzurechnen. Jede darüber hinausgehende Nutzung bedarf der Einwilligung der Betroffenen.

• Die Analyse des Nutzungsverhaltens unter Verwendung vollständiger IP-Adressen (einschließlich einer Geolokalisierung) ist aufgrund der
Personenbeziehbarkeit dieser Daten daher nur mit bewusster, eindeutiger Einwilligung zulässig. Liegt eine solche Einwilligung nicht vor, ist die IP-Adresse vor jeglicher Auswertung so zu kürzen, dass eine Personenbeziehbarkeit ausgeschlossen ist. Werden pseudonyme Nutzungsprofile durch einen Auftragnehmer erstellt, sind darüber hinaus die Vorgaben des Bundesdatenschutzgesetzes zur Auftragsdatenverarbeitung durch
die Anbieter einzuhalten. Stralsund, 26. November 2009. Ende der Meldung.

Der Beschluss ist zwar rechtlich nicht bindend, aber die Aufsichtsbehörden werden das Gesetz künftig entsprechend ihrem gemeinsamen Beschluss auslegen. Website-Betreibern drohen daher bei Nichtbeachtung der Anforderungen rechtliche Schritte der Aufsichtsbehörden. Dabei können Bußgelder von bis zu 50.000 Euro verhängt und Verbotsverfügungen ausgesprochen werden.

Hat das in der Öffentlichkeit zu einer breiten Diskussion geführt? Bis auf wenige Ausnahmen hat sich kaum ein Medium mit den Beschlüssen des Düsseldorfer Kreises auseinandergesetzt. Auf Genios findet man einen Eintrag der Zeit. Im Web hat sich vor allem Netzwelt.de etwas ausführlicher mit den Folgen beschäftigt. Konsequenzen haben die Vorgaben vor allem beim Einsatz von Analyse-Tools wie Google Analytics.

„Der Stralsunder Beschluss schreibt neben Bestimmungen zu Widerspruchsrechten und Datenschutzhinweisen vor allem eine Kardinalpflicht vor: Webseitenbetreiber und Statistikdienste dürfen IP-Adressen nur dann speichern, wenn eine ausdrückliche Einwilligung des Seitenbesuchers vorliegt. Andernfalls verpflichtet der Beschluss den Betreiber zum Kürzen der IP-Adresse“, so Netzwelt.de. Die Auswertung von Webseitentraffic auf Basis ungekürzter IP-Adressen würden sämtliche Landesbehörden eindeutig als rechtswidrig ansehen.

Allerdings ist unter Juristen noch strittig, ob eine IP-Adresse tatsächlich als personenbezogene Information im Sinne des Datenschutzrechts gewertet werden könne. Deutsche Gerichte haben hier mal wieder unterschiedlich entschieden. Musterverfahren gibt es nach Informationen von Jens Eckhardt bereits in Sachsen-Anhalt. Eine Flut von Prozessen und Abmahnorgien wird bei diesem unklaren Rechtszustand wieder einmal die Folge sein. Für den E-Commerce befürchtet Eckhardt sogar volkswirtschaftlich negative Effekte. So sehen es auch andere Branchenexperten:

So schreibt Netzwelt.de: „Die Umsetzung der Datenschutz-Forderungen könnte Seiten- und Dienstebetreiber vor technische und finanzielle Herausforderungen stellen. Oliver Süme, Stellvertretender Vorstandsvorsitzender des Verbandes der deutschen Internetwirtschaft Eco, betont die zentrale Rolle der Webseitenanalyse für die Internetbranche: ‚Angesichts der enormen wirtschaftlichen Bedeutung der Reichweitenanalyse ist es jetzt wichtig, gemeinsam mit der Internetwirtschaft Lösungen zu diskutieren.‘ Peter Fleischer, Global Privacy Counsel bei Google, zeigt sich besorgt über mögliche Auswirkungen des Stralsunder Papiers: ‚Wir begrüßen Initiativen, die die Balance zwischen Datenschutz-Einstellungen für Nutzer und Innovationen für Web-Dienste weiter verbessern, sind aber sehr besorgt über den gegenteiligen Effekt, den der heutige Beschluss des Düsseldorfer Kreises allgemein auf die deutsche Internet-Industrie haben wird‘, erklärt der Google-Vertreter.“

„Nach Erkenntnis der Düsseldorfer Xamit Bewertungsgesellschaft nutzen derzeit über 13 Prozent aller Deutschen Domains Analytics – darunter auch Arzneimittelanbieter, politische Parteien und Zeitungen. Auch DIE ZEIT nutzt das Instrument in einem Teilbereich ihres Angebotes , den ZEIT REISEN. Knapp vier Prozent beobachten mit anderen Analysewerkzeugen. Bei gut 13 Millionen von der Denic registrierten deutschen Internetseiten macht das knapp 1,8 Millionen Seiten, die auf die Google Dienste zur Verbesserung ihres Angebots vertrauen. Der Stuttgarter Rechtsanwalts Carsten Ulbricht vertritt die Ansicht, dass dadurch sogar Bußgelder drohen . Denn laut Paragraf 16, Absatz 3, Telemediengesetz könnten Bußgelder von bis zu 50.000 Euro verhängt werden, wenn Seitenbetreiber ihre Nutzer nicht um Einwilligung bitten, bevor sie solche Instrumente verwenden“, führt die Zeit aus.

Per Meyerdierks, Datenschutzbeauftragter der Google Germany, sei der Ansicht, dass Google die Daten in den USA verarbeiten dürfe, da man sich dem Safe-Harbour-Abkommen zwischen der EU und den USA unterworfen habe. „Das Opt-out hält Google für unnötig und argumentiert, Nutzer könnten die Cookies ja ablehnen. Profile würden ohnehin keine angelegt. Außerdem könne anhand eines Cookies niemand sagen, wer tatsächlich vor dem Rechner säße. Man könne noch nicht einmal erkennen, ob überhaupt ein Mensch die Seite besucht habe oder aber ein Programm. ‚Die Cookies werden‘, sagt Meyerdierks, ’nach 18 Monaten irreversibel unlesbar gemacht, die IP-Adressen nach neun Monaten anonymisiert'“, führt die Zeit weiter aus.

Ich frage mich, wie der Vollzug dieses Kataloges umgesetzt werden soll. Es wird wohl zu Stichproben kommen und in Einzelfällen Bußgeldbescheide geben. Die Frage ist dann nur, ob das nicht zu willkürlichen Staatseingriffen führt.

Welcher Dienst in Deutschland überhaupt noch als „legal“ bezeichnet werden kann, hat Xamit in einer aktuellen Studie dokumentiert. Danach erfüllen nur drei Tools die Anforderungen des Düsseldorfer Kreises: Econda, eTracker und stats4free.

Web 2.0 findet im deutschen Online-Handel nicht statt – Social Commerce erst recht nicht

Wenn in einem Online-Shop Produkte von Kunden positiv bewertet werden, steigt die Kaufwahrscheinlichkeit um rund 39 Prozent. Zu diesem nicht sehr überraschenden Ergebnis komm eine Studie von E-Commerce-Center Handel (ECC-Handel). Ohne Kundenbewertungen liegt die Kaufwahrscheinlichkeit nur bei 10 Prozent. „Online-Shopper lassen sich davon beeinflussen, wie andere Online-Shopper einen Anbieter bewerten“, so Sebastian van Baal von ECC-Handel.

Für die Vertrauensbildung im E-Commerce sei das nicht zu unterschätzen, besonders wenn es für Neukunden darum gehe, die Seriosität des Anbieters einzuschätzen. Nun sind die Kundenbewertungen ja noch kein Riesenschritt zur Ökonomie der Beteiligung oder zum Social Commerce. Denn klar ist ja auch, dass wir bei Produkten und Dienstleistungen am meisten den Meinungen von Freunden und Bekannten vertrauen – das will ja wohl auch Facebook nutzen, um zum Internet im Internet zu werden. Social Graph nennt Facebook-Chef Mark Zuckerberg die Idee eines personalisierten, menschlicheren Webs, dessen Informationsquelle ein Netz von Freunden, Kollegen und Familie ist. Er glaubt, dass jeder, der einen Arzt sucht, die beste Kamera oder einen Mitarbeiter, diesem Graph vertraut. Das Ganze läuft dann eben nicht mehr anonym, da Facebook-Nutzer ihre Online-Identität freiwillig ins Netz stellen. Social Commerce ist dann ein Empfehlungsprogramm mit einer noch viel höheren Wirkung – eine echte E-Commerce-Rakete. Soweit die Visionen.

Aber wie sieht die Realität des Online-Handels in Deutschland aus? Eine Studie von Novomind belegt, dass sich fast jeder zweite deutschsprachige E-Shop-Betreiber auf die reine Warenpräsentation und einzelne Dialog-Angebote beschränkt. Nur rund jedes dritte E-Commerce-Unternehmen bietet seinen Kunden beispielsweise Platz für Produktbewertungen. „Die Unternehmen riskieren damit, dass Kunden abwandern. Denn die Ansprüche von Online-Shoppern sind in den letzten Jahren gestiegen. Das ergab eine E-Shop-Studie“, teilt Novomind mit.

Interneteinkäufer würden immer häufiger darauf achten, dass sie sich im virtuellen Ladenlokal mit anderen Usern austauschen und ihre Produkterfahrungen im Netz verbreiten können. Differenzierte Suchmöglichkeiten, eine große Auswahl an Zahlungsverfahren oder hilfreiche Empfehlungen anderer Kunden sind ein Muss. „Mit dem Verzicht auf eine breite Palette an Web-2.0-Funktionen verprellen die Unternehmen nicht nur internetaffine Kunden. Gleichzeitig vergeben sie die Chance, von der Shopping-Community mehr über das Kaufverhalten im Internet zu lernen“, so Novomind.

Ein Großteil der E-Shop-Betreiber habe sich zwar in den vergangenen Jahren mit einem Update ihrer Shops für das Web-2.0-Zeitalter fit gemacht. Dennoch schöpft jeder zweite Anbieter das technisch Machbare seiner IT-Systeme nicht aus. Das ergab ein Funktionalitätentest bei 15 ausgewählten E-Shops, die in den vergangenen zwölf Monaten einen Relaunch ihrer Shopping-IT durchgeführt haben. „Für viele Shop-Manager ist der Einsatz von Web-2.0-Funktionen noch Neuland“, erklärt Peter Wiedekamm, Technischer Vorstand von novomind. „Die Mehrheit legt den Fokus derzeit auf den Ausbau von Funktionen, die den Gang zur virtuellen Ladenkasse abkürzen und den Dialog zwischen Kunde und Anbieter komfortabler gestalten. Den Schritt zum Community-Shop haben sie noch vor sich“, so Wiedekamm. Von Social Commerce sind die deutschen Online-Händler dann allerdings noch Lichtjahre entfernt.

Das Schlafen der Verlage: Warum die E-Commerce-Modelle der Massenmedien Schrott sind

Richard Gutjahr hat ein eindrucksvolles Experiment gemacht, um auf den Online-Portalen der einschlägigen Massenblättern wie Focus, SZ oder Spiegel E-Paper-Ausgaben zu kaufen. Das Ergebnis ist desaströs. Was soll also das Gejammer über die Kostenlosmentalität im Internet und die angebliche Parasiten-Strategie von Google, wenn die Verlage noch nicht einmal in der Lage sind, ein smarte E-Commerce-Modell für ihre Produkte aufzuziehen. Diesen Sachverhalt diskutierte ich mit Branchenexperten in Kooperation mit dem Behörden Spiegel übrigens schon vor fünf Jahren auf der Cebit. Meldung siehe unten:

Mangelhaftes Bezahlsystem Hemmschuh für neue Dienste im E-Commerce

Hannover – Immer mehr Internet-Nutzer sind nach einem Bericht des Handelsblattes bereit, für Inhalte und Dienste im Internet zu zahlen. Der Bericht bezieht sich auf die Studie „Deutschland Online 2“. Danach könnte das Marktvolumen für Internet-Bezahldienste von derzeit 45 Millionen Euro bis 2010 auf 185 Millionen Euro wachsen. Schwachstelle für die Entwicklung des E-Commerce, so die Erfahrung von Omar Khorshed, Vorstandsvorsitzender der Düsseldorfer acoreus AG, seien dabei immer noch die unzureichenden Abrechnungsmöglichkeiten im Internet. „Neue Technologien sollten den Billing-Businessmodellen folgen und nicht umgekehrt. Man kann nicht neue Dienste erst entwickeln und danach über Bezahlmöglichkeiten nachdenken. Hier werden im E-Commerce die meisten Fehler gemacht“, sagte Khorshed bei einem CeBIT-Expertengespräch in Hannover. Die Erfolgsstory von Apple bei Musik-Downloads sollte für neue Dienste im Internet oder Mobilfunk als Richtschnur gelten.

„Viele Technologiefirmen sind nicht in der Lage, massenfähige Produkte mit attraktiven, einfachen und kostengünstigen Billingangeboten zu etablieren. Mobilfunkunternehmen sollten sich mit Spezialisten verbinden, um neue Produkte an den Start zu bringen“, so Khorshed. Auch im öffentlichen Dienst, so die Meinung von Behörden Spiegel-Chefredakteur Achim Deckert, sei die Abrechnung häufig der größte Bremspunkt, um fertig entwickelte Module im E-Government einzusetzen. „Hier liegt besonders für Kommunen ein enormes Geschäfts- und Einnahmepotential“, betonte Deckert. Alleine könnten Behörden diese Aufgabe nicht stemmen.

„Ob in der Telekommunikation, im Internet oder im Mediengeschäft, beim Billing mangelt es an Erfahrungen, Kenntnissen und dem nötigen Bewusstsein“, sagte Bernd Meidel, Geschäftsführer der Vogel Online GmbH. Es müsse deshalb bei Bezahlsystemen eine starke Vernetzung geben mit dem Ziel, das Produkt an den Kunden zu bringen – mit einfachen und verständlichen Rechnungen, ohne Unannehmlichkeiten. Khorshed äußerte sich dennoch optimistisch über die Entwicklungschancen des E-Commerce. „Hier entsteht eine der stärksten Handelsformen der Zukunft. Man sollte sich dabei auf seine Kernkompetenzen konzentrieren und nicht seine Zeit mit Technologie- und Systemfragen verschwenden. Das können Billing-Dienstleister besser. Der Mehrwert für Kunden ist entscheidend“, so das Resümee von Khorshed. Ende der Meldung, die ich damals schrieb. Sie hat an Aktualität nichts eingebüßt, wie der Youtube-Film von Gutjahr belegt.

Antwortmaschinen, Entscheidungsmaschinen und Google-Killer: Die Verheißungen des semantischen Webs bleiben bislang aus

Power-Blogger Sascha Lobo wünschte sich in einem Interview für die Weiterentwicklung des Internets eine sinnvollere Vernetzung der Inhalte untereinander: „Ich warte seit Jahren auf den Durchbruch des für das jeweils übernächste Jahr angekündigten Semantic Web“, so Lobo. Die Web-Welt wird nun schon seit einiger Zeit mit den Verheißungen der semantischen Technologien auf Hochtouren gebracht. Jüngstes Beispiel ist die als Google-Killer titulierte Antwortmaschine „Wolfram-Alpha“ vom Mathematik-Genie Stephen Wolfram. Er selbst sieht sein Tool eher als wissenschaftlichen Hausgeist für die akademische Welt. Ehrgeizige Ziele verfolgt auch Microsoft mit „Bing“: Der Software-Konzern spricht sogar von einer Entscheidungsmaschine. So soll eine Suchanfrage, die nur eine Flugnummer enthält, mit aktuellen Informationen zu diesem Flug beantwortet werden. Die Eingabe von „Wetter München“ führt nach Microsoft-Angaben zu einer Wettervorhersage der bayerischen Hauptstadt.

Microsoft hat semantische Technologien des zugekauften Startups Powerset eingebaut. Die „Antwort- und Entscheidungsmaschinen“ sollen den Kontext der Anfrage verstehen und nicht nur eine Flut von Links auswerfen. Sie sollen verstehen, welche anderen Begriffe verwandt sind oder innerhalb eines Wissensnetzes in der Nähe liegen. Bislang funktioniert das nur in sehr abgegrenzten Themenfeldern. Semantische Suchmaschinen mit allgemeiner Ausrichtung sind nach einem Bericht der Wochenzeitung „Die Zeit“ bis jetzt ohne größeren Erfolg geblieben: „Da macht Google immer noch das Rennen. Zumal die Google-Programmierer ihrem Algorithmus immer neue Feinheiten hinzufügen; neuerdings lässt sich beispielsweise der Zeitraum der Suche eingrenzen“. Bei allen anderen Ansätze kommen „Tags“ zum Tragen, von den Nutzern selbst eingespeiste Schlagworte. „Eine Software analysiert diese dahingehend, inwiefern sie sich mit Inhalten von Websites decken. Wie bei den Wissensnetzen von Conweaver geht es darum, Zusammenhänge herauszufiltern“, schreibt „Die Zeit“.

Das alleine reiche allerdings nicht aus, so der Einwand von Andreas Klug, Vorstand von Ityx in Köln. „Moderne Ansätze der semantischen Informationsbewertung benötigen kein manuelles ‚Tagging’. Sie beziehen das explizite und implizite Verhalten der User bei der Informationssuche dynamisch in die Optimierung des Wissens ein. Im Klartext heißt das: ein Verschlagworten von Informationsobjekten ist längst nicht mehr notwendig. Durch die Verknüpfung zwischen Suchbegriffen und bewerteten Inhalten wird eigenständig Wissen generiert. Dabei kann sowohl die aktive Bewertung der Antworten wie das bloße Betrachten von Objekten deren Relevanz dynamisch beeinflussen“, erläutert Klug. Der Nutzen semantischer Methoden wachse durch die Abgrenzung von Informationen in sogenannten „Wissensräumen“. „Diese abgegrenzten Domänen bilden schnell Wissen ab, wenn viele Anfragen zu einem abgrenzbaren Themenkreis in kurzer Zeit verarbeitet werden können. Der große Wurf wird aber mit den lernfähigen Methoden gelingen“, ist sich Klug sicher.

Sein Unternehmen entwickelt in Kooperation mit deutschen Forschungseinrichtungen Kombinationen von semantischer, soziolinguistischer und dynamisch lernfähigen Methoden. Sie werden vor allen Dingen in mittleren und großen Unternehmen für die Informationsbewertung von Posteingängen und Archiven eingesetzt. „Große Unternehmen beschäftigen sich schon seit Jahren mit dem Thema Datenmengen für Maschinen besser analysierbar und verständlicher zu machen. Der Ansatz des semantischen Web birgt daher wesentlich mehr Potential als die häufig diskutierte Verbesserung von Suchalgorithmen oder das menschliche Tagging von Inhalten in der stetig wachsende Anzahl an Internetseiten, die derzeit Google als Platzhirsch mit sinkendem Erfolg indiziert und cached“, sagt Björn Behrendt, Geschäftsführer der Wissenscommunity Hiogi.

Wenn sich W3C-Standards für die einheitliche Beschreibung von Daten eines Tages durchsetzen, könnten daraus völlig neue Anwendungsgebiete entstehen. „Vor allem Unternehmen werden in der Lage sein, die Daten ihrer Abteilungen für Forschung und Entwicklung sowie Zulieferer auf völlig neue Weise technisch verwertbar und austauschbar zu machen. Wir sollten hierbei nicht vergessen, dass ein wesentlicher Schlüssel zum Erfolg die effektive und sichere Verlinkung von Daten ist http://linkeddata.org/. Mashups und offene APIs zeigen heute bereits, wie aus der Verknüpfung von Daten neue Anwendungsgebiete entstehen“, weiß der Hiogi-Chef. Es sei kaum auszumalen, wo wir landen werden, wenn Softwaresysteme diese ausgetauschten Daten logisch zu Metathemen zusammenfassen können und inhaltliche oder aber auch gefühlstechnische Zuordnungen und Empfehlungen automatisch treffen könnten. „Ich teile daher die Skepsis gegenüber den semantischen Suchmaschinen. Es wird keinen Google-Killer geben. Bei Unternehmensdaten, APIs, Applikationsentwicklung, Contextual Advertising, Profiling und damit im E-Commerce sind die Potentiale von verlinkten Daten gigantisch“, verkündet Behrendt.

Wahrscheinlich sind umfassende semantische Systeme im Web eine Utopie. „Nach der Theorie muss man zwischen statischer und dynamischer Semantik unterscheiden. Semantik ist nicht immer statisch. Eine Aussage kann einem Sachverhalt auch eine neue Bedeutung geben. Schon das Lesen von Forenbeiträgen und die Antworten darauf machen klar, wie schnell sich die Semantik ändern kann, das Thema oder der logische Zusammenhang verloren gehen oder durch neue Bedeutungen ersetzt werden“, erklärt Udo Nadolski vom IT-Beratungshaus Harvey Nash. Das könne man nicht generell anwenden oder mit einem Regelwerk festlegen. Semantische Analysen und Verknüpfungen werden nur da funktionieren, wo der tatsächliche und der vermutete Erwartungshorizont der Anwender deckungsgleich sind“, resümiert Nadolski.

Sprachsteuerung und elektronische Begleiter sollen Internetnutzung vereinfachen

IBM-Forscher Moshe Rappoport
IBM-Forscher Moshe Rappoport
Microsoft-Chef Steve Ballmer erwartet in den kommenden Jahren unglaubliche Dinge: Bildschirme, flexibel wie Papier, Computer, die sich mit Sprache oder Gesten steuern lassen und Software, die aus der Wolke kommt. Selbst in der prekären Wirtschaftslage werde das Tempo der technischen Entwicklung nicht verlangsamt. Ganz im Gegenteil. Zu dieser Einschätzung gelangte Ballmer auf einer Konferenz der Financial Times Deutschland in Köln.

Experten bestätigen, dass die Sprachsteuerung (nicht zu verwechseln mit den dämlichen Ansagen am Telefon „Drücken Sie 1, 2 oder 3 und warten dreitausend Jahre auf den Call Center-Agenten, der Ihnen auch nicht weiterhelfen kann) für das Surfen im Internet an Relevanz gewinnen wird. Davon sind auch die Forscher von IBM überzeugt. Die neue Technologie werde einen Veränderungsprozess einleiten und die Art und Weise beeinflussen, wie der Mensch mit Informationen und E-Commerce umgeht. „Wir wissen, dass das machbar ist, da uns bereits heute die erforderliche Technologie zur Verfügung steht, wir wissen aber auch, dass die Zeit dafür reif ist“, so IBM. In Ländern wie Indien, in denen das gesprochene Wort im Bildungswesen, in Regierungskreisen und in der Kultur eine größere Bedeutung habe als das geschriebene Wort, stellt das „Sprechen” mit dem Internet bereits alle anderen Kommunikationsschnittstellen in den Schatten.

„Gleiches geschieht bei Mobiltelefonen, die mittlerweile die PC-Anwendung übertrumpfen. Durch die Nutzung der ‚Voice Sites’ werden in Zukunft auch die Menschen ohne Zugang zu einem Computer oder Internet ebenso wie diejenigen, die weder schreiben noch lesen können, von den zahlreichen Vorteilen und Annehmlichkeiten des Internets profitieren“, betont IBM.

Eine Reduzierung der Komplexität im Netz und eine Demokratisierung des Internetzugangs erhoffen sich Computerexperten durch personalisierte, lernfähige und vertraute elektronische Begleiter. „Sie werden dann die lästigen ersten Schritte einer Identifizierung von relevanten Informationen mittels Machine-to-Machine-Kommunikation mit einzelnen Instanzen im ‚Internet der Dinge’ aushandeln“, so die Vision von Andreas Dippelhofer, Mitglied der Geschäftsführung des Düsseldorfer ITK-Dienstleisters acoreus.

Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung für das iPhone ist nach Ansicht des Sprachdialogexperten Lupo Pape schon ein vielversprechender Ansatz: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, erläutert SemanticEdge-Geschäftsführer Pape.

Einen Ausblick wagt auch Andreas Rebetzky, Sprecher des cioforums in Münchnen und CIO des Balinger Technologiespezialisten Bizerba: „In 20 bis 30 Jahren könnten beispielsweise vollständige Unternehmensinformationen auf winzigen Implantaten gespeichert werden. Sie könnten von unterschiedlichen Endgeräten ausgelesen werden, entweder von großen Touchscreens oder unterwegs per Sprachsteuerung über ein Armband mit Minidisplay.“

Intelligente Assistenten werden auch die Shopping-Welt verändern. „Dabei wird die symbiotische Verknüpfung einer neuen Technologie und einer neuen Generation von Mobilgeräten den Einkaufserfahrungen im Einzelhandel dramatische Impulse verleihen. So werden Ankleideräume bald mit digitalen Shopping-Assistenten ausgestattet sein – Touchscreens und sprachgesteuerte Kioske werden Kunden zudem die Möglichkeit eröffnen, Bekleidungsstücke und Accessoires auszuwählen als Ergänzung oder Ersatz für die bereits zusammen gestellte Garderobe“, führt IBM aus.

Die letzte Meile im Einzelhandel werde in einigen Jahren völlig anders aussehen. „Das klassische Ladengeschäft muss nicht mehr Teil des Distributionsnetzes sein. Als Konsument möchte ich nur die allernötigsten Artikel an Ort und Stelle mitnehmen. Was darüber hinausgeht, soll mir nach Hause gebracht werden. Statt weit zu fahren, damit ich zu einem großen Sortiment komme, werde ich zu einem Showroom gehen, wo man mir das ganze Sortiment zeigt – echt oder virtuell“, sagt Moshe Rappoport, IBM- Experte für Technologie- und Innovationstrends. Es müssten nicht mehr alle Artikel im Laden vorrätig sein. Es reiche vollkommen aus, alles zeigen zu können. Nicht mehr das Produkte steht im Vordergrund, sondern der Service. „Nehmen wir Kleider als Beispiel. Ich muss nicht alle Größen in allen Farben haben. Das kann ich in einem elektronischen Dressing-Room in allen Varianten ausprobieren und meine Kaufentscheidung treffen. Komme ich nach meiner Shopping-Tour wieder ins eigene Heim, wartet das Paket schon auf mich und ich kann die Kleidung anziehen“, so der Ausblick von Rappoport.

Internetbetrug bei Hotelbuchungen: Könnte ein internationales Kontrollgremium helfen?

Nachgemachte Hotelreservierungs-Seiten zocken monatlich mehr als 70.000 Reisende ab, berichtet der Branchendienst eTurboNews (eTN). Besonders betroffen sind jene Touristen, die online Zimmer bei den großen Hotelketten Hyatt, Clarion, TraveLodge, Comfort Inn, Red Roof, EconoLodge, Super 8, Ramada, Days Inn und Wyndham buchen. Der Betrug sei eine Kombination aus Online-Werbung, einem falschen Hotelfinder und Drittanbieter-Reservierungssystemen, der Kunden auf gefälschte Seiten der Hotelketten führt.

Nach Angaben von Fraud Tip ist das System in einem großen Netzwerk eingebettet, das tagtäglich wächst. „Betroffen sind neben Hotels, Appartments und günstigen Motels auch Luxus Hotels, Resorts und Casinos. Am schlimmsten betroffen sind die Unternehmen Super 8 Motels, Days Inn und Ramada. Insgesamt werden monatlich mehr als 50.000 Reisende, die sich für Übernachtungen in diesen Hotels interessierten, auf diese nachgemachten Buchungsseiten umgeleitet. Mehr als 15.000 User, die sich für eine Übernachtung bei Comfort Inn interessierten, wurden ebenfalls auf die falsche Page umgeleitet“, so die Nachrichtenagentur pressetext.

„Nach der Phishing-Welle bei Banken scheinen sich diese B-Geschäftsmodelle zu etablieren, wobei B für Betrug steht. Nun werden ahnungslose Internetnutzer über Online-Werbung auch auf gefälschte Suchmaschinen gelenkt. Unsere Triptivity-Kunden werden nur auf Seiten von echten Reiseanbietern weitergeleitet. Sicherheit ist eine der wichtigsten Grundlagen für zufriedene Kunden“, kommentiert Marc-Christopher Schmidt, Geschäftsführer von Triptivity, die neue Betrugswelle.

Bei den B-Geschäftsmodellen handele es sich um ein globales Problem und dafür brauche man auch globale Lösungen. „Ein internationales, unabhängiges Kontrollgremium sollte sich dieses Problems annehmen, ohne jedoch Inhalte zu zensieren. Nicht vergessen darf man auch die Verantwortung der Anbieter: Google sollte eine Tranche des Milliardengewinns dafür verwenden, dem Napping der User den Kampf anzusagen und die Inhalte seiner Kunden gewissenhaft auf betrügerische Inhalte prüfen“, fordert Schmidt. Eine Meldung von NeueNachricht. Für den Inhalt ist NeueNachricht verantwortlich.