Meine Fragen an @DeutschePostDHL zum Bericht der @BILDamSONNTAG

Meine Fragen zur Deutschen Post Direkt GmbH soll ich schriftlich formulieren Deutsche Post und per E-Mail senden. Hab ich gemacht. Folgende Fragen interessieren mich: Zum Bericht der Bild am Sonntag über Ihr Tochterunternehmen Deutsche Post Direkt GmbH habe ich ein paar Fragen.

Laut Bams erfasst Post Direkt rund 20 Millionen Häuser mit rund 34 Millionen Haushalten.

Laut Broschüren-Text von Post Direkt können Parteien ihre Wählerpotenziale zielgenau lokalisieren und ansprechen.

Wie zielgenau sind die Daten?

Unter den 20 Millionen Häusern sind sicherlich auch Einfamilienhäuser. Wie werden diese Daten präsentiert?

Laut Broschüre besitzt Post Direkt Daten zu 85 Prozent aller Haushalte in Deutschland. Dazu zählen Angaben zu Kaufkraft und Bankverhalten. Wie ermitteln Sie diese Daten?

Was heißt denn Wohnsituation?

Was heißt Wohnumfeld?

Zudem werden Daten von Behörden hinzugezogen. U.a. vom Kraftfahrt Bundesamt und vom Katasteramt. Welche Daten ruft Post Direkt von diesen Institutionen ab?

Wie werden diese Daten mit den 20 Millionen Häusern verbunden?

Wie setzt sich eine so genannte Mikrozelle zusammen?

Greift Post Direkt auf Datenbanken der Post zurück?

Warum gilt hier die Opt-out-Regel und nicht Opt-in?

Für eine kurzfristige Beantwortung der Fragen wäre ich dankbar.

Zudem würde ich gerne einen Verantwortlichen der Post live via Sype interviewen – wäre das möglich?

Gruß
gs

Habt Ihr noch Fragen?

Bei #9vor9 haben wir das schon thematisiert.

Forum in Düsseldorf: Von Datenausspuck-Maschinen und sinnvollen Webtools fürs Marketing

Christian Halemba von der Unternehmensberatung Mind Business ist ein Datenmensch und von der Frage getrieben, wie man aus Daten sinnvolles Wissen generieren kann. Das Internet erweist sich dabei als höchst ergiebige Quelle für die Marktforschung, so Halemba in seinem Vortrag beim Marketing Solution-Forum in Düsseldorf. Die Kommunikation im Netz habe weitreichende Konsequenzen für Unternehmen, wenn es um Produkte und Dienstleistungen geht. Auch der Einkauf im stationären Einzelhandel werde durch die Vorabinformationen im Internet stark beeinflusst. „Exemplarisch kann man das in der Branche für Telekommunikation erkennen. So beziehen 90 Prozent der Konsumenten, wenn sie ein Handy brauchen oder einen Mobilfunkvertrag, ihre Informationen aus dem Internet“, sagte Halemba.

Vor 30 oder 40 Jahren zog man Quellen heran wie die ZDF-Sendung WiSo, Stiftung Warentest oder redaktionelle Beiträge. „Die standen in den Umfragen der Marktforschung immer ganz oben und wurden als glaubwürdig eingestuft. An zweiter Stelle stand das soziale Umfeld. Freunde, Bekannte, Familie, Arbeitskollegen oder Experten. Danach kamen die Händler, von denen man immer noch annahm, dass sie ein relativ neutrales Statement zu Produkten und Dienstleistungen abgeben. Weit zurück lag die klassische Werbung. Das war Jahrzehnte lang so. In den vergangenen Jahren hat sich das Bild völlig verändert. Direkt an die Spitze hat sich das Internet gesetzt und erreicht die gleiche Größenordnung, für die die anderen Quellen Jahrzehnte benötigt haben. Das Netz ist bei der Informationsbeschaffung und beim Vertrauensvorsprung auf dem gleichen Level wie Freunde, Bekannte, Testzeitschriften und redaktionelle Beiträge. Eine besondere Rolle spielen dabei Foren. Was dort steht, wird als authentisch wahrgenommen und spielt eine erhebliche Rolle bei der Entscheidungsfindung“, erklärte der Mind Business-Berater.

Das sei erstaunlich vor dem Hintergrund der 90-9-1-Regel. Was man im Internet über Monitoring-Tools analysieren könne, ist nicht repräsentativ. „Mit rund einem Prozent gibt es ganz wenige, die regelmäßig etwas schreiben. Teilweise sogar mehrere tausend Beiträge pro Jahr. Dann gibt es eine zweite Gruppe mit 9 Prozent, die gelegentlich im Internet publizieren. Die allermeisten schreiben nie etwas. 90 Prozent der Internetnutzer schreiben nie etwas, aber sie lesen und glauben das, was sie lesen“, so Halemba.

Social Media-Monitoring leiste das Zuhören, Draufschauen und Interpretieren – das kennt man von der klassischen Marktforschung. „Bislang wird noch sehr wenig für Web-Analysetools ausgegeben. An die traditionellen Anbieter werden jährlich Aufträge in der Größenordnung von zwei Milliarden Euro vergeben. Social Media-Monitoring kommt bislang nur auf rund 50 Millionen Euro. Diese Daten werden von Marktforschern kaum genutzt. Eher von PR-, Personal- oder Rechtsabteilungen. So kann man beispielsweise Markenrechtsverletzungen sehr einfach über das Internet recherchieren“, weiß Halemba.

Am Anfang sollten Unternehmen überlegen, welche Quellen in die Web-Analyse einbezogen werden: Redaktionelle Beiträge, Foren, Communitys, Online-Shops, Twitter, Facebook oder Bewertungsportale. Bei der Nullmessung sei es ratsam, möglichst umfassend vorzugehen, um ein Gefühl für die Zahlengerüste zu bekommen. „Was ist für meine Produkte und Services relevant? In späteren Phasen können sich Unternehmen auf Kanäle konzentrieren, die sich als ergiebige Plattformen bewährt haben. Ich spreche auch von der Buzz-Herkunft“, erläutert der Marketingexperte. Zudem müssten Entscheider genau überlegen, was man wissen will und was man aus internen Daten schon weiß. „Bei der Auswahl der Anbieter von Monitoring-Tools ist große Sorgfalt geboten. Es reicht nicht aus, rein quantitative Auswertungen vorzunehmen. Mit einer reinen Datenausspuck-Maschine reduziert sich das Ganze auf eine Zählerei von Fliegenbeinen. Es gibt noch kein Instrumentarium für die vernünftige Messung von Netzwerkeffekten, Reichweite, Einfluss, Relevanz und Masse. Es ist noch eine junge Disziplin“, so Halemba.

Die komplette Story erscheint morgen auf NeueNachricht. Hier schon mal mein Youtube-Interview mit Halemba:

Der komplette Vortrag als Audio-Aufzeichnung:

Und hier die weiteren Interviews mit den Ausstellern des Marketing Solution-Forums in Düsseldorf:

Siehe auch:

Der Google-Chef und die mobile Computer-Intelligenz


Google-Chef Eric Schmidt ist davon überzeugt, dass wir eine Welt mit 100 Megabit mobiler Übertragungsgeschwindigkeit erleben werden. Also wesentlich schnellere Verbindungen als heute. Jeder Mensch wird ein Smartphone in der Tasche haben. „Wenn ich eine Straße hinuntergehe, können Passanten per Livestream Informationen von der Oper, dem Kino, dem Händler und den Schulen empfangen. An der Oper könnte das Telefon dann ein Stück der Oper vorspielen. Wenn der Nutzer die Oper hasst, bekommt er eine andere Einspielung. Das allwissende System trifft also Entscheidungen in Echtzeit und versorgt die Menschen mit Informationen“, so Schmidt im Interview mit der FAZ.

In fünf bis zehn Jahren werde das Gerät wissen, was um den Nutzer herum passiert, und es wird Vorschläge machen, was für den Nutzer besonders wichtig sein kann. „Das Gerät wird also wissen, ob der Nutzer lieber Oper hört oder lieber den Film anschaut. Die nächste Stufe werden dann die Freunde sein. Das Gerät wird mir sagen, ob einer meiner Freunde auch gerade in Berlin ist und ob es ihn kontaktieren soll“, erläutert der Google-Chef. Er spricht in diesem Zusammenhang auch von der Augmented Humanity, der erweiterten Menschheit. Die Menschen sollten das, was sie tun, noch besser machen. Sie sollten produktiver werden zum Beispiel. „Computer brauchen die Hilfe des Menschen, um besser zu werden, sie brauchen Training. Auf der anderen Seite sind wir Menschen mit unserer Intelligenz überfordert, wenn es etwa um die Bereitstellung eines perfekten Gedächtnisses geht. Da stoßen wir Menschen an Grenzen. Meine Idee ist, dass wir die Computer verbessern, die den Menschen helfen, und gleichzeitig Menschen besser darin werden, die Computer zu trainieren. Das Ziel muss sein, dass die Leute weniger Zeit verschwenden und mehr Spaß im Internet haben“, sagt Schmidt.

Das kommt sehr nah an die Prognosen des Informatik-Professors Herman Maurer von der TU-Graz heran, die ich hier vor ein paar Jahren vorgestellt habe. „Lange vor dem Jahr 2100 werden alle Menschen jederzeit und an jedem Ort auf alles Wissen der Menschheit zugreifen können, ähnlich wie wir das heute bei materiellen Gütern können. Dieser Zugriff wird mit Geräten erfolgen, die stark mit den Menschen integriert sind, und wird sich auf Wissen beziehen das entweder aus Datenbanken kommt oder aus Dialogen mit Experten entsteht. Das Gehirn des Einzelmenschen wird nur noch ein vergleichsweise winziger Bestandteil eines gewaltigen Wissensvorrates sein, der durch die Vernetzung aus Milliarden von Menschenhirnen und Datenbanken entsteht“, prognostiziert Maurer.

Skeptiker, die vor einer nicht beherrschbaren Informationsüberflutung warnen, werden bald verstummen: „Am Horizont zeichnet sich bereits ab, dass die Informationslawine allmählich gebändigt und strukturiert werden wird zu sinnvollen, verlässlichen und auf die Person maßgeschneiderte Wissenseinheiten. Das wird geschehen über die stärkere Verwendung von Metadaten, von intelligenten Agenten, von vertikalen Suchmaschinen, wo Fachleute Informationen gefiltert und kombiniert haben, von Gigaportalen für die verschiedensten Anwendungsbereiche, von aktiven Dokumenten, die von sich aus antworten geben können“, so Maurer. Bei der Wissensvernetzung und dem Wissensmanagement sei es erforderlicht, Wissen jederzeit und an jedem Ort verfügbar zu machen.

Er habe schon vor vielen Jahren den allgegenwärtigen Computer vorhergesagt: nicht viel größer als eine Kreditkarte, weitaus mächtiger als die heutigen schnellsten Computer, mit hoher Übertragsgeschwindigkeit an weltweite Computernetze mit allen ihren Informationen und Diensten angehängt, in sich vereinigend die Eigenschaften eines Computers, eines Bildtelefons, eines Radio- und Fernsehgerätes, eines Video- und Fotoapparates, eines Global Positioning Systems (GPS), einsetzbar und unverzichtbar als Zahlungsmittel, notwendig als Führer in fremden Gegenden und Städten, unentbehrlich als Auskunfts- , Buchungs- und Kommunikationsgerät. Die allgegenwärtigen Computer werden stärker mit dem Menschen selbst verbunden. „Die Miniaturisierung von sehr mächtigen Computern wird so weit gehen, dass man sie in das Loch in einem Zahn wird einpflanzen können“, so der Ausblick über die Entwicklung in den nächsten knapp 100 Jahren.

Ich bin der festen Überzeugung, dass diese Szenarien sehr viel schneller kommen werden. Einiges davon ist ja schon jetzt möglich!

Siehe auch:

Googles Zukunftvision: Niemals verloren, niemals einsam, niemals gelangweilt.

Google Instant: Schneller, als ihr tippen könnt.