Archiv der Kategorie: Markt- und Mediaforschung

Seminar Online-Marktforschung in Köln am 18. / 19. August 2010

Kategorie: Markt- und Mediaforschung — Tags: , 13:00 4. Mai 2010

Gemeinsam mit Prof. Dr. Lütters von pangealabs GmbH / Fachhochschule Eberswalde und Daniel Strobel von panelbiz gebe ich oben genanntes Management Circle Seminar:

  • Vor- und Nachteile der unterschiedlichen Online-Erhebungsmethoden kennenlernen
  • Passende Teilnehmer für Ihre Online-Befragung finden und zur Teilnahme motivieren
  • Online-Befragungen konkret gestalten und live schalten
  • Ergebnisse optimal auswerten und die Datenqualität sicher einschätzen
  • Aktuelle (datenschutz-)rechtliche Anforderungen und Restriktionen beachten
  • Zusammenarbeit mit externen Dienstleistern und Panel-Anbietern effizient gestalten
  • Soziale Netzwerke, Communities, iPhone & Co. für Ihre Datenerhebung perfekt nutzen

Kostengünstige Informationsbeschaffung in Echtzeit über:

  • Kundenbedürfnisse
  • Kunden-/Mitarbeiterzufriedenheit
  • Produktideen und Produktbewertungen
  • Unternehmens-Reputation u.v.m.

Ihr Praxis-Plus:

Sie lernen an Ihrem konkreten Unternehmensbeispiel den gesamten Prozess von der Erstellung, Erhebung und Auswertung einer Online-Befragung kennen.

Den Seminarflyer können Sie sich hier herunterladen.


Archiv der Kategorie: Markt- und Mediaforschung

Buchreflexion David Keen “Die Stunde der Stümper”

Kategorie: Markt- und Mediaforschung — Tags: , , 11:48 30. März 2010

Weitere Informationen unter http://www.hanser.de/buch.asp?isbn=978-3-446-41566-9&area=Wirtschaft

Zuallererst: Der Originaltitel von „Die Stunde der Stümper“ klingt mit „The cult of the amateur“ wesentlich langweiliger. David Keen will sein Buch als Polemik verstanden wissen. Eine gute Polemik zeichnet sich dadurch aus, dass man darüber diskutieren will. Will ich.

In der Marktforschung geht es darum, Orientierungspunkte für die Kunden zu schaffen. Erkenntnisse an vorhandenes Wissen so anzuschließen, dass daraus unternehmerischer Mehrwert generiert werden kann. Das Web 2.0 ist eine weniger einfach zu nutzende Quelle als es auf den ersten Blick scheint. Keen zeigt Stolpersteine auf, deren Erkennen (auch) in der Marktforschung qualitative Auswirkungen haben.

Die Positionen, die ich aus der Keen’schen Polemik extrapoliert habe:

Social Media / Web 2.0 hat das Problem des Konjunktivs.

Man könnte viel / alles, aber der zeitliche / personelle damit: finanzielle Aufwand ist so groß, das man in der Praxis / tatsächlich erstaunlich wenig schafft. Das Problem des 21. Jahrhunderts: Selektion.
Um diese zu leisten, begibt sich der Internetnutzer in die Abhängigkeit von Suchmaschinenanbietern, deren erstes Interesse ist, mit Werbung Geld zu verdienen. Das heißt, die Hilfsmittel, die verwendet werden, haben einen anderen Hauptzweck (damit sie als Hilfsmittel umsonst angeboten werden können). Wie vertrauenswürdig ist ein solches Hilfsmittel im Extremfall?

Was das für die Marktforschung heißt:
Bei der Bewertung von hoher Relevanz im Sinne der Suchmaschinenergebnisse muss sich die Marktforschung im Klaren sein, dass man es mit einer „Black Box“ zu tun hat. Man kann nicht exakt nachvollziehen, weshalb Ergebnisse nicht, wie oder wo auftauchen. Dieses Manko trägt jede semantische Analyse in sich, die im Wesentlichen auf Suchmaschinenergebnissen aufbaut. Quelldaten erscheinen vollständiger als sie sind. Die Definition des Analysebereichs ist darum umso wichtiger.

Ich glaube nicht, dass es das perfekte technische Tool dafür geben wird, jeweils (!) für die individuelle Person den Müll vom Interessanten zu trennen. Das Wesentliche mag noch technisch erreichbar sein. Ein zentraler Aspekt des Interessanten scheint mir zu sein, dass es in Randregionen unseres Wissens liegt, es damit ausdehnt. Derartige Grenzregionen sind meiner Ansicht zu individuell und zufällig fürs technische Profiling.

Ganz abgesehen davon, dass meiner Ansicht nach eine Vertrauensdebatte in den nächsten fünf Jahren losgetreten wird, die die Verwendung des technischen Profilings  (welche Daten nutzen Suchmaschinenanbieter wie?) zum Inhalt hat und eher höhere Wellen schlagen wird.

Was das für die Marktforschung heißt:
Auch für Marktforschung gilt, dass vorhandene Social Media Gruppen nicht einfach mit Marktforschung durchseucht werden dürfen. Denn ist den Nutzern klar, dass eine „Informationsabzocke“ stattfindet, ist Vertrauen im Nu weg, ist Schluss mit der Offenheit – die gesamte Gruppe inklusive des Gründers wird diskreditiert.

Misstrauen, das Schleudertrauma des Web 2.0

Web 2.0 verlangt Vertrauen gegenüber anonymer Masse (Weisheit der vielen – wisdom oft he crowds / Nutzergenerierte Inhalte)

Youtube ist nach Keen (S.78) die Demokratisierung des Boulevards, der Agitation und Manipulation. Die Gefahr der Abwendung und des Misstrauens wird damit erhöht. Wer sich „dahinter“ verbirgt, ist für den Nutzer nur schwer nachvollziehbar, da alles unter Pseudonymen veröffentlicht wird. Das Problem der nutzergenerierten Inhalte ist also, dass man sich nicht sicher sein kann, ob es ist was es scheint (Keen S. 90). Hier beißt sich das System – die Katze in den Schwanz. Denn die eigentliche Schutzfunktion, seinen Namen nicht öffentlich preiszugeben, verkehrt sich in die Möglichkeit, alle möglichen Schindluder im verantwortungsfreien Raum zu treiben. Genau diese Tatsache, Verantwortung nicht oder nur unter sehr großem Aufwand einfordern zu können, lässt kein Vertrauen entstehen.

Was das für die Marktforschung heißt:
Personen für Marktforschung aktiv zu gewinnen dürfte schwieriger werden, denn bei Marktforschung handelt sich um die Preisgabe von persönlicher Information.  Zudem  wird auch die Transparenz und Nachvollziehbarkeit der befragten Zielgruppen im offenen Web 2.0 schwieriger zu erzeugen sein. Umso wichtiger werden für die Marktforschung Onlinepanels mit ihren verifizierten Panelteilnehmern.

Die totale Demokratisierung des Web 2.0 als Mahlstrom der Kultur

Totale Demokratisierung heißt totale Beliebigkeit heißt keine Orientierungspunkte, um Vertrauen zu entwickeln. Damit geht auch den Verlust kultureller und sozialer Errungenschaften einher. Alles wird weggespült, das Kind mit dem Bade – da es nicht mehr auffällt, untergeht in der Web 2.0 Masse (vgl. Keen S. 78f, 87).

Fehlinformation ist nicht löschbar

„Das Medium, in dem Informationen registriert werden, ist nun das Internet, in dem Fehlinformation nie wieder verschwinden. Das heißt, unser Speicher für aggregierte Information wird durch Fehler und bewussten Betrug infiziert“ (Keen S.86)

Ein weiterer Baustein des potenziellen Misstrauens. Denn selbst wenn eine falsche Information korrigiert wird: wer hat diese korrigiert mit welcher sachlichen Kompetenz und wie kann man das als Nutzer nachvollziehen? Was heißt falsch? Das kann im Falle moralischer, gesellschaftlicher und politischer Information ausschließlich Kontextabhängig beurteilt werden. Dieser Kontext, der Rahmen der Information,  kann aber nahezu beliebig verändert werden.

Zweifach versteckte Manipulation

Die erste ist Search Engine Optimization (SEO). Damit wird versucht, die eigenen Informationen im Suchmaschinenranking so weit nach oben wie möglich zu platzieren. Das heißt, die Rankings der Suche die man ausführt wird nicht zwingend die inhaltlich besten Ergebnisse auf den ersten Positionen zeigen, sondern die am besten der an den Suchmaschinenalgorithmus angepassten.

Die zweite steckt in den wenigen Beeinflussern, die das Web 2.0 maßgeblicher beeinflussen als es offensichtlich ist. Keen S.106 nennt ein Beispiel wonach von 900.000 Digg Nutzern 30 für ein Drittel aller Nachrichten auf der Startseite verantwortlich waren.

„Die Untersuchung des Wall Street Journal zeigt also, dass diese Websites eher den Vorlieben weniger als der „Weisheit“ der Vielen entsprechen.“ (Keen S. 106)

Der kleine Kreis Bestimmer verschwindet hinter einem scheinbar neutralen Algorithmus. Und welche Motivation außer ihren „Vorlieben“ haben diese „Bestimmer“ noch? Werden Sie bezahlt? Von wem?

Was das für die Marktforschung heißt:
Gerade bei der Social Media Analyse, die mit technischen Hilfsmitteln arbeitet, müssen diese Manipulationsmöglichkeiten untersucht und berücksichtigt werden.

Holzweg

Weisheit der vielen ist nur Popularität der vielen. Popularität ist aber kein Maßstab für Weisheit.

Es scheint also eine kritische Überprüfung der Wortwahl notwendig, gerade der populären Schlagwörter: sind nutzergenerierte Inhalte auf Englisch user generated content nicht eher user generated garbage, nutzergenerierter Müll – mindestens für die meisten. Durchwühlen müssen sich alle durch alles. Ist das effizient? Führt das zum Ziel? Und wie weiter oben beschrieben, wird der Weg, das für sich interessante, wichtige zu finden, durch versteckte Manipulation im Zweifelsfall erschwert.

Meine daran anschließende Frage: Gehört die Zukunft dem „Alles-in-einem-Soziales-Netzwerk“ (derzeit hat Facebook die besten Chancen) oder doch den spezifischen abgeschlossen „nur mit Anmeldung und Empfehlung“ Netzwerken, die die „Müllmenge“ von vornherein reduzieren?

Querschläger

Die wirtschaftlichen Interessen der Anbieter. Es werden überwiegend „Hüllen für Werbung“ (Keen S.152) produziert. Wo bleiben kulturell wertvolle Inhalte? „Die Identifizierung und Förderung weniger wahrer Talente in einem Meer von Stümpern könnte sich als die wirkliche Herausforderung in der Web-2.0-Welt von heute erweisen.“ (Keen S.38) Alles könnte in Sekundenschnelle in Erfahrung gebracht werden, aber ich brauche Stunden, um es tatsächlich zu finden, weil Suchmaschinen- und andere Anbieter wirtschaftliche, Unternehmenserfolgsorientierte Interessen verfolgen: das Informieren ist Vehikel!

Zeitraubender Akt des Präsentierens

Man ist zu aktiv, kann zu wenig zuhören (Keen S.43).

Erweiterte Reflexionen darf man nicht zwingend erwarten. Bietet Social Media in vielen Facetten also kein wirklich reflexives Medium in dem Sinne, dass es Anstöße intellektuell verarbeitet? Bleibt es stattdessen beim „re-tweet“, der Verlinkung, dem Posting bei der bloßen Dokumentation des  „das passt zu mir“. Fehlt zur innerlichen Auseinandersetzung „inwiefern?“ die Zeit? Oder wird diese Diskussion im (oft bruchstückhaften) Aufeinanderreagieren „nur“ extrem sozialisiert, das heißt aufgesplittert in Chats, Forenentgegnungen etc.?

Was das für die Marktforschung heißt:
Postings müssen entsprechend keine tiefe Überzeugungen darstellen, sondern können einfach so im Eifer der aktiven Darstellung „weil es gerade passt“ platziert werden. Diese „Insights“ müssen also im Zweifel auf Ihre Bestandsfestigkeit überprüft werden.

Haltlosigkeit

Das Web 2.0, genauer: die immerwährende Veränderungs-Rekombinations-Optimierungswelt des Web 2.0 fließt zu schnell, um Orientierungspunkte entstehen zu lassen. (Keen S. 68-70) Das Web 2.0 lässt keine fixen Standpunkte entstehen. Das kennzeichnet jedoch eine Kultur.

Allerdings ist das von Keen verwandte Beispiel (Keen S.68ff) diskussionswürdig. Er stellt das Buch oder Lied eines Künstlers (Beethoven, Madonna etc.) gegen sogenannte Mashups, das versatzstückartige Weiterverwenden und Neukombinieren von Medieninhalten. Allerdings: wie sieht das mit Roll over Beethoven aus? Ist kulturelle Leistung nicht immer das mehr oder minder starke Reagieren auf Bestehendes? Im aktuellen Fall der Plagiatsdiskussion rund um Helene Hegemanns Abschreiben in Ihrem Roman „Axolotl Roadkill“ wird deutlich, dass der Grat schmal ist und die Diskussion offen.

Was das für die Marktforschung heißt:
Postings müssen entsprechend keine eigenen Überlegungen oder Überzeugungen darstellen, sondern können auch ganz einfach per copy-and-paste „in die eigene Darstellung integriert“ werden. „Insights“ müssen also im Zweifel auf Ihre Herkunft überprüft werden, denn Motivation und Leistung von Abgeschautem und Originellem sind sehr unterschiedlich zu bewerten.


Archiv der Kategorie: Markt- und Mediaforschung

Gedankenkette: Was ist Innovation?

Kategorie: Markt- und Mediaforschung — Tags: , , , 20:11 9. Februar 2010

Gestern gab es einen anregenden Vortrag von Prof. Dr. Marion A. Weissenberger-Eibl im FPAK Kolloquium (FPAK = FESTO Program of applied knowing) zum Thema „Innovation und Lernen“.

Die Gedankenkette, die ich mir ausgehend vom Vortrag notiere:

Innovation = Evolution – nicht linear – interdisziplinär – im Netzwerk – nur mit Vertrauen – Lernen von den anderen – Kommunikation.

Die Begriffe hängen auch – nicht linear – miteinander zusammen.

Laut Frau Prof. Dr. Weissenberger-Eibl ist Innovation ein evolutionärer Prozess, der nicht linear verläuft. Innovation braucht eine Grundlage. Wovon geht man aus? Das ist Maßstab, ob es innovativ ist. Wie stark es innovativ ist. Innovation denkt Prof. Dr. Weissenberger-Eibl vom Nutzer bzw. dem Nutzen einer Zielperson her. Womit eine Grundlage der Herstellung von Innovation also Nutzer- oder auch Kundeninformation ist. [NB: Marktforschung ist eine Möglichkeit, diese Informationen einzuholen.] Evolutionärer Prozess heißt also damit, dass dem Nutzer durch die Innovation etwas besser, einfacher, sinnvoller, schneller, plausibler von der Hand geht. [NB: Was mitunter ebenfalls ein evolutionärer Porzess ist].

Ein nicht linearer Prozess deshalb, da Innovation im Austausch mit Personen unterschiedlicher – interdisziplinärer – Wissens- und Gedankenwelten erschlossen wird. Die Innovationsgruppe pendelt also zwischen den Gebieten hin und her. Innovation bedeutet hier also auch das Ausloten der Bedeutungen einzelner Wissensbausteine.

Interdisziplinarität sorgt für notwendigen Anstöße, sein eigenes Wissen neu zusammenzusetzen und so zu einem neuen evolutionär besseren Aufbau zu gelangen.

Im Netzwerk meint, dass der Gruppenfindungsprozess, der Austausch von Wissen und Ansätzen die oben genannten Anstöße produziert.

Um überhaupt die Bereitschaft aufzubringen, sein eigenes Wissen neu zusammenzusetzen, ist Vertrauen in die Offenheit der Gegenüber notwendig, diesen Prozess ebenso ernsthaft zu betreiben.

Nur mit dieser Offenheit, dem Vertrauen können Bausteine des Wissens der anderen so verbaut werden, dass sich im Prozess konstruktiv Neues ergibt.

Es ist offensichtlich, dass dies ein kommunikativer Prozess ist. Die Leistung, die die Moderation erbringt, ist dabei zentral für den Erfolg, also dem Entstehen von Innovation.

NB: Niklas Luhmanns Grundbaustein seiner sozialen Systemtheorie ist „Kommunikation“. An der Gedankenkette wird sehr anschaulich, was Kommunikation in seinem Sinne meint. Es ist das Element, dass Zusammenhänge erschafft und überhaupt erst ermöglicht. Innovation ist im Sinne Luhmanns also ein Interpretationsprozess innerhalb einer Kommunikationskette, der einen neuen für alle Beteiligten konstruktiveren Sinnzusammenhang des ursprünglichen Ausgangspunktes der Kommunikation erschafft.


Archiv der Kategorie: Markt- und Mediaforschung

„Fast die richtige Zielperson“

Kategorie: Markt- und Mediaforschung — Tags: , , 18:51 16. Dezember 2009

Hier ein Zitat das ins Thema einführt. Der Artikel behandelt neue Ansagen in der S-Bahn in München.

„Weggefallen ist auch das gestelzte „please disembarke at the next station“, geschaffen von einem Muttersprachler, jedoch von einem, der im Flugverkehr bewandert war. Dieses Mal, sagt eine Bahnsprecherin, habe man sich von einem Muttersprachler beraten lassen, der sich im Bahnverkehr auskenne.“ (Süddeutsche Zeitung vom 15.12.2009)

Was die Bahnsprecherin verschweigt ist, dass über Jahre hinweg eine englische Ansage im Gebrauch war, die (mindestens) englische Muttersprachler in Erstaunen gesetzt haben wird. Warum? Man hatte einen Muttersprachler hinzugezogen – aber leider nicht den „richtigen“. Diese Erfahrung ist wahrscheinlich auf Kundenfeedback zurückzuführen. Sie führt dazu, dass die „nächste Gelegenheit“ genutzt wird, in diesem Fall aber unglaublich lange, vielleicht 10 Jahre (ich weiß es nicht, habe die Ansagen aber lange genug in den Zügen gehört) ins Land gezogen sind, um dann den „richtigen“ Muttersprachler fragen zu können. Der Prozess einer grundlegenden Erneuerung von S-Bahn Ansagen scheint finanziell und organisatorisch ein größerer Aufwand zu sein. Er geschieht also nur in größeren Zeitabständen.

Eine schöne Illustration „fast die richtige Zielperson“ gefunden zu haben. Also: „im Prinzip den richtigen Weg eingeschlagen zu haben“. Um im Bild zu bleiben, ist man allerdings auf halber Strecke falsch abgebogen. In der Marktforschung kann dies ernsthafte Konsequenzen haben.

Übertragen wir die Situation auf den Marktforschungsprozess: Ich hörte schon oft Sätze wie „Dann fragen wir halt mal unsere Webseitennutzer.“ Dagegen spricht prinzipiell nichts – wenn man diese Einschränkung – also in diesem Fall: Webseitennutzer sind ein bestimmter Ausschnitt der Zielgruppe – nicht vergisst.

Wenn im Prozess des Berichtens derartige Einschränkung aber „vergessen“ werden, dann drohen Ergebnisse falsch interpretiert zu werden. Wenn im Zuge von Verkürzungen (die Fallstricke des Management Summarys) daraufhin getroffene Entscheidungen sich als schlecht erweisen. Und man (also: auch der Chef, Auftraggeber etc.) sich die Frage stellt, warum in aller Welt – „die Marktforschung hat doch gesagt…“ – daneben liegt.

Wer leidet darunter?

* Die Marktforschung. Da das Vertrauen in sie erschüttert wird.Marktforscher müssen sich also gelegentlich dem Verkürzungswahn entgegenstellen – wenn dieser auf den Holzweg führt. Meine Erfahrung sagt: das passiert schnell und häufig.

* Das Geschäft. Da Geld und Zeit für Marktforschung bereit gestellt werden und nicht der maximale (auch nach oben begrenzte) Nutzen heraus gezogen werden kann. Oder schlimmer: Entscheidungen können gar nicht oder zeitlich erst viel später revidiert werden. Das Geschäft, das optimiert werden sollte, wird ausgebremst.

Hier fängt Qualität ganz am Anfang an. Genau zu diesem Zeitpunkt muss man sich Zeit nehmen und den Weg zu Ende gehen und bohren, um zu prüfen ob der Weg denn kein Holzweg ist. Denn sonst sitzt man Jahre wie im Beispiel auf einer Ansage, die „fast die richtige“ ist. Ich denke, in Zeiten starken Konkurrenzdrucks ist das zu wenig, um zu überleben.

Ach ja: Aus „please disembarke at the next station“ wurde „exit on the right“. Auf das sich Englischsprachler ab sofort wie zu Hause fühlen in der Weltstadt mit Herz.


Archiv der Kategorie: Markt- und Mediaforschung

Buchreflexion: Nassim Nicholas Taleb „Der schwarze Schwan“

…und: welche Bedeutung und Konsequenzen Talebs Überlegungen für die Marktforschung haben

„Die große Frage ist nicht, wie wir denken sollten, sondern wie wir Wissen in Handlungen umsetzen und herausbekommen können, was Wissen wert ist.“ [1]

In diesem Satz zeigt sich eine Grundproblematik. Denn „was Wissen wert ist“ ist relativ – also bezogen auf einen definierten Rahmen[2]. Dieser Grundproblematik ist sich Taleb bewusst:

„Die derzeitige Ausgabe der menschlichen Rasse ist leider nicht dafür gemacht, abstrakte Dinge zu verstehen – wir brauchen einen Kontext.“ (NNT S.168)

Interessant und anschaulich ist seine Interpretation des Rahmens, den wir brauchen:

„Wir lieben das Greifbare, die Bestätigung, das Fühlbare, das Reale, Sichtbare, Konkrete, Bekannte, Gesehene, Deutliche, Visuelle, Soziale, Eingebettete, das mit Emotionen Befrachtete, das ins Auge Springende, das Packende, Stereotypische, Theatralische, Romantische, Kosmetische, Offizielle, den gelehrt klingenden Wortlaut, den aufgeblasenen gaußschen Wirtschaftswissenschaftler, den mathematisierten Käse, den Pomp, die Académie française, die Harvard Business School, den Nobelpreis, dunkle Anzüge mit weißen Hemden und Ferragamo-Krawatten, den sich bewegenden Diskurs und das Grelle. Vor allem aber lieben wir das Erzählte.“ (NNT S.168)

Dieser Rahmen ist zwar nötig, aber auch gefährlich, denn er kann in die Irre führen, wenn die Ereignisse in einen Rahmen eingepasst werden, in den sie nicht passen. Ereignisse, die überraschend eintreten und Abläufe grundsätzlich verändern, beeinflussen oder neu bestimmen, nennt Taleb „schwarze Schwäne“. Diese Sprachfigur entlehnt er der Historie, nach der bis zum Zeitpunkt der Entdeckung des ersten schwarzen Schwanes die Annahme als richtig galt „Alle Schwäne sind weiß“. Jedoch sind folgende Aussagen logisch zwei völlig unterschiedliche Schlüsse, die aber häufig falsch in eine gemeinsame Schlussfolgerung einbezogen werden. Aus der Aussage „Es gibt keine Beweise für schwarze Schwäne“ folgt eben nicht unmittelbar, dass es „Beweise für keine schwarzen Schwäne“ gibt.

Taleb zeigt, das Trugschlüsse dieser Art deshalb häufig anzutreffen sind, da wir zweierlei Denk-Modi verwenden (NNT S.110). System 1 basiert auf Erfahrung und ist stark emotional. Es ist schnell, automatisch und „opak“ – d. h. wir wissen nicht, dass wir es verwenden. Es ist für Lineares und kausal Zusammenhängendes konzipiert. Daher führt die Nutzung von System 1 häufiger zu Trugschlüssen wie dem oben erwähnten. System 2 ist kogitativ, Vernunft basiert, logisch, seriell, progressiv und bewusst und damit weniger Fehler anfällig als System 1, aber auch viel langsamer und auch nicht intuitiv.

Die Hirnforschung zeigt, dass das Gehirn selbst ambivalent funktioniert. Zum einen wechselt das Gehirn alle drei Sekunden die Perspektive und wendet sich damit etwas neuem zu, die Aufmerksamkeit wechselt ständig. Der Gehirnforscher Professor Dr. Ernst Pöppel von der medizinisch-psychologischen Fakultät der LMU München hat dies in seinen Forschungen nachgewiesen und spricht vom „Drei-Sekunden-Fenster der Gegenwart”. Das menschliche Gehirn verarbeitet Informationen in Zyklen von jeweils etwa drei Sekunden. Zum anderen versucht das Gehirn die empfangenen Informationen zu kategorisieren, d.h. einzupassen in den bisherigen Erfahrungsrahmen. Die Hirnforschung kommt hinsichtlich der Kategorisierung zu denselben Ergebnissen, wie sie auch die Sozialforschung zu finden sind[3]. Die physiologische Verarbeitung funktioniert also nach dem Muster, das sich auch als sozial notwendig erweist.

Taleb verweist darauf, dass eben diese Art menschlicher Verarbeitung zu „Blindheit“ gegenüber schwarzen Schwänen führt (NNT S.73). Er zeigt fünf unterschiedliche Aspekte auf.

  • Bestätigungsfehler:
    Die Konzentration auf ausgewählte Segmente von Ereignissen. Dies kann man auch als selektive Wahrnehmung beschreiben. Allerdings versucht System 1 das Ungesehene und die blinden Flecken in bekannte Rahmen einzupassen. Diese Art der Verallgemeinerung nennt Taleb Bestätigungs- oder auch Induktionsproblem.
  • Narrative Verzerrung:
    Der „platonische Durst“ nach charakteristischen Mustern und Kategorienzuordnungen. Ebenfalls durch System 1 getrieben.
  • Feststellung / Überzeugung „Ich lebe in Mediokristan“[4]:
    Die Menschen verhalten sich so, als würden schwarze Schwäne nicht existieren.
  • Das Sichtbare / Die Geschichte täuscht im Hinblick auf die Chancen von Ereignissen.
    Verlierer geben keine Zeugnisse ab. Wie viele Casanovas starben wohl in den Bleikammern Venedigs? Es wird „nur“ über den einen berichtet, der flüchten konnte.
  • „Tunneln“
    Tunneln nennt Taleb die Konzentration auf ein paar (gut) ausgewählte, definierte Quellen und eine Liste von bisherigen schwarzen Schwänen.

Für den ersten Aspekt zeigt Taleb ein aufschlussreiches Beispiel auf, welches Bertrand Russell mit einem Huhn und Taleb in der „amerikanischen Variante“ mit einem Truthahn darstellt (NNT S.62f). Betrachtet man die 1.000 Tage, die ein Truthahn gefüttert wird, zeigt sich eine fortwährende regelmäßige Fütterung. Das Schlachten des Tieres am 1.001. Tag ist (für den Truthahn) ein schwarzer Schwan. Die vorhergehenden Ereignisse haben keinen Schluss auf diese „Überraschung“ (aus Sicht des Truthahns) zugelassen. Dieser „Schreck“ vor unerwartet eingetretenen Ereignissen mit enormen Auswirkungen kann zudem zu falschen Verhalten führen: Taleb verweist auf Verhaltensweisen einiger seiner Börsenkollegen, die sich nach dem Börsencrash 1987 jedes Jahr auf einen weiteren vorbereiteten. Die Börse ist aber kein Phänomen aus Mediokristan, sondern aus Extremistan.

Ich möchte den Unterschied zwischen Mediokristan und Extremistan verdeutlichen, der im Wesentlichen zwischen Skalierbaren und nicht Skalierbaren besteht.

„Mediokristan“ umfasst nicht skalierbare Phänomene. In Mediokristan ist die gaußsche Glockenkurve anwendbar. Ein Beispiel: Das Durchschnittsgewicht von 1.000 Personen wird sich auch durch Hinzunahme des schwersten Menschen nur unwesentlich verändern. Das Ganze wird nicht von einem einzigen Ereignis, Fall oder Beobachtung bestimmt. Durch eine Zeit der Beobachtung kann man erfahren, was vor sich geht.

Mediokristan stellt Taleb „Extremistan“ gegenüber. Hier finden sich Skalierbares und auch schwarze Schwäne. Die Vorgänge dieser „Welt“ sind über das Betrachten von Stichproben oder der Vergangenheit nur schlecht abschätzbar. In skalierbaren Phänomenen besteht große Ungleichheit. Einige wenige haben ein „großes Stück vom Kuchen“ auf Kosten vieler, deren Stück extrem viel kleiner ausfällt. Betrachtet man das Vermögen von 1.000 Personen und nimmt Bill Gates hinzu, verändert dieser „Einzelfall“ den gesamten Sachverhalt. Daher versagt in solchen Fällen die gaußsche Glockenkurve, da das Ganze von einer geringen Anzahl extremer Ereignisse bestimmt wird. Um zu wissen was vor sich geht, braucht es lange. Ein Problemder womöglich seltenen aber extremen Einzelfälle. Dies ist der zentrale Aspekt von NTT.

Man kann nach Taleb die Wahrscheinlichkeiten oder Chancen zwar in Spielen wie z.B. Roulette oder Poker berechnen. Aber nicht im wirklichen Leben, das gespickt ist mit (meist kleinen) schwarzen Schwänen. Taleb nennt dies „Ludische Verzerrung“ (NNT S.162). Denn Geschichte verläuft nicht linear, sondern sie springt (NNT S.27).

Der Versuch, das wirkliche Leben in den Griff zu bekommen, es berechenbar zu machen, führt nach Taleb zu einem Triplett der Opazität (NNT, S.25):

  • Die Illusion zu verstehen
    Jeder bildet sich ein, zu verstehen was vor sich geht.
  • Retrospektive Verzerrung
    Man kann Dinge und Ereignisse erst im Nachhinein „richtig beurteilen“.
  • Überbewertung faktischer Information
    Die Behinderung der „richtigen“ (im Sinne der entstehenden Relevanz für das Selbst) Wahrnehmung durch „Platonisierung“: das ist die Kategorisierung von Dingen und Ereignissen durch „Experten“ (autoritative und gelehrte Personen)

Dies führt nach Taleb zu Problemen bei Vorhersagen (NNT, S.175). Denn die „epistemische Arroganz“, die sich aus dem Triplett der Opazität entwickelt, zeigt sich in

  • der Überschätzung des eigenen Wissens,
  • der Unterschätzung des Bereichs der möglichen unsicheren Zustände,
  • der Förderung von Bestätigungsfehlern und
  • der Nichtberücksichtigung stummer Zeugen.

Diese „provozierte Blindheit“ gegenüber schwarzen Schwänen hat nicht nur grundlegende Auswirkungen in der Einschätzung von (zukünftigen) Ereignissen, sondern auch auf die Selbsteinschätzung der Menschen.

„Wir Menschen sind Opfer einer Asymmetrie bei der Wahrnehmung zufälliger Ereignisse. Unsere Erfolge schreiben wir unseren Fähigkeiten zu, unsere Misserfolge externen Ereignissen. […] Das führt dazu, dass wir glauben, wir seien in unserem Beruf besser als andere. Und nicht nur dort: […]“ (S.192)

Soziologische und hirnphysiologische Forschungen zeigen, dass der Mensch nur selektiv wahrnehmen kann und einen Rahmen braucht. Dieser Rahmen ist bestimmt von den individuellen vorherigen Erfahrungen.

Diese Selbsteinschätzung führt dazu, dass falsches Expertentum herausgebildet wird. Nach Taleb (NNT, S.184f) gibt es Experten zwar häufig in nicht skalierbaren Berufen, da dort ein hoher Erfahrungsgrad und / oder ein abgeschlossener Rahmen vorhanden ist. Beispiel e dafür sind Buchhalter, Rechnungsprüfer, Testpiloten, Gutachter für Vieh oder Boden. Allerdings gibt es in skalierbaren Berufen meistens keine Experten:

„Bei Dingen, die sich bewegen und daher Wissen erfordern, gibt es gewöhnlich keine Experten […]. Berufe, die sich mit der Zukunft befassen und ihre Untersuchungen auf die nicht wiederholbare Vergangenheit gründen, haben ein Expertenproblem […]“ (NNT, S.185)

Als Beispiele führt Taleb Psychologen, Psychiater, Richter, (Finanz-) Berater, Ökonomen, Finanzprognostiker, Betriebswirtschaftsprofessoren und Politologen an.

Nach Talebs Definition können Marktforscher zu beiden Kategorien gehören. Marktforscher sind besonders anfällig für Bestätigungsfehler oder stumme Zeugen. Das zeigt, wie anspruchsvoll die Befragtenauswahl ist! Auch auf Seiten des Kunden (im Briefing) können diese Effekte auftreten. Nicht zuletzt ist die (pragmatische) Erwartung, „umsetzbare Lösungen“ zu liefern, ein potenzieller Baustein, die „Bewegung von Dingen“ zu negieren. Entscheidend ist daher, den Rahmen, seine Definition und seine Be- und Einschränkungen deutlich herauszustellen.

Eine sehr häufig anstehende Aufgabe der Marktforscher sind Experimente. Darin kann man die „Mediokratisierung“ von Extremistan sehen: die Ein- und Ausschlüsse bzw. die genaue Definition des benutzen Rahmens und der strikte Hinweis darauf, dass sich die Interpretation der Ergebnisse auf diesen Rahmen bezieht müssen genau beschrieben werden – was häufig bei der Wahrscheinlichkeitsrechnung unterschlagen wird.

Ganz grundsätzlich bestehen einige Probleme bei menschlichen Projekten (NNT, S.200), gerade hinsichtlich der Erstellung von Prognosen – einer wichtigen Aufgabe von Marktforschung:

  • Die „Extremistan“ skalierbaren Variablen.
    Ein Projekt soll 79 Tage dauern. Wenn es bis dahin noch nicht fertig ist, dauert es im Schnitt 25 Tage länger! Ist es nach 90 Tagen nicht beendet, läuft es im Schnitt noch 58 Tage länger.
  • Das Prognose-Problem: unsichtbare bzw. negierte Fehlerrate (Beispiel: die „Sonntagsfrage“ bei den Wahlprognosen) und schwarze Schwäne.
  • 1. Prognose-Trugschluss (NNT, S.202): Zu ernst nehmen einer Prognose ohne Berücksichtigung ihrer Genauigkeit (Irrtumswahrscheinlichkeit, Schwankungsbreite etc.)
    2. Prognose-Trugschluss: „Nichtberücksichtigung der Tatsache, dass sich Vorhersagen verschlechtern, wenn die Zeiträume, auf die sich erstrecken, größer werden.“ (NNT, S.203)
    3. Prognose-Trugschluss: Der Mensch versteht den Zufallscharakter der Variablen nicht („in Mediokristan machen wir meist keine Fehler, in Extremistan dagegen große, weil wir die Konsequenzen des seltenen Ereignisses nicht erkennen“ (NNT, S.203)

Ideen, Erfindungen, Werkzeuge „scheinen [FH: daher] nur selten wie beabsichtigt zu funktionieren“ (NNT, S.212). Beispiele, die Taleb anführt: Das Internet wurde nicht erfunden, um zu chatten. Man macht dies heutzutage dennoch sehr ausgiebig. Die Laserentwicklung war lediglich der Forscherwunsch nach Lichtstrahlenspaltung. Der Laser ist dabei der „typische Fall einer Lösung, die auf ein Problem wartet“ (NNT, S.212).Dabei hat gerade der Laser enorme Auswirkung auf die Welt: ohne ihn gäbe es keine CDs, keine Seeschärfekorrektur oder auch keine Mikrochirugie.

„Die Verbreitung einer Technologie vorherzusagen bedeutet, ein großes Element von Marotten und sozialer Ansteckung vorherzusagen, das außerhalb des objektiven Nutzens der Technologie selbst liegt (vorausgesetzt, es gibt überhaupt einen „objektiven Nutzen“).“ (NNT S.213)

Ein treffendes Beispiel ist die völlig unerwartete Erfolgsgeschichte der SMS – dabei nicht zu vergessen die Misserfolgsgeschichte der MMS. Anfang bis Mitte der 1990er Jahre wurde die SMS „einfach mal so“ anfangs als kostenloser Zusatzdienst beim Mobiltelefon angeboten. Schnell und unerwartet[5] trat die SMS den Erfolgszug an, der schnell kostenpflichtig wurde. Die SMS ist heute ein essenzieller Baustein der Umsätze von Mobilfunkbetreibern. Der MMS Dienst wurde Anfang des neuen Jahrtausends veröffentlicht. Allerdings gab es zu diesem Zeitpunkt nur wenige Mobiltelefone mit integrierter Kamera. Die Kompatibilität zwischen den unterschiedlichen Geräten ließ zu wünschen übrig – eine MMS konnte so mit größerer Wahrscheinlichkeit nicht (korrekt) empfangen werden. Auch wenn die technischen Probleme gelöst zu sein scheinen, behindern nicht zuletzt die im Vergleich zur SMS deutlich höheren Kosten bis heute die massenhafte Verwendung der MMS.[6]

Nimmt man als Marktforscher Taleb ernst und möchte weiterhin „trotzdem Prognosen wagen“, spricht das für Interdisziplinarität, um „falschen Expertentum“ die Grundlage zu entziehen! Zudem gewinnt qualitative Forschung an Stellenwert, da diese den von Taleb erwähnten Experimenten häufig gleichgesetzt werden können. Bestätigungsfehler können in dieser Art Forschung selbstverständlich auch auftreten, wenn gleich die qualitative Anlage seinen interpretatorischen Ansatz offen zeigt – im Vergleich zu quantitativen Studien, die diesen Aspekt hinter scheinbar exakten Prozentwerten verschleiern.

Bei der marktforscherischen Aufgabe „Prüfen und Entwickeln von Elementen“ kommt man nur durch eine qualitative Abfrage auf Aspekte, an die – in einer quantifizierenden und damit überwiegend geschlossenen Abfragesphäre gar nicht gedacht wurde.

„Um die Zukunft so zu verstehen, dass man sie vorhersagen kann, muss man die Elemente aus dieser Zukunft selbst einbauen.“ (NNT, S.215)

Dieser Einbau von Elementen ist erklärungsbedürftig. Nutzt man dabei Marktforschung, hängt der Erfolg wesentlich davon ab, wie konkret diese „Elemente der Zukunft“ den Befragten vorgelegt werden können.

Nur mit qualitativen Methoden lässt sich intensiv hinterfragen, ob Neues in den Rahmen des Befragten passt und wie das Neue dort funktionieren würde.

Im Kapitel über den Umgang mit schwarzen Schwänen schreibt Taleb:

„Das Unbekannte werde ich nie erfahren können, […]. Ich kann aber immer Vermutungen darüber anstellen, welche Auswirkungen es auf mich haben könnte, und sollte mich bei meinen Entscheidungen darauf stützen.“ (NNT, S.258)

Er nennt diesen Gedanken „Konzept der asymmetrischen Ergebnisse“: die Frage nach den Auswirkungen von potenziell möglichen Ereignissen. Er empfiehlt die Suche nach Situationen, wo (die Möglichkeit der) die positiven Konsequenzen größer sind als die negativen. Man sollte weniger ins Vorhersagen investieren, sondern eher ins Vorbereitet sein (NNT, S.256), da die Wahrscheinlichkeit von Ereignissen zu bestimmen schwierig ist. Die Chancen von Ereignissen werden je seltener desto unschärfer (NNT, S.258). Schwarze Schwäne sind gar nicht vorhersehbar. Daher empfiehlt sich die Konzentration auf die Konsequenzen und das Abschwächen der Konsequenzen bei der Entscheidungsfindung.

„Es wird weniger, aber schwerere Krisen geben. Je seltener ein Ereignis ist, desto weniger wissen wir über seine Wahrscheinlichkeit. Das bedeutet, dass wir immer weniger über die Gefahr einer Krise wissen.“ (NNT, S.276)

Taleb verweist dabei einmal mehr auf die Rahmenstruktur, die notwendig ist:

„Ideen verbreiten sich nicht ohne irgendeine Form von Struktur.
[…]
Wir Menschen sind keine Fotokopierer. Ansteckende geistige Kategorien müssen daher die sein, an die wir zu glauben bereit sind, die zu glauben wir vielleicht sogar programmiert sind. Um ansteckend zu sein, muss die geistige Kategorie mit unserer Natur übereinstimmen“ (NNT, S.269)

Taleb verweist auf die kumulative Auswirkung von Ausreißern in Extremistan. Diese zeichnen sich durch scharfe Sprünge und Diskontinuität aus.

„[…] als würde man sich auf das Gras konzentrieren und dabei die (riesigen) Bäume nicht sehen. Auch wenn unvorhersehbare große Abweichungen selten sind, darf man sie nicht als Ausreißer abtun, da ihre kumulative Wirkung so dramatisch ist.“ (NNT S.276)

Wo Größenordnungen eine Rolle spielen, lässt sich „Ausnahme“ nicht mehr sagen, da die Auswirkung möglicherweise extrem ist. Extremistan entzieht sich dem gaußschen Beschreibungsraum. Vielmehr folgt es der Logik der fraktalen Mathematik, welche Taleb kurz definiert als Wiederholung von Mustern in unterschiedlicher Größenordnung (NNT, S.311).

„Außerdem liefern die gaußschen Instrumente ihnen Zahlen, was „besser als gar nichts“ zu sein scheint. Das sich daraus ergebene Maß für die Unsicherheit hinsichtlich der Zukunft befriedigt unser eingefleischtes Streben nach Vereinfachung, auch wenn das bedeutet, Dinge in eine einzige Zahl zu quetschen, die zu vielschichtig sind, um auf diese Weise beschrieben zu werden.“ (NNT, S.332)

Talebs Schlussresümee lautet:

„[…] dass mein Mittel gegen schwarze Schwäne eben ist, gedanklich nicht den ausgetretenen Pfaden zu folgen. Die Einstellung führt nicht nur dazu, dass man nicht der Truthahn wird, sie kann uns auch eine Handlungsgrundlage bescheren. Die große Frage ist nicht, wie wir denken sollten, sondern wie wir Wissen in Handlungen umsetzen und herausbekommen können, was Wissen wert ist.“ (NNT, S.351)

Ein endgültiges Mittel gegen schwarze Schwäne gibt es nicht. Methodisch korrekte und sachlich angewandte Marktforschung verheimlicht diesen Umstand nicht. Gerade dadurch kann sie für einen besseren Umgang mit schwarzen Schwänen, ein besseres „Darauf- gefasst-sein“ sorgen.

Marktforscher und Statistiker, die sich an die Methoden und deren Grenzen halten, wissen, dass es keine quantitative Sicherheit gibt. Managementforderungen muss widerstanden werden, die professionelle Sorgfalt inklusive den verbleibenden Unsicherheiten abzufälschen versuchen, um so in der Extremistan-Welt eine falsche Mediokristan Sicherheit vorzugaukeln.

Marktforschung kann einen wertvollen Beitrag leisten, den Rahmen besser zu beschreiben, indem zum Beispiel die Bedürfnisse von Zielgruppen qualitativ erforscht werden. Auch das Verständnis kann geschärft werden, welche Auswirkungen die unterschiedlichen Möglichkeiten des Unbekannten haben. So kann die Grundlage, auf der Entscheidungen gefällt werden, insbesondere durch qualitative Methoden deutlich verbessert werden. Qualitative Forschung setzt den Schwerpunkt auf das Herausschälen des Wertes von Wissen. Sie trägt dazu bei, die Wichtigkeit von Bedürfnissen, Gefühlen, Emotionen und Eindrücken für potenzielle Geschäftsentscheidungen und –handlungen besser einzuschätzen.


Endnoten:

 

[1] Nassim Nicholas Taleb, „Der schwarze Schwan“ , Hanser, München 2008, S.351. Ich verwende für dieses Buch die Sigle NNT.

[2] Den Begriff Rahmen verwende ich im Sinne Erving Goffmans: „Rahmen-Analyse“, Suhrkamp, Frankfurt 1980.

[3] Erving Goffman, a.a.O., Peter L. Berger und Thomas Luckmann „Die gesellschaftliche Konstruktion der Wirklichkeit“, Fischer, Hamburg 1980.

[4] In Talebs Mediokristan ist alles gut abschätzbar. Dagegen stellt Taleb Extremistan, in dem schwarze Schwäne eine Einschätzung der Ereignisse mindestens deutlich erschweren. Dies liegt wesentlich an der Eigenschaft der Skalierbarkeit. Dazu mehr im übernächsten Abschnitt.

[5] Die Erklärung im Nachhinein: die sicheren überschaubaren Kostenstruktur im Gegensatz zu Mobiltelefonaten, Mitte der 1990er Jahre sehr teuer – erheblich teurer als heutzutage waren.

[6] In der Marktstudie 2008 des Verbandes der Anbieter von Telekommunikations- und Mehrwertdiensten (VATM) (http://www.vatm.de/uploads/media/12-06-2009-FTTx.pdf) wird für 2008 geschätzt, das täglich 62,5 Mio. SMS versendet werden, aber nur 0,48 Mio. MMS.


Archiv der Kategorie: Markt- und Mediaforschung

GOR 09: Wie automatisiert darf Marktforschung sein?

Kategorie: Markt- und Mediaforschung — Tags: , 17:59 8. April 2009

Ersetzt Automatisierung das menschliche Hirn bzw. die menschliche Interpretation? Meine Anmerkungen zur GOR 09: eine Überlegung zur PD-2 Panel Diskussion „Does Market Research need an Update?“. Peter Wippermann vom Trendbüro zeigte in seinem Impulsvortrag einige Aspekte neuer Aggregation von Daten.

Ein Beispiel Herrn Wippermanns war die schnellere Vorhersage der Grippeepidemien, die Google über Webanalysen 14 Tage vor der nationalen Gesundheitsbehörde der USA veröffentlichen kann. Angewendet auf die Methoden der Marktforschung wurden neue Aggregations- und Darstellungsweisen (u.a. dashboards, Heatmaps, die in Google Earth dargestellt werden) in Aussicht gestellt. Andera Gadeib, CEO von Dialego arbeitet an semantischen automatisierten, d.h. algorithmisch gesteuerten Analysen.

Die Frage, die sich mir stellt: welche Rolle spielt in dieser neuen Welt die Interpretationshoheit? Diejenigen, die den Sinn in Daten interpretieren? Ich bin der Meinung, dass bezogen auf professionelle nutzenintendierte Marktforschung, es weiter derartige Gatekeeper in Marktforschungs- und Kundenunternehmen geben muss. Denn es kommt darauf an, die richtigen Schlüsse für das Unternehmen, seine Interessen und Ziele zu ziehen.


Archiv der Kategorie: Markt- und Mediaforschung

GOR 09: Online Access Panels sind weniger valide sind als CATI-RDD

Zwei Zitate des Vortragenden der Keynote Jon A. Krosnick: (in meiner Übersetzung): „Man erhält bei Anwendung der unterschiedlichen Methoden nicht dieselben Ergebnisse.“ Und – bezogen auf die USA: „Internet Access Panels sind konsistent weniger valide als Telefoninterviews (RDD)“.

Seine „Befangenheit“ (also: seine Perspektive) als Wissenschaftler stellte er an den Anfang seiner Präsentation. Und daran schließe ich an: Marktforschung, die gekauft wird, muss zuvorderst so valide sein, dass sie vom Kunden verwendet werden kann. Es besteht im Gegensatz zur Wissenschaft kein absoluter „Wahrheitsanspruch“, sehr wohl aber ein essenzieller Nützlichkeitsanspruch.

Für professionelle Marktforscher bedeutet dies, dass vorab sehr genau über die Methodenwahl nachgedacht werden muss. In diesem Zusammenhang ist die Beantwortung der folgende Fragen Ziel führend:

  • Welche Zielgruppe befrage ich? Wie zugänglich ist die Zielgruppe zur Methode?
  • Wie vertraut ist die Zielgruppe mit der Methode?
  • Wie lang ist die Dauer die Befragung
  • Wie komplex / erklärungsbedürftig ist die Befragung?
  • Wie abstrakt bzw. konkret ist die Befragung?
  • Welchen Einfluss hat die Glaubwürdigkeit der Methode – d.h. das Vorhandensein eines Interviewers – auf die Befragung?
  • Welchen Einfluss hat soziale Erwünschtheit von Antworten in der Befragung?

Ein letzter spannender Aspekt: die Erkenntnis, dass je geringer die Quote der abgeschlossenen Interviews ist desto geringer die Validität. Allerdings tritt eine tatsächlich deutliche Verschlechterung erst ab einer Quote von unter 10% auf.


Archiv der Kategorie: Markt- und Mediaforschung

Kann Marktforschung Qualität „berechnen“?

Kategorie: Markt- und Mediaforschung — Tags: , 17:43 17. März 2009

Der Kern meines Anliegens stellt folgende Frage dar: Was ist Qualität? Und: kann Marktforschung Qualität „berechnen“, wie es im Untertitel des Artikels heißt? (Artikel ist nachzulesen hier oder hier)

Im letzten Abschnitt fragt die Autorin: „Aber ist risikoloses Programm auch gutes Programm?“. Diese Frage zielt daran vorbei, ob Marktforschung „Qualität erforschen“ kann. Denn die Frage, wie risikolos ein Programm ist, ist nur ein Qualitätsaspekt unter vielen. Und überhaupt: was heißt denn „gut“? (Auch) Das definiert der Auftraggeber. Marktforschung kann Qualität erforschen – aber nur jene, die vom Auftraggeber definiert wird.

Qualität kann also berechnet – ich bevorzuge: erforscht werden. Allerdings immer nur jene, für die eine Definition vorliegt. Um im Bild des Laboratoriums zu bleiben: die Ingredenzien werden angeliefert. Daraus kann eine „überraschende Mischung“ werden – d.h. überraschende Erkenntnisse können aus dem gelieferten Briefing gewonnen werden. Aber Alchemisten sind Marktforscher keine.

Ein Appendix zur Aufbereitung des Quellentextes:

Der Artikel nimmt in der Zeitung vier Spalten bzw. eine Drittel Seite ein. Derselbe Text wird im Internet unter sueddeutsche.de und jetzt.de veröffentlicht.

Der Inhalt des Artikels ist in der Zeitung und im Internet aufs Wort derselbe. Online wird damit ein Text veröffentlicht, der lange gescrollt werden muss. Ich glaube, dass ein derart langer Text selten vollständig gelesen wird. Daher halte ich das für eine nicht optimale Qualität einer Textveröffentlichung im Internet. Auch das ist ein Qualitätsaspekt: Texte für das jeweilige Medium anzupassen.


Archiv der Kategorie: Markt- und Mediaforschung

Research & Results Marktforschungsmesse

Semantische Analysen im Web: Auf der Marktforschungsmesse gestern und vorgestern stand das Thema „semantsiche Webanalysen“ auf der Agenda. Sowohl „Online“ als auch „Social Media“ sind auch in der Marktforschungsszene derzeit „heiße“ Themen. Was ist mit „Risiken und Nebenwirkungen“? Stehen die auf dem „Beipackzettel“?

Das Angebot klingt äußerst verlockend, die „Mundpropaganda“ des Internet mittels technischer Hilfsmittel in kurzer Zeit zu analysieren. Auch auf der Marktforschungsmesse gestern und vorgestern stand dieses Thema auf der Agenda. Es gab auch einige Workshopvorstellungen zu diesem Thema. Denn sowohl „Online“ als auch „Social Media“ sind auch in der Marktforschungsszene derzeit „heiße“ Themen.

Mich beschäftigt dabei die Frage, wie speziell diese Analysen sind und wie groß die Gefahr, der Analyse am Ende einen Grad der Verallgemeinerung zuzuschreiben, den sie nicht hat. Jedenfalls spürte ich persönlich diese Verallgemeinerungsgefahr während der Vorstellung eines dieser Tools. Die ausgewählte also die als richtig erachtete Basis hat den normalen Marktforschungshaken: was kann mir die Ausgangszielgruppe „erklären“?, wo habe ich Einschränkungen aufgrund der gewählten Grundgesamtheit unbedingt zu beachten, um nicht einen Verallgemeinerungsschluss zu ziehen, den die Basiszielgruppe methodisch gar nicht hergibt?

Zudem ist der Glaube der Anbieter felsenfest, dass die linguistische Perfektion der Tools ausreichend ist. Bedauerlicherweise habe ich über die linguistische Treffsicherheit der Applikationen sowohl im Vortrag als auch auf den Anbieterseiten wenig finden können. Gängige Sprach- und Texterkennungssysteme arbeiten daran, sich deutlich über die 95% Erkennungsquote zu schrauben. Das aber heißt: jedes 20. Wort ist falsch. Persönliches Training soll die Quote auf bis zu 99% steigern. Wie hoch also ist bei den Tools zur semantischen Webanalyse die Quote der richtig erkannten Wörter, Satzstrukuren, Satzzusammenhänge und Satzteilbezüge? Die deutsche Sprache ist in diesem Sinne äußerst komplex. Wie hoch ist der Aufwand des „Verbesserungstrainings“? Wie gut gehen die Systeme mit grammatikalisch falschen Sätzen, falsch geschriebenen Wörtern, Abkürzungen um? Wie wirkt sich eine Fehlerquote auf die Ergebnisse aus? Was wird seitens der Anbieter unternommen, um Ergebnisse zu in dieser Hinsicht abzusichern? Sind am Ende einige wenige face to face durchgeführte Interviews effektiver und zugleich effizienter?

Mit diesen Fragen sollte man sich auseinandersetzen, wenn man zum Mittel der semantischen Analyse greift, um den Lockruf dieser Art Tools nicht einfach zu erliegen, sondern diese fürs unternehmerische Ziel erfolgreich einzusetzen.


Archiv der Kategorie: Markt- und Mediaforschung

ACTA Präsentation in München II

Weniger gebildete Schichten nutzen Medien selektiver als höher gebildete. Zudem: ob α-Blogger oder Journalist, Meinung wird auch in Zukunft von einigen wenigen gebildet. „Nur“ die „Bildungsstätten der Meinung“ haben sich erweitert
Das Internet ermöglicht Zellen, die vor zehn Jahren in dieser Differenzierung nicht weltöffentlich denkbar waren. Das mehr an medialen Kanälen, an verfügbarer Information, führt nur bei bildungsprivilegierten Schichten zu einer breiteren exzessiveren Nutzung von Medien, einer Erweiterung des Horizonts. Für weniger gut gebildeten Schichten könnten mehr Kanäle Stress und einhergehend Rückzug aus Interessen bedeuten. Aus Angst vor Überforderung.