#!/usr/bin/perl print qq§Content-Type: text/html §;

1. Einleitung *

2. Der Erhebungsplan *

3. Abgrenzung der Grundgesamtheit *

4. Wahl des Erhebungsprinzips: Voll- oder Teilerhebung *

4.1. Vollerhebung *

4.2. Teilerhebung *

5. Die Auswahlverfahren *

5.1. Uneingeschränkte Auswahlverfahren *

5.1.1. Einfache Zufallsauswahl *

5.1.2 Systematische Stichprobenauswahl *

5.1.3. Geschichtete Auswahl *

5.1.4. Klumpenauswahl *

5.1.5. Ein- und mehrstufige Flächenstichproben *

5.2. Systematische Auswahlverfahren *

5.2.1. Willkürliche Auswahl *

5.2.2. Quotaverfahren *

5.2.3. Schneeballverfahren *

5.2.4. Konzentrationsverfahren *

5.2.4.1 Abschneideverfahren *

5.2.4.2. Typische Auswahl *

6. Probleme in der Marktforschung *

Literaturverzeichnis *

 

 

 

 

 

 

1. Einleitung

Voraussetzung zum Einsatz absatzpolitischer Instrumente ist die Beschaffung und Auswertung von Informationen über die relevanten Märkte und die Marktteilnehmer. Dieses geschieht im Rahmen der Marktforschung. Marktforschung ist somit der "systematische, objektive Prozeß der Informationsbeschaffung und –bereitstellung über Märkt und Marktbeeinflussungsmöglichkeiten für Marketingentscheidungen."

Marktforschungsvorhaben lassen sich als Forschungsprozesse betrachten, die idealtypisch wie folgt dargestellt werden können:

  1. Problemformulierung und Wahl des Forschungsdesigns
  2. J

  3. Bestimmung der Informationsquellen und Erhebungsmethoden
  4. J

  5. Operationalisierung und Messung der einbezogenen Variablen
  6. J

  7. Durchführung der Erhebung
  8. J

  9. Vorbereitung der Datenauswertung
  10. J

  11. Datenauswertung und Ergebnisinterpretation
  12. J

  13. Erstellung eines Forschungsberichts und Präsentation der Ergebnisse

Abb. 1: Phasen des Marktforschungsprozesses (H. Böhler 1992, aus: Enzyklopädie der Betriebswirtschaft IV, S.1770)

Bei der Wahl der Forschungsdesigns stehen im Allgemeinen zwei Möglichkeiten zur Auswahl. Die explorativen Designs, bei denen bereits vorhandenes Datenmaterial einer erneuten Untersuchung unterzogen wird (Sekundäranalyse) und die deskriptiven Designs. Diese dienen der Beschreibung von Märkten, Marktvolumen, Bekanntheitsgraden, Einstellungen etc. . Hier werden Statistiken sowie standardisierte Umfragen einer erstmaligen systematischen Analyse unterzogen (Primärforschung).

Aus Kosten- und Reliabilitätsgünden spielt dabei der Auswahlmodus und der Auswahlumfang eine erhebliche Rolle.

2. Der Erhebungsplan

Zur Durchführung einer Datenerhebung im Bereich der Primärforschung sind zunächst das Untersuchungsziel und die relevanten Untersuchungseinheiten (Grundgesamtheit) festzulegen. Bei der Frage nach den Untersuchungseinheiten treten folgende Fragen auf:

 

3. Abgrenzung der Grundgesamtheit

Nachdem das Untersuchungsziel klar formuliert ist, hat der Marktforscher die relevanten Untersuchungseinheiten (Institutionen, Personen, o.ä.) zu erfassen. Die Grundgesamtheit ist im Bezug auf das Untersuchungsziel klar abzugrenzen, denn das Ergebnis der Untersuchung soll sich zumeist nicht allgemein auf Personen beziehen, sondern zum Beispiel auf Personen einer bestimmten geographischen Region mit bestimmten sozio-demographischen Merkmalen.

Die Auswahl selbst wird mit Hilfe der Auswahlgrundlage getätigt. Unter Auswahlgrundlage versteht man eine Auflistung aller Elemente der Grundgesamtheit, zum Beispiel in Form einer Kartei, einer Datenbank oder einer Landkarte.

4. Wahl des Erhebungsprinzips: Voll- oder Teilerhebung

4.1. Vollerhebung

Die Frage nach dem Erhebungsprinzip ist zumeist eine Kosten- und Zeitfrage. Ist die Gewinnung aller relevanten Daten möglich und ökonomisch vertretbar (im Falle einer sehr kleinen Grundgesamtheit), wird eine Vollerhebung durchgeführt. Unter diesen Idealbedingungen ist der Marktforscher in der Lage, umfassend und genau die Konsequenz verschiedener Handlungsalternativen festzustellen, indem er alle Elemente der Grundgesamtheit erfaßt und sie vollständig auf ein oder mehrere Merkmale hin untersucht. Wäre dies immer möglich, so brauchte man keine Auswahlverfahren.

 

4.2. Teilerhebung

Da eine Vollerhebung in den meisten Fällen praktisch nicht durchführbar ist, sind Teilerhebungen das in der Marktforschung verbreitetste Erhebungsprinzip. Hierbei wird eine bestimmte Teilmenge der Grundgesamtheit untersucht, die sogenannte Stichprobe. Die auf diese Stichprobe basierende Schätzung wird um so genauer, je größer die Stichprobe ist und je weniger die gefundenen Werte streuen (d.h. je geringer die Varianz der Stichprobe ist).

Die wichtigste Anforderung an die Stichprobe ist die Repräsentativität. Repräsentativität liegt qua Definition dann vor, wenn eine Verallgemeinerung von Auswertungsergebnissen, die ausschließlich auf der Stichprobe basieren, für die Grundgesamtheit zulässig ist. Diese Definition beinhaltet jedoch einen Widerspruch, der als Stichprobenparadoxon bekannt ist. Ohne vollständige Kenntnis der Grundgesamtheit ist die Überprüfung der Qualität der Stichprobe unmöglich. Liegen jedoch alle relevanten Informationen über die Grundgesamtheit vor, so ist diese bereits vollständig untersucht, und es bedarf keiner Stichprobenbildung mehr. Der Begriff repräsentative Stichprobe ist daher nicht eindeutig definiert und es gibt keine eindeutigen Qualitätskriterien, die festlegen wann eine Stichprobe repäsentativ ist.

 

5. Die Auswahlverfahren

Teilerhebungen werden zunächst danach unterschieden, ob eine uneigeschränkte Auswahl oder eine systematische Auswahl erfolgt (Auswahlprinzip). Uneingeschränkte (probabilistische) Auswahlverfahren beruhen auf einer absoluten Zufallsauswahl. Hierbei hat jedes Element der Grundgesamtheit (oder, bei modifizierten Verfahren, eines bestimmten Teils der Grundgesamtheit) die gleiche Chance in die Stichprobe zu gelangen. Der Vorteil dieser Verfahren liegt darin, daß mathematisch begründbare Rückschlüsse auf die Grundgesamtheit gezogen werden können. Die Wahrscheinlichkeitstherorie findet, wenn die Auswahl statistisch korrekt durchgeführt wurde, volle Gültigkeit. Konfidenzintervalle und mögliche Fehler (Zufallsfehler) können berechnet werden.

Die systematischen (nicht probabilistischen) Verfahren lassen keine einwandfreien mathematischen Rückschlüsse zu. Hier wird die Auswahl eher nach Ermessen der Forschers, nach willkürlichen Gesichtspunkten oder nach einem anderen, nicht streng zufälligen Modus getroffen. Bei diesen Auswahlverfahren muß man sich auf die Sachkenntnis der Person, die die Auswahl trifft, verlassen.

Jede Aussage, die eine Teilerhebung liefert, ist grundsätzlich mit Fehlern behaftet. Dieser Fehler läßt sich in zwei Komponenten aufteilen: Zufallsfehler und systematischer Fehler.

Der Zufallsfehler ist unvermeidlich. Er läßt sich, wie bereits erwähnt, bei uneigeschränkten Auswahlverfahren exakt messen (und zwar bei Stichproben mit n³ 10 approximativ normalverteilt mit dem Mittelwert 0 und der Varianz S2/n, mit n als Stichprobengröße und S2 als Varianz der Stichprobe). Durch Vergrößerung des Stichprobenumfangs läßt er sich verkleinern, da sich die bei der Erfassung der einzelnen Untersuchungseinheiten gemachten Fehler mit wachsender Zahl der Untersuchungseinheiten tendenziell ausgleichen (Gesetz der großen Zahlen).

Der systematische Fehler läßt sich zwar nicht messen oder verkleinern, er ist aber vermeidbar. Systematische Fehler sind "Verzerrungen des Untersuchungsergebnisses durch nicht zufällige Einflußfaktoren wie etwa statistisch nicht korrekt durchgeführte Erhebungen oder willkürliche Auswahl".

Im Folgenden werden die einzelnen Auswahlverfahren beschrieben. In der Literatur finden sich verschiedene Bezeichnungen für die einzelnen Verfahren. Die hier verwendete Nomenklatur stammt (mit Außnahme der Konzentrationsverfahren) von Paul E. Green und Donald S. Tull.

5.1. Uneingeschränkte Auswahlverfahren

Voraussetzung für eine uneingeschränkte Auswahl ist die Zugrundelegung eines mathematisch-statistischen Ziehungsmodells. Es wird davon ausgegangen, daß die Untersuchung mit einem Modell aus einer oder mehrerer Urnen nachgebildet werden kann, die alle Untersuchungseinheiten symbolisch enthalten. Durch diese Ziehungsmethodik besteht für jedes Element der Auswahlbasis eine bekannte und von Null verschiedene Wahrscheinlichkeit, in die Stichprobe gezogen zu werden. Bei Ziehungsverfahren dieses Typs lassen sich, sofern alle Elemente der Grundgesamtheit in der Auswahlgrundlage enthalten sind, Schätzfunktionen bestimmen, deren Wahrscheinlichkeitsverteilung exakt bzw. approximativ bekannt ist. Diese Schätzfunktionen ermöglichen eine Qualitätsbeurteilung der Stichprobe.

5.1.1. Einfache Zufallsauswahl

Bei der einfachen Zufallsauswahl hat jedes Element der Grundgesamtheit eine gleich große Wahrscheinlichkeit, in die Stichprobe zu gelangen. Beinhaltet die Grundgesamtheit N Elemente, und soll die Stichprobe den Umfang n haben, so ist jedes Element der Grundgesamtheit mit der Wahrscheinlichkeit W=n/N in der Stichprobe vertreten. Die Elemente der Stichprobe werden unter Zuhilfenahme von Zufallszahlentabellen oder –generatoren aus der Auswahlgrundlage ermittelt.

Das zu untersuchende Merkmal wird nun für alle Elemente der Stichprobe erfaßt und es wird ein Mittelwert aus diesen gebildet ( 8 ). Es ist zu erwarten, daß der Mittelwert der Stichprobe etwa (± Zufallsfehler) dem Mittelwert der Grundgesamtheit (8 ) entspricht.

Wie bereits erwähnt hängt die Verläßlichkeit einer auf eine Stichprobe basierenden Schätzung von der Größe (n) und der Varianz (S2) dieser Stichprobe ab. Somit stellt der Wert S2 /n ein zuverlässiges Maß für die Genauigkeit einer Stichprobe dar. In der Praxis wird die einfache Zufallsauswahl selten eingesetzt, da eine vollständige Auflistung aller Elemente der Grundgesamtheit in der Auswahlgrundlage schwer oder unmöglich zu beschaffen ist.

Das Ziehungsmodell der nun folgenden uneingeschränkten Verfahren (modifizierte Verfahren) basiert auf der einfachen Zufallsauswahl. Hier wird lediglich die Auswahlbasis in gewisser Weise verändert.

5.1.2 Systematische Stichprobenauswahl

Hierbei handelt es sich um eine nur leicht abgewandelte Variante der einfachen Zufallsauswahl. Bei diesem Verfahren geht der Forscher davon aus, daß die Auswahlgrundlage in gewisser Weise geordnet ist.

Wenn die Auswahlgrundlage aus N geordneten Elementen besteht und eine Stichprobe vom Umfang n gewünscht ist, so bildet man zunächst den Quotienten N/n. Diese Quotient (Q) wird Ziehungsintervall genannt. Nun wird eine Zahl (U) zwischen 1 und Q zufällig ausgewählt. Die Element U, U+Q, U+2Q, U+3Q ... sind Bestandteile der Stichprobe.

Diese Variante bietet sich an, wenn die Auswahlgrundlage nach dem Untersuchungsziel oder nach einem korrelierenden Merkmal geordnet ist. Ein Beispiel hierzu wäre die Untersuchung von Kundendeckungsbeiträgen in einem Versandhandel, wobei die Kundendatei nach steigendem Umsatz geordnet ist. Eine systematische Stichprobenauswahl verhindert die Verzerrung des Gesamtergebnisses. Es sind gleichmäßig viele Kunden mit hohem und niedrigem Umsatz in der Stichprobe vertreten.

 

5.1.3. Geschichtete Auswahl

In manchen Fällen ist es sinnvoll die Grundgesamtheit basierend auf einem oder mehreren Merkmalen in verschiedene Schichten (Teilgesamtheiten) zu unterteilen und gesondert zu untersuchen. Man nimmt dabei an, daß sich die einzelnen Schichten hinsichtlich des Untersuchungsziel deutlich unterscheiden. Eine Schichtung nach Einkommensklassen oder nach Bildungsniveau wäre denkbar. In den einzelnen Schichten wird wiederum eine einfache Zufallsauswahl durchgeführt.

Die Vorteile von geschichteten Auswahlverfahren (stratified sampling) liegen darin, daß sie infolge des Schichtungseffekts einen geringeren Zufallsfehler aufweisen als die einfache Zufallsauswahl und darüber hinaus genauere Informationen über die einzelnen Schichten liefern.

Der Schichtungseffekt tritt auf, wenn sich die untersuchten Mittelwerte der einzelnen Schichten von einander unterscheiden. Der Schichtungseffekt ist Null, wenn die Mittelwerte gleich sind. Die Genauigkeit wird durch die Schichtung um so mehr erhöht, je heterogener die Schichten untereinander sind.

Die Auswahl des Umfangs der einzelnen Stichproben erfolgt im allgemeinen proportional zum Umfang der Schichten (proportional geschichtete Auswahl). Wäre die zugrundeliegende Schichtung das Einkommensniveau, so wären verhältnismäßig mehr Personen niedrigen und mittleren Einkommens in der Gesamtstichprobe vertreten als solche hohen und sehr hohen Einkommens.

Kennt man jedoch die Streuung und damit die Varianz der einzelnen Schichten (aus früheren Untersuchungen oder externen Quellen) und wählt den Stichprobenumfang proportional zu diesen Größen, so erzielt man eine weitere Effizienzsteigerung (disproportional geschichtete oder optimale Auswahl). Grund dafür ist die Tatsache, daß der Zufallsfehler einer Stichprobe um so höher ist, je mehr die darin enthaltenen Objekte bezüglich des untersuchten Merkmals streuen, d.h. je weiter die Merkmalsausprägungen auseinander liegen. Dieser Ungenauigkeit wird mit Hilfe des bereits erwähnten Gesetzes der großen Zahlen entgegengewirkt.

Folgendes Zahlenbeispiel soll den Schichtungseffekt verdeutlichen:

Eine Stichprobe von 18 Personen wurde im Rahmen einer Kundenzufriedenheitsstudie auf ihre Erfahrungen mit einem bestimmten Produkt hin befragt. Zur Beurteilung wurde ihnen eine 6er-Skala vorgelegt (Schulnoten).

Nach der Umfrage stand folgendes Datenmaterial zur Verfügung:

X1=1

X2=5

X3=6

X4=2

X5=4

X6=1

X7=2

X8=3

X9=1

X10=2

X11=6

X12=5

X13=4

X14=6

X15=2

X16=5

X17=1

X18=4

Über die Gesamtstichprobe ergibt sich ein Mittelwert von

die Varianz berägt

Nun nehmen wir an, ein Zusammenhang zwischen Bildungsniveau und Antwortverhalten besteht. Aus dieser Annahme ergeben sich folgende Schichten:

Schicht 1 (Hauptschulabschluß) aus den Personen X1,X4,X6,X7,X9,X15 und X17.

Schicht 2 (Realschulabschluß) aus den Personen X5,X8,X10,X13, und X18.

Schicht 3 (Abitur) aus den Personen X2,X3,X11,X12,X14 und X16.

Für die einzelnen Schichten ergeben sich nun folgende Werte:

Schicht1 hat einen Mittelwert von etwa 1,4 und eine Varianz von 0,8 .

Schicht 2 hat einen Mittelwert von 3,4 und eine Varianz von 0,8.

Schicht 3 hat einen Mittelwert von 5,5 und eine Varianz von etwa 0,5.

Bei diesem idealtypischen Beispiel ergibt sich ein signifikanter Unterschied der einzelnen Schichten hinsichtlich der Merkmalsausprägung. Die Varianzen der Schichten haben sich mehr als halbiert, d.h. die Merkmalsausprägungen streuen geringer um die spezifischen Mittelwerte als die gesamte Stichprobe um den ursprünglichen Mittelwert. In diesem Fall bewirkte die Schichtung eindeutig eine Reduzierung des Schätzfehlers ohne den Stichprobenumfang zu erhöhen. Desweiteren können nun die unterschiedlichen Einstellungen der Schichten zum Produkt in die Marketingüberlegungen eingebracht werden.

5.1.4. Klumpenauswahl

Bei der Klumpenauswahl (cluster sampling) handelt es sich um eine einfache Zufallsauswahl, bei der Untersuchungseinheiten nicht einzeln, sondern in Gruppen - sogenannten Klumpen - ausgewählt werden. Die Klumpen sind einander ausschließende Teilmengen der Grundgesamtheit, beispielsweise Stadtviertel, Firmen oder Familien. Innerhalb der ausgewählten Klumpen werden alle Untersuchungseinheiten erfaßt.

Die Klumpenauswahl ist in der Praxis eines der beliebtesten Auswahlverfahren. Sie ist mit weit niedrigeren Kosten verbunden als die einfache Zufallsauswahl, da die Auswahlgrundlage viel einfacher zu beschaffen ist und die Erhebung leichter und mit weniger Personal durchgeführt werden kann. Bei einer Befragung von Beschäftigten einer bestimmten Branche kann man Firmenlisten leichter als Mitarbeiterlisten beschaffen. Alle Personen der ausgewählten Klumpen können dann an ihrem gemeinsamen Arbeitsplatz befragt werden. In den meisten Fällen ist es sogar unmöglich eine Auswahlgrundlage für eine einfache Zufallsauswahl zu beschaffen, beispielsweise bei Käufern eines bestimmten Lebensmittels. Hier wäre eine einfach zu beschaffende Auswahlgrundlage für die Klumpenauswahl eine Liste der dieses Produkt vertreibenden Händler.

Eine für breit angelegte Untersuchungen der deutschen Bevölkerung häufig genutzte Auswahlgrundlage ist die Liste der Bundestagswahlbezirke.

Ein Nachteil der Klumpenauswahl ist der negative Effekt der Klumpenbildung auf den Stichprobenfehler. Würde die Klumpenbildung rein zufällig erfolgen, wäre der Fehler nicht höher als bei anderen Auswahlverfahren. Klumpen verhalten sich jedoch bezüglich des Untersuchungsmerkmals zumeist homogener als die Grundgesamtheit. Wählt ein Marktforscher zum Beispiel Stadtviertel als Grundlage der Klumpenbildung, so ist es naheliegend das bestimmte Bevölkerungsschichten über- beziehungsweise unterrepräsentiert sind.

 

5.1.5. Ein- und mehrstufige Flächenstichproben

Bei Flächenstichproben wird zunächst die Grundgesamtheit in sich ausschließende Teilmengen auf geographischer Basis unterteilt (z.B. Städte, Bundesländer o.ä.).Aus diesen sogenannten Primäreinheiten wird eine einfache Zufallsstichprobe genommen. Werden nun alle in diesen Primäreinheiten enthaltenen Untersuchungseinheiten erfaßt, so handelt es sich um eine einstufige Flächenstichprobe (was gleichbedeutend mit einer Klumpenauswahl ist). Werden zwei oder mehr Unterteilmengen gebildet um die endgültigen Klumpen zu bestimmen, so handelt es sich um eine mehrstufige Flächenstichprobe (multistage sampling).

 

5.2. Systematische Auswahlverfahren

Die systematischen Auswahlverfahren sind durch die unvermeidliche Willkür gekennzeichnet, mit der Untersuchungseinheiten ausgesucht werden. Daraus resultiert zwangsläufig eine Beeinträchtigung des Untersuchungsergebnisses. Es existieren mehrere Gründe für diese Beeinträchtigung. Zum einen wird der Marktforscher bei der Auswahl der Befragungspersonen durch subjektive Eindrücke wie Sympathie oder Antipathie beeinflußt. Ein weiterer Grund ist der sogenannte Bequemlichkeitseffekt. Der Interviewer wählt leicht erreichbare Personen in die Stichprobe und setzt damit deren Ausgewogenheit aufs Spiel. Er beschränkt sich dabei nur auf eine bestimmte soziale Schicht oder ein bestimmtes Gebiet und nimmt eine nicht der Grundgesamtheit entsprechende Meinungsverteilung in Kauf (Klumpeneffekt).

 

5.2.1. Willkürliche Auswahl

Die willkürliche Auswahl (Auswahl aufs Geratewohl) ist das einfachste und billigste Auswahlverfahren, jedoch auch das unverläßlichste. Bei diesem Verfahren werden Elemente der Grundgesamtheit ausgewählt, die besonders leicht zu erreichen oder gerade verfügbar sind. Beispiele hierzu wären Befragungen von Passanten in Fußgängerzonen oder von Besuchern einer bestimmten Veranstaltung. Diese Art der Auswahl hat mit Zufallsstichproben nicht mehr viel gemein, da nur nichtrepräsentative Teilgruppen befragt werden, deren Einstellungen einen Trend in eine bestimmte Richtung vermuten läßt.

Trotzdem wird die willkürliche Auswahl in der Praxis häufig angewandt.

 

5.2.2. Quotaverfahren

Das Quotaverfahren (quota sampling) ist eines der in der Marktforschung am häufigsten angewandten Auswahlverfahren. Hier wird versucht, die Repräsentanz einer Teilauswahl herzustellen, indem man die Verteilung bestimmter Merkmale in der Grundgesamtheit (Bildungsniveau, Alter, o.ä.) zugrunde legt und auf die Auswahl überträgt. Die Merkmalsstruktur der Grundgesamtheit wird externen Quellen wie der amtlichen Statistik entnommen. Man kann beispielsweise Volkszählungsdaten benutzen, um den Anteil der erwachsenen Bevölkerung mit bestimmten soziodemographischen Merkmalen zu bestimmen. Sind die Anteilwerte bekannt, so werden Quoten für die Umfrage festgelegt und dem Interviewer als sogenannte Quotenanweisung vorgegeben. Innerhalb seiner Quotenanweisung hat der Marktforscher freie Hand bei der Auswahl seiner Befragungspersonen.

Eine Quotenauswahl könnte wie folgt aussehen:

Das Untersuchungsziel einer Erhebung sei die Einstellung der männlichen Bevölkerung zu einem bestimmten Produkt. Der notwendige Stichprobenumfang sei 1000. Als relevante Quotenmerkmale seien Alter, Personenstand und Beruf festgelegt. Externe Quellen liefern nun die Verteilung der Quotenmerkmale in der Grundgesamtheit. Umgelegt auf den Stichprobenumfang können folgende Quotenanweisungen entstehen:

  1. Seperate Betrachtung der Quotenmerkmale:
  2. Gesamtzahl der Interviews:

     

    1000

    Alter

    18-29

    30-39

    40-49

    50-59

    älter

    250

    380

    200

    120

    50

    Personenstand

    Verheiratet

    Ledig

    Geschieden

    550

    250

    200

    Beruf

    Arbeiter

    Angestellter

    Beamter

    Selbstständig

    600

    200

    150

    50

    Dies ist die einfachere und billigere Möglichkeit. Der Interviewer bearbeitet die Quotenmerkmale unabhängig voneinander. Das heißt es könnte sein, daß die zu befragenden 50 Selbstständigen alle in die Altersklasse 18 bis 29 fallen, was nicht der Verteilung in der Grundgesamtheit entspricht. Die Stichprobe bildet zwar die Verteilung der einzelnen Merkmale ab, jedoch nicht deren Kombination.

  3. Kombinierte Betrachtung der Quotenmerkmale:

Gesamtzahl der Interviews:

 

1000

Verheiratete Arbeiter (19-29)

 

54

Ledige Arbeiter (19-29)

 

26

Geschiedene Arbeiter (19.29)

 

19

Verheiratete Beamte (30-39)

 

31

Ledige Beamte (30-39)

 

13

. .

. .

. .

Diese Möglichkeit ist um einiges arbeits- und kostenintensiver, da komplexere Anforderungen an die Eigenschaften der Befragungspersonen gestellt werden, bildet aber die Verteilung der relevanten Quotenmerkmale in der Grundgesamtheit genauer ab.

 

5.2.3. Schneeballverfahren

Das Schneeballverfahren funktioniert wie sein Name es vermuten läßt. Hier wird eine erste Welle von Auskunftspersonen nach einem beliebigen Zufallsprinzip ermittelt. Die nachfolgenden Wellen werden aufgrund von Empfehlungen oder sonstigen Hinweisen der ersten Welle ermittelt. Sind die zu untersuchenden Merkmale in der Grundgesamtheit nur sehr selten vertreten, erweist sich die Auswahl durch das Schneeballverfahren als sinnvoll. Trotz der Zufallsauswahl der ersten Welle ist das Schneeballverfahren den nichtprobabilistischen Verfahren zuzuordnen, da die durch Empfehlung in die Stichprobe gelangten Personen "in ihrem demographischen Profil eine tendenziell größere Ähnlichkeit mit jenen Personen, die sie empfohlen haben aufweisen, als bei einem Zufallsmechanismus zu erwarten wäre".

Green und Tull verweisen zur Veranschaulichung auf folgendes Beispiel:

Ein Marktforscher erhielt im Rahmen einer Studie über internationalen Tourismus den Auftrag in Frankreich, Deutschland und Großbritannien Personen zu befragen, die anläßlich der 200-Jahr-Feier in die USA gereist waren. Die zu erwartende Wahrscheinlichkeit geeignete Auskunftspersonen zu finden, lag in den meisten Teilen der drei Länder bei weniger als 2%. Es wurde ein geschichtetes Zufallsverfahren benutzt um eine erste Welle geeigneter Testpersonen zu bestimmen. Die so Ermittelten wurden aufgefordert bis zu zwei ihnen bekannte Personen zu benennen, die ebenfalls in die USA gereist waren.

 

5.2.4. Konzentrationsverfahren

Die Konzentrationsverfahren beinhalten Auswahltechniken, bei denen nur ein bestimmter Teil der Grundgesamtheit untersucht wird.

 

5.2.4.1 Abschneideverfahren

Beim Abschneideverfahren ( cut-off technique ) werden nur Elemente der Grundgesamtheit betrachtet, die im Bezug auf das Untersuchungsziel als relevant erachtet werden. Bei Untersuchungen im Investitionsgüterbereich wäre es denkbar, die Vielzahl der Kleinunternehmen einer Branche außer Acht zu lassen und die Untersuchung auf die wenigen Großunternehmen zu beschränken. Hierbei ist jedoch fraglich, ob die nichtbeachteten Kleinunternehmen überhaupt relevante Untersuchungseinheiten sind und zur Grundgesamtheit gehören.

 

5.2.4.2. Typische Auswahl

Bei der typischen Auswahl (purposive sampling) konzentriert man sich auf einen Teil der Grundgesamtheit, der als typisch oder "besonders repräsentativ" im Bezug auf das Untersuchungsziel angesehen wird. Im Rahmen von Studien mit dem Ziel Konsumentenverhalten auf längere Sicht hin zu messen, muß dieselbe Stichprobe mehrfach auf die gleichen Merkmale hin untersucht werden. In solchen Fällen ist es ökonomisch sinnvoll, eine regional begrenzte Stichprobe zu verwenden. Als Beispiel sei die Panelforschung im Rahmen der Konsumgüterforschung genannt (Haßloch i.d. Pfalz als perfektes Panel, das soziodemographisch Gesamtdeutschland sehr ähnlich ist).

 

 

6. Probleme in der Marktforschung

Trotz des herausragenden theoretischen Wissens um die probabilistischen Auswahlverfahren sind sie auf ihre Durchführbarkeit hin zu untersuchen. In der Theorie wird davon ausgegangen, daß eine Auswahlgrundlage für eine solche Untersuchung exakt alle Elemente der Grundgesamtheit enthalten muß. Gerade bei Bevölkerungsstichproben sind jedoch trotz der strengen Meldegesetze nie aktuelle Auswahlbasen verfügbar. Und selbst wenn die Auswahlbasis perfekt wäre verlangt die Theorie eine zeitgleiche vollständige Erhebung. Bei größeren Umfragen ist eine zeitgleiche Erhebung aller Stichprobenelemente unmöglich oder nur mit überdurchschnittlich hohem finanziellen Aufwand realisierbar. Die Forderung nach einer vollständigen Erhebung macht gegebenenfalls häufige Wiederholungsbesuche bei nicht angetroffenen Untersuchungseinheiten nötig. Auch dies steht im Gegensatz zur Forderung nach Zeitgleichheit. Personen die auch nach mehreren Wiederholungsbesuchen nicht befragt werden konnten (selbst bei großflächig angelegten Feldversuchen werden nur maximal drei Wiederholungsbesuche vereinbart) dürfen nicht ausgetauscht werden. Daraus resultiert, daß die Ausschöpfung der ursprünglichen Stichprobe weit unter 100% liegt (häufig nur um 50%). Die Struktur der erreichten Untersuchungseinheiten unterscheidet sich dabei in der Regel von der ursprünglich gezogenen Auswahl recht deutlich. Diese ausfallbedingte Verzerrung (non-response-bias) kann besonders ins Gewicht fallen, wenn sich der Untersuchungsgegenstand auf schwer erreichbare Personengruppen bezieht. Auf diese Personengruppen geschichtete Umfragen könnten das Problem kompensieren, doch sind zumeist keine geeigneten Schichtungsmerkmale zu finden. Bausch führt hier ein Beispiel aus der AIDS-Forschung an. Hier bezog sich eine Untersuchung auf Singels zwischen 16 und 35 Jahren und auf Risikogruppen (Drogenabhängige und Homosexuelle). In diesem Fall waren alle Hochrechnungen durch den non-respose-bias so verzerrt, daß keine Fehlerabschätzung und keine statistisch gesicherte Aussage über die relevanten Gruppen getroffen werden konnte.

Im Gegensatz dazu wäre eine systematische Auswahl hier sicherlich eine kostengünstigere Alternative mit höherer Ausschöpfung gewesen. Ein nicht probabilistisches Verfahren ist somit nicht zwingend das minderwertigere. Green und Tull bewerten diese Problematik wie folgt: "Die Wahl zwischen probabilistischer und nicht probabilistischer Auswahl hängt letztlich vom Urteil darüber ab, wie sich die relevante Größe des Zufallsfehlers im ersten Fall zur Summe aus Zufallsfehler und systematischem Fehler im zweiten Fall verhält."

 

 

 

Literaturverzeichnis

Bücher:

Green, P.E. und Tull, D.S.

Methoden und Techniken der Marktforschung

4. Auflage – Stuttgart 1982

Bamberg, G. und Baur, F.

Statistik

8. Auflage – München 1993

Hammann, P. und Erichson, B.

Marktforschung

3. Auflage – Stuttgart 1994

Unger, F.

Marktforschung: Grundlagen, Methoden und praktische Anwendung

2. Auflage – Heidelberg 1997

Leiner, B.

Stichprobentheorie

München 1985

Sammelwerke:

Tietz, B., Köhler, R., Zentes, J., u.a. (Hrsg.)

Enzyklopädie der Betriebswirtschaft IV, Handwörterbuch des Marketing

2. Auflage - Stuttgart 1995

daraus:

Bausch, Thomas, Auswahlverfahren in der Marktforschung

Böhler, Heymo, Marktforschung