A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
wirtschaftslexikon wirtschaftslexikon
 
Wirtschaftslexikon Wirtschaftslexikon

 

wirtschaftslexikon online lexikon wirtschaftslexikon
   
 
     
wirtschaftslexikon    
   
    betriebswirtschaft
     
 
x

Datenanalyse

(in der Marktforschung). Aufgabe der Datenanalyse ist es, die erhobenen Daten zu prüfen, zu ordnen, zu erforschen und auf ein für die Entscheidungsfindung notwendiges und überschaubares Mass zu ver­dichten. Es können hierzu zahlreiche statistische Verfahren eingesetzt werden, die in Abhängigkeit von der Anzahl der berücksichtigten Variablen in uni-, bi- und multivariate Methoden eingeteilt werden (Statistik). Zur Datenanalyse stehen leistungsstarke Computerprogramme wie  SPSS oder   SAS zur Verfü­gung. Der Anwender muss sich jedoch stets über die Beschaffenheit des zugrunde liegenden Datenma­terials im Klaren sein, ob ein bestimmtes Verfahren auf bestimmte Daten anwendbar ist, das Programm vermag diesbezügliche Fehler bzw. Verletzungen der Anwendungsvoraussetzungen i.d.R. nicht zu erkennen (Messniveau,  Gütekriterien,   Codierung).
1. Univariate Datenanalyse: Analysiert wird eine einzige Variable. Dargestellt werden können Häufig­keitsverteilungen (absolute, relative, kumulierte relative Häufigkeiten). Typische Masszahlen sind Lokalisationsmasse (z.B. arithmetisches Mittel, Median, Modus) und Streuungsmasse (z.B. Varianz, Standardabweichung, Variationsbreite).
2. Bivariate Datenanalyse: Analysiert wird die Beziehung zweier Variablen. Von Interesse ist zu­nächst, ob überhaupt Zusammenhänge bestehen (z.B. identifizierbar per Kreuztabulierung bzw. x2-Unabhängigkeitstest). Darüber hinaus können die Art des Zusammenhangs (z.B. mittels Regres­sionsanalyse) sowie die Stärke des Zusammenhangs (z.B. mittels Korrelationsanalyse) ermittelt werden.
3. Multivariate Datenanalyse: Analysiert wird die Beziehung mindestens dreier Variablen. In diesem Kontext können strukturen-prüfende und strukturen-entdeckende Verfahren differenziert werden. Das Ziel der strukturen-prüfenden Verfahren liegt in der Überprüfung vermuteter Zusammenhänge zwischen Variablen. Der Anwender besitzt eine auf sachlogischen oder theoretischen Überlegungen basierende Vorstellung von den Kausalzusammenhängen zwischen Variablen und möchte diese mit Hilfe ausgewählter multivariater Verfahren überprüfen. Er muss also die von ihm betrachteten Merkmale in abhängige und unabhängige Variablen einteilen können (Beispiele: multiple Regressi­onsanalyse, Diskriminanzanalyse). Strukturen-entdeckende Verfahren dagegen sind multivariate Methoden, deren primäres Ziel im Auffinden von Zusammenhängen zwischen Variablen oder zwi­schen Objekten liegt. Hier besitzt der Anwender zu Beginn der Analyse noch keine Vorstellungen darüber, welche Beziehungszusammenhänge in einem Datensatz existieren (Beispiele: Faktorenana­lyse,   Clusteranalyse). Siehe auch   Marktforschungsmethoden und   Marktforschung, jeweils mit Literaturangaben.

Literatur: Backhaus, K., Erichson, B., Plinke, W., Weiber, R.: Multivariate Analysemethoden. Eine anwendungsorientierte Einführung, 10. Auflage, Berlin u.a. 2003; Berndt, R.: Marketing
1. Käuferver­halten, Marktforschung und Marketing-Prognosen, 3. Auflage, Berlin u.a. 1996; Sander, M.: Marke­ting-Management. Märkte, Marktinformationen und Marktbearbeitung, Stuttgart 2004. Internetadressen: www.gfk.de, www.gfk.at, www.ihagfk.ch (GfK-Gruppe); www.imshealth.com (Institute for Medical Statistics); www.infores.com (Information Resources); www.sas.com (SAS Insti­tute); www.spss.com (Statistical Package for the Social Sciences); www.vnu.com (A.C. Nielsen).

Teilprozeß und -aufgabe der Marktfor­schung, bei dem die meist im Wege der Pri­märforschung erhobenen Daten formal und statistisch aufbereitet werden. Die formale Aufbereitung umfaßt zunächst die Rücklaufkontrolle, bei der die Urdaten- träger (Fragebogen, Beobachtungsprotokol­le etc.) auf Vollständigkeit und Plausibilität, ggf. auch auf Fälschungen (Interviewer­einfluß) hin überprüft werden. Nach Fest­stellung der Ausschöpfungs- bzw. Ausfallquote bei Stichprobenerhebungen muss ggf. über eine Nachbefragung entschie­den werden. ZweiteTeilaufgabeistdie Verschlüsselungdtr Daten, die insb. der elektronischen Auswer­tung der Daten dient. Dabei wird den einzel­nen AusprägungenallerVariableneinspezifi- scher Code zugewiesen. Das entsprechende Schema heißt Codeplan. Der Codeplan ent­hält auch Angaben darüber, an welcher Stelle der elektronisch gespeicherten Datensätze die jeweilige Variable zu finden ist, und wel­ches Skalenniveau sie aufweist. Schwierigkei­ten bereitet die Vercodung insb. bei offenen Fragen und qualitativen Merkmalen, wo man l. d.R. eine Klassifizierung inhaltlich ähn­licher Antworten vornehmen muß. Dabei kann durch unzweckmäßige Gruppen­bildung ein systematischer Fehler auftreten. Fehlende Antworten müssen durch einen spezifischen Code (z. B. „9“) gekennzeichnet werden, damit bei der Auswertung eine Rela­tivierung an der jeweils je nach Antwortaus­fällen unterschiedlichen Stichprobengesamt­heit vorgenommen werden kann. Letzter Schritt der Datenaufbereitung ist die Erstellung einer Datenmatrix, i. d. R. durch Eingabe der auf sog. Codierungsblättern übersichtlich zusammengefaßten codierten Ergebnisdaten. Die Datenmatrix enthält in der einen Dimension - meist den Spalten - die einzelnen Merkmale (Variablen), in der anderen - meist den Zeilen - die „Fälle“ (Auskunftspersonen, Beobachtungsobjekte etc.). Die Fälle werden dabei durchnumeriert und können für entsprechende Auswertun­gen schon a priori ganz bestimmten Unter­gruppen zugewiesen werden. Bei computergestützten Befragungen ent­fallen ein Teil dieser Datenaufbereitungsauf­gaben und die mit ihnen verbundenen Feh­lerquellen. Trotzdem wird es auch dort notwendig sein, eine Plausibilitätskontrolle der Datenmatrix, z.B. im Hinblick auf die Einhaltung der Codespanne, durchzufüh­ren, was in statistischen Programmpaketen (s.u.) auch maschinell durchgeführt werden kann. Die statistische Aufbereitung der Daten als zweiter Bereich der Datenanalyse läßt sich unter methodischen Gesichtspunkten in uni-, bi- und multivariate Analysen diffe­renzieren. Univariate Verfahren begnügen sich mit der Analyse einer Variablen und de­ren Ausprägungen. Über alle Untersu­chungsfälle hinweg ergibt sich dabei eine Häufigkeitsverteilung, die durch Berech­nung von Mittelwerten und Streuungs­maßen komprimiert charakterisiert werden kann. Ziel der Datenanalyse ist hier also insb. eine Datenverdichtung.
Datenanalyse Bei den bivariaten Analysen wird dagegen durch Verknüpfung von zwei Merkmalen bereits der Versuch unternommen, Ähnlich­keiten zwischen Merkmalen und/oder Ob­jekten sowie Zusammenhänge in Form von Korrelationen oder Abhängigkeiten zu ent­decken (explorative Forschung) bzw. zu überprüfen (Inferenzstatistik). Als wich­tigste Analysemethoden bieten sich hier die Kreuztabellierung, die Korrelationsan­alyse sowie die (einfache) Regressionsan­alyse an. Im Rahmen der Inferenzstatistik wird insb. auf die (einfache) Varianzanaly- se zurückgegriffen. Im Rahmen der Multivariatenanalyse werden in ähnlicher Untersuchungsabsicht wie bei der bivariaten Analyse drei oder mehr Variablen hinsichtlich ihrer inneren struktu­rellen Zusammenhänge analysiert. Dabei lassen sich Dependenz- und Interdepen­denzanalysen unterscheiden. Bei Depen- denzanalysen wird der Einfluß einer unab­hängigen (erklärenden) Variablen auf eine abhängige (zu erklärende) Variable unter­sucht. Bei der Interdependenzanalyse geht es um wechselseitige Einflüsse bis hin zur Überprüfung komplexer Strukturmodelle im Rahmen der Kausalanalyse. Da die Herauslösung lediglich einer oder ei­niger weniger Variablen in uni- bzw. bivaria­ten Analysen aufgrund der Nichtberück­sichtigung essentieller Zusammenhänge leicht zu Fehlschlüssen führen kann, besitzt die Multivariatenanalyse in der Marktfor­schung einen besonders hohen Stellenwert. Multivariate Analyseverfahren dienen aber auch der Datenverdichtung, etwa bei der Faktorenanalyse oder bei der Mehr­dimensionalen Skalierung. Alle Analyseverfahren setzen ein bestimmtes Skalenniveau der Variablen voraus, das deshalb vorab genau überprüft und am be­sten auch im Codeplan vermerkt werden sollte. Besonders die multivariaten Analyse­verfahren erfordern darüber hinaus die Ein­haltung bestimmter Verteilungsannahmen, meist die sog. Multinormalverteilung, so dass vor Anwendung der Verfahren zunächst Anpassungstests durchzuführen sind. Die Abbildung gibt einen zusammenfassen­den Überblick über die wichtigsten in der Marktforschung angewandten Methoden, gegliedert nach dem vordringlichen Unter­suchungszweck. Dabei wird deutlich, dass einzelne Verfahren durchaus unterschiedli­chen Zielen dienen können. Weiterhin wird sichtbar, dass eine Reihe von Methoden so­wohl in bivariater als auch in multivariater Form durchgeführt werden können. Die statistische Komplexität vieler Auswer­tungsverfahrenführt inderPraxis nicht selten zum unzulässigen oder gar unsinnigen Ein­satz bestimmter Analyseverfahren. Dies gilt insb. bei Anwendung bestimmter statisti­scher Programmpakete, z. B. SPSS, NCSS o.         ä., in denen dem Anwender ein schier uner­schöpfliches Potential an Auswertungsmög­lichkeiten angeboten wird, was leicht zu „Da- tenhuberei“, d.h. zu theorielosem Auswer­ten von Datenmatrizen führt. Seriöse Aus­wertungen basieren stattdessen auf einem im vorhinein zumindest grob festgelegten Aus­wertungsplan, der von den Untersuchungs­zielen geleitet ist. Insb. bei der Analyse von Dependenzen sind dabei substanzwissen­schaftlich gestützte Hypothesen erforder­lich, die den Datenauswertungsprozeß steu­ern können (Hypothesenprüfung). Eine besondere Schwierigkeit der Datenan­alyse im Marketing liegt darin, dass viele Da­ten kein metrisches Skalenniveau aufweisen, sondern qualitativer Natur sind (z.B. Käu­fer/Nichtkäufer, Käufer Marke A/Marke B etc., Anzeige A/B/C etc.). Während in der Inferenzstatistik mit den nichtparametri­schen Testverfahren für derartige Fälle be­reits seit langem eine Fülle spezifischer Stati­stiken zur Verfügung stehen, ist das Arsenal deskriptiver (inkl. erklärender) Analysever­fahren für nichtmetrische Variablen bisher eher beschränkt (Kontingenzanalyse). Ein v.a. in der wissenschaftlichen Marketing­forschung nicht selten beschrittener Aus­weg besteht hier darin, Objekte mittels Distanzindizes z.B. hinsichtlich ihrer Ähnlichkeit zu verknüpfen und im Wege der Mehrdimensionalen Skalierung auf einer metrischen Skala abzubilden. Die MDS weist einen weiteren Vorzug auf, der in der durch komplexe statistische Ver­fahren geprägten Auswertungsphase von nicht zu unterschätzender Bedeutung ist: Sie visualisiert Datenzusammenhänge, was nicht nur in der Phase der Datenpräsenta­tion, sondern schon während der Auswer­tungsarbeiten zur Entdeckung bzw. Über­prüfung von interessanten Zusammen­hängen von großem Vorteil ist. Für diese wie für andere komplexe Analysen sind zwischenzeitlich Standard-Datenanaly- se-Programmpakete nahezu unersetzlich ge­worden. Es handelt sich dabei um Pro­grammsysteme, die neben Routinen zur Einund Ausgabe sowie zur formalen Bearbei­tung der Daten Programme zu nahezu allen statistischen Analysemethoden enthalten. Der Benutzer wird dabei durch eine mehr oder minder bequeme Oberfläche des Sy­stems mit nur wenigen individuell auszuge­staltenden Programmbefehlen bzw. -Optio­nen konfrontiert. Zu den bekanntesten Programmpaketen dieser Art zählen SPSS (Statistical Package for the Social Sciences), BMDP (früher BMD - „Biomedical Com­puter Programs) sowie S AS („Statistisches Analyse-System). Darüber hinaus existieren spezifische Programme für einzelne Analy­severfahren (z.B. für Clusteranalysen). Trends bei der Entwicklung von Daten- analysesystemen stellen die Integration von Graphik-Programmen, sog. Reportgenera­toren (Ausdruck unmittelbar druckfähiger Tabellen) sowie die Verfügbarkeit auf PCs dar (PC-Einsatz im Marketing). Einen einführenden Überblick über die gängigen Programmpakete geben Küffner/"Witten­berg.          

Literatur: Hüttner, M., Grundzüge der Marktfor­schung, 4. Aufl., Berlin 1989. Knz,J., Methoden­kritik empirischer Sozialforschung, Stuttgart 1981. Küffner, H.; Wittenberg, R., Datenanalyse- systeme für statistische Auswertungen, Stuttgart 1985.

 

 


 

<< vorhergehender Begriff
nächster Begriff >>
Daten
 
Datenanalyseverfahren