Varianzanalyse (ANOVA)

Beschreibung

Die Varianzanalyse, oder ANOVA (engl. analysis of variance), beschreibt eine Gruppe von datenanalytischen und strukturprüfenden Verfahren mit einer Vielzahl unterschiedlicher Anwendungsmöglichkeiten. Ihre Gemeinsamkeit liegt in der Berechnung von Varianzen und Prüfgrößen. Diese ist auf die Ermittlung der Gesetzmäßigkeiten, welche sich hinter den Daten verbergen, ausgerichtet.

Die Varianz einer oder mehrerer Zielvariable(n) wird durch den Einfluss einer oder mehrerer Einflussvariablen (Faktoren) erklärt. In ihrer einfachsten Form stellt die Varianzanalyse eine Alternative zum t-Test dar, die Vergleiche zwischen mehr als zwei Gruppen ermöglicht.[1] 

Unterscheidung

In Abhängigkeit der Anzahl der Zielvariablen werden zwei Formen der Varianzanalyse unterschieden:

  • Univariate Varianzanalyse (ANOVA)
  • Multivariate Varianzanalyse (multivariate analysis of variance; MANOVA)

Zudem unterscheidet man zwischen einfaktorieller (einfacher) und mehrfaktorieller (mehrfacher) Varianzanalyse, abhängig davon, ob ein oder mehrere Faktoren vorliegen.[2] 

Begriffe

Zielvariable

Die Zielvariable (abhängige Variable) ist eine metrische Zufallsvariable, deren Wert durch die kategorialen Variablen erklärt werden soll. Die abhängige Variable enthält Messwerte.

Intervall- und Verhältnisskala werden zur sogenannten Kardinalskala zusammengefasst. Merkmale auf dieser Skala werden dann als metrisch bezeichnet. Nominal- oder ordinalskalierte Merkmale hingegen werden auch als kategorial bezeichnet.[3] 

Einflussvariable

Die Einflussvariable (Faktor bzw. unabhängige Variable) ist eine kategoriale Variable (Faktor), die von den Gruppen vorgegeben wird und deren Einfluss untersucht werden soll. Die Kategorien eines Faktors werden als Faktorstufen bezeichnet.[4] 

Grundidee

Die Verfahren der Varianzanalyse untersuchen, ob (und unter Umständen wie) sich die Erwartungswerte der metrischen Zufallsvariablen in verschiedenen Gruppen/Klassen unterscheiden. Anhand der Prüfgrößen wird anschließend getestet, ob die Varianz zwischen den Gruppen größer ist als die Varianz innerhalb der Gruppen. Dies gibt Aufschluss über die Sinnhaftigkeit der Gruppeneinteilung und beurteilt, ob sich die Gruppen signifikant unterscheiden oder nicht.

Falls sich Gruppen signifikant unterscheiden sollten, wird in der Regel angenommen, dass in den Gruppen unterschiedliche Gesetzmäßigkeiten wirken. Ist beispielsweise die Varianz der ersten Gruppe bereits auf Ursachen (Varianzquellen) zurückgeführt, so ist bei Varianzgleichheit davon auszugehen, dass in der anderen Gruppe keine neue Wirkungsursache hinzukam.[5] 

Bedeutung

In der Wissenschaft spielt die Varianzanalyse eine wesentliche Rolle, da sie als wissenschaftlich fundierte Form der Ursachenbeschreibung angesehen werden kann; das Alltagsdenken wird in konsequenter Form fortgesetzt. Eine große Anzahl multivariater Verfahren setzt das Alltagsdenken nicht fort, da sie auf künstlich entwickelten Modellaufnahmen basieren.

Anwendungsbeispiele für die Varianzanalyse wären beispielsweise die Untersuchung der Wirksamkeit von Medikamenten oder den Einfluss von Düngemitteln auf den Ertrag von landwirtschaftlichen Anbauflächen.[6] 

Voraussetzungen

Die Anwendung der Varianzanalyse ist an Voraussetzungen gebunden, die vor jeder Berechnung geprüft werden müssen. Die Ergebnisse sind unbrauchbar, falls die Datensätze die geforderten Voraussetzungen nicht erfüllen. Die Voraussetzungen unterscheiden sich je nach Anwendung, allgemein jedoch gelten folgende:

  • Varianzhomogenität der Stichprobenvariablen
  • Normalverteilung der Stichprobenvariablen

Üblicherweise erfolgt die Überprüfung mit anderen Tests außerhalb der Varianzanalyse. Falls die geforderten Voraussetzungen nicht erfüllt werden können, sollte man auf verteilungsfreie, nicht-parametrische Verfahren zurückgreifen.

  • Für zwei Stichproben (t-Test-Alternativen):
    • Gepaarte Stichproben: Wilcoxon-Vorzeichen-Rang-Test
    • Unabhängige Stichproben: Mann-Whitney-U-Test
  • Für drei oder mehr Stichproben:
    • Gepaarte Daten: Friedman-Test, Quade-Test
    • Ungepaarte Daten: Kruskal-Wallis-Test, Jonckheere-Terpstra-Test, Umbrella-Test
    • Zur mehrfaktoriellen Analyse: Scheirer-Ray-Hare-Test[7] 

Einfaktorielle ANOVA

Einleitung

Bei der einfaktoriellen Varianzanalyse wird der Einfluss einer unabhängigen Variable (Faktor) mit k verschiedenen Stufen (Gruppen) auf die möglichen Ausprägungen einer Zufallsvariable untersucht. Es werden die Mittelwerte der Ausprägungen (in der Anzahl k) für die Gruppen verglichen. Genauer gesagt: die Varianz zwischen den Gruppen wird mit der Varianz innerhalb der Gruppen verglichen. Die einfaktorielle ANOVA ist ebenfalls die Verallgemeinerung des t-Tests im Falle von mehr als 2 Gruppen und ist für k=2 äquivalent mit dem t-Test.[8] 

Ziele:

  • Entscheidung über die Gültigkeit von getroffenen Annahmen erleichtern
  • Verifizieren der vermuteten Ursachen
  • Feststellen statistischer Unterschiede zwischen zwei oder mehreren Prozessoutputs
  • Untersuchung des Zusammenhangs zwischen einer diskreten, unabhängigen Einflussvariablen und einer stetigen, abhängigen Output-Messgröße[9] 

Voraussetzungen

Die Fehlerkomponenten müssen normalverteilt sein, denn sie bezeichnen die jeweiligen Varianzen (Gesamt-, Treatment- und Fehlervarianz). Demzufolge müssen die Messwerte der jeweiligen Grundgesamtheit normalverteilt sein. Zudem müssen die Fehlervarianzen zwischen den Gruppen (den k Faktorstufen) gleich bzw. homogen, sowie die Messwerte/Faktorstufen voneinander unabhängig sein.[10] 

Hypothesen

Es sei μi der Erwartungswert der abhängigen Variable in der i. Gruppe. Die Nullhypothese einer einfaktoriellen Varianzanalyse lautet somit:

H0: μ1 = μ2 = ... = μk

Die Alternativhypothese lautet:

HA: ∃i,j: μi ≠ μj

Die Nullhypothese sagt aus, dass zwischen den Erwartungswerten der einzelnen Gruppen kein Unterschied besteht; die Alternativhypothese hingegen besagt, dass zwischen mindestens zwei Erwartungswerten ein Unterschied besteht.[11] 

Vorgehensweise

1. Festlegen der Zielgröße (Y) und des Einflussfaktors (X), sowie der Faktorstufen (X1, X2, …, Xn)

Als Faktoren werden die unabhängigen Variablen bezeichnet. Ihre einzelnen Ausprägungen sind als Faktorstufen bekannt. Die Anzahl der Faktoren bestimmt die Einteilung der beiden Typen der Varianzanalyse:

  • Ein Faktor: Einfaktorielle Varianzanalyse
  • Zwei Faktoren: Zweifaktorielle Varianzanalyse

2. Aufstellen des Modells

[12] 
  • Xij: Zielvariable; annahmegemäß in den Gruppen normalverteilt
  • k: Anzahl der Faktorstufen des betrachteten Faktors
  • ni: Stichprobenumfänge für die einzelnen Faktorstufen
  • μ: arithmetisches Mittel der Erwartungswerte in den Gruppen
  • αi: Effekt der i-ten Faktorstufe
  • εij: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleicher (unbekannter) Varianz σ2

3. Berechnungen durchführen

Basis für die Varianzanalyse ist die Varianzzerlegung:
Gesamtvariation = erklärte Variation + nicht erklärte Variation

[13] 

Falls die erklärte Streuung (zwischen den Faktorstufen) signifikant größer ist als die nicht erklärte Streuung (innerhalb der Faktorstufen), so geht man davon aus, dass dieser Faktor einen signifikanten Einfluss auf die Zielgröße (auf das Ergebnis) hat.[14] 

Analysieren der Ergebnisse

  • Überprüfung der Signifikanz der Faktoren
    • Die Wirkung und Interaktion der Faktorstufen kann unter der Verwendung der Haupteffekte und Wechselwirkungsdiagramme visualisiert werden
    • Überprüfung der statistischen Signifikanz und Analyse der p-Werte
  • Überprüfung des Anteils der erklärten Variation
    • Wie viel der Variation innerhalb der Daten kann durch das Modell erklärt werden?
    • Erklärte Variation wird zur Gesamtvariation ins Verhältnis gesetzt
    • Das Bestimmtheitsmaß (R²) kann alle Werte zwischen 0% und 100% annehmen; je größer R², desto größer der Anteil an der Gesamtvariation, der sich durch das Modell erklären lässt; sollten Werte unter 80% liegen, so benötigt man für eine bessere Erklärung der Variation weitere Faktoren
  • Überprüfung der Fehlerterme (Residuen)
  • Überprüfung folgender Voraussetzungen
    • Normalverteilung der Fehlerterme
    • Annähernd gleiche (homogene) Variation der Fehlerterme
    • Unabhängigkeit der Fehlerterme[15] 

Zweifaktorielle ANOVA

Einleitung

Im Gegensatz zur einfaktoriellen Varianzanalyse berücksichtigt die zweifaktorielle Varianzanalyse zwei Faktoren (Faktor A und Faktor B) zur Erklärung der Zielvariablen.[16] 

Ziele:

  • Entscheidung über die Gültigkeit von getroffenen Annahmen erleichtern
  • Verifizieren der vermuteten Ursachen
  • Feststellen statistischer Unterschiede zwischen zwei oder mehreren Prozessoutputs
  • Untersuchung des Zusammenhangs zwischen zwei diskreten, unabhängigen Einflussvariablen und einer stetigen, abhängigen Output-Messgröße[17] 

Hypothesen

  • Hypothesen für die Wirkung des Faktors A lauten:
    • H0: τ1 = τ2 = ... = τi = 0 (Faktor A hat keine Wirkung)
    • HA: mindestens ein τi ≠ 0
  • Hypothesen für die Wirkung des Faktors B lauten:
    • H0: β1 = β2 = ... = βi = 0 (Faktor A hat keine Wirkung)
    • HA: mindestens ein βi ≠ 0
  • Hypothesen für die Wirkung der Wechselwirkungen lauten:
    • H0: (τβ)ij = 0 für alle i,j (Keine Wechselwirkungen zwischen Faktoren)
    • HA: mindestens ein (τβ)ij ≠ 0 [18] 

Vorgehensweise

1. Festlegen der Zielgröße (Y) und des Einflussfaktors (X), sowie der Faktorstufen (X1, X2, …, Xn)

Als Faktoren werden die unabhängigen Variablen bezeichnet. Ihre einzelnen Ausprägungen sind als Faktorstufen bekannt. Die Anzahl der Faktoren bestimmt die Einteilung der beiden Typen der Varianzanalyse:

  • Ein Faktor: Einfaktorielle Varianzanalyse
  • Zwei Faktoren: Zweifaktorielle Varianzanalyse

2. Aufstellen des Modells

[19] 
  • Xijk: Zielvariable; annahmegemäß in den Gruppen normalverteilt
  • I: Anzahl der Faktorstufen des ersten Faktors (A)
  • J: Anzahl der Faktorstufen des zweiten Faktors (B)
  • K: Anzahl der Beobachtungen pro Faktorstufe (hier für alle Kombinationen von Faktorstufen gleich)
  • αi: Effekt der i-ten Faktorstufe des Faktors A
  • βj: Effekt der j-ten Faktorstufe des Faktors B
  • (αβ)ij: Interaktion (Wechselwirkung) der Faktoren auf der Faktorstufenkombination (i,j).

3. Durchführen der Berechnungen

Zunächst wird die Berechnung der Varianzen für die einzelnen Faktoren sowie die Varianz für die Wechselwirkung von A und B berechnet.[20] 

Analysieren der Ergebnisse

Wenn die Prüfgröße F größer ist als das Quantil, ablesbar in einschlägigen Tabellen, so wird H0 verworfen. Dies bedeutet, dass eine Wechselwirkung zwischen den Faktoren A und B besteht.[21] 

Vor- und Nachteile

Vorteile der einfaktoriellen Varianzanalyse

  • Komplexere Vergleiche als Paarvergleiche sind möglich[22] 
  • Es werden weniger Versuchspersonen benötigt, da dieselben Untersuchungsobjekte mehrmals getestet werden
  • Höhere Teststärke (Power), da die Fehlervarianz verringert wird[23] 

Nachteile der einfaktoriellen Varianzanalyse

  • Sphärizitätsannahme (Zirkularitätsannahme)
  • Sequenzeffekte (Reihenfolge der Testung kann Einfluss haben)
  • Fehlende Daten zu einem Messzeitpunkt führen dazu, dass ein Untersuchungsobjekt komplett (zu allen Messzeitpunkten) ausgeschlossen werden muss[24] 

Vorteile der zweifaktoriellen Varianzanalyse

  • Aufdeckung von Interaktionseffekten bzw. Wechselwirkungen zwischen Variablen
  • Ökonomie: Man benötigt weniger Untersuchungsobjekte, da man bei jedem Objekt zwei Variablen erheben kann[25] 
  • Teststärker, da durch den 2. Faktor die Fehlervarianz verringert wird[26] 

 

Quellennachweise

1.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

2.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

3.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

4.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

5.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

6.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

7.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

8.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

9.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 216 [↑]

10.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

11.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

12.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 216 [↑]

13.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 217 [↑]

14.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 217 [↑]

15.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 216-219 [↑]

16.  http://de.wikipedia.org/wiki/Varianzanalyse (26.4.2012) [↑]

17.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 221 [↑]

18.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 222 [↑]

19.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 221 [↑]

20.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 221-222 [↑]

21.  Meran, Renata, John, Alexander, Staudter, Christian u.a.: Six Sigma+Lean Toolset: Mindset zur erfolgreichen Umsetzung von Verbesserungsprojekten. Berlin Heidelberg. 2012, S. 224 [↑]

22.  http://www.oocities.org/soho/lofts/5072/Varianz.htm (26.4.2012) [↑]

23.  http://www.psychologie.uni-freiburg.de/abteilungen/Sozialpsychologie.Methodenlehre/courses/ss-09/spss-und-statistik/anova3.ppt/download (26.4.2012) [↑]

24.  http://www.psychologie.uni-freiburg.de/abteilungen/Sozialpsychologie.Methodenlehre/courses/ss-09/spss-und-statistik/anova3.ppt/download (26.4.2012) [↑]

25.  http://www.zwisler.de/edv/anova2.html (26.4.2012) [↑]

26.  http://www.psychologie.uni-freiburg.de/abteilungen/Sozialpsychologie.Methodenlehre/courses/ss-09/spss-und-statistik/anova2.ppt/download (26.4.2012) [↑]