F-Test

Die statistischen Tests dienen dazu, eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer Hypothese zu treffen. Ein statistischer Test kann nicht mit Sicherheit sagen, ob eine Hypothese stimmt oder nicht. Mit einem vorgegebenen Signifikanzniveau versucht man die Wahrscheinlichkeit für Fehlentscheidung zu kontrollieren. Genau deswegen spricht man von einem Hypothesentest oder auch Signifikanztest. Zu Beginn des Tests gibt es immer die beiden Hypothesen H0, von ihr wird vorläufig ausgegangen, und die Alternativhypothese H1, welche zu „beweisen“ versucht wird.[1] 

Vorgehensweise beim Testen

Generell geht man bei der Anwendung eines statistischen Tests in folgenden Schritten vor: Zunächst formuliert man eine Nullhypothese H0 und ihre Alternativhypothese H1, danach wählt man einen geeigneten Test und bestimmt den kritischen Bereich (Signifikanzniveau α). Als Nächstes folgt die Berechnung der Testgröße T (je nach Testverfahren unterschiedlich) und das Treffen der Testentscheidung, H0 beibehalten oder H0 verwerfen.

Erläuterung

Der F-Test ist ein statistischer Test, welcher mit einer gewissen Konfidenz entscheidet, ob zwei Stichproben aus unterschiedlichen, normalverteilten Grundgesamtheiten sich hinsichtlich ihrer Varianz wesentlich unterscheiden. Der Test dient zur generellen Überprüfung von Unterschieden zwischen zwei Grundgesamtheiten. Der F-Test ist auch für kleine Stichprobenumfänge geeignet. Er spielt bei der Varianzanalyse eine bedeutende Rolle, ist aber auch von Bedeutung, wenn man prüfen will, ob die Voraussetzungen für die Anwendung des t-Differenzentests, für den Vergleich zweier Mittelwerte unabhängiger Stichproben erfüllt sind.

Anwendung

1. F-Test für zwei Stichproben (Varianzgleichheit)
Voraussetzung für den F-Test ist, dass zwei unterschiedliche normalverteilte Grundgesamtheiten gegeben sind, d.h. X bzw. Y sind N (μxx2) bzw. Y (μyy2) verteilt. Von Interesse ist, zu prüfen, ob die Varianzen σx2 und σy2 voneinander abweichen. Es wird von jeder Grundgesamtheit eine Stichprobe gezogen, wobei die Stichproben n1 und n2 unterschiedliche Größen haben dürfen. Die zwei Hypothesen lauten: Nullhypothese H0: σx2y2 gegen die Alternativhypothese H1: σx2≠σy2. Man berechnet den Quotient der geschätzten Varianzen der beiden Stichproben; Fstichprobe=(Sy2)/(Sx2 ). Dabei sind Sy2 und Sx2 die Stichprobenvarianzen innerhalb der beiden Gruppen. Um eine Entscheidung für die Gültigkeit der Nullhypothese zu treffen, bestimmt man den kritischen Wert oder berechnet den p-Wert. Den kritischen Wert K kann man aus der Bedingung P(F(n2-1,n1-1) ≥ K) ≤ α0 bestimmen, wobei α0das gewünschte Signifikanzniveau ist. Der p-Wert ermittelt sich aus p=P(F(n2-1,n1-1) ≥ Fstichprobe). Die Nullhypothese H0 wird abgelehnt falls Fstichprobe ≥ K oder wenn p ≤ α0.

  • Einfaches Beispiel:

Wir vergleichen zwei Produktionsverfahren A und B in ein Unternehmen. Mit dem neuen Verfahren B werden 100 Stück hergestellt und mit 120 Stück von Verfahren A verglichen. Die Produkte von B haben eine Varianz von 80 und die Produkte A eine Varianz von 95. Die zwei Hypothesen lauten H0: σab und H1a≥σb . Der Prüfwert ergibt sich aus Fstichprobe=(Sa2)/(Sb2 )=95/80=1,188. Man liest den F-Wert F(na-1,nb-1) aus einer F-Verteilungs-Tabelle ab und setzt ihn in die Gleichung P(F(n2-1,n1-1)≥Fstichprobe)=18,8% um den p-Wert zu bekommen. Der p-Wert ist größer als das Signifikanzniveau und deswegen können wir die Nullhypothese nicht ablehnen d.h. das Unternehmen kann seine Produktion nicht auf Verfahren B umstellen.[2] 

2. Hypothesentests bei multipler Regression
Die Regressionsanalyse ist eines der am häufigsten angewandten Verfahren für statistische Analysen. Untersucht wird die lineare Abhängigkeit zwischen einer abhängigen Variable y (endogene Variable) und einer oder mehreren unabhängigen Variablen x (exogene Variablen). Der statistische F-test kann dazu verwendet werden den lineare Zusammenhang in einem Regressionsmodell y=β01*x12*x2+⋯+βn*xn zu überprüfen. [3] 

  • Test auf alle Regressoren (overall F-Test)

Man testet, ob alle x-Variablen zusammen zur Erklärung von y beitragen. Die Nullhypothese ist, dass keine x-Variable einen Einfluss auf y zeigt, H0: β012=⋯=βn=0 und die Alternativhypothese H1: βj≠0. Die Berechnung des F-Wertes erfolgt nach der Formel F=(erklärte Streuung/Anzahl der Regressionskoef.)/(nicht erklärte Streuung/Fallzahl-Anzahl der Regressinskoef.-1)=(R2/n)/((1-R2)/(j-n-1)). Der kritische Wert Fkrit wird entweder vom Signifikanzniveau oder von den Freiheitsgraden des Zählers und Nenners bestimmt. Abschließend vergleicht man den kritischen Wert mit dem F-Wert, und wenn F > F_krit→H0, wird abgelehnt und das Gesamtmodell ist signifikant. Ist F dagegen ≤ Fkrit→H0, wird das Modell nicht verworfen.[4] 

  • Test auf einige Regressoren (incremental F-Test)

Mit dem F-Test kann man auch testen, ob eine Teilmenge der Regressionskoeffizienten einen signifikanten Einfluss hat. Die Nullhypothese lautet dann H0: β012=⋯=βk=0, wobei 1 ≤ k ≤ n. Das Prinzip hier ist, dass man die erklärte Streuung aus dem Vollmodell (R12) mit der erklärten Streuung aus dem verkürzten Modell (R02) vergleicht F=((R12-R02)/(1-R12))*((j-n-1)/k).

 

Quellennachweise

1.  http://de.wikipedia.org/wiki/Statistischer_Test Stand: (01.06.2012) [↑]

2.  http://de.wikipedia.org/wiki/F_Test Stand: (01.06.2012) [↑]

3.  Hypothesentests bei multipler Regression http://von-der-lippe.org/dokumente/Testen.pdf Stand: (01.06.2012) [↑]

4.  F-Test http://www.sowi.uni-mannheim.de/lehrstuehle/lessm/veranst/MultiVorlesung.pdf Stand: (01.06.2012) [↑]