Stichproben und statistische Fehler

Kapitel 10 Stichproben und statistische Fehler 10.1 Verfahren zur Auswahl von Stichproben Stichprobenauswahl als Bestandteil von Teilerhebungen: Au...
Author: Alexandra Egger
3 downloads 2 Views 134KB Size
Kapitel 10

Stichproben und statistische Fehler 10.1

Verfahren zur Auswahl von Stichproben

Stichprobenauswahl als Bestandteil von Teilerhebungen: Aus dem Ergebnis der Untersuchung der Stichprobe soll dann auf die Grundgesamtheit geschlossen werden. Ziel:

10.1.1

Ergebnis der Untersuchung der Stichprobe = Ergebnis der Untersuchung der Grundgesamtheit, wenn sie exakt durchgef¨ uhrt werden k¨onnte, bis auf einen absch¨atzbaren Fehler, dessen Grenzen vor der Untersuchung festgelegt werden sollten.

Zuf¨ allige Auswahlverfahren

Def. 10.1.1: Eine (streng) zuf¨ allige Auswahl einer Stichprobe liegt vor, wenn bei jeder Ziehung gilt: Jedes Element der Grundgesamtheit (bei ”m. Z.”) bzw. des Restes der Grundges. (bei ”o. Z.”) hat die gleiche Chance, gezogen zu werden. Wichtiges Hilfsmittel: Zufallszahlen. Def. 10.1.2: (zi ) heißt eine Folge von Zufallsziffern, wenn jedes z i eine Realisierung einer ZV Zi ist, f¨ ur die gilt: a) Zi nimmt die Werte 0, 1, . . . , 9 jeweils mit der Wahrscheinlichkeit 0.1 an. b) Die Zi bilden eine Folge von unabh¨angigen ZV. Def. 10.1.3: k ∈IN sei eine feste Zahl. (x i ) heißt eine Folge von Zufallszahlen (mit Stellenzahl ≤ k), wenn jedes xi eine Realisierung einer ZV Xi ist, f¨ ur die gilt: a) Xi nimmt die Werte 0, 1, 2, . . . , 10k − 1 jeweils mit der Wahrsch. 10−k an.

b) Die Xi bilden eine Folge von unabh¨angigen ZV. ¨ Die xi erh¨alt man durch Zusammenfassung von je k Zufallsziffern, wobei L¨ ucken und Uberlappungen vermieden werden sollten. Bei der Verwendung von Zufallszahlentabellen sollte die Anfangsstelle zuf¨allig ausgew¨ahlt werden. Def. 10.1.4 (xi ) heißt eine Folge von z.B. reellen, auf (0, 1] gleichverteilten Zufallszahlen, wenn jedes xi Realisierung einer ZV Xi ist, f¨ ur die gilt: a) Xi ist auf (0, 1] gleichverteilt, d.h. es gilt: 0 < X i ≤ 1 und P (a < Xi ≤ b) = b − a f¨ ur 0 ≤ a ≤ b ≤ 1. b) Die Xi bilden eine Folge von unabh¨angigen ZV. 72

Statt “echter” Zufallszahlen verwendet man meist Pseudo-Zufallszahlen. Dies sind von Rechenprogrammen erzeugte Zahlen, die deshalb keine Zufallszahlen sein k¨onnen, aber in ausreichender N¨aherung die gleichen Eigenschaften wie “echte” Zufallszahlen haben. So werden z.B. in Basic mit dem Befehl “rnd” auf [0, 1] gleichverteilte Pseudo-Zufallszahlen erzeugt. Allg. Verf. zur (streng) zuf¨ alligen Auswahl einer Stichprobe vom Umfang n: Annahme: Die Elemente der Grundgesamtheit sind registriert und durchnumeriert mit den Nummern 1, 2, . . . , N . Ziehe n auf (0, 1] gleichverteilte (Pseudo-)Zufallszahlen x i . Bilde daraus zun¨achst die Zahlen yi := xi · N. Diese Zahlen sind auf (0, N ] gleichverteilte (Pseudo-)Zufallszahlen. Bestimme daraus f¨ ur jedes i = 1, . . . , n die Zahl ui als n¨achst gr¨oßere ganze Zahl, d.h. ui ist die kleinste ganze Zahl mit der Eigenschaft ui ≥ yi . Die Elemente mit den Nummern u1 , u2 , . . . un bilden dann eine (streng) zuf¨alligen Stichprobe vom Umfang n m.Z. Will man eine (streng) zuf¨alligen Stichprobe vom Umfang n o.Z., so muß man die jedes u i , das zum zweitenmal vorkommt, streichen, und wenn n¨otig weitere auf (0, 1] gleichverteilte (Pseudo-)Zufallszahlen xi ziehen und verarbeiten. Quellen fu ¨ r Folgen von Zufallsziffern und –zahlen: a) Tabellen in Statistik–Lehrb¨ uchern b) The Rand Corporation: A Million Random Digits with 100,000 Normal Deviates, Glencoe (Illinois), 1955 c) Feste Unterprogramme in Rechenanlagen

10.1.2

Andere Auswahlverfahren

Gr¨ unde f¨ ur nicht streng zuf¨allige Auswahlverfahren: Streng zuf. Verf. sind nicht immer m¨oglich oder zu aufwendig, Vorkenntnisse bleiben unber¨ ucksichtigt, Vereinfachungen erw¨ unscht. Geschichtete Stichprobe: Aufteilung der Grundgesamtheit in Schichten (z.B. Arbeitnehmer, Freiberufliche ...). Zuf¨allige Stichprobe aus jeder Schicht o.Z. Bezeichnungen der relevanten Gr¨oßen: k Schichten Ni (keine ZV) Umfang der Schicht i (i = 1, 2, . . . , k) !

ni (≥ 1) µi ei σ

µ e σ

Umfang der auf Schicht i entfallenden Teilstichprobe arithmetisches Mittel der Merkmalswerte aller statistischen Elemente in Schicht i modifizierte Standardabweichung aller statistischen Elemente in Schicht i arithmetisches Mittel der Merkmalswerte aller statistischen Elemente in der Grundgesamtheit modifizierte Standardabweichung der Merkmalswerte aller statistischen Elemente in der Grundgesamtheit

73

n :=

k P

i=1 k P

N :=

ni

i=1

xij

Ni

Gesamtstichprobenumfang Umfang der Grundgesamtheit

Merkmalswert von dem statistischen Element Nummer j aus der Schicht i Ai Menge der Nummern der statistischen Elemente aus Schicht i, die f¨ ur die Teilstichprobe ausgew¨ahlt werden. Die Auswahl aus einer Schicht geschieht unabh¨angig von der Auswahl aus jeder anderen Schicht. Definitionen und Eigenschaften:

card Ai = ni Ni X

N

µi :=

1 Ni

µ

Ni k X 1 X

:=

N

j=1

ei2 := xij , σ

xij =

i=1 j=1

1 Xi (xij − µi )2 Ni − 1 j=1

k 1 X µi · N i N i=1

N

e2 = σ

=

k X i 1 X (xij − µ)2 N − 1 i=1 j=1 N

k X i 1 X (xij − µi + µi − µ)2 N − 1 i=1 j=1 N

=

k X i 1 X (xij − µi )2 N − 1 i=1 j=1 N

+

k X i 1 X 2(xij − µi )(µi − µ) N − 1 i=1 j=1

|

N

+ =

{z

=0

k X i 1 X (µi − µ)2 N − 1 i=1 j=1

k X Ni − 1 i=1

N −1

ei2 + σ

k X i=1

}

1 Ni (µi − µ)2 N −1

1 X Jedes Teilstichprobenmittel Y i := xij ist ZV, da die Elemente j ∈ Ai zuf¨allig ausgew¨ahlt ni j∈A i werden. Y 1 , . . . Y k sind unabh¨angig. Die Realisierung y i der ZV Y i (nach der Auswahl der Stichprobe) ist eine erwartungstreue Sch¨atzung f¨ ur µi : E(Y i ) = µi k k 1 X 1 X Die Realisierung z := Ni y i der ZV Z := Ni Y i ist eine erwartungstreue Sch¨atzung N i=1 N i=1 f¨ ur µ: k k 1 X 1 X E(Z) = Ni E(Y i ) = Ni µi = µ N i=1 N i=1

74

Was ist nun u ¨ berhaupt der Vorteil der Schichtung? Dies sehen wir, wenn wir die Varianzen der ZV bilden: Aus der Unabh¨angigkeit der Y i folgt: V (Z) =

k X Ni2 i=1

N

V (Y i ) = 2

k X ei2 Ni2 σ i=1

N2

ni

(1 −

ni ) Ni

Zum Vergleich: A sei eine Zufallsauswahl (ohne Ber¨ ucksichtigung der Schichten) aus {1, . . . , N } vom Umfang n, d.h. card A = n Y :=

1X e` , x e1 := x11 , x e2 := x12 , . . . , x en1 := x1n1 , x en1 +1 := x21 , . . . , x en1 +n2 := x2n2 x n `∈A

E(Y ) = µ e2 σ n V (Y ) = (1 − ) n N e Sind die σi bekannt, so w¨ urde V (Z) minimal f¨ ur ni = n ·

ei Ni · σ

k P

`=1

e` N` · σ

Eine eventuell nicht–ganzzahlige rechte Seite ist auf eine ganze Zahl zu runden und f u ¨ hrt zu einem neuen (vom alten h¨ochstens geringf¨ ugig abweichenden) Umfang nneu =

k X

ni

i=1

Dies liefert die optimale Stichprobe. ei nicht bekannt, so w¨ Sind die σ ahlt man am besten

Ni N Dies liefert die proportionale Stichprobe (wobei bei evtl. nicht–ganzzahliger rechter Seite wie bei der optimale Stichprobe zu verfahren ist.) Schon bei der proportionalen Stichprobe gilt mindestens im Fall, daß alle rechten Seiten ganzzahlig sind und daß alle Ni groß gegen¨ uber n sind, f¨ ur den Vergleich der Varianz der ZV Y ohne Schichtung mit der Varianz der ZV Z mit Schichtung: ni = n ·

k X ni

k X ni

(µi − µ)2 2 n n i=1 i=1 > falls nicht alle µi gleich sind k X ei2 ni · σ V (Z) ≈ n2 i=1 V (Y ) ≈

e2 + σ 2 i

Def. 10.1.5: Beim Quotenverfahren (z. B. bei Umfragen) muß ein Interviewer Quoten (= Anteile, rel. Hf. en) bei der Auswahl der befragten Personen beachten. Ist z. B. der Anteil der freiberuflich T¨atigen in der Grundges. p%, so m¨ ussen auch p% der befragten Personen freiberuflich t¨atig sein. Sonst ist dem Interviewer die Auswahl in seinem Bereich freigestellt. Unterschied zu Def. 10.1.4: Keine zuf¨allige Stichprobe in den einzelnen Gruppen, trotzdem h¨aufig 75

gute Ergebnisse. Def. 10.1.6: Eine Grundges. werde in kleinere Einheiten aufgeteilt. Dann wird bei dem Verf. der Klumpenstichprobe a) eine zuf¨allige Stichprobe von kleineren Einheiten gezogen, b) bei jeder gezogenen kleineren Einheit eine zuf¨allige Stichprobe von Elementen aus dieser kleineren Einheit gezogen. H¨aufig werden auch alle stat. Elemente aus der kleineren Einheit untersucht. Ein Beispiel f¨ ur ein Auswahlverfahren einer systematischen Stichprobe vom Umfang n aus einer Grundgesamtheit von N Elementen, wobei N durch n teilbar sein soll, ist das folgende: a) W¨ahle zuf¨allig eine Zahl aus 1, 2, . . . , i :=

N n.

Das Ergebnis sei k.

b) Die Elemente mit den Nummern: k, k +i, k +2i, . . . , k +(n−1)i kommen in die Stichprobe. ¨ mit geschichteter Stichprobe Vorteile: Vereinfachung, Ahnlichkeit Nachteil: M¨ogliche Gefahr durch Regelm¨aßigkeit, Abhilfe: Statt einer Zufallszahl k werden n Zufallszahlen k0 , k2 , . . . , kn−1 (m. Z.) gezogen. Die Elemente mit den Nummern: k 0 , k1 + i, k2 + 2i, . . . , kn−1 + (n − 1)i kommen in die Stichprobe.

10.2

Zuf¨ allige und systematische Fehler

Bei einer Messung treten nur zuf¨ allige Fehler auf, wenn die Meßwerte gleichm¨aßig um den richtigen Wert streuen. Den richtigen Wert kann man dann nach den in Kap.7 besprochenen Verfahren sch¨atzen. Ist aber z. B. das Meßinstrument falsch adjustiert, so k¨ame zu dem zuf¨alligen Fehler auch ein systematischer: Die einzelnen Werte w¨ urden nicht um den richtigen Wert streuen, sondern um einen davon verschiedenen. Ein weiteres Beispiel f¨ ur einen zuf¨alligen Fehler ist der Rundungsfehler, d. h. jener Fehler, der durch das Runden von Zahlen entsteht. Wird z. B. auf ganze Zahlen gerundet, so wird der Rundungsfehler in der Regel im Intervall ±0.5 gleichverteilt sein, d. h. die Verteilungsdichte der zugeh¨origen ZV ist = 1 zwischen -0.5 und +0.5 und = 0 sonst. Die Ursache f¨ ur zuf¨ allige Stichprobenfehler liegt in der Untersuchung der Stichprobe statt der Grundgesamtheit. Dieser Fehler ist mit Hilfe der Stichprobe der Wahrscheinlichkeitsrechnung (vgl. Kap.7,8,11) kontrollierbar und z. B. durch Erh¨ohung des Stichprobenumfangs und durch Ber¨ ucksichtigung von Vorkenntnissen reduzierbar. Ursachen f¨ ur systematische Stichprobenfehler sind (z. T. unvermeidbare) Fehler bei der Auswahl der Stichprobe, der Datenerfassung, der Aufbereitung der Daten u. s. w.

10.3

Das Rechnen mit fehlerbehafteten Zahlen

Gegeben seien zwei Zahlen x und y, die mit gewissen Fehlern ∆x und ∆y behaftet sind. (x+∆x) und (y + ∆y) seien also die zugeh¨origen (unbekannten) exakten Werte. ∆x und ∆y werden als absolute, ∆x/x und ∆y/y als relative Fehler bezeichnet. Wir interessieren uns daf u ¨ r, mit welchem Fehler ein aus x und y berechneter Funktionswert f (x, y) behaftet ist. Wenn wir annehmen, daß die relativen Fehler dem Betrage nach klein gegen 1 sind (d. h. |∆x| ist klein gegen |x|, und |∆y| ist klein gegen |y|), gilt: 76

∆f (x, y) := f (x + ∆x, y + ∆y) − f (x, y)

(10.3.1)



fx (x, y)∆x + fy (x, y)∆y

.

Dabei sind fx und fy die partiellen Ableitungen von f nach x bzw. y. Spezialf¨alle: a) f (x, y) = x ± y ∆(x ± y) := [(x + ∆x) ± (y + ∆y)] − [x ± y] =

∆x ± ∆y

F¨ ur den relativen Fehler gilt also ∆x ± ∆y ∆(x ± y) = x±y x±y

.

Dieser relative Fehler kann dem Betrage nach sehr groß werden und den Zahlenwert (x±y) sogar unbrauchbar machen, wenn zwar die relativen Fehler von x und y dem Betrage nach klein gegen 1 sind, aber andererseits |x ± y| klein gegen |x| und gegen |y| ist. b) f (x, y) = x · y. Es gilt: fx (x, y) = y ∧ fy (x, y) = x. Daraus folgt: ∆(x · y) ≈ y · ∆x + x · ∆y ∆y ∆x und ∆(x·y) x·y ≈ x + y . c) f (x, y) = xy , Es gilt: fx (x, y) = ∆

10.4

    x y

/

x y



∆x x



∆y y .

1 y

∧ fy (x, y) = − yx2 . Daraus folgt: ∆

  x y



∆x y

− yx2 ∆y und

Bestimmung des Stichprobenumfangs

Je h¨oher der Stichprobenumfang ist, desto genauer, aber auch desto teurer ist ein statistisches Verfahren. Es empfiehlt sich also, den f¨ ur eine bestimmte Genauigkeitsforderung n¨otigen Stichprobenumfang – wenn m¨oglich – zu bestimmen oder wenigstens abzusch¨atzen. Als Beispiel dazu nehmen wir an, daß wir ein 90%–Konfidenzintervall f¨ ur µ bei einer N (µ, σ)–verteilten ZV bestimmen wollen, wobei σ = 0.5 bekannt sei. Wie groß muß der Stichprobenumfang gew¨ahlt werden, damit das Konfidenzintervall h¨ochstens die L¨ange 0.3 hat, d. h. die Abweichung h¨ochstens 0.15 betr¨agt? Da Φ streng monoton wachsend ist, gilt: √ 0.15 n P (|X n − µ| ≤ 0.15) = 2Φ( ) − 1 ≥ 0.9 = 2Φ(1.65) − 1 0.5 √ ⇔ 0.3 n ≥ 1.65 ⇔ n ≥ 5.52 = 30.25 Der Stichprobenumfang sollte also 31 sein. Allgemein erh¨alt man als Faustregel f¨ ur die Bestimmung des Stichprobenumfangs bei einer Grundgesamtheit vom Umfang N , die im wesentlichen auf der N¨aherung durch die Normalverteilung beruht und nur als grobe Orientierung dienen kann: !

P (|Sch¨atz–ZV f¨ ur den Parameter θ − θ| ≤ d) ≥ γ, wobei d und γ vorgegeben seien. Wir bestimmen ε aus der Formel Φ() = (1+γ) 2 , wobei σ etwa aufgrund von fr¨ uheren Untersuchungen bekannt sei. Der Stichprobenumfang wird dann 77

n¨aherungsweise nach der folgenden Formel bestimmt: n≈

1 d 2 ) ( εσ

+

1 N

oder, wenn N sehr groß ist und damit praktisch eine fast ”unendliche” Grundgesamtheit vorliegt, n≈



εσ d

78

2

.

Kapitel 11

Weitere Testverfahren statistischer Hypothesen 11.1

Varianzanalyse

Mit Hilfe der Varianzanalyse soll untersucht werden, ob man aus vorliegendem Datenmaterial u ¨ ber k Meß– oder Beobachtungsgr¨oßen mit ausreichender Sicherheit schließen kann, daß sie unterschiedliche Erwartungswerte haben. Bei jeder Gr¨oße seien n0 Messungen oder Beobachtungen gemacht worden: xj,1 , . . . , xj,n0 seien die Ergebnisse bei der j–ten Gr¨oße. Wir nehmen nun an, daß jedes dieser Meßergebnisse xj,i (j = 1, 2, . . . , k; i = 1, 2, . . . , n0 ) eine Realisierung einer normalverteilten ZV X j,i ist, wobei alle diese ZV unabh¨angig sind. Die Standardabweichung sei bei allen ZV gleich, aber unbekannt. Die Erwartungswerte sind bei den ZV X j,i f¨ ur jedes feste j unabh¨angig von i, da diese ZV mit je einer Meßgr¨oße zusammenh¨angen. Unter diesen Annahmen ist Xj,i also N (µj , σ)–verteilt. Es soll getestet werden, ob die Erwartungswerte µ 1 , µ2 , . . . , µk unterschiedlich sind. Trifft das zu, so wird die Summe k P

(11.1.1)

(µj −

µ)2

>0

µ :=

j=1

1 k

k P

j=1

µj

!

sein. Je mehr sich die Werte µ1 , . . . , µk unterscheiden, desto gr¨oßer wird diese Summe. Setzen wir f¨ ur µj und µ geeignte Sch¨atzungen ein, so erhalten wir folgenden Ausdruck: (11.1.2)

k P

(xj − x)2 mit xj :=

j=1

1 n0

n0 P

i=1

xj,i und x :=

1 k

k P

j=1

xj

Um die o. g. Hypothese zu pr¨ ufen, stellen wir die gegenteilige Hypothese, n¨amlich (11.1.3)

H0 : µ1 = µ2 = . . . = µk =: µ

als Nullhypothese auf und pr¨ ufen, ob wir aus den Ergebnissen xj,i der Untersuchung H0 mit ausreichender Sicherheit verwerfen k¨onnen. Das h¨angt offenbar davon ab, wie groß der Ausdruck in (11.1.2) ist. Um aber Wahrscheinlichkeitsaussagen machen zu k¨onnen, m¨ ußten wir die Verteilung √ der zu (11.1.2) geh¨orenden ZV kennen. Nun ist E(X j ) = µj = µ = µ und σ(X j ) = σ/ n0 .

79

Außerdem sind die ZV X 1 , . . . , X k unabh¨angig. Damit ist nach Satz 7.4.6 die ZV (11.1.4)

Z :=

k P

j=1



X j −X √ σ/ n0

2

=

n0 σ2

k P

(X j − X)2

j=1

χ2 –verteilt mit(k − 1) Freiheitsgraden. Da wir aber die Varianz σ 2 nicht kennen, m¨ ussen wir eine geeignete Sch¨atzung verwenden: (11.1.5)

c2 = σ

1 k

k P

[ n01−1

j=1

n0 P

i=1

(xj,i − xj )2 ]

Dabei ist der Ausdruck in der eckigen Klammer die erwartungstreue (vgl. Satz 7.3.1b) Sch¨atzung f¨ ur σ 2 , bei der nur die Daten der j–ten Meßgr¨oße verwendet werden. Zur Verbesserung der Sch¨atzung wurde dann noch u ucke gemittelt. Wegen der Unabh¨angigkeit der den ¨ ber diese Ausdr¨ Ausdr¨ ucken in der eckigen Klammer zugeordneten ZV ist auch die Sch¨atzfunktion in (11.1.5) c2 geh¨ insgesamt erwartungstreu. Ersetzen wir in (11.1.4) σ 2 durch die zu σ orende ZV, so erhalten wir unter Einf¨ uhrung eines geeigneten Normierungsfaktors, n¨amlich 1/(k − 1), die ZV n0 k−1

(11.1.6)

Y := 1 no k−k

k P

(X j −X)2

j=1 k n0

PP

j=1 i=1

.

(Xj,i −X j )2

Diese ZV besitzt unter der Hypothese H 0 eine Verteilung, die in den statistischen Tabellen mit F–Verteilung mit (k − 1,n0 k − k)–Freiheitsgraden bezeichnet wird. Mit Hilfe der Tabellen zu dieser Verteilung l¨aßt sich dann der Test in folgender Weise durchf¨ uhren: Lege n0 und das Signifikanzniveau α vor der Untersuchung der Stichprobe fest. Bestimme d > 0 aus (11.1.7)

!

P (Y ≥ d|H0 ) = α

(Y vgl.(11.1.6))

(Dieser Wert d ist direkt aus den Tabellen f¨ ur die F–Verteilung zu bestimmen.) Untersuche f¨ ur jede der k Meßgr¨oßen eine Stichprobe vom Umfang n0 und berechne aus deren Daten xj,i die Zahl y als Realisierung von Y aus (11.1.6). Ist y ≥ d, so ist H0 abzulehnen. Ist y < d, so kann man aus dem Datenmaterial nicht mit ausreichender Sicherheit (hier: Wahrsch. (1-α)) schließen, daß H0 falsch ist. Bem.: Statt einer festen Zahl n0 nimmt man h¨aufig auch verschiedene Zahlen nj (j = 1, 2, . . . , k), wobei die Formeln entsprechend zu ver¨andern sind (vgl. z.B. J.Pfanzagl: Allgemeine Methodenlehre der Statistik II, Abschn. 9.10). In diesem Fall ist also die Anzahl der Messungen bei den einzelnen Meßgr¨oßen u. U. verschieden, und zwar = nj bei der j–ten Meßgr¨oße.

11.2

Kontingenztafeln

Problemstellung: X u. Y seien zwei ZV, die zwei Merkmale beschreiben, z. B. Kinderzahl u. Familieneinkommen. Kann man aufgrund von vorliegenden Daten auf die Abh¨angigkeit bzw. Unabh¨angigkeit schließen ? Fall 1: X u. Y seien ZV, die nur endlich viele Werte annehmen k¨onnen. Die m¨oglichen Werte von X seien x1 , x2 , . . . , xr , die m¨oglichen Werte von Y seien y1 , y2 , . . . , ys . F¨ ur X u. Y wird dann eine Stichprobe vom Umfang n gezogen. Dabei ist zu beachten, daß die 80

Werte xi u. yj hier die gleiche Bedeutung wie im Abschnitt 6.7 und damit eine andere Bedeutung als xi und yj in den Kapiteln 7 und 8 haben. Unter einer Kontingenztafel versteht man nun das folgende, der gemeinsamen Verteilung (vgl. 6.7) analoge Schema: ↓ X| Y → x1 x2 .. .

y1 f1,1 f2,1 .. .

y2 f1,2 f2,2 .. .

y3 f1,3 f2,3 .. .

... ... ...

ys f1,s f2,s .. .

xr

fr,1 f∗,1

fr,2 f∗,2

fr,3 f∗,3

... ...

fr,s f∗,s

fi,j ) =

r X

Es gilt:

r X s X

(

i=1 j=1

f

fr,∗ n

fi,∗ =

i=1

f

Dabei bedeuten: fi,j := absolute H¨aufigkeit des gemeinsamen Auftretens von xi und yi in der Stichprobe,

f1,∗ f2,∗ .. .

fi,∗ :=

s X

j=1

s P

j=1

fi,j ,

f∗,j :=

r P

i=1

fi,j .

f∗,j = n(Stichpr. umf.)

f

∗,j atzwerte f¨ ur pi,j , pi,∗ bzw. p∗,j zu verwenden. Die rel. H¨aufigkeiten ni,j , i,∗ n bzw. n sind als Sch¨ Es werden dann die ZV Ni,j , Ni,∗ bzw. N∗,j eingef¨ uhrt, deren Realisierungen fi,j , fi,∗ bzw. f∗,j sind. Dann gilt:  

W :=

r X i=1



s X (n · Ni,j − Ni,∗ N∗,j )2

nNi,∗ N∗,j

j=1



ist unter der Hyp. H0 (vgl. u.) und den Bedingungen in der Bemerkung am Schluß des Abschnitts n¨aherungsweise χ2 –verteilt mit (r − 1) · (s − 1) Fr. gr. Test auf Unabh¨ angigkeit zum Niveau α (α u. n vor d. Unters. festlegen): Hypothese H0 : X, Y sind unabh¨angig. ! Bestimme d > 0 so, daß P (W ≥ d) = 1 − Fχ2 (d) = α ist ((r − 1) · (s − 1) Freih. gr.). Ist w =

r P s P

(

i=1 j=1

(n·fi,j −fi,∗ ·f∗,j )2 ) n·fi,∗ ·f∗,j

≥ d, so ist H0 abzulehnen, d. h. es besteht ein Zusammenhang

zwischen X u. Y . Die Irrtumswahrsch. ist ≤ α. Ist w < d, so ist H 0 (mit Vorbeh.) anzunehmen. Fall 2: Vergleich zweier qualitativer Merkmale (nicht h¨aufbar): Ersetze xi bzw. yj durch die Merkmalsauspr¨agungen des 1. bzw. 2. Merkmals. fi,j bezeichnet dann die H¨aufigkeit des gemeinsamen Auftretens der i–ten Merkmalsauspr¨agung beim 1. und der j–ten Merkmalsauspr¨agung beim 2. Merkmal. fi,∗ , f∗,j und w sind dann genau wie im Fall 1 zu bilden, und der Test ist ebenfalls wie im Fall 1 durchzuf¨ uhren. Ablehnung von H0 bedeutet: Es kann (mit ausreichender Sicherheit) ein Zusammenhang zwischen den beiden Merkmalen angenommen werden. Fall 3: X u. Y nicht–diskrete ZV (u. a.): Ersetze xi u. yj in der Kontingenztafel durch geeignete Intervalle. Die absolute H¨aufigkeiten in der Tafel sind dann wie folgt zu bilden: fi,j := Anzahl der Meßwertpaare (x, y) in der Stichprobe mit x i−1 ≤ x < xi und yj−1 ≤ y < yj . fi,∗ , f∗,j und w sind dann genau wie in Fall 1 zu bilden, und der Test ist ebenfalls wie in Fall 1 durchzuf¨ uhren.

81

Bem.: Damit die χ2 –Verteilung n¨aherungsweise anwendbar ist, sollten folgende Regeln beachtet werden: fi,∗ ·f∗,j n ≥ 50, ≥ 5 ( f¨ ur alle i = 1, . . . , r; j = 1, . . . , s) (Diese Bedingung l¨aßt sich noch etn was abschw¨achen (vgl. J.Pfanzagl: Allgemeine Methodenlehre der Statistik II, Abschn. 8.3). Der Stichprobenumfang n sollte also nicht zu klein gew¨ahlt werden. Die zweite Teilbedingung ist in Fall 3 bei der Wahl der Intervalle zu ber¨ ucksichtigen. In Fall 2 sind dazu mehrere Merkmals¨ auspr¨agungen zusammenzufassen, wenn die Teilbedingung zun¨achst nicht erf¨ ullt war. Ahnlich ist im Fall 1 vorzugehen.

11.3

χ2 –Test fu ¨ r allgemeine Verteilungen

Wir sind bei den bisherigen stat. Untersuchungen mit Ausnahme von Abschn. 11.2 davon ausgegangen, daß wir den Typ der Verteilung kennen, etwa Binomialvert., Normalvert. o. ¨a.. Konfidenzintervalle und Tests bezogen sich auf die jeweiligen Verteilungsparameter. Sie ergeben keine Aussage dar¨ uber, ob der angenommene Verteilungstyp gerechtfertigt ist oder nicht, ob also z. B. eine ZV u ¨ berhaupt normalverteilt ist oder eine andere Art von Verteilung besitzt. In diesem Abschnitt sollen Fragen dieser Art behandelt werden. Wie in den Kapiteln 7 und 8 gehen wir von einem Satz von n unabh¨angigen ZV X1 , . . . , Xn aus, die alle die gleiche Verteilung besitzen. Dieser Satz ist wie bisher als Meß– oder Beobachtungsreihe aufzufassen. ¨ Fall 1: Die ZV Xi k¨onnen nur die Werte k = 1, . . . , m annehmen. Uber die Verteilung der Xi wird dann folg. Hypothese aufgestellt: (11.3.1)

H0 : P (Xi = k) = pk ,

k = 1, . . . , m (i = 1, . . . , n) ,

wobei die pk vorgegebene (hypothetische) Wahrscheinlichkeiten sind und damit die Bedingungen 0 ≤ pk ≤ 1 f. a. k und

m P

k=1

pk = 1 erf¨ ullen m¨ ussen. Diese Hypothese H0 soll gepr¨ uft werden.

Dazu wird eine Stichprobe vom Umfang n gezogen mit den Meß– oder Beobachtungsergebnissen x1 , . . . , xn als Realisierungen der ZV X1 , . . . , Xn . Die H¨aufigkeit des Wertes k bezeichnen wir dann wie bisher mit fk , d. h. (11.3.2)

fk := Anzahl der i mit xi = k .

Um die Hypothese H0 testen zu k¨onnen, m¨ ussen wir aus den H¨aufigkeiten fk eine geignete Testgr¨oße bestimmen. Nun ist die relative H¨aufigkeit fk /n ein Sch¨atzwert f¨ ur pk , und damit kommt es offenbar wesentlich auf die Differenzen zwischen den relativen H¨aufigkeiten und den Wahrscheinlichkeiten pk an. Ist Nk wie in 11.2 die ZV, deren Realisierung f k ist, so sind offenbar die ZV (11.3.3)

Zk :=

N √k −npk npk qk

(qk := 1 − pk , k = 1, . . . , m)

von entscheidender Bedeutung. Nk ist n¨amlich eine binomialvert. ZV mit den Parametern n, p k und qk . Die ZV Zk hat damit den Erwartungswert 0 und die Standardabweichung 1 und ist also n¨aherungsweise N (0, 1)–verteilt, wobei die Bedingungen n ≥ 50 und np k ,nqk ≥ 5 erf¨ ullt sein sollten. Es ist nun naheliegend, analog zu Satz 7.4.5 oder besser noch zu Satz 7.4.6 die ZV m X

k=1

Zk2 =

m X (Nk − npk )2

k=1

82

npk qk

als Test–ZV zu verwenden und von ihr anzunehmen, daß sie n¨aherungsweise χ2 –verteilt ist. Eine genauere Untersuchung, f¨ ur die in dieser Vorlesung aber die Hilfsmittel fehlen, zeigt jedoch, daß stattdessen die entsprechende ZV ohne die q k , n¨amlich (11.3.4)

Y :=

m P

k=1

(Nk −npk )2 npk

,

n¨aherungsweise χ2 –verteilt ist mit (m − 1) Freiheitsgraden. Das liegt u. a. an der besonderen Art der Abh¨angigkeit von N1 , . . . , Nm . Der Test ist dann in folgender Weise durchzuf¨ uhren: χ2 –Test fu ¨ r die Hypothese H0 (vgl. (11.3.1)) Schritt 1: Lege ein Signifikanzniveau α und einen Stichprobenumfang n fest. Schritt 2: Bestimme eine kritische Gr¨oße y0 > 0 mit !

P (Y ≥ y0 ) ≈ 1 − Fχ2 (y0 ) = α ,

χ2 –Vert. mit (m-1) Fr. gr.

Schritt 3: Werte eine Stichprobe vom Umfang n aus, bestimme aus den Ergebnissen die H¨aufigkeiten fk (vgl. (11.3.2)) und daraus eine Realisierung der ZV Y aus (11.3.4): (11.3.5)

y :=

m P

k=1

y ≥ y0 ⇒ Ablehnung von H0 . y < y0 ⇒ Annahme von H0 mit Vorbehalt.

(fk −npk )2 npk

Hier ist der Vorbehalt in noch viel st¨arkerem Maße als in 8.1 gerechtfertigt; denn die Negation von H0 aus (11.3.1) ist noch viel weiter gefaßt als die Negation von H 0 aus 8.1, n¨amlich µ 6= µ0 . ¨ Fall 2: Uber die ZV Xi wird als Hypothese H0 aufgestellt, daß sie eine bestimmte Vert. fkt. F besitzen (z. B. F = Φ). Der Test soll analog zu Fall 1 durchgef¨ uhrt werden. Dazu wird die Menge u ¨ berhaupt m¨oglicher Werte (z. B. IR =] − ∞, ∞[ oder [0, ∞[) in Intervalle mit folgenden Randstellen aufgeteilt: (11.3.6)

a0 := −∞ < a1 < . . . < am−1 < am := +∞ (Aufteil. v. IR)

F¨ ur diese Intervalle erhalten wir folg. hypothetische Wahrscheinlichkeiten: (11.3.7) H0 =⇒ P (ak−1

   F (a1 ) − 0

=: p1 < Xi ≤ ak ) = F (ak ) − F (ak−1 ) =: pk   1 − F (a =: pm m−1 )

f¨ ur k = 1 f¨ ur k = 2, . . . , m − 1 f¨ ur k = m

Diesen Wahrscheinlichkeiten werden die H¨aufigkeiten f¨ ur die Intervalle gegen¨ ubergestellt: (11.3.8)

fk := Anzahl der i mit xi ∈]ak−1 , ak ]

Mit diesen Gr¨oßen ist dann der Test genauso durchzuf¨ uhren wie in Fall 1. Bem.: In beiden F¨allen sollten folgende Bedingungen beobachtet werden, damit die verwendeten N¨aherungen gerechtfertigt sind (vgl. Erl¨auterung zu (11.3.3)): (11.3.9)

n ≥ 50,

n · pk ≥ 5 f¨ ur alle k = 1, . . . , m (⇒ n · qk ≥ 5)

Ist die 2. Bedingung im Fall 2 nicht erf¨ ullt, so ist die Intervallaufteilung geeignet zu ver¨andern, 83

indem man die betroffenen Intervalle vergr¨oßert oder evtl. (zwei oder mehr) benachbarte Intervalle zusammenfaßt. Ist die 2. Bedingung im Fall 1 verletzt, sollte man u. U. mehrere benachbarte Werte von k zusammenfassen. Bei Fall 2 ist noch zu beachten, daß verschiedene Verteilungsfunktionen und damit verschiedene Ausgangshypothesen auf die gleichen Wahrscheinlichkeiten pk f¨ uhren k¨onnen. Deshalb ist eine Annahme von H 0 im Fall 2 noch problematischer als im Fall 1.

11.4

Vorzeichentest

Die Ergebnisse einer Beobachtungsreihe, die durch einen Satz X 1 , . . . , Xn unabh. ZV mit der gleichen Verteilung gekennzeichnet ist, soll mit der Ergebnissen einer zweiten Beobachtungsreihe, die in gleicher Weise durch Y1 , . . . , Yn gekennzeichnet ist, verglichen werden. x i kann z.B. der Ertrag der H¨alfte des i-ten Versuchsfeldes sein, die mit einem konventionellen D¨ ungemittel behandelt wurde, w¨ahrend yi der Ertrag der anderen H¨alfte ist, die mit einem neu entwickelten D¨ ungemittel behandelt wurde. Mit Hilfe der Beobachtungsergebnissen soll u uft werden, ob ¨ berpr¨ die Ertr¨age des neuen D¨ ungemittels besser sind als die des alten. Allgemein l¨auft das auf die Fragestellung hinaus, ob folgendes gilt: (11.4.1)

p+ := P (Xi < Yi ) > p− := P (Xi > Yi )

Wegen der Gleichheit der Verteilungen der X i untereinander und der Yi untereinander sind p+ und p− von i unabh¨angig. Zum Test der Hypothese (11.4.1) gehen wir von der gegenteiligen Hypothese aus und haben also folg. Gegen¨ uberstellung: (11.4.2)

H0 : p+ ≤ p− gegen H1 : p+ > p−

Der Test selbst ist recht einfach : Man u uft, bei wievielen Wertepaaren xi < yi gilt, wie oft ¨ berpr¨ uft dann nach, ob das Ergebnis gegen also yi − xi > 0 ist, d.h. positives Vorzeichen hat. Man pr¨ H0 oder gegen H1 spricht, wobei die Fehler 1. bzw. 2. Art h¨ochstens die Wahrscheinlichkeiten α bzw. β haben sollen. Bei einer Beobachtungsreihe der oben beschriebenen Art erhielt man folgende Differenzen ( yi − xi ) ( i = 1, . . . , 10 ), wobei α = β = 0.05 vorher festgelegt wurde: (yi − xi ) : 2.4, 1.0, 0.7, 0.0, 1.1, 1.6, 1.1, −0.4, 0.1, 0.7 (11.4.3) Vorzeichen : + + + + + + − + + Dieses Ergebnis scheint klar gegen H 0 zu sprechen. Zur genaueren Untersuchung ber¨ ucksichtigt man nur die Differenzen 6= 0, also 9 statt 10 Differenzen. Man erh¨alt dann : P ( Mindestens 8-mal (Yi − Xi ) > 0|H0 ∧ genau 9-mal (Yi − Xi ) 6= 0) = ⊗

(11.4.4)

(vgl. 8.2.2) ≤ =

9 X

9 k

!

9 X

9 k

!    k 9−k

k=8

k=8 −9

2

p+ p+ + p − 1 2

k 

1 2

p− p+ + p − =

9−k

 9 X 9 1

2

k=8

(9 + 1) = 0.0195 < α = 0.05

Dabei ist ⊗ so zu erkl¨aren (kein vollst¨andiger Beweis!):

84



p+ ≤p− ⇔ p

9 k

!

p+ ≤ 21 + +p−



P ((Yi − Xi ) > 0|(Yi − Xi ) 6= 0) = P (Xi < Yi |Xi 6= Yi ) :=

P (Xi < Yi ∧ Xi 6= Yi ) P (Xi < Yi ) p+ = = P (Xi 6= Yi ) P (Xi < Yi ) + P (Xi > Yi ) p+ + p −

P (Xi > Yi |Xi 6= Yi ) =

p− p+ + p −

Aufgrund von (11.4.3) (8-mal ( yi − xi ) > 0) kann man H0 mit einer Irrtumswahrsch. von h¨ochstens α = 0.05 ablehnen, was durch (11.4.4) teilweise, aber noch nicht vollst¨andig begr¨ undet wird. Zuvor aber soll des Test allgemein beschrieben werden: Vorzeichentest von H0 gegen H1 (vgl. (11.4.2) u. (11.4.1)): Schritt 1: Lege die Wahrscheinlichkeiten α, β f¨ ur den Fehler 1. bzw. 2. Art und den Stichprobennumfang n fest. Schritt 2: Ziehe zwei Stichproben vom Umfang n . Bei diesen Stichproben sei ( y i − xi ) genau m-mal 6= 0 und genau km -mal > 0 (positives Vorzeichen) (0 ≤ k m ≤ m ≤ n). Dann sind folgende Entscheidungen zu treffen:

km

(11.4.5a)

m X m ≥ und 2−m 2 k=k

m

(11.4.5b)

km

m k

km X m m ≤ und 2−m 2 k k=0

!

≤ α ⇒ Ablehnung v.H0 ( wie etwa im ob. Bsp. )

!

≤ β ⇒ Ablehnung v.H1

In allen u ¨ brigen F¨allen ist keine Entscheidung mit ausreichender Sicherheit m¨oglich. Begr¨ undung der Entscheidungsvorschrift (11.4.5a): 0 der kleinste der Werte k , die die Voraussetzungen in (11.4.5a) erf¨ Sei km ullen. Dann gilt analog m zu (11.4.4) : P (Ablehn.v.H0 |H0 ∧ genau m-mal(Yi − Xi ) 6= 0) =

= = (vgl.(11.4.4))



P (Km := (Anzahl der i mit(Yi − Xi ) > 0) erf¨ ullt d. Voraussetzungen in (11.4.5a)|H0 ∧ genau m-mal(Yi − Xi ) 6= 0)

0 P (Km ≥ km |H0 ∧ genau m-mal(Yi − Xi ) 6= 0)

0 P (Mindestens km -mal(Yi − Xi ) > 0|H0 ∧ genau m-mal(Yi − Xi ) 6= 0)

2−m

m X

0 k=km

m k

!

≤α

=⇒

85

(11.4.6)  P(Ablehn. v H0 |H0 ) (Wahrsch. f. e. irrt¨ umliche Ablehn. v. H0 )    n  P   P(Ablehn. v. H0 ∧ genau m-mal (Yi − Xi ) 6= 0|H0 ) =    m=m0 n P = P(Ablehn. v. H0 |H0 ∧ genau m-mal (Yi − Xi ) 6= 0) P(genau m-mal (Yi − Xi ) 6= 0)    m=m0   n    ≤ α P P(genau m-mal (Yi − Xi ) 6= 0) ≤ α · 1  m=m0

m0 ist dabei die kleinste Zahl m, f¨ ur die u ¨ berhaupt ein km existiert, das die Voraussetzungen in (11.4.5a) erf¨ ullt. Ist m < m0 , so ist damit die Zahl der f¨ ur den Test tats¨achlich verwendbaren Wertepaare ( xi , yi ) zu klein, um Entscheidungen treffen zu k¨onnen. Deshalb werden in (11.4.6) nur Summanden m ≥ m0 ber¨ ucksichtigt. Damit es u ¨ berhaupt ein m0 ≤ n gibt, sollte 2−n

(11.4.7a) und m¨oglichst auch

2−n

(11.4.7b)

n P

n k

= 2−n ≤ α

0 P

n k

= 2−n ≤ β

k=n

k=0

gelten. Sonst kommen wir beim Stichprobenumfang n nie zu einer Entscheidung gegen H 0 bzw. gegen H1 mit ausreichender Sicherheit. Die Entsch.regel (11.4.5b) ist analog zu begr¨ unden. Bem.: a) Bei der Durchf¨ uhrung des Tests werden keine Voraussetzungen u ¨ ber die Art der Vert. der Xi bzw. der Yi gemacht wie etwa in Kap.8 od.Abschn. 11.1 ; daher ist der Vorzeichentest ein Bsp. f¨ ur einem verteilungsfreien oder nicht-parametrischen Test. Kennt man den Verteilungstyp der Xi und der Yi , etwa Normalverteilung, so sind u.U. andere Tests anzuwenden. ¨ b) Ahnlich wie in 8.2.2 w¨are manchmal folg. Gegen¨ uberstellung zweckm¨aßiger: H0 : p+ ≤ p− d.h.

p+ p+ +p−



1 2

gegen H1 :

p+ p+ +p−

≥ p1 >

1 2

Dann ist (11.4.5b) durch folg. Entsch.regel zu ersetzen: (11.4.8)

km ≤ q1 · m und

kP m

k=0

m k m−k (q1 k p1 q1

:= 1 − p1 ) ⇒ Ablehn.v.H1

c) Bei einem Signifikanztest u ¨ ber die Hypothese H0 : p+ = p− gibt es folgende Entscheidungsregel: Sei lm :=

2

−m



 

km , falls km < m − km ist ( weniger ”+” als ”−” ) m − km sonst

lm X

k=0

+

m X

k=m−lm

 

86

m k

!

≤ α ⇒ Ablehn. v.H0

Eine Entsch. gegen p+ 6= p− kann nicht mit ausr. Sicherheit getroffen werden. H 0 trifft zu, wenn die Vert. der Xi mit der Vert. der Yi u ¨ bereinstimmt. Eine Ablehn. v. H0 bedeutet dann auch, daß die Vert. der Xi mit ausreichender Sicherheit als verschieden von der Vert. der Yi angenommen werden kann. Es gilt aber nicht, daß aus p + = p− auch die Gleichheit d. Verteilungen der Xi und Yi folgt.

87