Question | Answer |
Ziel der Inferenzstatistik | Schlüsse von einer Stichprobe auf Population zu ziehen sowie Aussagen über die Güte der Schlüsse |
wie kann man sicherstellen, dass Ergebnis einer Stichprobe auf Population verallgemeinert werden kann | - Metaanalysen - Berücksichtigung der Wahrscheinlichkeit, dass die Bestimmung des Ergebnis aus der Stichprobe falsch ist |
Stichprobenverteilung | = Streuung der Mittelwerte aus einzelnen Stichprobe = zeigt, mit welcher Wahrscheinlichkeit ein Ergebnis erwartet werden kann |
Unterschiede der Stichprobenverteilung zur Häufigkeitsverteilung | - Werte der Verteilung müssen nicht der Skala entsprechend (da sie Mittelwerte sind) - Y-Achse: Anzahl der Stichproben / Wahrscheinlichkeit - Werte in der Mitte kommen häufigst vor (da Mittelwerte der Studien), Randwerte eher selten |
theoretische Stichprobenverteilung | = Verteilung aufgrund Ergebnisse einer Stichprobe --> durch deren Kennwerte wird die Stichprobenverteilung am PC simuliert |
zentraler Grenzwert | = Verteilung einer großen Anzahl von Stichproben folgt immer der Normalverteilung |
Vorteil von steigender Stichprobengröße | Streuung der Stichprobenverteilung sinkt |
Kennwerte von Stichprobenergebnisse der Inferenzstatistik | - Kennwerte der Lage und Streuung (Mittelwert) - Kennwerte bzgl. Unterschied zwischen Gruppen (Mittelwertsunterschiede) - Kennwerte, die Zusammenhang zwischen Variablen beschreiben (Korrelation) |
Standardfehler s(e) | = Standardfehler des Mittelwertes = Standard-abweichung der Stichprobenverteilung = durchschnittlicher Unterschied zwischen den geschätzten Mittelwert einzelner Stichproben und dem tatsächlichen Mittelwert |
Populationsstreuung | = Formel für SD in der Population = exaktere Schätzung als mit der Formel für den Standardfehler |
Konfidenzintervalle / Vertrauensintervalle | = Wertebereich, bei dem wir darauf vertrauen, dass sich der wahre Wert in der Population mit der Vertrauenswahrscheinlichkeit deckt |
Vertrauenswahrscheinlichkeit | = gewünschte Güte des Intervalls |
Konstruktion des Konfidenzintervall | 1. Vertrauenswahrscheinlichkeit festlegen 2. Stichprobe und Mittelwert erheben 3. Stichprobenverteilung konstruieren 4. Fläche der Vertrauenswahrscheinlichkeit markieren 5. Werte die über und unter der Fläche von 4. werden abgeschnitten |
Festlegung der Vertrauenswahrscheinlichkeit | - Vertrauenswahrscheinlichkeit kann beliebig festgelegt werden, sollte aber nicht zu hoch sein, da sonst die Aussage ihren Wert verliert Normal: 90, 95, selten 99 % |
Vorteil des Konfidenzintervalls | - Wahrscheinlichkeit der Güte einer Schätzung ist vorstellbar Aber: nur Aussage über die Wahrscheinlichkeit der Korrektheit des Intervalls möglich |
Alternative Möglichkeit zur Erstellung der Konfidenzintervalle | - große Stichprobe (ab 30 P.): Standardnormalverteilung - kleine Stichprobe: t-Verteilung |
t-Verteilung | - Mittelwert 0 - Streuung 1 - Form ist abhängig von der Stichprobengröße - symmetrische Verteilung |
Notwendige Werte für die t-Verteilung | - Freiheitsgrade |
Freiheitsgrade (df) | = Werte, die in einem statistischen Ausdruck frei variieren können |
Berechnung der oberen und unteren Grenze des Konfidenzintervalls mittels der t-Verteilung bei Mittelwerten | |
Vorteil von größeren Stichproben bei Konfidenzintervallen | - informativer Aussage, da die Grenzen des Intervalls näher zusammen rücken |
Standardfehler bei Anteilen | 1. Stichprobenverteilung bestimmen --> Binomialverteilung (bei zwei Ausprägungen) 2. Standardabweichung bestimmen (definiert durch n und Wahrscheinlichkeit p) |
Risiken bei Hypothesentesten | - Verallgemeinerung auf die Population - Effekte entstanden durch Zufall -> nicht übertragbar auf Population |
vertrauensvolle Verallgemeinerung | - Berechnung von Standardfehler - Berechnung von Konfidenzintervallen - Durchführung von Signifikanztests |
Abhängige Messungen | - Messwiederholungen: within-subject-design: Personen durchlaufen beide Tests - gepaarte Stichproben: matching: Versuchsgruppen werden konstant gehalten, d.h. vergleichbare Personen in Gruppe 1 und 2 |
unabhängige Messungen | = jede Messung wird in jeweiliger Stichprobe vorgenommen - Between-subject-Design: Teilnehmer werden randomisiert und so den verschiedenen Versuchsgruppen zugeordnet |
Art der Messung bei Zusammenhangshypothesen | abhängige Messung --> es müssen beide Variablen an beiden Gruppen untersucht werden um Messwerte beiden Variablen zuordnen zu können und Streudiagramm erstellen zu können |
Standardfehler - s(e) - bei Hypothesentesten (Zusammenhänge & Unterschiede) | ist nicht alleine aussagekräftig! Zusätzlich noch Konfidenzintervall und Signifikanztest weil: es geht um Entscheidungen treffen, und da ist s(e) alleine nicht ausreichend |
Standardfehler für Mittelwertsunterschiede bei unabhängigen Messungen | = berechnet aus der Streuung der einzelnen Stichproben Berücksichtigt werden muss die Streuung jeder Stichprobe |
Gesamtstreuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) | = Fehlerstreuung + systematische Streuung |
Fehlerstreuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) | = Streuung ohne erkennbaren / systematischen Grund, die die Messwerte variieren lässt --> schmälert Bedeutsamkeit des gefundenen Effekts (bei großer Fehlerstreuung kann Mittelwertsunterschied auch zufällig entstanden sein) = Streuung innerhalb der Gruppe |
systematische Streuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) | = Streuung zwischen den Gruppen = ergibt sich durch den Mittelwertsunterschied = interessanter Effekt |
Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen | Differenz der Messwerte relevant = Streuung innerhalb der Person --> Durchschnitt aller Differenzen über alle Personen hinaus Differenz ist entscheidend |
Streuung der Differenz (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen) | |
Fehlerstreuung (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen) | besteht nur in der Streuung der Differenz --> Differenzen sollten gleich groß und gleiche Richtung haben. wenn nicht: Vergrößerung der Fehlervarianz --> gefundener Effekt weniger bedeutsam |
Korrelationskoeffizient bei Zusammenhänge | beschreibt die Enge des Zusammenhangs (r = groß --> Streuung klein) |
Standardfehler für Korrelationskoeffizient bei Zusammenhänge | r nahe 1 /-1 führt zu Standardfehler nahe 0 |
Regressionsgewicht | = beschreibt den relativen Einfluss einer Variable auf die andere = beschreibt den Anstieg der Regressionsgeraden aus einzelnem Regressionsgewicht kann nicht die Güte abgeleitet werden |
Standardschätzfehler bei der Regression | wie stark streuen die Werte um die Regressionsgrade - beschreibt Ungenauigkeit wenn man Y-Werte aus X-Werte mithilfe der Regressiongeraden schätzt = Gütemaß für die Vorhersage |
Berechnung des Standardfehler aus dem Regressionskoeffizienten (also aus dem Standardschätzfehler) | Bezeichnung: SE |
Vorteile von Konfidenzintervalle | - leicht verständliche Angabe, ob Effekt durch Zufall entstand oder statistischer Bedeutung hat |
Konfidenzintervalle für Mittelwertsunterschiede bei unabhängigen Stichproben | - Verwendung der Stichprobenverteilung von Mittelwertsunterschieden oder die t-Verteilung |
Der Wert 0 beim Konfidenzintervall für Mittelwertsunterschiede bei unabhängigen Stichproben | es gibt keinen Mittelwertsunterschied in der Population --> Hypothese verwerfen Gründe: - zu hohe Vertrauenswahrscheinlichkeit - Mittelwert nahe 0 (je kleiner der Effekt desto eher wird 0 Bestandteil des Konfidenzintervalls sein) |
Konfidenzintervall für Mittelwertsunterschiede bei abhängigen Stichproben | Andere Formel, gleiche Interpretation wie bei unabhängigen Stichproben |
Besonderheit des Korrelationskoeffizient bei Zusammenhänge | t-Verteilung ist nur symmetrisch, wenn r=0 --> r > 0 -> t-Verteilung unbrauchbar, da unsymmetrische Darstellung --> Nutzung der z-Verteilung |
Konfidenzintervalle für Korrelationskoeffizienten bei Zusammenhänge | werden meist nicht berechnet, wenn über z-Verteilung Ablauf: Korrelationskoeffizient in z-Wert umrechnen -> kritischer Wert für Intervallgrenzen ablesen --> Grenzen berechnen (siehe Formel) --> Umrechnung auf Korrelationskoeffizient |
Berechnung des Konfidenzintervall für Regressionsgewicht β bei unsymmetrischer Verteilung | |
Signifikanztests | Entscheidungshilfe bei Hypothesen es werden Hypothesen gegeneinander getestet lässt keine Aussage über Wahrscheinlichkeit einer Hypothese zu! |
Grundlage der Signifikanztests | Stichprobenverteilungen (Verteilungen, die aus theoretischen Überlegungen erwachsen) |
Nullhypothese (H0) | = Forschungshypothese = behauptet es gibt keinen Effekt in der Population Gegenteil: Alternativhypothese (H1) --> Achtung bei Berechnung und Interpretation |
Stichprobenverteilung bei der Nullhypothese | Mittelwert = 0 |
p-Wert | = Wahrscheinlichkeit des gefundenen Effekts unter der Annahme dass die Nullhypothese gilt |
Irrtumswahrscheinlichkeit α / Signifikanzniveau / Alpha-Niveau | = entspricht Wert bei p, ab dem man die Nullhypothese nicht mehr akzeptiert - kleinere Werte = signifikant -> Ablehnung der Nullhypothese |
Alpha-Fehler | = legt das Niveau der Irrtumswahrscheinlichkeit fest = Risiko die Nullhypothese fälschlicherweise abzulehnen p < α Ergebnis ist signifikant = Ablehnung der Nullhypothese |
"Entstehung" des p-Wertes | t-Werte der Stichprobe = Mittelwert = 0 --> entspricht Verteilung der Nullhypothese --> p-Wert aus Verteilung ablesen |
Prüfverteilungen | - z-Verteilung (ist einzelner Wert signifikant) - t-Verteilung (bei Mittelwertsunterschieden, Korrelationskoeffizienten und Regressionsgewichten) |
einseitige Tests | = Hypothese geht nur in eine Richtung - Effekt ist auf der rechten Seite der Nullhypothese zu finden schließen Alpha-Fehler auf der linken Seite aus --> müssen keinen Signifikanztest machen, wenn Kontrollgruppe höhere Werte erzielt, da Hypothese bereits widerlegt ist |
zweiseitige Tests | = Richtung des Effekts ist unbekannt - Effekt kann auf beiden Seiten der t-Verteilung liegen --> Alpha-Fehler muss auf beide Seiten gleich aufgeteilt werden, dadurch wird es schwerer ein signifikantes Ergebnis zu erzielen |
Alternativhypothese | = unterscheidet sich um die Größe des erwarteten Effekts von H0 |
Verteilung der Alternativhypothese | theoretische Verteilung bestimmbar durch: - Größe des interessanten Mindesteffekts - Effekte aus bereits durchgeführten Studien Überschneidung mit H0 |
Fehler erster Art | = Alpha-Fehler Nullhypothese wird fälschlicherweise verworfen / in der Population gilt H0 Interessante Teil der Verteilung: rechter Überschneidungsbereich |
Fehler zweiter Art | = Beta-Fehler Alternativhypothese wird fälschlicherweise abgelehnt / in der Population gilt H1 Interessante Teil der Verteilung: linker Überschneidungsbereich |
Abwägung von Alpha- und Beta-Fehler | Abhängig von der Fragestellung, relevant wenn Verteilungen sich stark überschneiden |
Minimierung der Alpha- und Beta-Fehler | - Effekt in der Population ist groß - größere Stichprobe -> Verteilung wird schmaler, geringe Überlappung |
Ablauf der Signifikanztest unter Berücksichtigung der Alternativhypothese | |
Hybrid-Vorgehensweise | = Alternativhypothese und Abwägung der Fehler erster und zweiter Art wird nicht gemacht wenn Ergebnis nicht signifikant -> H0 stimmt |
Einflussgrößen auf Signifikanztests | - Größe des Populationseffekts - Stichprobengröße - Alpha-Niveau |
Kritik an Signifikanztests | - die Größe eines Effektes in der Population kann nicht geschätzt werden --> inhaltliche Bedeutung ebenfalls nicht erkennbar - |
Zusätzlich notwendige Angaben zu Signifikanztests | - Konfidenzintervalle - Effektgrößen |
Effektgröße | = standardisierte Effekte, welche die Stichprobengröße berücksichtigen --> sind über Stichproben und Themenbereiche hinweg vergleichbar |
Möglichkeiten der Berechnung der Effektgrößen | - aus Rohdaten - aus anderen Effektgrößen - aus Signifikanztestergebnissen |
Effektgrößen aus Rohdaten | - bei unabhängigen Messungen - bei abhängigen Messungen - für Zusammenhänge (Korrelationskoeffizient) |
Abstandsmaß d (bei unabhängigen Messungen) | repräsentieren den Abstand der Mittelwerte --> Effektgröße erhöht sich, wenn Streuung kleiner wird |
Streuung für Abstandsmaß nach Cohens (bei unabhängigen Messungen) | Stichproben-streuung |
Alternative zum Abstandsmaß (bei unabhängigen Messungen) | = Hedges' (g) aus Populationsstreuung liefert exaktere Schätzungen als d |
Berechnung von Hedges bei unabhängigen Messungen | Populationsstreuung bestimmen |
Abstandsmaß d bei abhängigen Messungen | |
Hedges g bei abhängigen Messungen | |
Überführung Unterschieds- und Zusammenhangsfragen bei Effektgrößen | n = ist Gesamtstichprobe Freiheitsgrade = n - k (Anzahl der Gruppen) |
Berechnung Korrelation aus Abstandsmaßen | nur bei gleicher Stichprobengröße |
Berechnung Abstandsmaße aus Korrelation | |
Effektgröße aus Signifikanztestergebnissen | Signifikanztestergebnis = Prüfgröße Größe der Studie = mithilfe der Freiheitsgrade |
Interpretation von Effektgrößen | - Abhängig von der Fragestellung - Anwendung von Konventionen |
Want to create your own Flashcards for free with GoConqr? Learn more.