Probenahmeverfahren
Stichprobenverfahren werden in zwei Gruppen unterteilt: Wahrscheinlichkeitsstichproben und Nicht-Wahrscheinlichkeitsstichproben. Letztere werden aufgrund möglicher Fehler und Verzerrungen nicht für die Forschung empfohlen. Wahrscheinlichkeitsstichproben werden in 5 Untergruppen eingeteilt (“Simple random sampling”, n.d.): Einfache Zufallsstichproben, geschichtete Stichproben, Clusterstichproben und systematische Stichproben.
Z-Tests und T-Tests
Z-Tests und T-Tests sind in der Statistik weit verbreitet und können in fast allen Studienfächern angewandt werden, von der Wirtschaft über die Mathematik bis hin zur Soziologie und den Naturwissenschaften. Diese Tests dienen dazu, bestimmte Hypothesen zu prüfen und sie mit statistischen Mitteln zu beweisen oder zu widerlegen. Z-Tests ermöglichen es den Forschern, den Mittelwert der Bevölkerung mit der Stichprobe zu vergleichen. T-Tests hingegen ermöglichen es, zwei Populationsmittelwerte durch eine statistische Untersuchung zu analysieren. Z-Tests sind in der Forschung und in Studien aus mehreren Gründen den T-Tests vorzuziehen. Erstens können T-Tests nur auf Stichproben mit einer Größe von 30 oder weniger angewendet werden. Z-Tests sind für größere Stichproben vorzuziehen, und die Forschung bevorzugt große Stichproben aufgrund der größeren Variationsbreite. Für Z-Tests müssen jedoch die Standardabweichungen bekannt sein. Wenn keine Daten zur Standardabweichung der Population vorliegen, ist ein T-Test vorzuziehen. Zusammenfassend lässt sich sagen, dass T-Tests nur verwendet werden sollten, wenn die Stichprobengröße unter 30 liegt und keine Daten zur Standardabweichung der Grundgesamtheit vorliegen (Botts, n.d.).
Das Alpha steht für
Die Signifikanzniveaus sollten vor Beginn der Untersuchung festgelegt werden. Das Alpha bezeichnet das maximale Risikoniveau, bei dem die Nullhypothese abgelehnt oder widerlegt werden kann (Frost, 2015). Das Standard-Signifikanzniveau liegt bei den meisten Untersuchungen bei 0,05, was sich jedoch ändern kann. Im Allgemeinen wird ein höheres Signifikanzniveau (0,1) gewählt, um eine mögliche Abweichung zu erkennen.
Wenn zum Beispiel die Stabilität von Kugellagern in einem Auto getestet wird, ist es besser, ein größeres Alpha (0,1) zu wählen, da die Forscher dann größere Stabilitätsschwankungen feststellen können. Wenn man hingegen etwas sehr Wichtiges und Empfindliches testet, wie z. B. ein pharmazeutisches Produkt, möchten die Forscher vielleicht ein kleineres Alpha (0,01) wählen, um sicherzustellen, dass das Medikament alle Krankheitssymptome deutlich reduziert, bevor sie eine kühne Werbeaussage machen.
ANOVA
ANOVA, auch bekannt als einseitige Varianzanalyse, ist eine Art statistischer Test, der zum Vergleich der Mittelwertunterschiede zwischen mehr als zwei Stichproben verwendet wird (Hindle, 2013). Wenn wir zwei Gruppen vergleichen, verwenden wir einen einfachen T- oder Z-Test. Dies ist jedoch schwieriger, wenn es mehrere Gruppen gibt. Die ANOVA hilft beim Vergleich von Variationen zwischen Gruppen und auch innerhalb von Gruppen. Sie ist bei verschiedenen Arten von Einstellungen und Stichproben sehr beliebt. Bei der Entnahme von Stichproben aus einer Grundgesamtheit ist es sehr wahrscheinlich, dass sie sich aufgrund des Zufalls unterscheiden. Wir erwarten jedoch auch, dass jedes Ergebnis nicht zu sehr von einem allgemeinen Mittelwert abweicht. Die ANOVA hilft bei der Beantwortung der Frage, ob es möglich ist, dass der Unterschied zwischen den Gruppen größer ist als die Norm und durch Zufall verursacht wird. Oder anders ausgedrückt: Besteht die Möglichkeit, dass ein echter Unterschied im Mittelwert der Bevölkerung besteht?
Eine statistische Interaktion
Eine statistische Interaktion tritt auf, wenn eine unabhängige Variable in der Forschung eine Wirkung auf die abhängige Variable hat, die sich zwischen den Niveaus einer anderen Variable unterscheidet (“Interaktionseffekte, n.d.). Um dies an einer Patientenpopulation zu demonstrieren, gehen wir von einer hypothetischen Situation eines Drogentests aus. Es gibt zwei Gruppen von Patienten, von denen die eine ein Medikament gegen Magenschmerzen und die andere ein Placebo erhält. Jede Gruppe setzt sich aus Männern und Frauen zusammen. Die abhängige Variable ist die Stärke der Schmerzen. Unabhängige Variablen sind die Menge des Medikaments und das Geschlecht. Hier ist eine hypothetische Tabelle für die Schmerzwerte:
Würde eine der unabhängigen Variablen ignoriert, wären die Ergebnisse verzerrt – wir würden einfach annehmen, dass das Medikament nicht wirkt oder dass es keinen statistischen Unterschied zwischen Männern und Frauen gibt. Da wir jedoch die Wechselwirkung zwischen den Faktoren analysieren, können wir eindeutig feststellen, dass das Medikament die Schmerzen bei Männern verringert, bei Frauen aber gleichzeitig die Schmerzen verstärkt. Die in diesem Beispiel dargestellte Interaktion wird als “reine Interaktion” bezeichnet, da es keinen Haupteffekt, sondern nur eine Interaktion gibt. Die Analyse der statistischen Wechselwirkungen ist ein wichtiger Teil der Analyse, da die Ergebnisse sonst falsch interpretiert werden könnten.
Referenzen
Botts, V. (n.d). Z-test & T-test: Gemeinsamkeiten und Unterschiede.
Frost, J. (2015). Das Verständnis von Hypothesentests: Signifikanzniveaus (Alpha) und P-Werte in der Statistik.
Hindle, A. (2013). Statistik: ANOVA explained.
Interaktionseffekte in der ANOVA. (n.d.).
Einfache Zufallsstichproben und andere Stichprobenverfahren. (n.d.)