Skip to content
Snippets Groups Projects
Commit f78f019c authored by Elias Leonard Willem Kaiser's avatar Elias Leonard Willem Kaiser
Browse files

Update quantile notation

parent 5a4d2a33
Branches
No related tags found
No related merge requests found
......@@ -44,15 +44,15 @@ Diese Teststatistik hat unter der Nullhypothese eine $t_{n-2}$-Verteilung. Je na
* $H_1: \beta>0$: Wir verwerfen die Nullhypothese zum Signifikanzniveau $\alpha_{0}$, wenn
$$
T>t_{n-2;1-\alpha_{0}}
T>t_{n-2,1-\alpha_{0}}
$$
* $H_1:\beta<0$: Wir verwerfen die Nullhypothese zum Signifikanzniveau $\alpha_{0}$, wenn
$$
T<t_{n-2;\alpha_{0}}
T<t_{n-2,\alpha_{0}}
$$
* $H_1:\beta\neq 0$: Wir verwerfen die Nullhypothese zum Signifikanzniveau $\alpha_{0}$, wenn
$$
T<t_{n-2;\alpha_{0}/2} \text{ oder } T>t_{n-2;1-\alpha_{0}/2}
T<t_{n-2,\alpha_{0}/2} \text{ oder } T>t_{n-2,1-\alpha_{0}/2}
$$
:::
......@@ -68,11 +68,11 @@ $$
$$
Unter der Nullhypothese $H_0:\beta=\beta_0$ hat $T$ eine
$t_{n-2}$-Verteilung. Bei der zweiseitigen Alternative $A:\beta\neq
\beta_0$ verwerfen wir die Nullhypothese wenn $T\leq -t_{n-2;1-\alpha_{0}/2}$ oder
$T\geq t_{n-2;1-\alpha_{0}/2}$. Bei der einseitigen Alternative
$A:\beta>\beta_0$ verwerfen wir $H$ wenn $T\geq t_{n-2;1-\alpha_{0}}$. Lautet
\beta_0$ verwerfen wir die Nullhypothese wenn $T\leq -t_{n-2,1-\alpha_{0}/2}$ oder
$T\geq t_{n-2,1-\alpha_{0}/2}$. Bei der einseitigen Alternative
$A:\beta>\beta_0$ verwerfen wir $H$ wenn $T\geq t_{n-2,1-\alpha_{0}}$. Lautet
die einseitige Alternative $A:\beta<\beta_0$, so verwerfen wir die
Hypothese, wenn $T\leq -t_{n-2;1-\alpha_{0}}$.
Hypothese, wenn $T\leq -t_{n-2,1-\alpha_{0}}$.
:::
......@@ -126,7 +126,7 @@ Wir wollen jetzt die Nullhypothese $H_0:\beta=0$ testen, d.h. dass die morgendli
$$
T=\hat{\beta}\, \sqrt{ \frac{(n-2)\, s_x^2}{ (1-r_{x,y}^2)s_y^2 } } = \frac{s_y}{s_x} r_{x,y} \, \sqrt{ \frac{(n-2)\, s_x^2}{ (1-r_{x,y}^2)s_y^2 } } =- \sqrt{\frac{(n-2)\, r_{x,y}^2 } {1-r_{x,y}^2}}=-\sqrt{\frac{11\cdot 0.6^2}{1-0.6^2 } } = -2.49.
$$
Der kritische Wert für den einseitigen T-Test zum Signifikanzniveau $\alpha_{0}=0.05$ ist in diesem Fall $t_{11;0.05}=-1.80$. Da der beobachtete Wert der Teststatistik kleiner als der kritische Wert ist, verwerfen wir die Nullhypothese $H_0: \beta=0$ zu Gunsten der Alternativhypothese $H_1:\beta<0$. Wir können also davon ausgehen, dass die morgendliche Außentemperatur einen negativen Einfluss auf den Energieverbrauch der Heizung hat.
Der kritische Wert für den einseitigen T-Test zum Signifikanzniveau $\alpha_{0}=0.05$ ist in diesem Fall $t_{11,0.05}=-1.80$. Da der beobachtete Wert der Teststatistik kleiner als der kritische Wert ist, verwerfen wir die Nullhypothese $H_0: \beta=0$ zu Gunsten der Alternativhypothese $H_1:\beta<0$. Wir können also davon ausgehen, dass die morgendliche Außentemperatur einen negativen Einfluss auf den Energieverbrauch der Heizung hat.
Ergänzend berechnen wir noch den $p$-Wert, der in diesem Fall gegeben ist durch
$$
......@@ -178,12 +178,12 @@ ersetzen, so verändert dies die Verteilung in eine
$t_{n-2}$-Verteilung und somit gilt mit Wahrscheinlichkeit $1-\alpha_{0}$,
dass
$$
- t_{n-2;1-\alpha_{0}/2} \leq \frac{\hat{\beta}-\beta}{\sqrt{s_{y|x}^2}} \sqrt{\sum_{i=1}^n (x_i-\bar{x})^2} \leq t_{n-2;1-\alpha_{0}/2}.
- t_{n-2,1-\alpha_{0}/2} \leq \frac{\hat{\beta}-\beta}{\sqrt{s_{y|x}^2}} \sqrt{\sum_{i=1}^n (x_i-\bar{x})^2} \leq t_{n-2,1-\alpha_{0}/2}.
$$
Durch Umformungen erhalten wir hieraus das folgende
$1-\alpha_{0}$-Konfidenzintervall für $\beta$:
$$
\Big[ \hat{\beta}- t_{n-2;1-\alpha_{0}/2} \frac{\sqrt{s_{y|x}^2}}{\sqrt{\sum_{i=1}^n (x_i-\bar{x})^2}} , \hat{\beta}+t_{n-2;1-\alpha_{0}/2} \frac{\sqrt{s_{y|x}^2}}{\sqrt{\sum_{i=1}^n (x_i-\bar{x})^2}} \Big].
\Big[ \hat{\beta}- t_{n-2,1-\alpha_{0}/2} \frac{\sqrt{s_{y|x}^2}}{\sqrt{\sum_{i=1}^n (x_i-\bar{x})^2}} , \hat{\beta}+t_{n-2,1-\alpha_{0}/2} \frac{\sqrt{s_{y|x}^2}}{\sqrt{\sum_{i=1}^n (x_i-\bar{x})^2}} \Big].
$$
Die Länge des Konfidenzintervalls ist umgekehrt proportional zu
$\sqrt{\sum_{i=1}^n (x_i-\bar{x})^2}$; je breiter gestreut die
......@@ -207,9 +207,9 @@ Zufallsvariable. Mit denselben Überlegungen und Umformungen wie beim
Konfidenzintervall für $\beta$ erhalten wir schließlich das folgende
$1-\alpha_{0}$-Konfidenzintervall für den Parameter $\alpha$
$$
\Big[\hat{\alpha}-t_{n-2;1-\alpha_{0}/2} \sqrt{s_{y|x}^2}
\Big[\hat{\alpha}-t_{n-2,1-\alpha_{0}/2} \sqrt{s_{y|x}^2}
\left( \frac{\sum_{i=1}^n x_i^2}{n \sum_{i=1}^n (x_i-\bar{x})^2}\right)^{1/2},
\hat{\alpha}+t_{n-2;1-\alpha_{0}/2} \sqrt{s_{y|x}^2}
\hat{\alpha}+t_{n-2,1-\alpha_{0}/2} \sqrt{s_{y|x}^2}
\left( \frac{\sum_{i=1}^n x_i^2}{n \sum_{i=1}^n (x_i-\bar{x})^2}\right)^{1/2}
\Big].
$$
......@@ -225,13 +225,13 @@ Fehlerterms verwenden wir die Tatsache, dass $(n-2)
s_{y|x}^2/\sigma^2$ eine $\chi_{n-2}^2$-Verteilung hat, und daher mit
Wahrscheinlichkeit $1-\alpha_{0}$ gilt, dass
$$
\chi^2_{n-2;\alpha_{0}/2} \leq (n-2)\frac{s_{y|x}^2}{\sigma^2}
\leq \chi^2_{n-2;1-\alpha_{0}/2}.
\chi^2_{n-2,\alpha_{0}/2} \leq (n-2)\frac{s_{y|x}^2}{\sigma^2}
\leq \chi^2_{n-2,1-\alpha_{0}/2}.
$$
Durch Umformen erhalten wir ein $1-\alpha_{0}$-Konfidenzintervall für $\sigma^2$:
$$
\left[(n-2)s_{y|x}^2 / \chi^2_{n-2;1-\alpha_{0}/2},
(n-2) s_{y|x}^2/ \chi^2_{n-2;\alpha_{0}/2} \right].
\left[(n-2)s_{y|x}^2 / \chi^2_{n-2,1-\alpha_{0}/2},
(n-2) s_{y|x}^2/ \chi^2_{n-2,\alpha_{0}/2} \right].
$$
:::
......@@ -265,7 +265,7 @@ kann man relativ einfach aus dem R-Output ermitteln. Beide
Konfidenzintervalle haben die Struktur
$$
\text{Schätzwert} \pm
t_{n-2;1-\alpha_{0}/2} \cdot \text{geschätzte Standardabweichung des Schätzers}.
t_{n-2,1-\alpha_{0}/2} \cdot \text{geschätzte Standardabweichung des Schätzers}.
$$
Schauen wir nun noch einmal auf die R-Ausgabe:
```{r, echo=FALSE}
......
......@@ -678,14 +678,14 @@ und erkennen, dass die rechte Seite $t_{n-p}$-verteilt ist.
Mithilfe des obigen Korollars können wir ein $(1-\alpha)$-Konfidenzintervall für $\beta_j$ bestimmen.
Es gilt mit Wahrscheinlichkeit $1-\alpha$, dass
$$
-t_{n-p; 1- \alpha/2}\leq \frac{\hat{\beta}_j - \beta_j}{\sqrt{s^2((X^t X)^{-1})_{jj}}} \leq t_{n-p; 1- \alpha/2},
-t_{n-p, 1- \alpha/2}\leq \frac{\hat{\beta}_j - \beta_j}{\sqrt{s^2((X^t X)^{-1})_{jj}}} \leq t_{n-p, 1- \alpha/2},
$$
wobei $t_{n-p;1-\alpha/2}$ das $(1-\alpha/2)$-Quantil der $t_{n-p}$-Verteilung bezeichnet.
wobei $t_{n-p,1-\alpha/2}$ das $(1-\alpha/2)$-Quantil der $t_{n-p}$-Verteilung bezeichnet.
Die obige Ungleichungskette ist äquivalent zu
$$
\hat{\beta}_j - t_{n-p; 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}} \leq \beta_j \leq \hat{\beta}_j + t_{n-p; 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}},
\hat{\beta}_j - t_{n-p, 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}} \leq \beta_j \leq \hat{\beta}_j + t_{n-p, 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}},
$$
und somit bildet $\Big[\hat{\beta}_j - t_{n-p; 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}}\, ,\, \hat{\beta}_j + t_{n-p; 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}}\Big]$ ein $(1-\alpha)$-Konfidenzintervall für den Parameter $\beta_j$.
und somit bildet $\Big[\hat{\beta}_j - t_{n-p, 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}}\, ,\, \hat{\beta}_j + t_{n-p, 1-\alpha/2}\, \sqrt{s^2\, ((X^t X)^{-1})_{jj}}\Big]$ ein $(1-\alpha)$-Konfidenzintervall für den Parameter $\beta_j$.
:::
......@@ -714,10 +714,10 @@ Wenn möglich, sollte man also Experimente bei weit auseinanderliegenden $x$-Wer
Schließlich können wir noch Konfidenzintervalle für die Parameter $\alpha$ und $\beta$ der Regressionsgerade angeben. Wir erhalten die $(1-\alpha)$-Konfidenzintervalle
\begin{align*}
\Big[\hat{\alpha}- s \, \sqrt{\frac{\sum^n_{i=1}x_i^2}{n \sum^n_{i=1}(x_i - \bar{x})^2}} \cdot t_{n-2; 1-\alpha/2}
&\; , \, \hat{\alpha}+ s \, \sqrt{\frac{\sum^n_{i=1}x_i^2}{n \sum^n_{i=1}(x_i - \bar{x})^2}} \cdot t_{n-2; 1-\alpha/2} \Big],
\Big[\hat{\alpha}- s \, \sqrt{\frac{\sum^n_{i=1}x_i^2}{n \sum^n_{i=1}(x_i - \bar{x})^2}} \cdot t_{n-2, 1-\alpha/2}
&\; , \, \hat{\alpha}+ s \, \sqrt{\frac{\sum^n_{i=1}x_i^2}{n \sum^n_{i=1}(x_i - \bar{x})^2}} \cdot t_{n-2, 1-\alpha/2} \Big],
\\[2mm]
\Big[ \hat{\beta} - s \, \sqrt \frac{1}{\sum^n_{i=1}(x_i-\bar{x})^2} \cdot t_{n-2; 1-\alpha/2} &\; ,\, \hat{\beta} + s\, \sqrt \frac{1}{\sum^n_{i=1}(x_i-\bar{x})^2} \cdot t_{n-2;1- \alpha/2} \Big].
\Big[ \hat{\beta} - s \, \sqrt \frac{1}{\sum^n_{i=1}(x_i-\bar{x})^2} \cdot t_{n-2, 1-\alpha/2} &\; ,\, \hat{\beta} + s\, \sqrt \frac{1}{\sum^n_{i=1}(x_i-\bar{x})^2} \cdot t_{n-2,1- \alpha/2} \Big].
\end{align*}
Die oben gemachte Bemerkung über die Varianz von $\hat{\beta}$ spiegelt sich hier in der Länge des Konfidenzintervalls wider, das umgekehrt proportional zu $\sqrt{\sum_{i=1}^n (x_i-\bar{x})^2}$ ist.
:::
......@@ -727,7 +727,7 @@ Die oben gemachte Bemerkung über die Varianz von $\hat{\beta}$ spiegelt sich hi
Ein $(1-\alpha)$-Konfidenzintervall für den Regressionsparameter
$\beta_j$ ist gegeben durch
$$
\hat{\beta}_j \pm t_{n-p; 1-\alpha/2} \, \sqrt{s_{y|x}^2\, ((X^tX)^{-1})_{jj}},
\hat{\beta}_j \pm t_{n-p, 1-\alpha/2} \, \sqrt{s_{y|x}^2\, ((X^tX)^{-1})_{jj}},
$$
wobei der Faktor $\sqrt{s_{y|x}^2\, ((X^tX)^{-1})_{jj}}$ genau die
geschätzte Standardabweichung des Schätzers $\hat{\beta}_j$ ist. Diese
......@@ -787,8 +787,8 @@ So erhalten wir folgende (gerundeten) Schätzwerte für die Regressionsparameter
$$
\widehat{\beta}_0=26.984,\; \widehat{\beta}_2=0.027,\; \widehat{\beta}_4=-1.023.
$$
2. Ein $95\%$-Konfidenzintervall für $\beta_2$ finden wir gemäß der Formel &bdquo;Schätzwert $\pm\, t_{n-p;0.975}\cdot$ Geschätzte Standardabweichung des Schätzers&rdquo;. Es gilt hier $n=41, p=3$ und
$t_{38;0.975}=2.02$, sodass das $95\%$ Konfidenzintervall gegeben ist durch
2. Ein $95\%$-Konfidenzintervall für $\beta_2$ finden wir gemäß der Formel &bdquo;Schätzwert $\pm\, t_{n-p,0.975}\cdot$ Geschätzte Standardabweichung des Schätzers&rdquo;. Es gilt hier $n=41, p=3$ und
$t_{38,0.975}=2.02$, sodass das $95\%$ Konfidenzintervall gegeben ist durch
$$
0.027476 \pm 2.02 \cdot 0.005301 =[0.017,0.038].
$$
......
......@@ -258,7 +258,7 @@ Als Teststatistik für einen Test auf Gültigkeit der Hypothese $H: \; \beta_{q
$$
F=\frac{(SQ_{error}(H)-SQ_{error})/(p-q)}{SQ_{error}/p}.
$$
Falls die Hypothese gilt, hat $F$ eine $F_{p-q,p}$-Verteilung und entsprechend verwirft der $F$-Test zum Niveau $\alpha$, wenn $F\geq F_{p-q,p; 1-\alpha}$.
Falls die Hypothese gilt, hat $F$ eine $F_{p-q,p}$-Verteilung und entsprechend verwirft der $F$-Test zum Niveau $\alpha$, wenn $F\geq F_{p-q,p, 1-\alpha}$.
::: {#exm-regression4-luftverschmutzung-f-test}
In R findet man den Datensatz `USairpollution`, der Daten zur Luftverschmutzung in 41 Großstädten in den USA enthält. Die Luftverschmutzung wir charakterisiert durch den Gehalt an Schwefeldioxid (`SO2`, $y$). Als erklärende Variablen werden die durchschnittliche Jahrestemperatur (`temp`, $x_1$), die Anzahl der Industrieunternehmen mit mindestens $20$ Beschäftigten (manu, $x_2$), die Einwohnerzahl (`popul`, $x_3$), die durchschnittliche jährliche Windgeschwindigkeit (`wind`, $x_4$), die jährliche Niederschlagsmenge (`precip`, $x_5$) sowie die durchschnittliche Anzahl an Regentagen (`predays`, $x_6$) verwendet.
......
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Please register or to comment