統計検定2級学習纏め
はじめに
統計検定2級に役立つ情報を掲載していこうと思います。
現状、Under Constructionですが、随時、情報を更新していこうと思います。
受験のモチベーション
以前、某AI関連企業に転職活動で伺った際に、スキルを測る1つの尺度として提示されたからです。そのときは、「統計検定ってなに?」みたいな感じでしたが、育児休職を取得した今、改めて勉強してみようと思いました。
受験方法
ペーパーとCBT(コンピュータでの受験)方式があります。ペーパーはどんなものかわからないので、詳しく知りたい方は他を参照ください。CBTはパソコンで受験でき、各地のパソコンスクールのような場所で(都会であれば・・・)ほぼいつでも受験が可能です。
持ち物
筆記用具、電卓
おすすめ電卓
百分率、ルートの計算ができれば何でも良いかと。関数電卓はだめです。
学習方法
まず、以下の2冊を読み、全体像を掴みました。
次に以下の過去問を解きました。
-
日本統計学会公式認定 統計検定 2級 公式問題集[2017〜2019年]
※最初のうちはこの本の解説だけ見ても理解できないことが多いと思われるため、Webの情報(以下の統計学の時間や、こちらのようなページを併せて見ると良いと思います。
あとはおなじみの以下も流し読みしました。
学ぶべき事項
中央値とモード
中央値はデータを小さい順に並べた時に真ん中にくる値のこと。もしデータ数が奇数の場合は、中央にある2つの値の平均が中央値となる。
モードは最頻値とも呼ばれ、最も頻繁に登場する値のこと。複数の場合もあれば、0の場合もある。
度数分布表
ヒストグラムの山のことを峰と呼び、そのヒストグラムのデータのことを多峰性という。特に山が2つのものを二峰性、1つのものを単峰性という。
単峰で右に裾が長い形状を持つヒストグラムは、
最頻値 < 中央値 < 平均値
となる。また、最も相対度数が大きい階級の代表値を最頻値とすることが多い。
ちなみに、分布の偏りを表すための曲線をローレンツ曲線という。また、その偏りや不均等さを数値で表したものをジニ係数という。ジニ係数は0~1までの値をとり、1に近いほど偏りが大きいことを示す。このあたりは統計Webを参照してほしい。
歪度と尖度
分布が正規分布からどれだけ歪んでいるかを表す統計量を歪度と呼び、左右対称性を示す指標となる。歪度は以下の式から求められる。
$$
\frac{n}{(n-1)(n-2)} \sum_{i=1}^n (\frac{x_i - \bar{x}}{s})^3
$$
「右裾が長い」もしくは「右に歪んだ」もしくは「左に偏った」分布のときには正の値を、「左裾が長い」もしくは「左に歪んだ」もしくは「右に偏った」分布のときには負の値をとります。左右対称の分布(例えば正規分布)の場合には0になります。
分布が正規分布からどれだけ尖っているかを表す統計量。山の尖り度と裾の広がり度を示します。尖度は次の式で求められる。
$$
\frac{n(n+1)}{(n-1)(n-2)(n-3)}\sum_{i=1}^n \frac{(x_i - \bar{x})^4}{s^4} - \frac{3(n-1)^2}{(n-2)(n-3)}
$$
正規分布より尖った分布(データが平均付近に集中し、分布の裾が重い)のときには正の値を、正規分布より扁平な分布(データが平均付近から散らばり、分布の裾が軽い)のときには負の値をとります。正規分布の場合には0になります。
期待値と分散
期待値についてはさほど難しくないと思われるので割愛。
2つの確率変数の期待値については以下が成り立つ。
E(X + Y) = E(X) + E(Y)
E(X - Y) = E(X) - E(Y)
E(XY) = E(X)E(Y)
一方、分散については単に足し引きすれば良いわけではない。
V(X + Y) = V(X) + V(Y) + 2Cov(X, Y)
V(X - Y) = V(X) + V(Y) - 2Cov(X, Y)
※ちなみに、分散の求め方は以下のとおり。
$$
V = \frac{1}{n} \sum_{i=1}^{n} (x_i - \bar{x})^2
$$
共分散は二組の対応するデータの間の関係を表す数値です。「X の偏差 × Y の偏差」の平均で定義されます。
詳しくはこちらが分かりやすいです。
共分散は,「X の偏差 × Y の偏差」の平均なので
共分散が大きい(正)→ X が大きいとき Y も大きい傾向がある
共分散が 0 に近い→ X と Y にあまり関係はない
共分散が小さい(負)→ X が大きいとき Y は小さい傾向がある
と言えます。
Cov(X, Y)はCo-varianceの略で共分散を表す。共分散が0、すなわちXとYが独立である場合には次の式が成り立つ。
V(X + Y) = V(X) + V(Y)
V(X - Y) = V(X) + V(Y)
共分散とは2変数の関係の強さを表す指標の1つで、確率変数X、Yの期待値をそれぞれ
$$
E(X) = μ_x、E(Y) = μ_y
$$
とすると、XとYの共分散Cov(X, Y)は次の式から計算できる。
$$
Cov(X, Y) = E[(X - μ_x)(Y - μ_y)] = E(XY - μ_xY - μ_yX + μ_xμ_y)\
= E(XY) - μ_xE(Y) - μ_yE(X) + μ_xμ_y = E(XY) - μ_xμ_y - μ_xμ_y + μ_xμ_y\
= E(XY) - μ_xμ_y
$$
XとYに正の相関がある場合にはCov(X, Y) > 0、負の相関がある場合にはCov(X, Y) < 0になる。
共分散を使うと2つの確率変数XとYの相関係数ρを計算できる。
$$
ρ = \frac{Cov(X, Y)}{\sqrt{V(X) V(Y)}}
$$
応用として、共分散に定数を足した場合はどうなるか。答えは変わらない、です。標準偏差も変わらないので相関係数も変わりません。詳しくはこちらを御覧ください。また、定数を掛けた場合にはどうなるか。共分散にはその定数が掛けられることになります。
ちなみに共分散の定義式で形式的に X=Y としてみると,
Cov(X,X)=E[(X−μX)2]Cov(X,X)=E[(X−μX)2] となり X の分散の定義式と一致します。
このような意味で,「共分散は分散の一般化」とみなすことができます。
さらに,共分散を簡単に求める公式:
Cov(X,Y)=E[XY]−μXμYCov(X,Y)=E[XY]−μXμY
で X=Y としてみると,
Var[X]=E[X2]−μ2XVar[X]=E[X2]−μX2
という式が得られます。
分散は期待値を用いて次の式で求められる。
$$
V(X) = E(X^2) - {E(X)}^2
$$
四分位数
「四分位数(しぶんいすう)」とはデータを小さい順に並び替えたときに、データの数で4等分した時の区切り値のことです。4等分すると3つの区切りの値が得られ、小さいほうから「25パーセンタイル(第一四分位数)」、「50パーセンタイル(中央値)」、「75パーセンタイル(第三四分位数)」とよびます。
四分位数の求め方は、
- 中央値を求める ※データの数が偶数個の場合は中央の2数の平均を中央値とする
- 中央値でデータを2つに分ける
- 2つに分けたデータのうち小さい値のグループを使って中央値を求める
- 2つに分けたデータのうち大きい値のグループを使って中央値を求める
四分位範囲は第三四分位範囲から第一四分位範囲を引いたもの。第3四分位数から第1四分位数を引いた値の 1/21/2 倍を四分位偏差と言います。
四分位範囲と四分位偏差は、どちらもデータのばらつきの大きさ(散らばり具合)を表す指標です。
似たような指標として標準偏差がありますが、四分位範囲・四分位偏差は標準偏差と比べて①計算が簡単②外れ値(極端な値)に引っ張られにくいというメリットがあります。
反対に、標準偏差には正規分布において68%95%ルールが成立するという大きなメリットがあります。(詳しくは下記記事を参照)
標本調査
サンプルは調査対象を適切に反映したものをチョイスしなければいけない。例えば、A県全体の調査を行うにも関わらず、特定の場所のみを調査するのは適切ではない。
また、質問をする際には特定の方向に誘導するような質問をしてはいけない。調査対象者が理解しづらいような難解な用語等も使うべきではない。
層化抽出法(層別抽出法)
母集団に関する補助情報を活かして、母集団をできるだけ等質な構成要素から構成される層に分割して、各層から標本を抽出することで制度をあげようとする手法。
研究デザイン
大きく2つに分けられる。
- 実験研究
- 研究者が介入できる
- 観察研究
- 介入できない
1の実験研究において、ある処理効果の有無を統計的に判断する際、観察結果が偶然誤差(たまたま生じつ誤差)や系統誤差(処理の違いによる差)など、処理以外の要因に左右される可能性を考慮する必要があり、実験計画では、「繰り返し(反復)」「局所管理」「ランダム化」というフィッシャーの3原則が重要とされている。
-
繰り返し(反復)→ 偶然誤差の大きさがわかる
同じ処理を複数回行うことであり、繰り返しによって偶然誤差の大きさを評価することができる。
-
局所管理 → 系統誤差を小さくする
実験条件をできる限り均一に保つように管理されたブロックに実験を分けること。一部の系統誤差はブロック間誤差として除去される。
-
ランダム化 → 系統誤差を偶然誤差にする
処理をランダムに割り付けること。ランダム化により、系統誤差を偶然誤差に転化させ、かつ、その誤差の大きさを評価することができる。
詳しくはこちら
連続型確率変数
とり得る事象が無限にある場合、離散型確率変数と同様に確率を算出することはできない。この場合、確率密度関数というものを用い、面積によって確率を算出する。また、累積分布関数F(x)は-∞~xまでの面積を意味する。F(-∞)=0、F(∞)=1という性質を持つ。
また、期待値、分散については以下の式が成立する。
$$
期待値(平均): E(X) = \int_{-∞}^{∞} x・f(x) dx\
分散: V(X) = \int_{-∞}^{∞} (x-μ)^2・f(x) dx\
標準偏差: σ = \sqrt{σ^2}
$$
また、a、bを確立変数Xに無関係な定数とするとき、
$$
E(a・X + b) = a・E(X) + b\
V(X) = E(X^2) - {E(X)}^2\
V(a・X + b) = a^2・V(X)
$$
複数変数の確率分布
以下の性質を持つ。
$$
(i) \ E(a_1・X_1 + a_2・X_2 + … + a_n・X_n)\
(ii) 確率変数X_1,X_2,…,X_nが独立の場合\
V(a_1・X_1 + a_2・X_2…+ a_n・X_n) = a_1^2・V(X_1) + a_2^2・V(X_2) + … + a_n^2・V(X_n)
$$
また、確率変数X1, X2, …, Xnが独立で、すべてが期待値μ、分散σ^2の同一の確率分布に従う場合、
$$
E(X_1) = E(X_2) = … = E(X_n) = μ\
V(X_1) = V(X_2) = … = V(X_n) = σ^2
$$
確率変数Xの平均については以下も成り立つ。
$$
E(\overline{X}) = μ (μ:確率変数X_1, X_2, …, X_nの各々の期待値)\
V(\overline{X}) = \frac{σ^2}{n} (σ:確率変数X_1, X_2, …, X_nの各々の分散)
$$
正規分布
連続型確率変数Xにおける確率密度関数をf(x)とすると、
$$
f(x) = \frac{1}{\sqrt{2\piσ}}・e^{-\frac{(x-μ)^2}{2σ^2}}
$$
となる確率分布を正規分布という。
この分布の平均(期待値)・分散は、
平均:E(X) = μ, 分散:V(X)= σ^2, 標準偏差:σ
また、母集団が正規分布であれば、そこから観測される標本集団も正規分布に従うということを覚えておくとよい。母集団の母平均をμ、母標準偏差をσとすると、標本集団では、平均値はμのままだが、標準偏差はσ / √n と縮む。
標準正規分布
正規分布のなかでも「平均μ = 0、分散σ^2 = 1」であるものを標準正規分布という。
また、確率変数Xが平均μ、分散σ^2の正規分布に従う時、Xから平均μを引いて標準偏差σで割った値をzとおくと、zは平均0、分散1の表文正規分布に従うことになる。この変換を標準化という。この標準化した値をz値と呼ぶ。
$$
z = \frac{X - μ}{σ}
$$
標準化した値が大きいほど相対的な値も大きいことを表す。
よく聞く偏差値は、教科ごとの点数の分布を「平均が50点、標準偏差が10点」になるように変換した値です。
世の中のあらゆる不確実現象が正規分布に従うことを利用し、標準化を行って標準正規分布にしたうえで、95%信頼区間(-1.96以上1.96以下)で予測を行う事が多い。
正規分布は標準正規分布の平均がμになり、偏差がσになったものと考えることができ、標準化を行う場合は、95%信頼区間の場合、両端にσを掛けて、μを加えれば良い。
それを1.96の不等式にすると以下のようになる。
$$
-1.96 ≦ \frac{x-μ}{σ} ≦ 1.96
$$
※上述したが不等式の真ん中に該当する。
正規分布の重要性
世の中のさまざまな現象は正規分布に従うものが多い。また、扱うデータが多くなると、多くの確率分布が正規分布で近似できることも知られれている。
例えばラプラスの定理もその1つ。
世の中のあらゆる不確実現象が正規分布に従うことを利用し、標準化を行って標準正規分布にしたうえで、95%信頼区間(-1.96以上1.96以下)で予測を行う事が多い。
中心極限定理
確率的な事象(不確実現象ともいうらしい)を膨大な数繰り返すと、正規分布に近似することをいう。
ラプラスの定理
nが十分大きいとき、二項分布B(n, p)に従う確率変数X(平均E(X) = np, 分散V(X) = np(1-p))は正規分布N(np, np(1-p))に近似的に従う。
正規分布の再現性
独立した2つの正規分布の平均と偏差なんかは足し合わせることができるよ、というもの。この確率密度関数は以下の式で表せる。
$$
f(x) = \frac {1}{\sqrt{2\pi}} exp (-\frac{x^2}{2}) , (-\infin < x < \infin)
$$
ベルヌーイ分布
状態が2通りしか発生しない事象を考えるのがベルヌーイ分布。例えば、大学受験で考えると、合格か不合格かの2通りの結果があるので、合格はx=1、不合格はx=0とおきます。このとき、大学に合格する確率がpと分かっているとすると、このデータ分布は、
$$
P(x) =
\begin{cases}
p , (x = 1)\
1-p , (x = 0)
\end{cases}
$$
と表せます。
二項分布
ベルヌーイ分布に従う事象をある数だけ繰り返し発生させたときの、データのばらつきを表現した確率分布。x=1が起こる確率をp、試行回数をNとしたとき、x=1の事象がy回発生する確率は以下の数式で表せる。
$$
P(y | N, p) = \begin{eqnarray*}
&& {}_N \mathrm{C} _y p^y (1-p)^{(N-y)}
\end{eqnarray*}
$$
カイ二乗分布
母分散の推定に利用できる分布。母平均の推定には次のt分布の知識が必要。
母分散の区間推定などで用いる確率分布
$$
f(x) = \frac{1}{2^{\frac{n}{2}}・Γ(\frac{n}{2})}・x^{\frac{n}{2}-1}・e^{-\frac{x}{2}} \ (x>0, n≧1)
$$
と表される確率分布を、自由度nのχ二乗分布という。また、このとき、
期待値:E(X) = n
分散:V(X) = 2n
となる。
以下、カイ二乗分布の覚えておくべき性質です。
(i) 確率変数X1, X2, ... , Xnが独立で、標準正規分布N(0,1)に従うとき、新たな確率変数
$$
X = X_1^2 + X_2^2 + ... + X_n^2
$$
の確率分布は自由度nのカイ二乗分布となる。
(ii) 確率変数X1, X2, ... , Xnが独立で、正規分布N(μ,σ^2)に従うとき、新たな確率変数
$$
\frac{1}{σ^2}・\sum_{i=1}^n(X_i-\overline{X})^2 \ (\overline{X} = \frac{1}{n}(X_1+X_2+ ... + X_n)
$$
の確率分布は、自由度n-1のカイ二乗分布となる。
(iii) カイ二乗分布の再生性
確率変数X, Yが独立で、各々、自由度m, nのカイ二乗分布に従うとき、新たな確率変数X+Yは、自由度m+nのカイ二乗分布に従う。
カイ二乗分布は標本分散に比例する。よって、標本分散を知っているときには、そこからカイ二乗分布に従うような量を作り出すこともできる。例えば、カイ二乗分布する量をWとし、母平均μ、母標準偏差σ、正規母集団からn個の標本を観測したとすると、
$$
W = (標本分散s^2) × n ÷ (母分散σ^2)
$$
では、Wは自由度(n - 1)のカイ二乗分布に従う統計量となる。
2つの標準正規分布に従う統計量Vとカイ二乗分布に従う統計量W(ここでは、V、Wは別になんでもよい。ただの統計量)は、
$$
V = \frac{(x_1 - μ)^2}{σ^2} + \frac{(x_2 - μ)^2}{σ^2} + … + \frac{(x_n - μ)^2}{σ^2} \
W = \frac{(x_1 - \overline{x})^2}{σ^2} + \frac{(x_2 - \overline{x})^2}{σ^2} + … + \frac{(x_n - \overline{x})^2}{σ^2}
$$
のように定義され、その違いは母平均μを引くか、標本平均xバーを引くかにあります。
t分布
母平均の推定に利用できる分布。一般に母平均がわからないのに母分散だけ分かっているような状況は考えづらいため、そのような場合に用いる。母分散の代わりに不偏分散s^2を使う。
検定を行う場合は以下の式を覚えておくとよい。
$$
\bar{x} - t × \frac{s^2}{n} ≦ μ ≦ \bar{x} + t × \frac{s^2}{n}
$$
連続型確率変数Xにおいて、確率密度関数f(X)がパラメータnを用いて
$$
f(x) = \frac{Γ(\frac{n+1}{2})}{\sqrt{n\pi}・Γ\frac{n}{2}}・(1+\frac{x^2}{n})^{-\frac{n+1}{2}} \ (-∞<x<∞, n≧1)
$$
と表される確率分布を自由度nのt分布という。
Γ(ガンマ)関数の定義式と性質は以下のとおり。
$$
定義式:Γ(n) = \int_{0}^{∞}x^{n-1}e^{-x}dx \ (n>0)\
性質:\
(i) Γ(n) = (n-1) × Γ(n-1)\
(ii) Γ(1) = 1, Γ(\frac{1}{2} = \sqrt{\pi}, Γ(n+1) = n!)
$$
また、このとき、
$$
期待値:E(X) = 0 \ (n≧2のとき)\
分散:V(X) = \frac{n}{n-2} \ (n≧3のとき)
$$
n→∞で自由度nのt分布= 標準正規分布N(0,1)となる。また、n>30程度であればt分布は標準正規分布で近似できる。
…という上記の説明はかなりわかりにくいので、以下の統計量Tを用いて説明する。
$$
T = \frac{(\overline{x} - μ)\sqrt{n-1}}{s}
$$
このTの分布がわかるのであれば、95%信頼区画がわかり、それを利用すれば母平均μを区間推定できます。
F分布
連続型確率変数Xにおいて、確率密度関数f(x)がパラメータm, nを用いて
$$
f(x) = \frac{Γ(\frac{m+n}{2})}{Γ(\frac{m}{2})・Γ(\frac{n}{2})}・(\frac{m}{n})^{\frac{m}{2}}・\frac{x^{\frac{m}{2}-1}}{(1+\frac{m}{n}・x)^\frac{m+n}{2}} \ (x>0) \ (m≧1, n≧1)
$$
と表される確率分布を、自由度(m, n)のF分布という。また、ガンマ関数Γ(n)はt分布のところと同じものになる。
$$
期待値:E(X) = \frac{n}{n-2}
分散:V(X) = \frac{2n^2(m+n-2)}{m(n-2)^2(n-4)} \ (n≧5)
$$
F分布の性質
(i) 確率変数Xが、自由度m, nのF分布に従う。逆に確率変数1/Xが自由度n, mのF分布に従う。
(ii)
$$
F_{n}^{m}(1-α) = \frac{1}{F_{m}^{n}(α)}
$$
となります。
(iii) 確率変数X, Yが独立で、各々、自由度m, nのカイ二乗分布に従うとき、新しい確率変数
$$
T = \frac{\frac{X}{m}}{\frac{Y}{n}}
$$
は自由度(m, n)のF分布に従う。
ポアソン分布
二項分布において、試行回数が十分に大きく、起こる確率が極めて小さい場合、ポアソン分布に当てはまる。
パラメータλのポアソン分布の平均と分散はともにλとなる。
確率変数Xがポアソン分布に従うとき、「X~Po(λ)」と書く。λがポアソン分布のnパラメータになる。ある期間に平均λ回起こる現象がk回起こる確率、すなわちX = kは以下の式で計算できる。
$$
P(X = x) = \frac{e^{-λ}λ^{k}}{k!} \ (k =0, 1, 2, ・・・)
$$
ベイズの定理
条件付き確率(1)に乗法定理(2)を代入したものがベイズの定理(3)になる。
$$
P(Bi|A) = \frac{P(A\cap{Bi})}{P(A)}\
$$
$$
P(A\cap{Bi} = P(Bi) × P(A|Bi))
$$
$$
P(Bi|A) = \frac{P(A\cap{Bi})}{P(A)} = \frac{P(Bi)P(A|Bi)}{P(A)}
$$
ここで、
$$
P(A) = P(A\cap{B_1}) + P(A\cap{B_2}) + … + P(A\cap{B_k})
$$
と書くことができるので、これを(3)式に代入すると以下の最終形になる。
$$
P(Bi|A) = \frac{P(Bi)P(A|Bi)}{\sum_{j=1}^{k} P(B_j)P(A|B_j)}
$$
累積分布関数
「確率変数Xがある値x以下(X < x)の値となる確率」を表す関数です。累積分布関数は、大文字の「F」を用いて「F(x)」と表されます。
例えばさいころを投げたときに「出る目が4以下となる確率」や「出る目が4から6の目が出る確率」といった、ある範囲の確率を求める場合があります。このような場合には「累積分布関数」を使うと非常に便利です。
-
Xが1以下になる確率
$$
F(1) = P(X ≦ 1) = \sum_{X ≦ 1} P(X) = P(1) = \frac{1}{6}
$$ -
Xが2以下になる確率
$$
F(2) = P(X ≦ 2) = \sum_{X ≦ 2} P(X) = P(1) + P(2) = \frac{1}{6} + \frac{1}{6} = \frac{1}{3}
$$
仮説検定
大量のデータ(母集団)からサンプルを抜き出して、そこから仮説を立て、その仮説が妥当か否かを確かめること。シンプルに、サンプルから母集団の特徴を推測する手法、と考えても良いかも。選挙の出口調査が分かりやすい例。
仮説が例えば95%信頼区間に入らないとき、2つの考え方がある。
- 母集団に関する仮説は正しく、覚悟していたリスク(5%の確率でしか起きないこと)が起きてしまった。
- 母集団に関する仮説が正しくない。
どちらも考え得るものですが、統計学では2の考え方を採用します。
用語説明
帰無仮説と対立仮説
定を行うため立てる仮説のことを「帰無仮説」といいます。帰無仮説に対する仮説のことを「対立仮説」といいます。これらの仮説に用いられる「H」は「hypothesis」の頭文字です。
帰無仮説:検定の最初に立てる仮説のこと。H0と書かれることがある。
対立仮説:帰無仮説に対する仮説のこと。本来証明したい仮説。H1と書かれることがある。
検定統計量とP値
検定統計量から算出されたP値を元に検定の結論を導きます。
- 検定統計量:帰無仮説が正しいと仮定したときに、観測した事象よりも稀なことが起こる確率を計算するための値です。簡単に「統計量」とよばれる場合もあります。
- P値:帰無仮説が正しいとした仮定とき、観測した事象よりも極端なことが起こる確率のことです。「観測した事象よりも極端な事象が起こる確率」であることから、これは累積確率となっています。コインの問題では、「6.25%」がP値になります。
P値はその大小を比較するものではありません。あくまでも事前に設定した有意水準(次項で説明)と比較するためのものです。
有意水準
帰無仮説を棄却する基準を有意水準といいます。
- 有意水準:帰無仮説を棄却するための基準となる確率です。この数値は検定を行う前に決めておく必要があります。危険率と呼ばれることもあります。コインの問題では、「“滅多にない”と判断する確率の基準」がこの有意水準です。
- 棄却:仮説を捨てることです。P値が有意水準よりも小さい時は、帰無仮説を捨て対立仮説を採択します。すなわち、対立仮説が正しいと結論付けられます。コインの問題では、基準である「10%」と観測した事象の起こる確率「6.25%」を比べた結果、「6.25%」が「10%」より小さいことが分かりました。このとき、帰無仮説「渡されたコインは普通のものである」を「棄却」し、対立仮説「渡されたのは不正なコインである」を採択します。
P値が有意水準よりも大きい時は、帰無仮説は棄却されません。これは帰無仮説が正しいと結論づけて良いということを意味しません。検定で用いられる方法は「背理法」なので、「帰無仮説が棄却されない」ことは「帰無仮説が正しいと結論づけて良い」ということにはなりません。この場合、「対立仮説が正しいと結論づけることはできない」ということしか言えないのです。
片側検定
例えば、μ = 0 に対して、μ < 0 や μ > 0 を片側対立仮説とよびます。この対立仮説を用いた検定が片側検定です。
正規分布やt分布を用いた検定の場合、棄却域は以下のようになります。
両側検定
片側検定がわかれば両側検定もだいたい分かるはず。
この片側検定と両側検定の使い分けについては、その対立仮説において何を確認したいかで考える。
例えば、ダイエット薬になんらかの効果があることを確認したい場合、
帰無仮説は μ = 0 (体重の変化量の母平均μが0=前後で効果無し)
対立仮説はμ > 0, μ < 0, (母平均が0より大きければ体重増、少なければ体重減), μ ≠ 0 (体重に変化あり)
となる。ダイエット薬の効果を確かめたいのであれば、μ < 0 の片側検定を選択すればよい。
要するに、どちらの検定を使うかは目的に応じて臨機応変に決める必要があるということ。
第1種の過誤と第2種の過誤
真実 | |||
---|---|---|---|
帰無仮説が正しい | 対立仮説が正しい | ||
検定の結果 | 帰無仮説を棄却しない (対立仮説が正しいとは言えない) |
正しい | 第2種の過誤(β) |
帰無仮説を棄却する (対立仮説が正しい) |
第1種の過誤(α) | 正しい (1-β) |
第1種の過誤の確率も、第2種の過誤の確率も共に低いほうがよいことは想像がつきます。しかしながら、両方はトレード・オフの関係になっているので同時に低くすることはできません。
ある容疑者の裁判の例では、第1種の過誤を犯す確率を下げるために容疑者を全て有罪にしてしまうと、無罪の人まで有罪になってしまうために第2種の過誤を犯す確率が上がってしまいます。逆に第2種の過誤を犯す確率を下げるために容疑者を全て無罪にしてしまうと、本来有罪の人まで無罪になってしまうために第1種の過誤を犯す確率が上がってしまいます。したがって、第1種の過誤を犯す確率と第2種の過誤を犯す過誤を犯す確率のバランスをとることが重要です。
※「有意である」の意味
統計学的に有意」とは「仮説」と「実際に観察された結果」との差が誤差では済まされないことを意味します. 例えば,投薬による治療効果の検証では,偽薬を投与した人たちと実薬を投与した人たちとの間で症状が改善された人数を比較して,その差が偶然得られる確率を計算します. この確率が十分に低ければ有意であると表現します.
同じような試行を何回も繰り返せば、「誤差としてたまたま生じうる差」か、それとも「誤差として見逃すには大きく・はっきりした差」か、これを専門的な計算によって判断する方法です。確率的な計算を行うことで「誤差として処理しきれる可能性」(有意確率)を算出し、得られた結果に意味があるか(つまり有意差)を、一定の基準で判断することができます。学術領域における経験則で、有意確率が十分であるかどうかは、例えば「5%を下回るかどうか」で判断されます(「たまたま1.1点の差が生じる可能性が5%未満」となる場合に「たまたまではない」と判断されます)。
重回帰分析
説明変数が複数である回帰分析を重回帰分析と呼ぶ。重回帰分析も単回帰分析と同様に線形と非線形に分けられるが、特別な説明がない限り、一般的には線形重回帰分析を略して重回帰分析と言う。重回帰分析では観測データが次の式で表現できることを前提としている。
$$
y = a_0 + a_1x_1 + a_2x_2 + … + a_nx_n + ε
$$
あるいは、次のようにa0がない式にすることもできる。
$$
y = a_1x_1 + a_2x_2 + … + a_nx_n + ε
$$
その他
ギリシャ文字の読み方
大文字 | 小文字 | 読み方 | 一般的な意味 |
---|---|---|---|
Α | α | アルファ | 第1種の過誤の確率、有意水準、回帰モデルの切片、クロンバックのアルファ |
Β | β | ベータ | ベータ関数(大文字)、第2種の過誤の確率、偏回帰係数 |
Γ | γ | ガンマ | ガンマ関数(大文字)、グッドマン=クラスカルのガンマ |
Δ | δ | デルタ | 変化量(大文字)、差、変化量 |
Ε | ε | イプシロン | 回帰モデルの誤差項 |
Ζ | ζ | ツェータ | |
Η | η | イータ、エータ | 相関比(![]() |
Θ | θ | シータ | 母数、定数、推定値 |
Ι | ι | イオタ | |
Κ | κ | カッパ | コーエンのカッパ係数 |
Λ | λ | ラムダ | ウィルクスのラムダ(大文字)、グッドマン=クラスカルのラムダ、 ポアソン分布のパラメータ、固有値 |
Μ | μ | ミュー | 母平均 |
Ν | ν | ニュー | 自由度 |
Ξ | ξ | グザイ | |
Ο | ο | オミクロン | |
Π | π | パイ | 総乗(大文字)、円周率 |
Ρ | ρ | ロー | 相関係数 |
Σ | σ | シグマ | 総和(大文字)、母分散(![]() |
Τ | τ | タウ | ケンドールのタウ、グッドマン=クラスカルのタウ |
Υ | υ | ウプシロン | |
Φ | φ | ファイ、ファー | 自由度、ファイ係数 |
Χ | χ | カイ | カイ二乗分布の検定統計量(![]() |
Ψ | ψ | プサイ、プシー | 対比(多重比較) |
Ω | ω | オメガ |
独立と無相関
確率変数 X,Y が独立とは
1A:任意の x,y に対して P(X=x,Y=y)=P(X=x)P(Y=y)P(X=x,Y=y)=P(X=x)P(Y=y) が成立する(確率が二つの積に分解できる)
1B:X と Y の間には何の関係もない
1Aが定義で1Bが直感的な説明です。
確率変数 X,Y が無相関とは
2A:E[XY]=E[X]E[Y]E[XY]=E[X]E[Y]
2B:共分散 Cov(X,Y)Cov(X,Y) が 0 である
2C:相関係数が 0 である
2D:Xと Yの間に直線的な関係がない
2Aが定義。2Bと2Cは簡単に導ける性質,2Dは直感的な説明です。
試験に出ないであろう知識
演繹法と帰納法
演繹法 | 全体から部分への推論(すべてで成り立つことは個々でも成り立つ) |
---|---|
帰納法 | 部分から全体への推論(検定の考え方はこちら) |
整理途中
P値
こちら から抜粋。
統計的仮説検定において、帰無仮説の元で検定統計量がその値となる確率のこと。P値が小さいほど、検定統計量がその値となることはあまり起こりえないことを意味する。
一般的にP値が5%または1%以下の場合に帰無仮説を偽として棄却し、対立仮説を採択する。
参考リンク
2016年11月
問8 https://math.nakaken88.com/textbook/expert-data-transformation-correlation-coefficient/