(1)場合の数

中学・高校の内容。問題を解く際に必要となる知識は少ないが、問題によってはアイデアや閃きが必要になる。確率統計とは別の方向の発展方向として組み合わせ論がある。


(2)離散型確率分布

まず「条件を満たす場合の数/全部の場合の数」という形が出て来る。

次に二項分布などの決まった形の確率変数が出て来る。ポアソン分布は直感的に分かりやすい形ではないが、2項分布のn→∞としたときの極限として導出が可能である。(np=λとおく。)

条件付き確率は感覚的に馴染むのが難しいこともあり、ひとつの山場となる。


(3)連続型確率分布

ここで言わば主役の正規分布が登場し、ここまででひとつの区切りとなる。問題によっては置換積分などの計算技術が必要になる。

本格的な統計の本や数理統計学の本では分布の特性値としてモーメント母関数ないし特性関数について解説し、さらには条件付き期待値や条件付き分散についても解説されるが、教養レベルの確率統計の教科書や授業ではそれらは出て来ないこともしばしば。


(4)推定・検定

最初は基本的に母集団が正規分布に従うという仮定で話が進む。

所謂教養レベルに範囲を絞ったとしても本質的に急に難易度が上がる。その理由としては以下が挙げられる。



1~5については、教養レベルの統計の本では上手にさらっと説明が書かれている(「近似的に~に従うことが知られている」などと書かれている)ので、どこが難しくなったのか、何故分からなくなったのか逆に気づきにくい。


そして、非常に奥が深く幅の広い理論であるため、初学者が学ぶ順番やノートのまとめ方と、本格的に数理統計学を学ぶ場合の理論体系やまとめ方は大きく異ならざるをえない。つまり、最初に推定検定を学んだノートに継ぎ接ぎしていくのではなく、どこかで一から作り直すことが必要になる。


(5)最尤推定

初学者向けの基本的な統計学の本では出て来ないこともあるため、実際には区間推定や母平均の検定などを学んだ後に学ぶことになるが、理論体系上はその前に学ぶべき内容と言ってもいい。ベイズ統計学導入の動機付けのひとつとしても重要な分野である。


(6)回帰分析

ここで新しく「説明変数と目的変数の間に何かしらの関係は存在すると言えるか、存在するならば説明変数を使って目的変数の振る舞いを記述したい」という目的意識が現れる。

また計算量がさらに多くなるため、具体的に数値を求める際にはコンピュータを使うことが前提となってくる部分もある。

回帰分析は初心者向けの統計の本と本格的な数理統計学の本の記述の差が推定・検定以上に大きく、本格的な数理統計学を学ぶ際は一度最初から知識をまとめ直すことが要求される。

初心者向けの本ではy=ax+bという形の回帰直線のみを扱う、またはR^2係数の紹介をして終わりである。誤差項については記述がないこともよくある。

しかし本格的な数理統計学の本では誤差項を含んだ線形回帰モデルが登場し、そしてそのモデルに対する推定・検定の理論を学ぶ。

教養レベルの本でも最小二乗法という言葉は必ず出て来るが、最小二乗推定量という言葉は出て来たり来なかったりである。

前述の通り回帰というと説明変数を使って目的変数の振る舞いを記述するという側面が強く、機械学習の普及も相まって、推定の理論を駆使して精度の高いモデルを如何に作り上げるかということが注目されがちである。

しかし数理統計学では後述の1元配置分散分析の様に、ある要素が影響を与えたと言えるか検証するための線形回帰モデルの検定(変数の有意性検定)も重視している。


(7)推定量の評価

教養レベルの統計学の本で出て来るのは、最尤推定量と不偏推定量と最小二乗推定量の3つ程度であるが、推定量の評価は「母集団のパラメータを推定するための良い推定量を探す」という非常に重要な理論である。


[推定の理論]

推定量が真のパラメータに確率的に近くなるということの自然な基準のひとつとして、平均2乗誤差(MSE)を小さくすることが挙げられる。

MSEにバイアス-バリアンス分解を行うことにより、不偏推定量に対してはMSEは推定量の分散と等しくなる。

不偏推定量で分散が最も小さい推定量を一様最小分散不偏推定量と呼ぶ。

分散の下限はクラメール・ラオの不等式により求められる。クラメール・ラオの不等式の下限を達成している不偏推定量を有効推定量と呼ぶ。有効推定量は一様最小分散不偏推定量である。

(クラメール・ラオの不等式の証明は、例えば「弱点克服 大学生の確率・統計」参照。)

有効推定量は必ず存在するとは限らない。(統計検定1級公式本、P.69参照。)



[回帰分析における推定量の評価]

最小2乗推定量(LSE)は線形推定量であり不偏推定量にもなっている。このような推定量を線形不偏推定量と呼ぶ。

線形不偏推定量の中で平均2乗誤差(MSE)を最小にする最良線形不偏推定量(BLUE)と呼ぶ。

最小2乗推定量はガウス・マルコフの定理より最良線形不偏推定量(BLUE)となる。


このような事情もあってか、機械学習の分野では平均2乗誤差(MSE)という言葉が、実績値とモデルの実現値との差の二乗和という意味で使われている。


(8)漸近理論

標本サイズnが大きい時の推定量の漸近的な評価基準として、一致性と漸近有効性がある。

一致推定量(+チェビシェフの不等式)漸近分散漸近有効性漸近正規性について学び、最尤推定量一致性、漸近正規性、漸近有効性について学ぶ。

稲垣本(P.258)によれば、「統計学では無限標本は現実的でないことから極限という用語をタブー視して、その代わりに漸近的とか近似という用語を使う。」とのこと。


(9)分散分析

分散の分析ではなく、分散を使った平均検定である。従ってt検定と同じカテゴリーに属する。t検定と違い母集団が3群以上の場合でも対応できる。計算に使うのは分散(平均平方(=平方和/自由度))の比なのでF値を計算する。

モデルを仮定することで平均平方の期待値を式で表すことが出来る。そしてその式を基に、帰無仮説を検定する際にFを用いることが導かれる。

分散分析ではどの水準間で差があるのかについてまで特定することはできない。もし、複数ある水準のどの水準間で平均値の差があるかまで調べたい場合には、テューキー法のような多重検定と呼ばれる手法を導入する必要がある。


理論的には分散分析モデルは計画行列(デザイン行列)として0と1からなる特殊な行列を用いた線形モデルと考えることができる。(竹村本の11章や東大工学教程 確率・統計Ⅱの1.1節を参照。t検定も同様。統計検定2013年理工学問4参照。)

だが分散分析は検定(F検定)を行うことが半ば前提となっている。用語についても水準要因といった独特の用語を使用する。そして母平均μ_iを一般平均μ主効果α_iに分解する。


線形回帰モデルでは一般に、計画行列Xの列ベクトルが全て一次独立であること(⇔X^TXが正則)であるこを仮定するが、分散分析では通常フルランクであることを仮定しない。

(回帰モデルでも仮定しないこともある。)

2元配置分散分析では交互作用A×Bが発生する。交互作用がある場合は、各水準の組から1つずつ観測値を得るだけでは不十分である。何故なら、データの構造式において交互作用とランダム変動の区別がつかないからである。


(10)分割法実験

多元配置において、無作為化を段階的に行う方法を分割法という。1次誤差と2次誤差が現れる。

分割法を用いると実験数が減るが、1次因子、2次因子、それらの交互作用の検証がしにくくなる。


(11)実験計画

素朴な目的意識は「如何に実験回数を削減するか」である。

実験計画法は、どの因子が重要か選別するスクリーニング実験と、選別した因子に対して曲面性も考慮して行う最適化実験の2つに大別することが出来る。

前者は完全実施計画直交表などが当てはまり、後者の代表的な手法が中心複合計画と呼ばれるものである。

実験計画法と言えば多くの場合、前者のことを指し、特に2水準系直交表による実験計画のことを指すことが多い。

完全実施要因計画(2^p型計画)とは全ての組み合わせを実施する実験計画であり、実験回数を減らした計画を一部実施要因計画という。