標準偏差(ひょうじゅんへんさ、(英: standard deviation, SD)とは、データや確率変数の、平均値からの散らばり具合(ばらつき)を表す指標の一つである。偏差ベクトルと、値が標準偏差のみであるベクトルは、ユークリッドノルムが等しくなる。
標準偏差を2乗したのが分散であり、従って、標準偏差は分散の非負の平方根である[1]。標準偏差が 0 であることは、データの値が全て等しいことと同値である。
母集団や確率変数の標準偏差を σ で、標本の標準偏差を s で表すことがある。
二乗平均平方根 (RMS) を用いると、標準偏差は偏差の二乗平均平方根に等しくなる。 データ x1, x2, …, xn の平均値からの散らばり具合を数値にした標準偏差は、次の式で定義される: s = 1 n ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle s={\sqrt {{\frac {1}{n}}\textstyle \sum \limits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}} ここで x は平均値を表す。この定義は、データを数ベクトルと見て、「散らばり具合」を偏差ベクトルのユークリッドノルムととらえる考えに基づく(このことより平均偏差でなく自乗平均をとる)。もとのデータ x を、平均値、「散らばり具合」を変えず、偏差が全て同じであるように取り直したデータ y を考える。x の大きさが奇数のときは、x を、自分自身2個を併せたデータ(大きさは偶数)に取り直す(そうしても平均値、「散らばり具合」は変わらない)。y の偏差ベクトルは (±s, ±s, …, ±s) (s ? 0) の形になる。x と y の「散らばり具合」が等しいことから、 ‖ x − x ¯ ‖ = ‖ ( ± s , ⋯ , ± s ) ‖ {\displaystyle \|{\boldsymbol {x}}-{\overline {\boldsymbol {x}}}\|=\|(\pm s,\cdots ,\pm s)\|} n s 2 = ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle ns^{2}=\textstyle \sum \limits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}} s = 1 n ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle s={\sqrt {{\frac {1}{n}}\textstyle \sum \limits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}} // 標準偏差は平方根を取るため、簡単な計算法則が成り立ちにくいという特徴がある。そこで分散 s2 を s 2 = 1 n ∑ i = 1 n ( x i − x ¯ ) 2 {\displaystyle s^{2}={\frac {1}{n}}\textstyle \sum \limits _{i=1}^{n}(x_{i}-{\overline {x}})^{2}} で定義する。分散には簡単な計算法則がいくつか成り立つことから、種々の標準偏差ができるようになる。詳細は「分散 (統計学)」を参照 標準偏差の概念は、イギリスの統計学者フランシス・ゴルトンにより、親子の身長の相関関係を調べる中で初めて見出された[2]。
概要