ブログ

医療統計学基礎


当ブログは骨格筋痛に対するアプローチに関する情報をまとめています。

施術者はそのための情報を集めるわけですが、経験論だけではトンデモ医療かどうかの判断がつきません。

また、自身の施術の信頼性を確かめることができません。
そのため情報収集の基礎として医学統計学が必要になってきます。
しかしながら統計学を医療系の学校教育で習うところは多いとはいえません。

当ブログでは統計学はコンピテンシーと考えています。
この情報爆発の起きた現代では、必須のスキルと考えています。
統計学の受け入れ難さとして、専門用語が分かりにくいというのが挙げられます。

統計学用語を調べたところで、さらに分からない言葉の羅列で結局分からないままとなるケースがあります。

統計学用語の定義というのは、元々統計学を知っている人間がより正確に理解するためにはつかえますが、新たに統計学を学ぼうとした人が見ても難しすぎるのです。

現在の高校の数学教育ではカリキュラムに統計学が導入されたおかげで、統計学の敷居が低くなりましたが、私も含め、高校で統計学がなかった世代には敷居が高いです。
さらに例え統計学を高校で習っていたとしても、その内容は基礎の基礎レベルであるため、例えば論文を読もうとしたところで理解することはできません。

ということでここでは医療統計学基礎として、医学論文で頻出する統計学の基礎を簡単にまとめていきます。

 

統計学とは

統計学はある現象の規則性だったり、不規則性を知ろうとする学問です。

不確実な情報の確からしさを求めることができます。

身長を例にするのであれば、経験的にこれくらいが平均とはなんとなく分かっていても、実際多くの人を集めてなくてはその確証を得られません。

平均体重となると、より不確実ではないでしょうか?

統計学はこのような不確かなことがらをより明確にすることができます。

統計学は経験の誤りを正すことができます。

統計学を学ぶことで、経験主義・感覚主義がどれだけ危ういか、そして人の確率に対する認知能力がどれだけ低いのかを理解できます。

 

平均とは?

まずは中学でも(小学校?)習った平均です。(普通科高校でも習います)

英語ではmeanといいます。平均値はmean valueです。

平均値は複数の数値に対して、個々を全て足し合わせた後、数値の個数で割った値のことを指します。

具体的を見ていきます。

計算しやすいようにサンプル数を3人にします。

3人の平均身長は

  • Aさんは160cm
  • Bさんは170cm
  • Cさんは180cm

平均値はこれらの総和を人数で割った数なので

(160+170+180)÷3=170

つまり平均170cmとなります。

この平均170cmは日本人の平均でも世界の平均でもなく、この3人の平均です。

日本人の平均身長を考えるときに、この3人を参考にしても信頼はできないわけです。

これがサンプルが少ないと信頼できない理由であり、個人の経験談はしばしば間違って認識されている理由ですね。

次に平均値の文字式について解説します。

この計算(160+170+180)÷3=170を文字式に置き換えます。

これら一人一人の身長をxとします。

1人目はx12人目はx23人目はx3とします。

そうすると式は

(x1+x2+x3)÷3=となります。

これは人数が増えても同じです。

人数がn人の場合

(x1+x2+x3…+xn)÷n=となります。

x1からxn番目まで足して、その人数(n)で割っています。

式を最もシンプルにします。

ここを理解することで、後後出てくる標準偏差などの言葉を理解しやすくなるので今のうちにやっておきます。

数式を出すとこんな感じです。

nはサンプル数です。ここで言えば3人なのでn=3です。

iは何番目のデータなのかを示します。

例えばi=1なら1番目のデータ、つまりAさんの160です。

Σは総和記号なので与えられた条件を全部足しなさいという意味です。

つまり足し算の記号です。

ここではの下にi=1、上にはnが付いています。

これはi=1(1番目の数値)からn(サンプルの最後)まで足しなさいと言う意味です。

何を足すのかといえばの右にあるxiをです。

xiは何番目の数値かを表しています。

例えばi=1、つまりx11番目の数値、“160”

i=2、つまりx22番目の数値、“170”

x33番目の数値、“180″が入ります。

これらをまとめると、この数式の意味は

i=1(1番目の数値)からn(最後)までの数値を∑(足す)しなさい。

つまり

平均値=(x1+x2+x3)/3

となり、

実際の数値を当てはめるとこのようになります。

平均値=(160+170+180)/3

 

ばらつきとは?

ばらつきとは、各数値がどれだけ離れているかを意味します。

例えば

9,10,110,10,20を比べると0,10,20の方が比較的離れた数値です。

どちらも平均は10ですが、これらを同じものと考えるのはおかしいですよね。

臨床に置き換えてみます。

ストレッチの可動域に対する効果性が

  • Aさんでは0
  • Bさんでは10
  • Cさんでは20

となっているのであれば、ストレッチの効果性がイマイチ不明瞭です。

  • Dさんは9
  • Eさんは10
  • Fさんは11

の方が(サンプル数が少ないことに目を瞑れば)10度の変化の確実性が高いです。

ということでこのばらつきは統計学によく出る重要な概念です。

最近の高校生は数学で習っているようです。

それでこのばらつきを表す方法っていうのがいくつかあるのですが、最も論文を読んで見かけるのが標準偏差(ひょうじゅんへんさ)です。

ここでは基礎なので標準偏差と、標準偏差を理解するために必要な分散(ぶんさん)を紹介します。

 

分散とは

分散は英語ではvarianceと表記します。

分散はデータのばらつきを表します。

まずは先ほどと同じ様に文字式なしで解説します。

分散は

サンプルの数値から平均を引いて、2乗した数の総和を平均した数です。

先程の例を用います。

  • Aさんでは0
  • Bさんでは10
  • Cさんでは20度
  • 平均10度

です。

まず、サンプルの数値から平均を引くので

0-10=-10

10-10=0

20-10=10

となります。この数値を偏差と呼びます。

次にこれらを2乗します。

-10^2=100

0^2=0

10^2=100

(^22乗を意味しています)

この数値を偏差平方といいます。

これらを足します。

100+0+100=200

この数値を偏差平方和といいます。

サンプル数が3()なので2003で割ります。

200÷366.6となります。(ここでは四捨五入ではなく切り捨てしています。)

つまりこの時の分散は約66.6です。

因みに、

  • Dさんは9
  • Eさんは10
  • Fさんは11
  • 平均10

で分散を計算すると1となります。

導き出された166.6はデータのばらつきの差がある事を表しています。

しかしながら、分散は66.6の様に数値がかなり大きくなってしまうため、直感的にどれだけのばらつきがあるか理解しにくいです。

その問題を解決するのが次に出てくる標準偏差です。

標準偏差の前に平均同様分散も文字式で表してみます。

ぱっと見、複雑そうですが、さっきの平均値の式2箇所付け足しただけなのでかなりシンプルです。

あるデータ(xi)から平均を引いてそれを2(^2)しなさいという意味です。

つまり

Σの下にはi=1Σの上にはnがあるので、i=1(最初の数値)からn(最後の数値)までを(xi-mean)^2してΣ(全て足し)し、1/n(サンプル数で割り)しなさい。

となります。

 

標準偏差とは?

標準偏差は分散と同じようにばらつきを表しますが、分散よりも数値の大きさが小さいためわかりやすいです。

標準偏差は英語ではstandard deviationといい、SDと表記されます。

例えばmean(SD)=10(2)と表記されていれば、平均は10で標準偏差は2となります。

標準偏差はシンプルで分散の平方根です。

分散では各データを2乗していたので、単にそれを平方根で数値の大きさを戻しただけです。

つまり文字式はこうなります。

実際例をだすと、先程の例では

  • Aさん0
  • Bさん10
  • Cさん20
  • 平均10
  • 分散66.6

だったので、この66の平方根、√66.68.2となります。

そのためA,B,Cさんのストレッチによる可動域の上昇はmean(SD)=10(8.2)となります。

つまり可動域は10度向上するけど8度くらいはばらつきますよ!という意味になります。

 

言い方を変えると平均からのばらつきの平均が標準偏差ともいえます。

 

平均値と最頻値と中央値

まずこの平均値と最頻値と中央値の違いを大雑把にいうと、

平均値が「すべての数字を足して、個数で割ったもの」

最頻値が「一番、個数が多いもの」

中央値が「数値を並べたときに真ん中にくるもの」

となります。

身長を例にしてみます。

ここでは大雑把に日本人の平均身長を170cmとします。

身長170cmの人が多く、170cmから離れた身長の人が少なくなります。

平均から+30cmある200cmの人は多くはみかけないですし、反対に平均から-30cm140cmの人もあまりみかけません。

そのため、人数と身長の関係をグラフに表すとこのようにベル🔔のような形になります。

そのためこのような曲線をベルカーブと呼びます。

ではこの場合の最頻値はどこでしょうか?

もっとも数が多いのは170cmなので最頻値も平均とイコールになります。

では中央値はどうでしょうか?

後後詳しく説明する(正規分布のところで)ことになりますが、この様なベルカーブの時、最低身長から最高身長まで並べた場合、身長では真ん中くるのは170cmになるため、平均とイコールになります。

つまり身長で考えれば平均値も最頻値も中央値もイコールの関係になります。

しかし、イコールにならないものもあります。

よく挙げられる例は年収です。

平均年収は大体400万くらいですが、全員の中心となる人の年収、つまり中央値は350万ほどです。

さらにもっとも数が多い年収、つまり最頻値は300万ほどです。

なぜこんな差が生まれるかは、身長同様にグラフをみればわかります。

身長はベルカーブを描く平均値から左右非対称の綺麗な曲線でしたが、年収は歪んだ曲線になります。

年収グラフの場合は高収入の人の年収が平均から離れすぎていて、平均年収を釣り上げてしまっています。

そのため、平均年収を一般的なサラリーマンの年収だと勘違いすると、平均年収高すぎ!となるわけです。

では、医療論文ではどんな時に中央値が使われるのでしょう。(最頻値はあまり使われません)

中央値の使いどき

中央値が使われるのは、ベルカーブが歪められるような極端な数値が含まれる時です。

例えばある研究で、参加者の年齢が

10代が多く、90歳の高齢者が混じっていたとします。

この研究で参加者の平均年齢を記載すると、場合によっては平均年齢30歳や40歳のように、中央値からかなり外れてしまうことになります。

この高齢者のように他の数値から極端に離れているものを「外れ値」といいます。

外れ値がある場合やベルカーブ(後々解説する正規分布)でない場合、平均値を使うことが不適切になります。

平均値は外れ値に左右されますが、中央値は外れ値に左右されないため、このような場合に中央値が用いられます。

四分位範囲と四分位偏差

ここまでタイトルの四分位範囲(しぶんいはんい)について全く触れてきませんでした。

平均値の時は、ばらつきを表すときに標準偏差を用いていました。

中央値でばらつきを表すときは四分位範囲/四分位偏差を用います。

標準偏差より簡単な概念だと思います。

四分という名前が付く通りサンプルを4分割します。

中央値がサンプルを小さい順に並べた真ん中の値です。

まず中央値でサンプルを半分に分け、その半分になったサンプルをさらに半分に分けます。

これで4分割されます。

この分割される数値を四分位数といい、小さい方から第一四分位数、第二四分位数(中央値)、第三四分位数といいます。

四分位範囲の求め方は第三四分位数第一四分位数で求められます。

また、四分位偏差は四分位範囲を1/2することで求められます。

例えば、10,20,30,40,50,60,70のデータの場合中央値は真ん中の40になります。

 

中央値を中心に左右を半分に分けると、第一分位数が20、第三分位数が60となります。

四分位範囲は60-2040となります。

四分位偏差はさらに2で割り20となります。

度数分布表とは?

度数分布表はデータを表にまとめる方法の1つです。

この後解説するヒストグラムは度数分布表をもとに作られます。

ざっくばらんにいえば、度数分布表はある範囲にどれだけ(何人)データがあるかを表しています。

言葉だと分かりにくいので実際に表を書くと↓なります。

前回に引き続き、ストレッチによる可動域の変化を例にします。

ここでは1-5°,6-10°,11-15°,16-20°と範囲を決め(表の左)、そこに何人分布するか(表の右)記入しています。

ヒストグラムとは?

この度数分布表を棒グラフに表したのがヒストグラムです。

ヒストグラムによりどの範囲にどれだけ密集しているかが見てわかります。

そしてどれだけばらつきがあるかもわかります。

確率分布とは?

さて、ヒストグラムが分かったところで、次に確率分布に応用します。

確率分布はある値をとる確率を示したものです。

先程のヒストグラムは大雑把なものですが、これをどんどん細分化していくとこの様になるのが分かると思います。(雑な図ですが)

これを確率分布といい、どのくらいの確率でその数値が出るかを面積で表しています。

正規分布とは

確率分布の中には正規分布と呼ばれるものがあります。

例えばストレッチによる可動域の変化が正規分布だと仮定します。

正規分布はこの様な形をしています。

正規分布は必ず左右対称です。

そして正規分布では平均値と中央値と最頻値が一致します。

この図の少しの誤差はスルーして下さい。

正規分布では平均(標準偏差)の間にデータの約68.3%が含まれます。

さらに

mean(2SD)の間にデータの約95.4%が含まれます。

さらに

mean(3SD)の間にデータの約99.7%が含まれます。

p値と有意水準、有意差

 

p値という言葉を聞いたことはあるでしょうか?

「ぴーち」と呼びます🍑

医学論文を読むとよくこの「p値」が出てきます。

p値は重要度がかなり高い言葉で、統計を見る上ではかかせません。

この概念も中々厄介です。

しかもp値を学ぼうとすると帰無仮説やら棄却やら対立仮説やらと難しい言葉の羅列でさらにこんがらがります。

まずはもっと簡単に理解すれば良いと私は思います。

統計を取った時に、それが偶然か否かは重要なことです。

p値はこの、偶然、たまたまを検出するのに使われます。

例えば、「ストレッチ」と「ストレッチのフリ(シャム)」で効果を比べて、ストレッチの方が効果があれば、ストレッチに効果ありと分かりますが、このストレッチとストレッチのフリの効果の違いは、偶然起こったのかどうかを確かめなければなりません。

偶然効果が高く出たのたらストレッチに効果があるとはいえないですよね。

ここで2つ仮説を立てます。

ストレッチとストレッチのフリには効果に

  • 差がない
  • 差がある(証明したいこと)

それで、「差がない」確率が低いのなら「差がある」と言えますよね。

このような回りくどいようなことをしていくので、統計は難しいです。

それでp値というのは、ここでいう「差がない」という仮説と実際の実験結果がどれだけ不一致かを表しています。

つまりp値が低いほど、「差がない」といえないので、「差がある」可能性が高いと言えるのです。

それで、じゃあどれだけp値が低ければ良いの?となりますよね。

  • 0.1
  • 0.05
  • 0.01

これを統計を取る前に予め決めておきます。

この基準を有意水準といいます。

有意水準はαで表されます。

大抵は0.05、つまりp値がα=0.05より低ければ、効果あり(有意差あり)とされます。

実は0.05にする決まりはなく、数値が小さければ問題はないのですが、習慣的に0.050.01にされます。

その名の通り有意水準は有意であるための水準です。

因みに論文の中ではわかりやすいように有意差がある数値には*がついていることが多いです。

このp0.05を別の言い方で表現するのなら、

「この結果(差がない)を再現できる確率は5%未満」、つまり「差がない」となるのは5%未満であるのだから「差がある」可能性があるとなるのです。

こうしてみるとp0.05の問題点も分かると思います。

「差がない」が5%未満の確率ということは20回やったら19回は「差がある」、1回は「差がない」になるのです。

だから0.05を基準にするのは確実性が高いとはいいきれないですよね。

有意差があるとはいっても信頼しきれない理由はこれによります。

そのため有意水準を0.05ではなく、0.01に設定する人もいます。

もう一つ、有意差だけで判断してはならない理由があります。

研究のサンプル数が少ないほど、有意差は出にくく、サンプル数が多いほど有意差は出やすくなります。

つまりサンプル数が多いと臨床で使えないレベルの差でも有意差ありとなってしまうのです。

そのため有意差があるかどうかの情報では臨床に使うことはできません。

大雑把にp値、有意水準、有意差の関係をまとめると、

p値が有意水準未満なら有意差ありと判断します。

 

補足:帰無仮説と対立仮説

 

最初に帰無仮説と対立仮説という名前を出しました。

実は帰無仮説と対立仮説はすでに上記しています。

ここでいうと

「差がない」は帰無仮説で「差がある」が対立仮説です。

対立仮説の方が証明したいことで、帰無仮説はその反対です。

ここでは証明したいことの逆である帰無仮説を否定する(棄却)することで対立仮説の正当性を確かめています。

RELATED POST