第4章は統計を扱います。


今回も「シロート統計学」のハルさんとコラボレーションすることとなりました。


シロート統計学はEZRを使った統計分析をわかりやすく解説されています。


 


第4章はシロート統計学で使われていたEZRをRで行うとどうなるのか?といった視点で進めていきます。


今回使うデータもハルさんのサイトと同じものを使わせでいただく事になりました。それぞれ見比べることで参考にしてみてください!


今回はMcNemar検定を紹介します



まずMcNemar検定についてはハルさんのサイトをご参照ください。



また1.準備〜4.データの読み込みまでは【4-1】Rでt検定を行う方法と全く同じ流れになります。
もし1〜4まででわからない部分があれば確認してみてください。

 

1.準備

第4章は毎回ExcelデータをダウンロードしてRを使うのでプロジェクトで管理して行うことを勧めています。

 

ここではR練習というプロジェクトを作り、Excelファイルを入れるためのdataフォルダを作っています。
これを前提に次から進めていきます。
スクリーンショット 2019-10-20 7.54.14


2.スクリプトファイルの作成

次にRのコードを書くためのスクリプトファイルを作ります。
スクリーンショット 2019-11-08 14.29.27




3.データのダウンロード

今回もハルさんのサイトのデータを使わせていただきます。

デモデータ(McNemar検定)

この章ではRを使ってダウンロードしています。


download.file(url = “ファイルのURL”,
        destfile = “保存したい場所/ファイル名”)
urlはデモデータで右クリック → リンクのアドレスをコピー
destfileは保存場所と保存のファイル名を指定します。


実際のコードは以下になります。
前回のコードのURL(" "の中)とdestfileのdata/以降を変更するだけでOKです。
#データのダウンロード
url <- "https://haru-reha.com/wp-content/uploads/2018/04/demo-mcnemar-test.xlsx"
destfile = "data/demo-mcnemar-test.xlsx"

download.file(url, destfile)

スクリーンショット 2019-11-05 11.18.20


dataフォルダにダウンロードできたことを確認します。




4.データの読み込み

データを読み込みます。
今回は【4-0】第4章を進めていく上での準備で行った方法で進めます。

View Fileでデータを確認します。

スクリーンショット 2019-11-07 23.37.11


データが入っているセルを確認します。
B2からC22までデータが入っています(B2:C22と表記)
スクリーンショット 2019-11-07 23.39.39




次にImport Datasetでデータを取り込みます。
スクリーンショット 2019-11-07 23.37.11



Import画面ではName, Sheet,Rangeを指定します。

Name:ハルさんのサイトではBWでしたがbwとします(大文字・小文字は別物とされます)
Sheet:このExcelは1つしかデータがないのでDefaultのままでOK
Range:先ほど確認したB2:C22

スクリーンショット 2019-11-07 23.40.57



Importボタンを押す前に右にあるコードをコピーしスクリプトファイルに貼り付けることも忘れずに行います。
library(readxl)
bw <- read_excel("data/demo-mcnemar-test.xlsx", 
                 range = "B2:C22")
View(bw)

データが正しく入っていることを確認します。
スクリーンショット 2019-11-07 23.41.15



これでデータの取り込みは完成です。


5.データテーブルの作成

Fisherの正確検定と同様にまずはデータテーブルを作成してみます。
データテーブルを作成するのはtable関数でした。
table(bw$Before, bw$After)
スクリーンショット 2019-11-08 6.14.43

これでデータテーブルができました。後で使うのでtable_bwという名前を付けておきます。
(必須ではありません)
table_bw <- table(bw$Before, bw$After)

6.McNemar検定を行う

次にMcNemar検定を行います。McNemar検定はmcnemar.test関数をを使います。

ncnemar.test関数は2つの記述方法があります。

①集計前の表(Excelの形式)を使う
今回のExcelの形でmcnemar.test関数を使う事ができます。

mcnemar.test(1列目, 2列目)
mcnemar.test(bw$Before, bw$After)

②集計後の表(テーブル形式)を使う
先程のテーブル形式(table_bw)をそのまま使うこともできます。
他にも既にExcelで集計してしまった場合です。

mcnemar.test(tableデータ)
mcnemar.test(table_bw)
スクリーンショット 2019-11-08 12.39.55

どちらもEZRと同じ結果になります。


7.まとめ

今回はRでMcNemar検定を行う方法を紹介しました。
Fisherの正確検定、カイ二乗検定、McNemar検定は似た使い方ですので続けて記事を見られた方は行いやすかったかもしれません。

またこのページの最後に連続補正について紹介しています。

次回は分散分析に移ります。



8.今回のコード
#データのダウンロード
url <- "https://haru-reha.com/wp-content/uploads/2018/04/demo-mcnemar-test.xlsx"
destfile = "data/demo-mcnemar-test.xlsx"

download.file(url, destfile)

library(readxl)
bw <- read_excel("data/demo-mcnemar-test.xlsx", 
                 range = "B2:C22")
View(bw)

#テーブルの作成
table_bw <- table(bw$Before, bw$After)
table_bw

#McNemar検定
mcnemar.test(bw$Before, bw$After)

mcnemar.test(table_bw)

9.(追記)連続修正による正規近似
McNemar検定はカイ二乗検定を元に近似値を求めています。


mcnemar.test関数はデフォルトで連続修正を用いた正規近似を用いています。
もし連続修正を用いない場合はcorrect = FALSEを付ける必要があります。
mcnemar.test(bw$Before, bw$After, correct = FALSE)

サイトによって連続補正を付けるか付けないか意見はあるようです。

連続補正あり(厳しめな検定、第1種の過誤を生みやすい)
直接検定
連続補正なし(甘めな検定、第1種の過誤が減る)


総じて言うと上記の傾向のようですが、気になる方は下記をご参照ください。



こちらでは連続補正を施したほうが近似値が良くなるとありました。
この近似はかなり正確なことと、p値がだいたい0.01くらいまでは連続修正を施した方が近似が良くなることがわかると思います。 そのためウィルコクソンの1標本検定と違って、通常はzoの値によらず全て連続修正を施します。


Rコマンダーのサイトでは理由は書いてありませんでしたが、correct = FALSEと言っています。
mcnemar.test(.Table, correct=FALSE)を追記して下さい。

マ ッ チドペ アにおける 2 × 2表の検定の第 1種の 過誤 ... - J-Stage


https://www.jstage.jst.go.jp › article › jscswabun › _pdf › -char

こちらの記事では連続補正をすると第1種の過誤が生まれやすいので無条件に使うには連続補正を行わないほうが良いといった記載がありありました。



こちらの記事ではnデータ数によって連続補正あり・なしを指定しています。



また、もともとはパソコンの性能上厳密な検定ができずカイ二乗検定をつかって近似値を求めていたようですが、二項検定やパッケージを使ってp値を厳密に計算することもできるようです。それに関しては奥村先生の記事をご参照ください。