カテゴリ: 統計

*更新日:2020/09/28
*記事を大幅に追加

*最終更新日:2020/09/30
*gtsummaryのバージョンが上がったことでインストールのコードを一部修正



医療統計に限らず、データを分析する時に集計表を出す場面は多くあります。

特に医療統計では表1(table1)として図表の最初に提示することが多いです。

スクリーンショット 2020-09-12 9.37.17

ポスター発表だとPower Pointでしょうか。
スクリーンショット 2020-09-12 9.38.30

論文であればWordを使うかもしれません。
スクリーンショット 2020-09-12 9.40.28

このtable1を作る時は基本次のような作業が必要になります。
・Excelで集計
・コピー
・WordやPower Pointに張り付け、もしくは手打ち
・体裁を整える

これが意外とめんどくさい作業なのですがRを使えば一度に行えます。
・Excelでデータを集める
・Rで集計→体裁を整える→Word, Power Point, 図として出力する

今回はgtsummaryパッケージを紹介します!


そしてこの記事を書いている最中にgtsumarryパッケージの作者であるDaniel Sjobergさん(@statistishdan)より直接アドバイスを頂きました。この場を借りてお礼申し上げます。



改善点やリクエストがあれば連絡が欲しいとのことでした。自分もいくつかリクエストさせていただきましたが、疑問点や改善点あればご指摘いただければ連絡してみるのはいかがでしょうか。




1.データの準備
今回は【1-11】Rで医療統計で必要なtable1を作るtableoneパッケージについて紹介しますで使用したデータと同じものを使います。


set.seed(1)
年齢 <- floor(rnorm(100,60,10))
性別 <- sample(c("男性","女性"),100,replace = TRUE)
体重 <- floor(rnorm(100,60,7))
MMT <- as.numeric(sample(c(1:5), 100, prob = c(0.1,0.1,0.2,0.3,0.3), replace = TRUE))
術側 <- sample(c("右","左"),100,replace = TRUE)
治療 <- sample(c(0,1),100,replace = TRUE)
data <- data.frame(年齢,性別,体重,MMT,術側,治療)
data
今回は治療(0:対照群、1:治療群)として分けていきます。


もしご自身のExcelデータで取り込み方がわからない場合は【4-0】第4章を進めていく上での準備をご参照ください。プロジェクトの使い方やExcelデータの読み込みについて紹介しています。


2.ライブラリの読み込み

一言でいうとライブラリとはRの機能を拡張してくれる機能の事です。

今回は4つのライブラリを使います
gtsummary(table1や結果の表をいい感じにまとめてくれる)
tidyverse(データの集計などに使用。今回はサブ的に使う)
gt(gtsummaryのデータをもっと細かく修正することができる。gtsummaryだけで完結するので必要ないが、表のタイトルやサブタイトルを付け加えたかったら必要)
flextable(できた表をWordやPower Point形式に貼り付ける際、gtsummaryよりも細かいく修正することができる。gtsummaryだけで完結するので必要ないが、表のタイトルやサブタイトルを付け加えたかったら必要)

rstudioのPackagesをみて自分のパソコンにインストールされているか確認してみてください。
このリストに入っていなかったり、最新のパッケージにしたい場合は以下のコードをコピペして実行してください。この操作は毎回する必要はありません。

install.packages("gtsummary")
install.packages("tidyverse")
install.packages("gt")
install.packages("flextable")

(追加)
記事作成時点(2020/09/23)でのバージョンは1.3.4です。
ただ1.3.4.9008以降で使えるtheme_gtsummary_mean_sd()がとても便利です。
現段階で最新版を使うためにはgithubからインストールする必要があります。
2020/09/30にバージョン1.3.5がリリースされました。
上記のinstall.packages("gtsummary")で問題ありません。


ライブラリがインストールできていれば今度はパッケージを読み込みます。
基本Rstudioを起動すると基本のパッケージしか使えない状態です。
パッケージは毎回呼び出す必要がありlibrary関数を使います。
まずは今回の記事で必要なgtsummaryとtidyverseを読み込みます。

library(gtsummary)
library(tidyverse)

これで準備は完了です。


3.表を作る前に確認しておくこと


table1はそもそも各群のベースラインを比較します。

スクリーンショット 2020-09-12 9.38.30


そのためには各変数(評価)がどんなデータか理解している必要があります


数値かカテゴリーか?

集計を行うにはその変数が数値なのか?カテゴリー変数なのか?の理解が必要です。

数値:年齢・体重

カテゴリー:性別、MMT、術側

MMTは「1が7人、2が5人・・・」と集計を行いたいとすると、値は数値ですがカテゴリー変数として集計を行う必要があります。


数値の場合は正規分布なのか?そうでないのか?

同じ数値でも正規分布かそうでないのか?を決めておくことが必要です。

正規分布であれば平均±標準偏差ですが、正規分布でない場合は中央値(四分位範囲 or 最大値〜最小値)で表現したりします。


4.基本的な使い方

今から実際にgtsummaryを使っていきます。

まずは作ってみる

集計表を作るのはtbl_summary()関数を使います。

dataのデータをtbl_summary関数に入れ込みます。
これを表現するとdata %>% tbl_summary()と表記します。
%>%はパイプ演算子といい、最近Rでデータを扱う時の主流となっています。

data %>% 
  tbl_summary()
スクリーンショット 2020-09-12 13.43.17

とりあえず集計表ができました!ただ群別に表示がされていないので群を分けます。
tbl_summary(by = 群分けする列名)のようにby=○○を付け加えるだけです。

data %>% 
  tbl_summary(by = 治療)
スクリーンショット 2020-09-12 14.01.16
たった2行でそれらしい表ができてきました!


5.テーマを決める

gtsummaryはいくつかのテーマ(設定)があります。
表の細かい修正の前にテーマについて紹介します。


・ジャーナルに合わせたテーマに変える(JAMA / LANCET)
・日本語にする
・デフォルトの中央値(四分位範囲)を平均(標準偏差)に変える
・列幅を狭める
・元の設定に戻す

5−1.ジャーナルに合わせたテーマに変える(JAMA / LANCET)

table1といっても投稿するジャーナルで投稿規定が違います。
gtsummaryでは現在JAMAとLANCETのに合わせたテーマがあります。

#JAMAの投稿規定に合わせる
theme_gtsummary_journal(journal = c("jama"), set_theme = TRUE)
#LANCETの投稿規定に合わせる
theme_gtsummary_journal(journal = c("lancet"), set_theme = TRUE)

#元の設定に戻す
reset_gtsummary_theme()


5−2.日本語にする

英語→日本語にする機能もあります。

#日本語にする
theme_gtsummary_language("ja")
#元の設定に戻す
reset_gtsummary_theme()
スクリーンショット 2020-09-12 14.39.39

注釈などが日本語に変わりました。


5−3.デフォルトの集計・検定を中央値(四分位範囲)を平均(標準偏差)に変える

gtsummaryではデフォルトの集計・検定方法がノンパラメトリックとなっています(中央値・四分位範囲・Wilcoxonの順位和検定など)。
医療統計では平均(標準偏差)で表現することが多いです。個別に設定する方法は後ほど説明しますが、デフォルトでパラメトリックにする設定があります(平均・標準偏差・t検定など)。

theme_gtsummary_mean_sd()

#元の設定に戻す reset_gtsummary_theme()

*この機能はパッケージ開発者のgtsumarryパッケージの作者であるDaniel Sjobergさん(@statistishdan)に自分がリクエストしたところ機能追加していただきました。バージョン1.3.4.9008以降で使えます。ありがとうございます!



5−4.幅を狭くする

できた表はゆとりがありますがコンパクトにまとめることもできます。
theme_gtsummary_compact()を実行するだけです。

#幅をコンパクトにまとめる
theme_gtsummary_compact()

#もとの設定に戻す
reset_gtsummary_theme()
スクリーンショット 2020-09-12 14.45.41

5−5.設定を戻す

今まで説明したtheme_gtsummary_〇〇関数ですが、全てrecet_gtsummary_theme()を使えばデフォルトの設定に戻ります。

reset_gtsummary_theme()


6.p値の列を作る

次にp値の列を作ります。
作り方は%>%を使い、先程のコードにadd_p()を加えるだけです。

data %>% 
  tbl_summary(by = 治療) %>% 
  add_p()
スクリーンショット 2020-09-12 14.52.49
注釈までつけてくれました。
年齢と性別にはWilcoxonの順位和検定(マン・ホットニーのU検定)
性別と術側にはカイ二乗検定
MMTにFisherの正確確率検定が使われています。
「Wilcoxonの順位和検定じゃなくてt検定にして欲しい」に関しては先程説明した5−3.デフォルトの集計・検定を中央値(四分位範囲)を平均(標準偏差)に変えるをご参照ください。中には平均±標準偏差にしたり、これは平均だけどこっちは中央値など細かい調整をしたい場合もあるかもしれません。細かい設定は下にある14−3.集計方法を変更するをご参照ください。

*検定自体に関しては第4章に解説があります。サイトマップに一覧がありますので検定に関して知りたい場合は確認してください。



7.N数を加える
人数を加える場合はadd_n()を加えます。

data %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_n() 
スクリーンショット 2020-09-12 15.01.43
欠損値がないので全て100ですが、欠損値があるデータだと変わることはあります。


8.全体の集計の列を作る

もし全体の集計列を加えたければadd_overall()を加えます。
今回はadd_n()を外してadd_overall()を加えていますが、もちろんどちらも加えることも可能です。


data %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() 
スクリーンショット 2020-09-12 15.05.19


9.変数名を太字にする
このままでもいいですが、変数名を太字にしてわかりやすくします。
bold_labels()を使います。

data %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()
スクリーンショット 2020-09-12 16.04.08




10.出力する

まだまだ調整は必要ですが、とりあえずここで出力してみます。
スクリーンショット 2020-09-12 15.50.09

出力には出力のファイル形式(docやpdf,図など)にあわせてgtsummary内の型を変える必要があります。

スクリーンショット 2020-09-12 15.27.50
公式サイトより引用

出力の形式はgt,kable,flextableなどがあります。
デフォルトはgtとなっています。
gtとはRだけでいい感じの表を作るためのgtパッケージの形式です。
今まで見てきた表です。確かにとても綺麗です。




HTMLの場合

HTML形式の場合はこのまま出力できます。
右下のViwerからSave as Web Pageを選択します。
Save as ImageやCopy to Clipboardは日本語が入るとうまく機能しません。
画像として残したいならパソコンでスクリーンショットを撮ったほうが早いです。
スクリーンショット 2020-09-12 16.07.28


Office(Word, Power Point)の場合

Officeの場合はflextable形式に変換します。
先程のコードにas_flex_table()を加えます。
そしてtable1(他の名前でもいい)という変数を付けます。
今までずっとtheme_gtsummary_compact()を設定していたので小さなサイズの表になっています。
今回は一度リセットし再度日本語にした状態で行ってみます。

reset_gtsummary_theme()
theme_gtsummary_language("ja")
table1 <- data %>% tbl_summary(by = 治療) %>% add_p() %>% add_overall() %>% bold_labels() %>% as_flex_table() table1
スクリーンショット 2020-09-12 16.18.20
gt形式と雰囲気が変わりました。こちらのほうが論文で見た形に近いかもしれません。

次にこれをWordやPower Pointに変換しますが1行のコードでできてしまいます。
手っ取り早く変換するにはprint(今作った変数名, preview="○○")を使います。
preview="○○"はpreview="docx"preview="pptx"の2択です。

#Wordで開く場合
print(table1, preview = "docx")
スクリーンショット 2020-09-12 16.22.24


#Power Pointで開く場合
print(table1, preview = "pptx")
スクリーンショット 2020-09-12 16.26.25


どうでしょうか!!!
この後の文字サイズや修正もWordやPower Pointで直接できてしまいます!
これだけでもかなり時短になるかと思います。

ただ集計方法を平均(標準偏差)やt検定を使うためにはもう少しコードを変える必要があります。


11.様々な箇所を修正する
ここからは応用編になりますが、gtsummaryは色々な箇所を変更することができます。

スクリーンショット 2020-09-27 20.54.57


変数の順番を変えたい、いらない変数を減らしたい:gtsummaryの前に修正しておく
列内の文字の修正(0→対照群)|:gtsummaryの前に修正しておく
集計の方法や表示を修正したい:tbl_summary()
検定の方法を変えたい:add_p()
左上のCharacteristicを変えたい:modify_header(label=)
ヘッダーを編集したい:modify_header(stat_by=)
overallの列を編集したい:add_overall()
ヘッダーの上にもう一つ追加したい:modify_spanning_eader()|
Nの列を編集したい:add_n()
脚注を編集したい:modify_footnote()
タイトル、サブタイトルを加えたい:gtsummaryで直接できない。(gtパッケージやflextableパッケージで編集する)

上記の()内にコードを追加することで細かい修正ができます。


12.変数を並べ替えたい

変数はdataの変数の並んでいる順になっています。
そのため並べ替えるにはgtsummaryを使う前にdataの並び順を変える必要があります。
dataを並べ替えるには【2-4】Rで指定した列や行だけを取り出すselect関数、slice関数、filter関数を紹介しますで紹介したtidyverseパッケージselect関数を使います。
data %>% select関数で並べ替える %>% tbl_summary() %>% ・・・とtbl_summary()の前に入れます。

data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()
スクリーンショット 2020-09-12 16.38.50


13.列内の文字の修正(0→対照群など)

今は治療が0,1となっています。
修正するにはgtsummaryの前にdataのデータ自体を修正します。
列を修正するには【2-2】Rのmutate関数を使って列の追加や修正を行うで紹介したmutate関数を使います。先ほどと同じでtbl_sumamry()の前に入れます。
mutate()の中はfactor関数を使います。factor(列名, labels=c(○○))に関しては【1-10】Rでよく使われる型について説明します。のfactor関数の箇所をご参照ください。

data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()
スクリーンショット 2020-09-12 17.46.55



14.集計を変更する(tbl_summaryのいろいろな設定)

集計方法を指定するのはtbl_summary()です。
公式ドキュメントはこちら



既にby=は説明していますが、ここではtype(変数のタイプ)、label(一番左の変数名)、statistics(集計方法)、digits(小数点第何位まで示すか)を紹介します。

どれも○○ =変えたい変数名を選択 ~ 何に変えるかといった表記方法になります。

14−1.集計のタイプを指定する(type=)

今回のデータでいうと、MMTはカテゴリーとして表にする予定で特に修正は必要ありませんでした。もしMMTがカテゴリーでなく数値として認識されるとこうなります。
スクリーンショット 2020-09-12 17.05.44
これは列ごとに集計のタイプが決まっているからです。
タイプというのは以下のの3種類です。

"continuous(数値)"
"categorical(カテゴリー)"
"dichotomous(2択)" 

gtsummaryでは自動的にタイプを決めてくれるのですが、もし変更したい場合場合はtbl_summary()内でtype = 変えたい変数名 ~ "○○"を加えます。
○○は先程の3択です。

例えばMMTをカテゴリー変数として扱いたければ以下のようになります。

data %>% 
  tbl_summary(by = 治療,
              type = MMT ~ "categorical")


14−2.一番左の変数名を変更する(label=)

左の列は変数名が載っていますが、単位など付け加えたい場合もあります。
変数名を直接編集したい場合はtbl_summary()のlabel=""で編集します。
もし変えたい変数が2つ以上の場合はlist()を使う必要があります。
下の2つのコードはlabel=しか変わっていないので見比べてください。上のツイートも参考になります。

#変えたい列が1つだけのとき
data %>% mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% select(治療,年齢,体重,性別,術側,MMT) %>% tbl_summary(by = 治療, label = 年齢 ~ "年齢(歳)") %>% add_p() %>% add_overall() %>% bold_labels()

#変えたい列が2つ以上の時はlist()の()内に入れる
data %>% mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% select(治療,年齢,体重,性別,術側,MMT) %>% tbl_summary(by = 治療, label = list(年齢 ~ "年齢(歳)", 体重 ~ "体重(kg)")) %>% add_p() %>% add_overall() %>% bold_labels()
スクリーンショット 2020-09-12 18.06.04


14−3.集計方法を変える(statistic=)
集計方法のデフォルトが中央値(四分位範囲)となっています。
最新バージョン(バージョン1.3.4.9008以降)ではtheme_gtsummary_mean_sd()関数を使えば平均(標準偏差)になりますが、平均±標準偏差平均と中央値を同時使いしたい場合はtbl_summary()内でstatistic=○○を指定します。
tbl_summary(statistic = 変えたい変数名 ~ "集計方法")という書き方をします。

data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療,
              statistic = c(年齢, 体重) ~ "{mean}({sd})") %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()
スクリーンショット 2020-09-12 18.11.46
脚注を見ると平均(標準偏差)に変わっています。


今回はc(年齢, 体重)と列名を指定しました。
もし全ての数値の列を選びたい時はall_continuous()を使うこともできます。
data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療,
              statistic = all_continuous() ~ "{mean}({sd})") %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()

もし年齢だけ指定すると、年齢は平均(標準偏差)、体重はデフォルトの中央値(四分位範囲)となります。

data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療,
              statistic = 年齢 ~ "{mean}({sd})") %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()

スクリーンショット 2020-09-12 18.19.20


もし中央値[四分位範囲]など2箇所変更するならlabel=の時と同様にlist()を使います。
data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療,
              statistic = list(年齢 ~ "{mean}({sd})",
                                 体重 ~ "{median}[{p25},{p75}]")) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()
スクリーンショット 2020-09-12 18.21.16

ここで右側の説明を行います。
{集計方法}とすることで集計ができます。{}に入っていない箇所はその文字がそのまま使われます(ここでは( )や[]やカンマなど黒文字の箇所。%や人など文字を入れることも可能)。
スクリーンショット 2020-09-12 18.32.59

他にも集計方法はあります。
{n}:集計した人数
{p}:集計した人数の%
{N}:母数
{p○○}:○○%時の値(0から100の数値を指定。"{p10},{p90}"など)
{var}:分散
集計方法を変えると自動的に脚注が変わるのもありがたいところです。

もし平均±標準偏差にしたい場合はどうしたらいいでしょうか?
"{mean}±{sd}"とすればOKです。±の間にスペースを入れることだって可能です。

14−4.小数点をあわせる(digits=)
デフォルトでは整数になっていますが、小数点第何位まで指定することができます。
人数は整数(0)がいいですし、小数点第何位で指定したい場合もあります。

data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療,
              statistic = list(年齢 ~ "{mean}({sd})",
                                 体重 ~ "{median}[{p25},{p75}]"),
              digits = list(c(年齢,体重) ~ c(1,2), 
                            c(性別,術側,MMT)  ~ c(0,1))) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()
スクリーンショット 2020-09-12 18.48.13


digits = list(c(年齢,体重) ~ c(1,2), 
                  c(性別,術側,MMT)  ~ c(0,1)))
~の左側は今までと同様に列の選択を行っています。
今回~の右側は2つ数値を指定しています。
これは{平均}({標準偏差})という2つの数値を使っているからです。
年齢と体重の1つめの1は平均の小数点は第1位、2つめの2は小数点第2位という意味になります。

ここで体重の75%を確認してみてください。小数点第1位になっています。これは体重は{中央値}、{25%}、{75%}の3つの数値を指定する必要があるのに3つ目を指定していないためです。
そのため正しくは以下になります。


data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療,
              statistic = list(年齢 ~ "{mean}({sd})",
                                 体重 ~ "{median}[{p25},{p75}]"),
              digits = list(年齢 ~ c(1,2), 
                            体重 ~ c(1,2,2),
                            c(性別,術側,MMT)  ~ c(0,1))) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels()



15.add_p()のいろいろな設定

14ではtbl_summary()のいろいろな設定について説明しましたが、今度はadd_p()の設定について説明します。

スクリーンショット 2020-09-27 20.54.57


15−1.検定方法を変える

集計のデフォルトは中央値(四分位範囲)でした。
統計を見るとデフォルトはWilcoxonの順位和検定(マン・ホットニーのU検定)やクラスカル・ウォリス検定といったノンパラメトリック検定となっています。

これをt検定や分散分析で行うには修正が必要です。
手っ取り早いのは最新バージョンで使えるtheme_gtsummary_mean_sd()です。
(上にある5−3をご参照ください)
これを使えば集計も検定も自動的にパラメトリックに変わります。

theme_gtsummary_mean_sd()


もし個別に修正するにはadd_p(列名 ~ "検定方法")と記載します。

で指定します。2つ移乗あればlist()を使います。このあたりの記載は14集計を変更するで説明していますのでさかのぼって確認してみてください。
"t.test" for a t-test,(t検定)
"aov" for a one-way ANOVA test,(1元配置分散分析)
"wilcox.test" for a Wilcoxon rank-sum test,(マン・ホットニーのU検定)
"kruskal.test" for a Kruskal-Wallis rank-sum test,(クラスカル・ウォリス検定)
"chisq.test" for a chi-squared test of independence,(χ二乗検定)
"chisq.test.no.correct" for a chi-squared test of independence without continuity correction,
"fisher.test" for a Fisher's exact test,(フィッシャーの正確確率検定)
"lme4" for a random intercept logistic regression model to account for clustered data, lme4::glmer(by ~ variable + (1 | group), family = binomial). The by argument must be binary for this option.(階層モデルのロジスティック回帰?)

Tests default to "kruskal.test" for continuous variables, "chisq.test" for categorical variables with all expected cell counts >=5, and "fisher.test" for categorical variables with any expected cell count <5. A custom test function can be added for all or some variables. See below for an example.
公式サイトより引用


例えば全ての数値データをWilcoxonの順位和検定でなくt検定にするには add_p(all_continuous() ~ "t.test")となります。

またt検定とWilcoxonの順位和検定を同時使いしたければlistを使って以下のようになります。

data %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  tbl_summary(by = 治療,
              statistic = list(年齢 ~ "{mean}({sd})",
                                 体重 ~ "{median}[{p25},{p75}]"),
              digits = list(年齢 ~ c(1,2), 
                              体重 ~ c(1,2,2),
                              c(性別,術側,MMT)  ~ c(0,1))) %>% 
  add_p(list(年齢 ~ "t.test",
                  体重 ~ "wilcox.test")) %>% 
  add_overall() %>%   
  bold_labels()

スクリーンショット 2020-09-27 12.00.58


16.左上の変数(Characteristic)を修正したい
スクリーンショット 2020-09-27 20.54.57


左上の「変数(Characteristic)」と書かれている所を編集するにはmodify_header(label="○○")を追加します。

data %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() %>%   
  modify_header(label = "○○") %>% 
  bold_labels()
スクリーンショット 2020-09-27 21.52.30


17.ヘッダーを編集したい

上の表では対照群, N = 53となっています。
スクリーンショット 2020-09-27 20.54.57

オレンジの箇所をヘッダーといい、変えたり改行するにはmodify_header(stat_by=)で編集します。
<br>は改行記号で、{style_percent(p)}は人数を%で表記することができます。


スクリーンショット 2020-09-27 23.24.04

このような修正も可能です。
スクリーンショット 2020-09-27 23.30.18

一つ前の左上の「変数(Characteristic)」を変えるのもmodify_header(label=)でした。
同じ関数なので両方とも修正したい場合はまとめることができます。

  data %>% 
    mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
    select(治療,年齢,体重,性別,術側,MMT) %>% 
    tbl_summary(by = 治療) %>% 
    add_p() %>% 
    add_overall() %>%   
    modify_header(label = "○○",
                  stat_by = "**{level}**<br>N =  {n}") %>% 
    bold_labels()
スクリーンショット 2020-09-27 23.25.37
よくみると全体(Overall)は改行されていません。これはOverallを修正するのはadd_overall()内になるからです。

18.全体(Overall)の列を修正したい

スクリーンショット 2020-09-27 20.54.57

全体(Overall)に関してはadd_overall()で修正を行います。
先程modify_header()でヘッダーを2段にしました。
ここではOverallのヘッダーも2段にします。
Overallのヘッダーはadd_overall(col_label = "")を使います。

スクリーンショット 2020-09-27 23.47.33

  data %>% 
    mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
    select(治療,年齢,体重,性別,術側,MMT) %>% 
    tbl_summary(by = 治療) %>% 
    add_p() %>% 
    add_overall(col_label = "**全体**<br>N = {N}") %>%   
    modify_header(label = "○○",
                  stat_by = "**{level}**<br>N =  {n}") %>% 
    bold_labels()
スクリーンショット 2020-09-27 23.49.35

19.ヘッダーの上に列を追加したい

スクリーンショット 2020-09-27 20.54.57

ピンクの箇所になりますが、ヘッダーの上に「治療」などもう一列つけることもできます。
modify_spanning_header(starts_with("stat_") ~ "**○○**") とします。
starts_with("stat_")は集計をしている列という意味になります。
**で挟まれたところは太字になります。

スクリーンショット 2020-09-27 23.55.35


20.脚注を編集したい

スクリーンショット 2020-09-27 20.54.57

脚注(黄色)の箇所はmodify_footnote()で編集します。

脚注自体をなくす
modify_footnote(update = everything() ~ NA)を追加。

集計方法(1となっている列)を編集
modify_footnote(update = starts_with("stat_") ~ "○○")を追加。

検定(2となっている列)を編集
modify_footnote(update = starts_with("p") ~ "○○")を追加。

data %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() %>% 
  modify_footnote(update = starts_with("stat_") ~ "11111") %>% 
  modify_footnote(update = starts_with("p") ~ "22222") %>% 
  bold_labels()
スクリーンショット 2020-09-28 0.33.37

21.タイトル・サブタイトルを加える
表のタイトル・サブタイトルは実はgtsummaryで作成できません。

もう一度出力のイメージを確認します。
今までは全て「集計」と書かれたところで作業していました。
ただタイトル・サブタイトルはas_○○と出力に合わせた形式に変換してから作成します。

スクリーンショット 2020-09-12 15.50.09

21−1.HTML形式でタイトル・サブタイトルを加える

今回はas_tg()形式で行います。
もともとgtsummaryのデフォルトはas_gt()となっているので修正はいりませんがわかりやすく加えています。

table1 <-
  data %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels() %>% 
  as_gt()
次にgtパッケージを使って編集します。gtパッケージはgtsummaryの元になっているパッケージです。
まずはgtパッケージを呼び出し、tab_header()を使います。
 library(gt)
#タイトル・サブタイトルを加えるにはtab_header()を用いる
table1 <- table1 %>% tab_header(title = "タイトル", subtitle = "サブタイトル")
スクリーンショット 2020-09-28 0.50.42


21−2.office形式でタイトル・サブタイトルを加える

今回はflextable形式で行います。
flextable形式にするにはas_flex_table()を使います。
table1 <-
  data %>% 
  mutate(治療 = factor(治療, labels = c("対照群", "治療群"))) %>% 
  select(治療,年齢,体重,性別,術側,MMT) %>% 
  tbl_summary(by = 治療) %>% 
  add_p() %>% 
  add_overall() %>%   
  bold_labels() %>% 
  as_flex_table()
table1
次にflextableパッケージを使って編集します。
まずはflextableパッケージを呼び出すのですが、このパッケージにはタイトル・サブタイトルを指定する関数がありません。代わりにadd_header_lines()を使って1番上に1行増やします。
ポイントはサブタイトル→タイトルの順に作ることです。
フォントサイズを変更することもできます。
 library(flextable)
table1 <- table1 %>% add_header_lines("サブタイトル") %>% add_header_lines("タイトル") %>% fontsize(i = c(1,2), size = c(20,14), part = "header")
table1
スクリーンショット 2020-09-28 0.58.52
この後はprint関数でWordやPower Pointに変換します。

#Wordの場合
print(table1, preview = "docx")
#Power Pointの場合
print(table1, preview = "pptx")


22.まとめ

かなり長くなりましたが、gtsummaryでtable1を作成する方法を紹介しました。

ただなれないうちは全てgtsummaryで作成しなくても、ある程度作成したら残りはdocxやpptxに変換して修正できることもできます。。

まずは触ってみながらどこまでをRでするか、どこからをOfficeでするかなど自分なりの方法を探してみるのもいかがでしょうか?

そしてgtsummaryは回帰分析の結果など、table1以外の表にも対応しています。
そこに関しては今後の記事で紹介します。



第4章は統計を扱います。

第4章ではt検定から始まり色々な種類の統計やp値や信頼性の考え方などを紹介してきました。

そして内容は後半の多変量解析に入り、前回は多変量解析を行う上で大切な考え方を紹介しました。

【4-17】「先にデータを取って後で統計」がなぜ危険なのか?どうすればいいのか?を多変量解析、相関・因果関係、交絡を使って解説してみる


そしてもう1つ重要な考え方があります。それは洞察(因果関係)を見たいのか?それとも予測がしたいのか?です。

これは統計学と機械学習の違いにも通じる話になります。

1.使うデータ

ここでも前回の記事と同じデータを使います。

架空のデータです。

library(tidyverse)
set.seed(25) v1 <- rnorm(100,87,13) v2 <- rnorm(100,63,10.5) v <- c(v1,v2) a1 <- as.integer(rnorm(100,35,5)) a2 <- as.integer(rnorm(100,55,5)) age <- c(a1,a2) sex <- c(sample(c(0,1),size = 100, prob = c(0.7,0.3),replace = TRUE),sample(c(1,0),size = 100, prob = c(0.7,0.3),replace = TRUE)) t1 <- as.integer(rnorm(100,120,20)) t2 <- as.integer(rnorm(100,70,20)) time <- c(t1,t2) df <- data.frame(v,time,age,sex) df

スクリーンショット 2020-07-15 13.51.21

v:歩行速度、1分間に歩いた距離(m)とします。

time:片脚立位の時間(s)

age:年齢

sex:性別(0:男性,1:女性)

これをみて片脚立位の時間が長くなれば歩行速度が上がると考えていいかどうかとします。




2.多変量解析はどういう仕組みか?

スクリーンショット 2020-07-17 14.34.46

スクリーンショット 2020-07-17 14.27.48



まず多変量解析(ここでは重回帰分析)は左辺(y)にアウトカム、右辺に要因(x)をおいた式となります。yとxには色々呼び方がありますが同じ意味です。

そして数学的なテクニックを使い(最小二乗法や最尤法)を使い係数を求めます。

コードと解釈の仕方は次の記事で紹介します。

fit <- lm(v ~ time + age + sex)
summary(fit)

スクリーンショット 2020-07-17 14.47.59

色々見るところはあるのですが、とりあえず黄色に注目します。

Estimateというのが係数(β)になります。(Intercept)は切片です。

1分で歩いた距離 = 0.03×片脚立位時間(秒)+ -0.84×年齢(歳) + 0.42(女性であれば) + 108.33

ロジスティック回帰もそうですが、やっていることは係数を求めているということです。


3.重回帰分析とロジスティック回帰の使い分け方

重回帰分析とロジスティック回帰の使い分けはアウトカムを見ます。

重回帰分析:アウトカムが連続した数値になっている
ロジスティック回帰:アウトカムが「自立・非自立」といった2択になっている


ちなみにアウトカムが3択以上のある場合は自分の知りたいことにあわせて2択にしてしまったほうがいいです。
3択以上の解析は複雑になります。


4.xを見たいのか?yを見たいのか?

じつはこの数式には2つの見方があります。それはxを見たいのか?yを見たいのか?です。


洞察(因果関係)に興味がある=xに興味がある

まずxを見るときの視点を説明します。

上の式を再掲します
1分で歩いた距離(m) = 0.03×片脚立位時間(秒)+ -0.84×年齢(歳) + 0.42(女性であれば) + 108.33

この式は右辺に片脚立位時間、年齢、性別という3つの変数があります。

ここで年齢と女性でないという条件で片脚立位の時間が1秒増えるとどうなるでしょうか?

答えは歩行距離が0.03m増えるということになります。

逆に片脚立位・女性でない条件で年齢が1つ増えれば歩行距離は-0.84m減ります

こうやって係数を見ることで他の条件は同じだとして知りたい要因が1つ値が変わるとアウトカムはどう変化するのかを見ることができます。そういう意味ではyの値自体には大して意味がありません。


ここで前回の記事の交絡因子が関係します。

【4-17】「先にデータを取って後で統計」がなぜ危険なのか?どうすればいいのか?を多変量解析、相関・因果関係、交絡を使って解説してみる

因果関係(効果があるかどうか)を考える時はどれだけ重要な交絡因子が取り除けているかが説得力に繋がります。そのためにはどの因子が大事な交絡因子なのかを考える必要がありますが、それはその分野の知識によって決まります。
スクリーンショット 2020-07-17 15.10.39


よって大事なことは右辺には興味がある要因と交絡因子をできるだけ入れることが大切です。

そして知りたい要因は介入が可能であるものが基本となります。
例えば知りたい要因を年齢にしてしまうと、もし有意差が出たとしても年齢を変えることはできません。

なぜここを強調するかというと統計の手法には変数選択という自動的に変数を削除することができるオプションがあるからです。

医療統計でいちばん有名なのはステップワイズ法です。
(下図はEZRの重回帰分析の設定画面)
スクリーンショット 2020-07-17 15.20.46

交絡因子の影響を除きたいのに交絡因子自体を計算から除いてしまうとそれは本当にこの研究でいいたかったことなのか?となってしまいます。

そのためxに興味があるときは変数選択は基本行いません(強制投入といいます)。

*ただ本によっては意見が違ったりします。理学療法の研究ではステップワイズが使われていることも多く、もしかしたら査読で「ステップワイズを」と言われる可能性はあるかもしれません。その雑誌に合わせることも必要なのかもしれませんし、生物統計家のご意見も伺ってみたいところです。

以下の2サイトではステップワイズはよくないという記事になります。







予測に興味がある=yに興味がある。

次にy(左辺)を見るときの視点を紹介します。

上の式を再掲します
1分で歩いた距離(m) = 0.03×片脚立位時間(秒)+ -0.84×年齢(歳) + 0.42(女性であれば) + 108.33

これは片脚立位時間、年齢、性別がわかれば左辺の1分間で歩いた距離を予測することができるということになります。

スクリーンショット 2020-07-17 17.02.35

つまり右辺はどれだけいい予測になる因子を集められるかが大切になります。
そのため交絡因子がどうかや介入が可能かどうかは重要な問題ではありません。
ただ、勘違いしやすいのですが因子が多ければいいモデルになるわけではありません
先程と違い精度に貢献しない因子を外すこともします。

そして予測に興味がある場合に大切なのはモデルを作ることより作ったモデルが新しいデータでも通用するかを試すことで信頼性が増すということです。

これは今回のデータのみに当てはまりがよく、未知のデータでは通用しないという過学習という問題が起こっている可能性があるからです。モデルを作っただけでは過学習が起こっているかどうか判断できません。今回のモデルで使わなかったデータで予測がどれくらい的中するか再検証する必要があります。誤差だったり精度・感度・特異度はこういった再検証に用いられます。



加えて医療統計ではあまりみられませんが、取ったデータから新たな変数を作ることも可能です。

例えばアウトカムを歩行距離として、下肢の左右各関節で疼痛(VAS)を測っていたとします。ただ痛いところは人それぞれですし、変数が多くなりすぎるので変数をまとめたいとします。
  • 各関節の最大のVASを採用する
  • 各関節の平均点を採用する
  • VAS5を超えた関節の数を採用する
  • 他の点数とかけ合わせた新たな変数を作る
他にも色々あるかもしれません。そうやって精度の高い予測を作ることになります。
こういった作業は特徴量エンジニアリングといい、機械学習のテクニックになります。

ただし解釈の難しい因子を作ってしまうと解釈(説明可能性)が難しくなります
上の例だと痛い関節の数はイメージが付きますが、疼痛×筋力みたいな数値はその数値にどういった意味があるのか?と聞かれても「予数値で臨床的な意味は・・・だけど予測の精度が上がる数値」となってしまします。

精度を追求するか説明可能性を追求するかはトレードオフな関係ではありますが、医療現場では説明可能性がある因子を使った方が作った方が使ってくれやすいという印象があります。理由を説明しにくいモデルは「ホントにー?」と胡散臭く思われる可能性があります。

まずは説明しやすいモデル、その後に需要があれば難しいモデルに挑戦するような考えがいいかと思います。


5.因果関係でも予測でも入れないほうがいい変数がある

ただ因果関係・予測どちらにも言えることですが入れないほうがいい因子があります。それは多重共線性が関係します。

数ある因子同士の中で相関係数が高すぎるものが混じっていると多重共線性が発生し結果が不安定にあるという特徴があります。正確な表現ではありませんが、計算の過程で◯÷0みたいな変なことが起こってしまうイメージです。

そのため独立変数同士で相関行列を求め、相関係数が高いものがあるかを調べたりVIFというものを確認したりします。

もし多重共線性が見つかれば相関が高い因子のうちのどちらかを省くか、合成した新しい変数を採用するかになります。

相関行列の求め方は【4-16】Rで相関行列を作成するGGally, cor, clrrplot, corrr関数を紹介しますで紹介しています。



6.まとめ

重回帰分析やロジスティック回帰という回帰分析は計算方法やコードの書き方は同じでも医療統計として使う場面と機械学習として使う場面があります。知りたい要因の因果関係に興味があるのか?アウトカムの予測に興味があるのかで集めるデータや解析や検証の行い方に違いが出てきます。


知りたい要因の因果関係に興味がある→医療統計的な考え方
スクリーンショット 2020-07-17 15.10.39
→データを取り始める前に重要な交絡因子が無いかを十分に検討する
→選択バイアス、情報バイアスもできるだけ入らないよう注意する
→多重共線性がないか確認し、あれば対処する
→分析の結果から考察する


アウトカムの予測に興味がある→機械学習的な考え方
スクリーンショット 2020-07-17 17.02.35
→データを取り始める前に予測に重要な要因は何かを検討する
→多重共線性を調べる
→データを予測作成用のデータと検証用のデータに分ける
→予測作成用のデータでモデルを作る。できたモデルの精度を確認する
→検証用のデータで精度を再検証する
(モデルを作成しただけだと実は本当の精度はわからない)


医療統計ではほとんど前者になることが多い、もしくはどっちつかずになっていることが多い印象ですが、どちらに興味があるかが意識できると多変量解析の勘所が上がるのではないかなと思います。


前回・今回と長くなってしまいましたが、次は重回帰分析の実際について紹介します!


第4章は統計を扱います。


今回は重回帰、ロジスティック回帰分析、Cox比例ハザード回帰といった多変量解析を紹介します。


研究を行う時、多変量解析を知っているか知らないかで研究の幅や解釈の仕方が大きく変わります。


個人的にはt検定より先に多変量解析を知っておいたほうがいいと思っています。


実際にRでコードを書く前に、多変量解析でできることとできないことを紹介します。


そしてついやってしまいがちな「取れるだけデータを取って後で統計を考えよう」が危険な理由も紹介します。



1.今回使うデータ

架空のデータを使用します。

library(tidyverse)
set.seed(25) v1 <- rnorm(100,87,13) v2 <- rnorm(100,63,10.5) v <- c(v1,v2) a1 <- as.integer(rnorm(100,35,5)) a2 <- as.integer(rnorm(100,55,5)) age <- c(a1,a2) sex <- c(sample(c(0,1),size = 100, prob = c(0.7,0.3),replace = TRUE),sample(c(1,0),size = 100, prob = c(0.7,0.3),replace = TRUE)) t1 <- as.integer(rnorm(100,120,20)) t2 <- as.integer(rnorm(100,70,20)) time <- c(t1,t2) df <- data.frame(v,time,age,sex) df

スクリーンショット 2020-07-15 13.51.21

v:歩行速度、1分間に歩いた距離(m)とします。

time:片脚立位の時間(s)

age:年齢

sex:性別(0:男性,1:女性)

これをみて片脚立位の時間が長くなれば歩行速度が上がると考えていいかどうかとします。
(実際には片脚立位訓練をした群としなかった群でRCTを行うのでしょうが、考え方の練習としてこういった形にしています)


2.多変量解析を知らなければ...

今までの知識で散布図と回帰直線、相関係数を求めてみます。

散布図と回帰直線は
【3-3】Rのggplot2で散布図を作るgeom_point関数で紹介しました。
回帰直線はgeom_smooth(method="lm")を付け加えます。
つなげる時は + です。

ggplot(df,aes(x=time,y=v))+
  geom_point()+
  geom_smooth(method = "lm")

スクリーンショット 2020-07-15 14.02.21
右肩上がりの何やら良さそうなグラフが出てきました。



相関係数と検定を行います。
相関係数に関しては
【4-15】Rで相関係数を評価する方法で紹介しています。

cor.test(df$v,df$time)

スクリーンショット 2020-07-15 14.02.39

相関係数0.48と中等度の相関が出ました。p値も2.4×10の-13乗と有意差もあります。

ではこれで
片脚立位の時間が長くなれば歩行速度が上がると言えるでしょうか?

スクリーンショット 2020-07-15 14.29.43

実は言えません。


3.別の視点で分析してみる

ではなぜ言えないのでしょうか?今度は違う視点で分析してみます。
先程の散布図に年齢別で色をつけてみます。

ggplot(df,aes(x=time,y=v))+
  geom_point(aes(col=age))

スクリーンショット 2020-07-15 14.34.13

色が薄い方が年齢が高くなっています。
こうみると解釈が変わってきます。

今回は年齢が若くて片脚立位時間も歩行速度もいい人と、高齢で片脚立位時間も歩行速度も悪い人がいる集団なだけだった、年齢に関係なく片脚立位が長いから歩行速度が上がった人は実際にはどれくらいいるだろうか・・・?と気になってしまいます。


スクリーンショット 2020-07-15 15.25.33

スクリーンショット 2020-07-15 15.25.17




上記のどちらが妥当化はこのままでは判断できません。

性別に関しても同様です。

ggplot(df,aes(x=time,y=v))+
  geom_point(aes(col=as.factor(sex)))

スクリーンショット 2020-07-15 14.44.10
なんとなく男性の方が歩行速度が早いように見えます。


実は次回以降の記事で行う重回帰分析を行うと年齢と性別の影響を除くと片脚立位は有意差が出なかったという結果になります。
コードと解釈の仕方は次の記事で紹介します。

fit <- lm(v ~ time + age + sex)
summary(fit)

スクリーンショット 2020-07-15 17.29.20


3.相関関係と因果関係の違い

(ダミーデータですが)今回の結果では片脚立位と歩行速度には相関関係はあったが、因果関係はなかったという解釈をしました。

ここで出てくるのが相関関係因果関係です。

スクリーンショット 2020-07-15 15.12.44
相関関係は原因は別としてある数値が変化するともう一方の数値が変化するという関係性を示しています。

相関があったは「効果があった」とは別物です。効果があるかどうかは何とも言えません。

先程の例でいうと
片脚立位と歩行速度には相関関係があったが、原因は片脚立位と別なところにあった(年齢など)と解釈することができます。

また
片脚立位の時間が長かった人は歩行速度が早い人が多かった歩行速度が早かった人は片脚立位の時間が長い人が多かったと表現しても違和感がありません。





スクリーンショット 2020-07-15 15.12.53

いっぽう、因果関係は原因と結果の関係になっていて効果があったと言えるものです。
そのためAの数値を変えることでBの数値を変えることが期待できます。

方向性は一方向となります。
相関関係と違い年を取ればと歩行速度は下がりやすくなる速く歩けない人はを取りやすくなる(文字通り11ヶ月で1歳年を取るようになるという意味)では意味合いが全然違います。因果関係とはそういうことです。

そしてB→Aの因果関係はありませんが、相関があるように見えます。これを見せかけの相関といいます。

見せかけの相関が起こる例は交絡、因果の向きが逆である時、全くの偶然です。


交絡バイアス

交絡とは原因と結果両方に影響を与える因子のことです。
今回は年齢や性別が交絡因子にあたります。
交絡因子が残ったままだと因果効果(本当に効果があるのかどうか)ははっきりと言えず、そこが研究の限界の1つとなります。そのため、交絡は補正することがひつようで、重回帰分析やロジスティック回帰分析といった多変量解析は交絡を補正する方法の1つとなります。

スクリーンショット 2020-07-15 15.25.08

全くの偶然

全くの偶然で相関関係が起きる場合があります。

海賊の数が減るにつれて、同時に地球温暖化が大きな問題となってきた。

wikipediaより



相関関係か因果関係かを見極めるポイントに関しては原因と結果の経済学に詳しい解説があります。



そして因果関係を証明するにはバイアスをどれだけ排除できるかがカギになります。




4.重回帰・ロジスティック回帰・Cox比例ハザード回帰は交絡を調整する

では重回帰分析やロジスティック回帰、Cox比例ハザード回帰は何をしてくれるのでしょうか?

これらの多変量解析は
交絡の調整を行ってくれます。

スクリーンショット 2020-07-15 21.14.16
重回帰分析で片脚立位と年齢を変数として入れると
年齢の影響を除いた上での片脚立位が歩行速度に与える影響を推定することができます。性別も一緒に入れると年齢と性別の影響を除いた上で影響を推定します。ただ他にも交絡因子はあります。例えば下肢筋力などです。

スクリーンショット 2020-07-15 21.33.15


因果関係(効果があるかどうか)を考える時はどれだけ重要な交絡因子が取り除けているかが説得力に繋がります。そのためにはどの因子が大事な交絡因子なのかを考える必要がありますが、それはその分野の知識によって決まります。決してデータが集まれば自動的に決まるものではありません。そのためデータを取り始める前に交絡が何かを決めておく必要があります。データを取り終えたあとで「◯◯忘れてた!」となると取り返しがつきません。

また交絡因子の数で必要な症例数が決まります(1つの交絡因子で約10症例追加)。そのため症例数が50人であれば5つの変数しか投入できないため、何例集めるのか?5つの変数をどれにするのか(重要なものから5つを選ぶ)を先に決めておきます。

相手に
確かにこの影響まで除いた上で有意差が出ているのなら確かに効果があるかもしれないな。と感じさせることができるかどうかではないでしょうか。よく学会でt検定や相関係数で効果があることが示唆されたという発表もあるのですが、「でも◯◯の影響があるんじゃない?」と思われていたら多変量解析(もしくはRCT)が必要だったのかもしれません。



5.交絡因子と中間因子

ということで交絡因子は除外する必要があります。しかし中間因子を取り除いてはいけないという注意点があります。

スクリーンショット 2020-07-16 6.52.09


中間因子は矢印の方向が交絡因子と違います。

興味のある項目(A)とアウトカム(B)の間にある因子のことです。

中間因子を多変量解析に加えてしまうとAの効果があるかどうかわからなくなるため注意が必要です。

ただ交絡因子と中間因子どっち?は統計知識ではなくその分野の知識で決まることなのでデータを取り始める前に予め決めておくことが必要です。


6.交絡以外のバイアスは取り除けない

多変量解析で取り除くことができる交絡バイアスですが、実はバイアスは交絡以外にも複数あります。

細かくは紹介しませんがここではいくつか紹介します。

選択バイアス

・日中の電話調査は電話に出ることができる一部の高齢者しか集まらないためデータに偏りが出た
・自宅退院した人を1年間かけて調査すると退院時より点数の平均が上がっていた。しかし実は死亡・再入院で悪い点数の人が減ったことが原因で平均点が上がったように見えただけであった。
・(実は効果がある研究だったが)自分の病院は重症な人が多く集まる傾向で結果が出なかった。複数の病院でいろいろな患者さんを集めてみたら結果が違ったかもしれない(逆もまた然り)。
・集めたデータに欠損値が多かった。欠損値があるデータは重症な人が多かった。



情報バイアス

・評価者が患者さんが「治療郡」「対照群」のどちらに振り分けられるか知っていて、評価時に「さぁ!評価しますよ!」だったり「あんまり無理しなくていいですからね」って無意識に言ってしまう。
・評価器具の使い方に上手・下手が出て評価者間で違ってばらつきが出てしまう。
・評価基準がスタッフによって微妙に違いばらつきが出る


こういったバイアスは重回帰分析やロジスティック回帰分析ではどうにもできません。
これらのバイアスには統計ではなく研究デザインで対応することになります。
ただ欠損値に関しては条件が整えば多重代入法という統計のテクニックで解決できる可能性があります。
また施設間での研究では各評価だけでなく、施設ごとの特徴を考慮したマルチレベル分析といったものもあります。


7.「評価を取れるだけ取って後で考えようとデータを取り始める」ことをやってはいけない理由

ここまで説明するとなぜ「評価を取れるだけ取って後で考えよう」とデータを取り始めると危ないかが説明できます。どれだけいろいろな種類・数のデータを集めても、大事な交絡が抜けていたら元も子もないからです。




8.まとめ:研究の初心者でもできること

ただこういった話を続けていると難しすぎて研究が全く始められません。
臨床で疑問に思っていることを形にすることはとても意義のあることです。
個人的には最初から完璧を目指す必要はないと思います。

ただ興味のある因子に対して以下のことに意識を向けておくだけでも最初の研究としては一歩を踏み出せるのではないかなと思います。

・交絡因子は何がありそうか?
・その中で計測できそうなものはどれか?
・なるべく欠損なくとるよう努力する
・必要なサンプルサイズ(症例数)を先に知っておく

ただこのサイトでは研究デザインに関しては解説できていません。
多変量解析を行う上ではSTROBE声明を確認するともっと先にすすめると思います。



次回も重回帰・ロジスティック回帰を使う前に知っておきたいこととして「洞察をしたいのか?予測をしたいのか?」という話をします。リハビリの世界ではあまり使い分けられれている印象がありませんが、知っておくことで結果の解釈の幅が大きく変わります。

この話は機械学習にも通じる話となりますので、機械学習に興味がある方はぜひ読んでみてください。

前回の記事では相関係数と相関係数の検定を行う方法を紹介しました。


ただ複数の列がある場合1つずつ相関係数を調べるのは大変な作業です。
今回は相関行列について紹介します。


1.使うデータ

今回はこちらのダミーデータを使います。

歩行が自立しているか(0:非自立、1:自立)と各種データが入っています。
スクリーンショット 2020-07-15 5.42.46



性別が男性・女性になっています。

url <- "https://raw.githubusercontent.com/mitti1210/myblog/master/data01.csv"
dat <- read.csv(url)
dat$氏名 <- NULL  #氏名の列を削除


2.GGallyパッケージのggpairs関数

相関係数を手早く確認する方法としてGGallyパッケージggpairs関数があります。
この方法のメリットは相関係数と散布図が同時に見れサクッとわかるです。

library(tidyverse)
library(GGally)
ggpairs(dat)
スクリーンショット 2020-07-15 9.30.36


左下に散布図、右上には相関係数とまとめて表示されます。
数値と数値の場合は散布図、カテゴリーと数値の場合はヒストグラムと箱ひげ図が表示されます。

もしmacで日本語が□□と文字化けしていたらもう1行追加します。

ggpairs(dat)+
  theme_gray(base_family = "HiraKakuPro-W3")
スクリーンショット 2020-07-15 9.30.47



そしてggpairsの便利な機能としてはあるカテゴリーごとに色を付けることができます。
aes_string(colour="カテゴリーの列", alpha=0.5)を追加します。
カテゴリーの列はcharactor型、もしくはfactor型である必要があります(数値型だとダメ)
alphaは色の透過の程度なので0.7あたりでも大丈夫です。
ggpairs(dat,aes_string(colour="性別", alpha=0.5))
スクリーンショット 2020-07-15 9.29.32





3.cor関数とcorrplotパッケージを使う

次にcor関数corrplotパッケージで相関行列を作成します。
この方法のメリットはp値が計算できる、pythonっぽい相関行列のグラフが作れるです。

散布図行列を求めるにはcor関数を使います。

ただ男性・女性のような文字は対応できないので0,1に置き換えます。
dat$性別 <- ifelse(dat$性別 == "男性", 0, 1)

c <- cor(dat)
c
スクリーンショット 2020-07-15 9.42.04


四捨五入する時はround関数を使います。
round(c,2)
スクリーンショット 2020-07-15 9.42.38


もしスピアマンの相関係数を求めるのであればmethod="spearman"を追加します。
c <- cor(dat, method = "spearman")

ただ数値の羅列は中々見にくいものです。そこでcorrplotパッケージのcorrplot関数を使いグラフにします。
corrplot(c, method = "color", addCoef.col = TRUE)
method="color"はグラフの見た目、addCoef.col = TRUEはグラフに数値を入れるオプションなのでそのままコピペで大丈夫です。変更するのはcのところで、ここには先程もとめた相関行列を指定します。

c <- cor(dat, method = "spearman")
cの部分です。もちろん違う名前でも大丈夫です。

もしmacで日本語文字化けの問題があれば1行追加します。
par()関数はフォントの指定ができます。

library(corrplot)
par(family="HiraKakuPro-W3") #macで日本語が文字化けするときに追加。ここでフォントの指定ができる
corrplot(c, method = "color", addCoef.col = TRUE)
スクリーンショット 2020-07-15 9.47.46
これでかなり見やすくなりました。pythonっぽいです。


検定をしてp値を求める

p値を求めるのであればcorrplotパッケージのcor.mtest()関数を使います。
cor.mtestはp値、95%信頼区間の下限、上限の3つが表示されます。スピアマンの相関係数の場合はmethod = "spearman"を追加するだけなのですが、同値(タイ)があると95%信頼区間が出ないようです。

p <- cor.mtest(dat)
p
スクリーンショット 2020-07-15 7.20.20

p$p:p値
p$lowCI:95%信頼区間の下限
p$uppCI:95%信頼区間の上限

先程の相関行列にp<0.05かそうでないかを出すこともできます。
p.mat:p値の行列(ここではp$p。上の図をよく見ると$pと書いてあります。)
sig.level = ◯◯(0.05 にしたり、0.2に設定することもあります)

corrplot(c, method = "color", addCoef.col = TRUE, p.mat = p$p, sig.level = 0.05)
スクリーンショット 2020-07-15 10.33.07

これで有意差があるものがどれか一目瞭然です。


4.corrrパッケージを使う

もう一つcorrrパッケージを紹介します。
この方法のメリットは相関が高い組み合わせ順が知りたい!というときに便利です。

相関行列を出す時はcor関数でなくcorrelate関数を使います。
使い方はcor関数と同じです。cor→correlateに変わるだけです。
スピアマンの相関係数にしたい時はmethod="spearman"を追加すればOKです。

c <- correlate(dat, method = "spearman")
c
スクリーンショット 2020-07-15 10.41.13


マイナスの値が赤字になっただけでここまでは今までと違いはありませんが、corrrの便利な所はここからになります。

まずcorrr関数は第2章で扱ったtidyverseと同じ%>%が使えます。

右上と左下は同じものなので片方を削除することができます。削除するにはshave関数を使います。
c %>% shave()
スクリーンショット 2020-07-15 10.45.16



これで左下だけになりました。

次に行列形式ではなくlong形式に変換します。streach関数を使います。
streach(na.rm=TRUE)とするとNAとなっているいらない列を消すことができます。

c %>% shave() %>% stretch(na.rm = TRUE)
スクリーンショット 2020-07-15 10.55.02



次に並べ替えます。arrange関数を使います。何も指定しなかければ相関係数が高い順から並びます。
c %>% shave() %>% stretch(na.rm = TRUE) %>% arrange()
スクリーンショット 2020-07-15 10.55.14
スクリーンショット 2020-07-15 10.55.31


ただ注意しないといけないのが相関係数は-1〜1の値を取ります。
相関がないのは0付近で、-1は1と同様に強い相関があります。
なので相関が強い順に並べるには相関係数の絶対値で並び替える事が必要になります。
相関係数の列名はrになっています。abs関数が絶対値を求める関数なのでabs(r)となります。

c %>% shave() %>% stretch(na.rm = TRUE) %>% arrange(abs(r))
スクリーンショット 2020-07-15 10.55.31


そしてこれだと相関係数が0に近い方から並んでしまったので順番を逆にします。
順番を逆にするにはdesc(並べ替えたい列)を使います。
並べ替えたい列はabs(r)でした。desc(abs(r))とします。
()が多くなってエラーが出やすくなるので注意してください。

c %>% shave() %>% stretch(na.rm = TRUE) %>% arrange(desc(abs(r)))
スクリーンショット 2020-07-15 10.55.45

相関行列を1個ずつ見てると見落としがちですが、これなら見落とすことはありません。


5.相関係数の有意差がないってどういう意味?

スクリーンショット 2020-07-15 10.33.07

ところで×がついた項目(p値が有意水準に満たさなかった)というのはどういう意味でしょうか?
これは相関係数が低いから有意差が出ないわけではありません。

相関係数の検定は「相関係数が0である」と仮説を立てます。
そしてデータから信頼区間を求め、信頼区間に0が含まれているかを調べます。
その時もし信頼区間に0が含まれていたら有意差なしとなります。

例えば上の図でいうと性別×BBSを見ると相関係数が-0.13となっています。
ただ95%信頼区間を見ると-0.27〜0.007となっています。
つまり今回は計算上-0.13となったけど実は信頼区間にマイナスの値も0もプラスの値も入っていて、符号が変わる可能性がある→正の相関があるとも負の相関があるとも言えないよね。といったニュアンスになります。もし95%信頼区間が-0.27〜-0.001であれば符号が変わらないため有意差あり(p<0.05)となります。ただ相関係数0.13というのはほとんど相関がないという意味ではありますが...

つまり相関係数の検定のp値は出した相関係数の符号が変わる可能性が高いのか低いのか?を見る検定と考え、p値が低いから相関係数が強いんだという意味ではないことに注意が必要です。相関の強さはあくまでもp値ではなく相関係数の値で評価します。



6.まとめ

今回は相関行列を紹介しました。

相関行列を出すだけならEZRでもできますが、検定やグラフの作成はEZRだけではできません。

他にもいろいろな方法はあるのですが、今回は3パターン紹介しました。

ただGGallyやcorrrはもっといろいろなことができます。

もっと詳しく知りたい方は以下のサイトがおすすめです!








第4章は統計を扱います。


今回も「シロート統計学」のハルさんとコラボレーションすることとなりました。


シロート統計学はEZRを使った統計分析をわかりやすく解説されています。


 


第4章はシロート統計学で使われていたEZRをRで行うとどうなるのか?といった視点で進めていきます。


今回使うデータもハルさんのサイトと同じものを使わせでいただく事になりました。それぞれ見比べることで参考にしてみてください!


今回は相関係数(ピアソン・スピアマン)を紹介します



まず相関係数についてはハルさんのサイトをご参照ください。



また1.準備〜4.データの読み込みまでは【4-1】Rでt検定を行う方法と全く同じ流れになります。
もし1〜4まででわからない部分があれば確認してみてください。

 

1.準備

第4章は毎回ExcelデータをダウンロードしてRを使うのでプロジェクトで管理して行うことを勧めています。

 

ここではR練習というプロジェクトを作り、Excelファイルを入れるためのdataフォルダを作っています。
これを前提に次から進めていきます。
スクリーンショット 2019-10-20 7.54.14


2.スクリプトファイルの作成

次にRのコードを書くためのスクリプトファイルを作ります。
ここでは【4-15】相関係数.Rとしておきます。

スクリーンショット 2020-07-14 23.41.44


3.データのダウンロード


今回もハルさんのサイトのデータを使わせていただきます。

デモデータ(pearsonの相関係数)

この章ではRを使ってダウンロードしています。


download.file(url = “ファイルのURL”,
        destfile = “保存したい場所/ファイル名”)
urlはデモデータで右クリック → リンクのアドレスをコピー
destfileは保存場所と保存のファイル名を指定します。


実際のコードは以下になります。
前回のコードのURL(" "の中)とdestfileのdata/以降を変更するだけでOKです。
#データのダウンロード
url <- "https://haru-reha.com/wp-content/uploads/2018/06/demo-pearson.xlsx"
destfile = "data/demo-pearson.xlsx"
download.file(url, destfile)
スクリーンショット 2019-11-23 22.14.17


dataフォルダにダウンロードできたことを確認します。


4.データの読み込み

データを読み込みます。
今回は【4-0】第4章を進めていく上での準備で行った方法で進めます。

View Fileでデータを確認します。

スクリーンショット 2019-12-08 20.31.39


データが入っているセルを確認します。
B2からC32までデータが入っています(B2:C32と表記)
スクリーンショット 2020-07-14 23.51.28




次にImport Datasetでデータを取り込みます。
スクリーンショット 2019-12-08 20.31.39



Import画面ではName, Sheet,Rangeを指定します。

Name:ハルさんのサイトと同じでborgとします(大文字・小文字は別物とされます)
Sheet:このExcelは1つしかデータがないのでDefaultのままでOK
Range:先ほど確認したB2:D32(実は今回のように表以外に余計なものがなければ空欄でもOK)

スクリーンショット 2020-07-14 23.53.34



Importボタンを押す前に右にあるコードをコピーしスクリプトファイルに貼り付けることも忘れずに行います。
library(readxl)
borg <- read_excel("data/demo-pearson.xlsx", 
    range = "B2:C32")
View(borg)

データが正しく入っていることを確認します。
スクリーンショット 2020-07-14 23.54.38



これでデータの取り込みは完成です。

5.散布図で確認

相関係数を見るときはいきなり相関係数を求めるのではなく、先に散布図を書くほうが事故が減ります。
【3-3】Rのggplot2で散布図を作るgeom_point関数で散布図を書く方法を紹介しています。
散布図を書くのはgeom_point関数、回帰直線を書くのはgeom_smooth関数です。
geom_smooth関数では(method="lm")を必ず付ける必要があります。
これは直線ですよという意味です。直線以外にも色々あるんです。
ちなみに色を付けるときはcolor=を、se=FALSEは今回はあってもなくても構いません。

library(tidyverse)
ggplot(data=borg,aes(x=`6MWD`,y=VC))+
  geom_point()+
  geom_smooth(method = "lm", color="red", se=FALSE)
注意!
列名や変数名の最初の文字が数字の時(今回でいうと6MWD)の場合、x=6MWDのようにするとエラーが出ます。こういった場合は` `(shiftキーを押しながら@マークを押す)でエラーを回避できます。でもなるべくなら最初の文字は数字じゃない方が後々便利です。


スクリーンショット 2020-07-15 0.06.04


他にも「もっとかんたんに散布図だけみたい」というときはplot関数があります。

plot(borg$`6MWD`, borg$VC)
ここでも`6MWD`と` `を忘れないようにします。
スクリーンショット 2020-07-15 0.05.51

こうみると6MWDとVCは直線上の関係にあるのが見て取れます。
こういった場合はピアソンの相関係数が使えます。
逆に外れ値が多いデータや直線でないデータでは相関係数は使えなくなります。

外れ値がない場合
スクリーンショット 2020-07-15 0.34.07

外れ値が5個あった場合
スクリーンショット 2020-07-15 0.33.58


そして二次関数のようなデータはうまく行きません。他にも「10代〜30代は良好、40〜50代は不良、60代以降は良好」みたいなデータもうまくいきません。
(相関係数は「一方が上がる」するともう一方が「上がるor下がる」ということだけで、2時間数のように途中で傾向が変わるデータには対処できない)
スクリーンショット 2020-07-15 0.36.06
上記のような例は相関係数を出すだけではわかりません。散布図で確認して初めて分かることなので、相関係数は「まずは散布図!」とイメージしておいてください。


6.相関係数の検定の実施

相関係数の検定は1行で終わりますが主に2種類あることを知る必要があります。

パラメトリック:ピアソンの相関係数
ノンパラメトリック、外れ値が多い:スピアマンの相関係数



どちらも相関係数の検定はcor.test(1つ目の列, 2つ目の列)です。

cor.test(borg$`6MWD`,borg$VC)
スクリーンショット 2020-07-15 1.02.00

もしスピアマンの相関係数を求めるときはmethod = "spearman"を追記します。
cor.test(borg$`6MWD`,borg$VC, method = "spearman")
スクリーンショット 2020-07-15 4.00.34


【4-2】RでMann-Whitney U 検定を行う方法でも紹介しましたが、ノンパラメトリックの手法では列の中に同じ数値があると警告がでます。

スクリーンショット 2020-07-15 4.07.07
このままでも大丈夫ではありますが(EZRも同じ字問題が起こっているが警告が出ないようにしている)、もし「警告をどうにかしたい!」とあれば、coinパッケージのspearman_test関数を使うという方法もあります(そこまでしている人はいるのでしょうか?)

spearman_test(1つ目の列 ~ 2つ目の列, data=データ)という書き方になります。

library(coin)
coin::spearman_test(`6MWD`~VC, data=borg)

cor(borg$`6MWD`,borg$VC, method = "spearman")
スクリーンショット 2020-07-15 4.17.43


ただspearman_test関数は検定はしてくれますが、相関係数自体を出してくれません。
そのためcor関数で相関係数を求める必要があります。


7.まとめ

今回は相関係数の求め方を紹介しました。

今回紹介していませんが、ハルさんのサイトにもあるように相関関係と因果関係は別物という考えはとても大切です。

そして、相関係数を出す前に散布図を作るという習慣をつけることが大切です。

散布図を出した上で直線的な関係性がありそうであれば相関係数を求めてください。

↑このページのトップヘ