Knowledge As Practice

JAIST(東京)で Transformative Service Research に取り組んでる社会人大学院生の研究・勉強メモ

社会人大学院で博士号を(やっと)取得しました

今年春(2023年3月)にようやく博士号を授与されました。名称は「博士(知識科学)」です。博士論文はこちら

狭義の研究分野としては「サービス・マーケティング」です。広義だとマーケティングとか消費者行動とかになるんだと思います。

早くブログに学位取得の報告を書けばよかったですが、あまりに疲弊したのと大学院修了後は趣味である写真撮影の技術向上に没頭していたのとresearchmapを更新できたので遅くなりました。

私の博士後期課程の研究活動について

スタートは2016年4月です。在籍していたのはJAIST(東京)の博士後期課程。過去のブログを読んでもらえればわかりますが、2012~2015年は同志社大学の専門職大学院で学んでいました。

後期課程に入って学位取得まで合計7年かかっています。6年と休学1年でフルに在籍期間を使ったことになります。大学院は社会人の方がメインですが、もっと早く学位取得する人が多いと思います。

たぶん、私は例外的に長いほう。

振り返れば「もっと早く取れたなあ」と思うのですが、紆余曲折あって長くかかりました。それぞれの年の概要はこんな感じ。

  • 2016年…前期課程の方たちと一緒に授業を受ける(必修1+選択5。修了要件は11単位)。先行研究をあさる。

  • 2017年…ソウルにて国際カンファレンスで発表(修了要件の1つ。賞をもらって黒字になった)。先行研究で「これはイケそう」というものを見つけて、データを探す。国内の学会大会のポスターでもちょろちょろ発表。メインの研究のデータを取得。

  • 2018年…上海の復旦大学との交流に連れて行ってもらった。台中で開催された国際カンファレンスにて発表(2つ目をやる必要はなかったが、せっかくの機会があったので)。ここまではそれなりの進捗が出ていた。ドバイやシンガポールの国際カンファレンスにも妻との海外旅行を兼ねて顔を出してみた(これは自腹)。

  • 2019年…コロナ禍に突入。仕事も研究もペースが狂い始める。「こういう時期だからこそ逆にチャンスでは」と思ったが、現実逃避でカメラを始めてしまう。2018年末にお話をいただいていた『たのしいベイズモデリング2』(1つの章を任されました)が出版される。

  • 2020年…前年と同じ感じ。早く研究を進めねばと思うものの、実行できず「仕事が忙しいから」と仕事を言い訳にする。

  • 2021年…在籍期間を引き伸ばしにかかるため休学。指導教員のサバティカル休暇とも重なってよかったかもしれない。状況は前年と変わらずだが、国内の査読論文を出せた(しかし他大学の社会人学生・教員との共著でまったく博士研究とは関係のないものだったので、学位取得への影響なし)。あと、国立情報学研究所データ利活用のフォーラムで発表するなど、不思議な成果が出た年だった。

  • 2022年…最後の1年。副テーマ研究(修了要件の1つ)、博士論文のメインテーマとなる査読論文をギリギリで済ませて、予備審査(12月)、本審査(翌年1月)を終える。2023年3月に学位取得。

2022年(の後半)が最大に苦しかったです。査読論文は5回ほどデスクリジェクトでした。分野のトップジャーナルから順に投稿してリジェクトを繰り返し、最終的にはQ1ジャーナルに載せられた。副テーマ研究はぜんぜん進まず(その成果は修了後にマーケティング学会で発表)、これがいちばんのネックだったかも。

11月は有給休暇をぜんぶ使ってひたすら博士論文を書いていました。最後のほうで「もう無理!」と指導教員に泣きついたところ、「とにかく書け!」と叱咤激励をいただいてなんとか乗り切った感じです。

最終的な博士論文の締切は2023年1月5日だったと思います。年末年始は閉じこもって時間との勝負。パソコンにずっと向って、自宅なのに眠くなったら机の下で仮眠していました。

ギリギリまで書いて、製本して、できあがった朝に大阪の自宅を出発してサンダーバードに乗り、小松駅からタクシーで直接JAIST本校(石川県)まで持って行きました。その後、会社(横浜)の新年会的なものに出ましたが、よく生きてたなと思います。11月~1月5日まではユンケルファンティーのお世話になりました。

研究活動以外でたいへんだったこと

書類作成はかなりたいへんというか面倒でした。もちろん書類は研究に関することですが、ことあるごとに同じような書類を何枚も作ったり、それを申請するために複数人の教員にメールで送ってやりとりしたり・・・。大事なものであることは頭ではわかっているものの、わずらわしさは感じました。通過儀礼というやつでしょうか。

社会科学の社会人大学院はオススメできるか?

向学心があって、研究してみたいいことがほんやりとしても持っていて、Mの方なら「どうぞ」と思います。研究テーマは自分で見つける必要があります。もちろん指導教員に相談できますが、最終的には自分で決めないといけません。

在籍中はけっこうつらかったです。もちろん楽しいこともやりがいもありますが、後期課程に入ってから、ぐっすり眠れたことはありませんでした(必ず1回はハッと目が覚める。歳のせいかもしれませんが、修了後はそういうことがなくなった)。24時間、頭の片隅のどこかで研究のことを考えている感覚がありました。

誰もやっていないことを考えたり調べたりするのですから「これであっているのかなあ」「なんか違う気がする」と思考が堂々めぐりして、数ヶ月進捗がないこともありました。そういう状況にも耐えられるというか、あまりふさぎ込まないような方が向いていそうです。とはいえ、社会人の場合は仕事で気分転換(それが本業なので言い方が変ですが・・・)はできます。

社会人学生の中には、短期間でぜんぶ白髪になったり、急激に頭髪が薄くなったりする人を何人も見てきました。私はそういう状態にならなかったので、比較するとそんなにメンタルに影響があったわけではなかったかもしれません。

JAIST品川(東京サテライト)はおすすめできるか?

設備や知名度にこだわりがなければオススメできます。一般の方には「JAIST何それ?」だし「ほくりくせんたんかがくぎじゅつだいがくいんだいがくはくしこうきかていせんたんかがくぎじゅつせんこう」とか言っても通じません。

「先端科学技術」という言葉が入っていますが、東京サテライトの社会人学生は仕事やプライベートで関心のあることを主に社会科学の手法を通して研究しています。

設備については物理的な研究室や学生専用のデスクというのはないですし、図書館もないです(もちろん石川県の本校には立派なものがあります)。自習スペースっぽいものはあります。空き教室を自主勉強のために使うということはできません。あと母体が理系なので社会科学の論文誌は無料で読めない場合も多いです(必要なら都度、大学図書館に申請)。

国立なので学費は私立と比べてかかりませんが、完全に回収できるかというと疑問ではあります。しかし、国際カンファレンスのための旅費・滞在費はサポートがあります(在籍中に1回とかの制限あり)。あと、研究合宿や英文校正、査読論文のオープンアクセス化にかかる必要も出してもらえました。

今の時代はメールやチャットツールやオンラインビデオ会議ツールがあるので、研究指導の場所はかなり自由度が高いです。私は大阪在住ですが特に不都合は感じませんでした。沖縄に住んでいる社会人学生も在籍していたと思います。

これから社会科学の社会人大学院に入る方へのアドバイス

研究活動について何か得意なことを持ってほしいと思います。分析手法でも情報でも何でも「これだけは教員にも負けない(おこがましいですが)」と思えるものを作ってほしいです。

私の場合は分析手法(量的のほうが好きですが、必要に迫られて質的なものも)を知るのが好きだったので、そこは専門職修士のときからいろいろ調べて身につけてきました。調べればたいていのことは解決できます。

英語は避けられませんのでがんばりましょう(私の場合は取り扱った研究テーマで日本語話者の研究者がいなかったので必然的にそうなったんですが)。また研究室が「世界に発信していこう」という感じだったので、査読論文は英語で書きました。これが時間のかかった大きな原因の1つかな・・・(なお、日本語の査読論文でも学位は取れます)。海外での発表も推奨されていました。

最後に自戒をこめてですが、より研究指導を受けるには、随時自ら進捗をちゃんと報告して、もっとこちら発信をしていくべきでした(どうしても進捗が出ないと連絡しづらくなるので)。

学位取得後について

仕事は特に変わっていません。ストレスに感じるのは大学や研究機関に所属していないので、論文を読んだり、データを取ったりするのが不便になったことです(NII IDRのポスター発表を論文化しようとしたら、研究機関にいないためデータ利用はNGでした。お蔵入り決定)。

後期課程の研究でまだやり残したことはありますし、研究活動は続けていく予定です。どこかの大学・研究機関で非常勤のお仕事を持ったほうが将来の共同研究者と出会えたり、研究がしやすかったりするかもしれないので、探してみようかな。

経営学でベイズ推定はどう扱われているのか

ほぼ1年ぶりの更新です。これはStanアドベントカレンダー2019の9日目のエントリーです。

 
今年の出来事しては『たのしいベイズモデリング2』の14章を担当したことでしょうか。とても簡単な分析なのですが(重回帰分析)、自分と同じフィールドの人たちに気楽にベイズ推定を知ってもらえたらいいなという動機で書きました。

 
このエントリーも同じ動機で書きます。というか、自分用メモです。タイトルに「経営学」とありますが、私の興味のある領域はサービス業の顧客の行動です。広く言えば消費者行動論ですが、サービスに限定しています。

 
さて、サービス研究ではあまりベイジアンは見かけません。しかし、少しずつ広まっていくように感じています。今年7月に研究発表大会に参加したとき、たまたま入った会場で「なんでp値ないの?」「それはベイズで分析しているからです」みたいなやり取りを聞くことができました。そして、自分がよくチェックしている論文誌でついにベイズ推定を使った論文が出ました。これです。

 
www.sciencedirect.comJournal of Retailing and Consumer Servicesはほどよいレベルの論文誌で、興味もよくかぶっている好き)

 
今回はこの論文を少し紹介しようと思います(Stanと関係なくてスミマセン)。

 
この研究ではカスタマーエクスペリエンス(CX)が顧客による口コミ(WOM:Word of Mouth)に及ぼす影響を調べています。そして、CXは顧客同士のやりとり(PTP:Peer to Peer)・サービスの結果品質(SOQ:Service Outcome Quality)・顧客の心の余裕(POM:Peace of Mind)に影響を受けている仮説を元にベイズ推定による構造方程式モデリングSEM)を行っています。超事前分布を使った階層が2つのアプローチです。

 
わかりにくいですが、図示(?)すると

PTP →
SOQ → CX → WOM
POM →

 
という感じになっていて、それぞれの潜在変数は質問票(コロンビア・ボゴタの大学生293人が対象で5件法)を使って探索的因子分析で出されています。その後のSEMもいっしょにSPSSで分析したと書かれていました。StanでもJAGSでもなくて残念・・・。

 
著者たちはベイズを使う理由を一段落を費やして書いています。メインになるところを引用します。

This approach has multiple advantages over traditional covariance based structural equation modeling, such as: (1) it does not rely on large-dimensional datasets to achieve sufficient statistical validity of the results (we model the relationships as unknown parameters, rather than estimates of an unobserved “true” value); (2) the two-hierarchy approach, where the unobserved follow the hypothesized relationships, is more aligned with reality, where declared perceptions are naturally noisy and non-homogeneous between participants; and (3) it provides a natural framework for incorporating prior information (including prior beliefs or biases and using imperfect information), which offers a more flexible approach to human psyche, learning and neural processing of information.

 
みらい翻訳を使って訳すと

(1) 結果の十分な統計的妥当性を達成するために大きな次元データセットに依存しない(観測されていない「真」値の推定値ではなく、未知のパラメータとして関係をモデル化する) (2) 観察されないものが仮定された関係に従うという2階層アプローチは宣言された知覚が必然的に参加者間でノイズが多く不均質であるという現実とより一致している (3) 事前情報(以前の信念または偏見を含み、不完全な情報を使用するさまを組み込むための自然な枠組みを提供し、人間の心理、学習、神経処理へのより柔軟なアプローチを提供する。

 
直訳ですが意味はくみ取れます。ここでいう2階層アプローチというのは、5件法のデータは多項分布から発生するとし、その超事前分布を正規分布かガンマ分布にすることらしい。

 
推定はサンプリングが40000(うちバーンイン期間が1000)、チェーン数は記述なし。収束したことを示すためにトレースプロットを見せていました(他の収束診断の指標はなし)。現時点では厳しい収束診断は求められていないようです。

 
知りたい4つのパラメータ(図の「→」)については事後分布の図を4つ載せて「ゼロになるのは無視できるレベルだから強いエビデンスがあるといえる」みたいに書かれていました("All the posterior densities for the β parameters have negligible mass below zero, indicating that there is strong evidence of significance of the relationships")。

 
その後は解釈が述べられて終わるのですが、全部で12ページの論文(実質8ページくらい)で比較的読みやすいように思いました。今後、詳しく読んでいこうと思います(一人で読むのはつらいので誰かいっしょに読んでください。遠くてもANAの便があるところだったら、どこにでも行きます)。

 
ということで自分用メモを終わります。以下、おまけの文献リスト。

 

【おまけ1】

Journal of Management では、過去2回ベイズ特集が組まれています。英語で書くときの例文探しに向いているかもしれない。

https://journals.sagepub.com/toc/joma/39/1

https://journals.sagepub.com/toc/joma/41/2

 

【おまけ2】

比較的新しい研究手法を扱うことも多い『組織科学』ではまだベイズ関連の論文が出ていないようです。時間の問題かな。

www.hakutou.co.jp

 

【おまけ3】

マーケティング・サイエンス』の近年の論文では次の3つがベイズ関連です(『マーケティング・サイエンス』はハードルが高く読みこなせない・・・)

www.jstage.jst.go.jp

www.jstage.jst.go.jp

www.jstage.jst.go.jp

M-1グランプリの結果の納得度を適切な仮説検定で調べてみる

はじめに

 
つい最近『P値 ―その正しい理解と適用』という本を読みました。

P値 ―その正しい理解と適用― (統計スポットライト・シリーズ)

P値 ―その正しい理解と適用― (統計スポットライト・シリーズ)

 
本当はベイズについて学びたいと思っているのですが,周りに理解者は少ないし,知識欲が高い人でも「学習コストが〜〜」という意見があったりして,やはり学位を取るまでは頻度主義で行くしかないかなぁと考えていたところ,ちょうどよい機会だったので手に取ってみました。

 
読みやすく薄い本で,短時間でP値の理解を深めることができます。ただ後半に進むほど数式が増えて,理解が難しくなったので8章以降は読んでいません。統計ユーザーにはそれくらいでいいかなと思います。

 
この『P値』ですが 「p値について正しく理解して統計的仮説検定を適切に行いましょう」という啓蒙書として読むことができます。p値への誤解を解く3章は「p値は小さいほどよいというのはまちがい」という基礎知識を知っている人にとっても,読めばさらにp値への理解が深まると思います。

 
5章では適切な仮説検定を行う手順が解説されています。簡単にまとめると

  • 意味ある差と見なせる基準(効果量)を決めましょう。
  • 有意水準,検出力(検定力)を設定して,サンプルサイズを決めましょう。
  • データを集めて分析し,p値を使って有意かどうか2分法(有意傾向とかいう謎ワードを使わない)で判断しましょう。

です。

 
サンプルサイズが大きいほどp値は小さくなるので,集められるならたくさんデータがあったほうがいいというわけでないわけです。

 
せっかく勉強したので実践しみようと思います。

 

本エントリーのねた

 
2018年のRアドベントカレンダー(5日目)のエントリーなので,もちろんRを使います。では,今回の分析ネタについて説明します。

 
先日(2018年12月2日)にM-1グランプリが開催されました。優勝したのは「霜降り明星」だったのですが,いっしょに視聴していた妻が「結果に納得いかない」みたいな態度だったので(妻は和牛ファン。メジャーになる前から応援していた),世の大勢がこの結果(審査員の判定)についてどう思っているのか調べてみることにしました。

 

分析手法とサンプルサイズの設計

 
M-1グランプリの結果について「納得しているか/していないか」について調査したいので,二項検定(もしくは母比率の検定)を使います。サンプルサイズを決めるために効果量を設定します。

 
効果量は「意味ある違い(インパクトの大きさ)」があると見なせる評価指標です。今回はそこそこ小さくてもOKと考えて,0.2にします。有意水準と検出力については,それぞれ一般的とされる5%と0.8に設定して両側検定を行います。

 
サンプルサイズを出すには,pwr パッケージを使います。pwr については,こちらのページでまとまっています。 http://monge.tec.fukuoka-u.ac.jp/r_analysis/effect_size_01.html

 
今回は二項検定なので,サンプルサイズを決めるために pwr.p.test() を利用します。決めたいサンプルサイズ n を NULL すればOK。

> library(pwr)
> pwr.p.test(h = 0.2, n = NULL, 
                    sig.level = 0.05, power = 0.8,
                    alternative ="two.sided")

     proportion power calculation for binomial distribution (arcsine transformation) 

              h = 0.2
              n = 196.2215
      sig.level = 0.05
          power = 0.8
    alternative = two.sided

 
結果から,サンプルサイズ(上の結果のn)は200ほど必要だとわかりました。次に,データ集めに移ります。

 

データ集めと概要

 
サンプルはM-1グランプリの結果を知っている人から無作為に集めるのがいいのでしょう。しかし,現実的に個人でやるにはムリなので,アンケート調査の「アンとケイト」を利用しました。 https://research-ssl.ann-kate.jp

 
質問は『今年(2018年)のM-1グランプリの結果をご存じの方に質問します。優勝が「霜降り明星」であることについて,あなたは納得していますか? していませんか? どちらかお答えください』です。回答は「納得している」「納得していない」の2択で,ランダムに表示されるようにしました。

 
費用は10800円でした。本年のブログで5000円ほどアマゾンアフィリエイト収益があったので,費用の半分をそれにあてたと考えています。今年もいろんな人のブログや twitter の情報にたいへん助けられた(身近に量的研究している人がいないので孤独なんです)ので,個人的歳末還元祭としました。

 
データはBOXからダウンロードできます。ご自由にお使いください(アクセス後、右上の「ダウンロード」からダウンロード可能です)。

Box
https://app.box.com/s/891kjk5adtt442wsjbgk2jyyvm4ovl3r

 
得られたデータの概要は次のとおりです。

性別 人数
女性 118
男性 82
世代 人数
15歳未満 2
15歳~19歳 11
20歳~29歳 44
30歳~39歳 41
40歳~49歳 36
50歳~59歳 32
60歳以上 34
納得している? 人数
納得していない 79
納得している 121

 
「納得していない」が79名,「納得している」が112名でした。納得している人が多いですね。帰無仮説検定に進みます。

 

分析と結果

 
今回は二項検定なので,binom.test() を使います。特別なパッケージは必要ないです。世間の結果への納得度に偏りがないならば,1人ごとの回答が「納得している/していない」のどちらかになる確率(二項分布のパラメータ)は0.5になります。

 
帰無仮説は「納得度に偏りがない(パラメータ=0.5)」,対立仮説は「納得度に偏りがある(パラメータ≠0.5)」です。データより,200人中121人が「納得している」と答えたので,分析コードは次のとおりになります。x が「納得している」と答えた人の数,n がサンプルサイズ,p がパラメータです。

> binom.test(x = 121, n = 200, p = 0.5,
           alternative = "two.sided",
           conf.level = 0.95)
           
    Exact binomial test

  data:  121 and 200
  number of successes = 121, number of trials = 200, p-value = 0.003635
  alternative hypothesis: true probability of success is not equal to 0.5
  95 percent confidence interval:
   0.5336036 0.6732350
  sample estimates:
  probability of success 
                   0.605            
           

 
分析結果より p 値が 0.05 より小さく,有意水準5%で差があると言えました(95%CI [0.53, 0.67])。

 

おわりに

どうやら世間一般では優勝の結果に納得している人が有意に多いようです。このことを妻に伝えると「ふ〜ん。それは何も考えていないから」と辛辣な答えが返ってきました・・・。現場からは以上です。

 

補足

 
なお,最近の類書としては『伝えるための心理統計』と『心理学のためのサンプルサイズ設計入門』があります。

伝えるための心理統計: 効果量・信頼区間・検定力

伝えるための心理統計: 効果量・信頼区間・検定力

心理学のためのサンプルサイズ設計入門 (KS専門書)

心理学のためのサンプルサイズ設計入門 (KS専門書)

 
『伝えるための〜』を以前読んだときは難しく感じたので,『P値』→『伝えるための〜』という順番がよさそうに思います。さらに実践していくときに『サンプルサイズ設計入門』を手に取るという流れがいいかもしれません(まだ積ん読状態)。より専門的なものには『サンプルサイズの決め方』がありますが,私には手が余るので紹介しません。

 
最後に,ブログでも許容度が過ぎたり不正確すぎる記述・まちがいがあれば教えてください。

purrr の map を使って検定を繰り返す

ずっとKJ法とかポストイットとかを使ってアンケートデータと格闘しているのでまったく統計分析はしていませんでした。少し目処が立ったので、次の研究のための予備調査を兼ねて昔のデータを見直すことにしました。

 
こんなデータがあるとします。

f:id:hikaru1122:20180918210302p:plain

 
Xが性別みたいなカテゴリカル変数で、A~Dまでは7件法のデータだとします。A~Dでそれぞれt検定を行いたいのですが

 
t.test(hoge$A ~ hoge$X)
t.test(hoge$B ~ hoge$X) ・・・

 
と繰り返すのはちょっとイヤで何か簡単にt検定を繰り返すことはできないかと方法を探しました(今回のように5回くらいならガマンしますが、今後10とか20になりそうだったから)。

 
繰り返しだから purrr を使えばなんとかなるだろうと検索しても、なかなかお目当てのものが出てこないのでここにメモします。たぶん、検索のやり方が下手だったのだろうと思います。

 

実行

str(hoge) # データを確認
Classes ‘tbl_df’, ‘tbl’ and 'data.frame':  12 obs. of  5 variables:
$ X: num  1 2 2 1 1 2 1 1 2 2 ...
$ A: num  4 2 1 1 4 2 3 5 3 4 ...
$ B: num  7 7 3 3 1 2 3 5 3 6 ...
$ C: num  7 4 6 7 3 5 6 7 6 1 ...
$ D: num  1 4 7 4 5 3 2 3 2 7 ...

hoge$X <- as.factor(hoge$X) # Xを因子化

 
ここまでで下準備OK。流れとしては

 
1. データからXをいったん省いて分析対象A~Dに絞り、
2. map にA~Dを流し込み、
3. t検定を繰り返し実行し、
4. 結果を kekka に保存する。

library(tidyverse) # library(purrr)もOK

kekka <- hoge %>% 
  select(-X) %>% 
  map(~t.test(. ~hoge$X))  # t.test( の次の . が流し込まれるデータ)

 
無事できました。これでデータが10とか20になっても大丈夫。もっと上手な(オシャレな)方法があるのだと思います。あれば教えてください。

参考(やっぱりあった)

https://sebastiansauer.github.io/looping-purrr/

【追記あり】マルコフ連鎖の収束診断の基準と書き方メモ

マルコフ連鎖の収束って、どうやって書けばいいのかわからないので、ざっと調べることにしました。事の発端は、ShinyStanで収束診断(DIAGNOSE)をするとき3つの指標が示されるのですが、3つの指標全部が None じゃないといけないか、と r-wakalang で質問したことです。回答もいたただけて、もう少し書き方も含めて調べてみようとなりました。

 
r-wakalang はこちら。 github.com

 
ShinyStan の使い方は↓の33ページ以降が役立ちます。

www.slideshare.net

 
cinii で検索したり、twitter で流れてきたものをかいつまんで読んでいます。全部で4つです。

 
●浅田他(2014)では「収束診断方法は複数あり~」「Gelman-Rubin統計量(R-hat)は1.1未満となっているときに、連鎖が定常状態に収束していると判断した」「Gelman-Rubin統計量(R-hat)の点推定値は~~のいずれも1.1以下であった」とあり、R-hatの計算方法として古谷(2010)、マッカーシー(2007)を参考せよとある。

 
●Namba et al.(2018)には「The value of Rhat for all parameters equalled 1.0, indicating convergence across the four chains.」とあります。

 
●清水(2017)には「サンプリング回数を1万回、バーンイン期間を5000回、マルコフ連鎖の数を4に指定して推定したところ、すべてのパラメータのR_hatが1となり、収束が確認された」とあり、脚注に「1に近いと収束したと判断される指標。1.05以下が目安とされる(Gelman, Carlin, Stern, &Rubin, 2004)」とBDAの第2版が引用されていました。

 
ちなみに、こちらではBDA第2版で「1.1より下」という基準が引用されています。ん~、とりあえず出張から帰ったら最新版のBDA3を確認する。 takehiko-i-hayashi.hatenablog.com

 
●渡辺他(2017)では「計算の結果,Gelman-Rubin 統計量はすべてのパラメータに対して1.01以下となり,各マルコフ連鎖が定常状態に収束していることを目視で確認した」とあり、BDA第3版が引用されていました。

 
ざっと調べたところ書き方も含め、1.1未満、1.0になってる、1.05以下と思ったよりいろいろありました。みどり本も帰ったら確認してみよう。

Bayesian Data Analysis, Third Edition (Chapman & Hall/CRC Texts in Statistical Science)

Bayesian Data Analysis, Third Edition (Chapman & Hall/CRC Texts in Statistical Science)

  • 作者: Andrew Gelman,John B. Carlin,Hal S. Stern,Donald B. Rubin,David B. Dunson
  • 出版社/メーカー: Chapman and Hall/CRC
  • 発売日: 2011/12/15
  • メディア: ハードカバー
  • この商品を含むブログを見る

 

参考文献

浅田正彦, 長田穣, 深澤圭太, & 落合啓二. (2014). 状態空間モデルを用いた階層ベイズ推定法によるキョン (Muntiacus reevesi) の個体数推定. 哺乳類科学, 54(1), 53-72.

Namba, S., Kabir, R. S., Miyatani, M., & Nakao, T. (2018). Dynamic displays enhance the ability to おりdiscriminate genuine and posed facial expressions of emotion. Frontiers in Psychology, 9, 672.

清水裕士. (2017). 二者関係データをマルチレベル分析に適用した場合に生じる諸問題とその解決法. 実験社会心理学研究, 56(2), 142-152.

渡辺 憲, 高麗 秀昭, 小林 功, 柳田 高志, 鳥羽 景介, 三井 幸成, 階層ベイズモデルを用いた丸太の天然乾燥における乾燥時間の推定および丸太の諸形質が乾燥性に及ぼす影響の評価, 木材学会誌, 公開日 2017/03/30, Online ISSN 1880-7577, Print ISSN 0021-4795, https://doi.org/10.2488/jwrs.63.63, https://www.jstage.jst.go.jp/article/jwrs/63/2/63_63/_article/-char/ja

 

追記(2018年6月16日)

BDA3を確認。Rhat ついては287ページに「閾値として1.1の設定で一般的によしとしてきた」と書いてあった。犬4匹本では,Rhat について(Gelman-Rubin統計量として)184ページで言及されている。みどり本では,206ページで言及されている。犬4匹本もみどり本もRhatの目安は1.1。豊田先生編著『基礎からのベイズ統計学』には190ページでGelman(1996)を引用して,Rhatが1.1ないしは1.2より小さいことが収束の判断として紹介されている。

ベイズ統計モデリング: R,JAGS, Stanによるチュートリアル 原著第2版

ベイズ統計モデリング: R,JAGS, Stanによるチュートリアル 原著第2版

基礎からのベイズ統計学: ハミルトニアンモンテカルロ法による実践的入門

基礎からのベイズ統計学: ハミルトニアンモンテカルロ法による実践的入門

 
というわけで,収束の判断のRhatについては1.1より小さいことが目安でよさそう(もちろんRhatだけで判断していいかどうかは別問題ということで)。

博士後期課程に入って2年経ちました

「もうブログ終わっちゃったんですか?」ときかれたので書きます。書かなかったのは、ここ最近は質的研究に取り組んでいて、特に書くネタがなかったからです。たぶん、かなりRの操作を忘れています・・・。

 
さて、JAIST 東京の社会人博士後期課程に入ってから丸2年経ちます。私は情報科学ではなくて、知識科学系(ザックリいうと経営学のほう)に属しています。あまり社会人学生の情報がない、という声も聞くので、すこし感想を書いておきます。

 
1.研究はどう進めているのか
2.ここ2年間の成果報告

の2点です。

 

1.研究はどう進めているのか

 
基本は平日の夜と土日にやっています。毎日、論文書いたり研究できたりするわけではありません。しかし、1段落でも論文を読んだり、1文字でも何か書く努力はしています。社会人院生は研究が進まないときに「仕事に逃げる」ということができ(仕事が夜遅くなるときがあるし、バタバタするのも日常茶飯事)、「仕事が忙しくて研究が進まなかった」と言い訳が立ちます。

 
こういうことはなるべく避けたいなと思い、防止策として今年初めから社会人学生どうしで「研究進捗部」を作り、みんなでコツコツ進捗を出しています。

 
f:id:hikaru1122:20180330123152j:plain
↓のアイデア丸パクリ参考にしました。

www.buzzfeed.com

 

2.ここ2年間の成果報告

 
1年目(2016年)は特に成果なし。授業を取ったり(5~6科目を取らないといけない)、研究に関係ありそうな書籍や論文にあたってみたり、新生活への対応に追われていた気がします。月に1回のゼミ前に有志で行う統計分析の勉強会で、半年間ほど統計的因果推論を学んだことがいちばん印象に残っています。

 
※資料はこのへんにあります。

https://www.slideshare.net/hikaru/1-62476733

Presentations by Hikaru Goto // Speaker Deck

 
2年目(2017年)は国際会議(大会? conference)に4つ投稿して、1つめはOK、2つめはNGが出ました。3つめと4つめは結果待ち、またはあさってに投稿です。OKが出たところは小規模ながら、質の高い場所で参加してよかったと思います。「研究がんばったで賞」もいただくことができ(なぜかその場で賞金400ドルまで出た)、黒字になって帰国しました。

f:id:hikaru1122:20170803141519j:plainf:id:hikaru1122:20170803183130j:plain
海外の学会ってお金持ちなんでしょうか。

https://www.irssm8atyonsei.com

 
NGが出たところは査読コメントに「理解してくれてない」というネガティブな印象を持ってしまったものの、英語力不足・準備不足があいまった結果だと思っています。

https://www.ieseg.fr/en/faculty-and-research/research-events/servsig-2018/

 
国内の大会でも1つポスター発表しました。個人的にはポスター発表のほうが好きです。質問の受け答えやフォローが口頭発表より濃くできるので。

第5回国内大会(2017/3/27-28) - サービス学会(Society for Serviceology)

 
あと、上海にある大学でも発表を行いました。話すことで自分のアイデアも固まるので、こういうのって大事ですね。

f:id:hikaru1122:20180330113121j:plain
上海、勢いある。

他に、すうがくぶんかの統計分析のセミナーに出たり、国際公共経済学会のサマースクールに1日だけ参加したり、行動計量学会春の合宿セミナーに1日だけ行ったり、マーケティング学会の研究会をのぞいてみたりしました。

 
結果、次の修了要件のうち、ほぼ半分は達成できたかと思います。大学には長期履修(目標は4年)を申請済みなので、残り期間もあと半分です。

 
国際会議で発表→○
授業11単位→△(あと1つ)
査読付論文→×
副テーマ研究→×

 
3年目の2018年度が正念場ですね。

iPad 上で RStudio を動かす(小ネタ)

RStudio Advent Calendar 2017 の20日目です。先月の Hijiyama.R で RStudio.Cloud について少し報告したのですが,よく考えれば,ネットがつながれば使えるわけです。実際,iPhone で RStudio.Cloud を使ってみた,という報告も Twitter で見かけたことがあります(出典を探せませんでした)。だったら,iPad ならどうだろう,ということでやってみました。

 
Hijiyama.R についてはこちらに詳しいです。
niszet.hatenablog.com

 
使用したのは,iPad Pro 12.9インチ(SIMフリー楽天モバイルのSIMを差しています)。まず,RStudio.Cloud にアクセスして,ログイン。私は Google アカウントでいつも接続しています。

https://rstudio.cloud/

f:id:hikaru1122:20171225223852j:plain

 
以前作ったプロジェクトを開いてみると……

f:id:hikaru1122:20171225232751j:plain

 
できた!!

 
まあ,当たり前ですね。

 
しかし,困ったことがあります。いざスクリプトを書こうとすると,キーボードの表示によって,画面半分がおおわれてしまいます。そのため,実行時にコンソールが見えず,いちいちキーボードを隠せねばなりません。こんな感じ。

f:id:hikaru1122:20171225224136j:plain

 
物理のキーボードがあればなんとかなるんじゃないかと思い,Smart Keyboard を買ってきました。今日もアップルストア心斎橋は混雑してましたね。セッティングしたらこんな感じです。

f:id:hikaru1122:20171225224810j:plain

 
これで通常の使い方(?)に近づいた感があります。気をつけたい点は,スクリプト実行のショートカットは Cmd + return ではなく,option + return であることです。

 
なんでしょう,利便性は乏しいんですが,「Rってこんなんだよ」って披露するときに使えるんじゃないでしょうか。すごくコスパ悪いです。

 
画像が暗いのは,宿泊先のホテルで撮ったたためです。すみません。

クリエイティブ・コモンズ・ライセンス
この 作品 は クリエイティブ・コモンズ 表示 - 継承 4.0 国際 ライセンスの下に提供されています。