HCD-Net通信
「人間中心設計 (HCD)」を効果的に導入できるよう、公の立場で研究や人材育成などの社会活動を行っていくNPO「人間中心設計推進機構(HCD-Net)」から、HCDやHCD-Netに関連する話題をお送りしていきます。
HCD-Net通信

人間中心設計のためのインタビューで得たデータの分析法 - GTAとSCAT/HCD-Net通信 #18

インタビューなどで集めたデータの分析手法であるGTAとSCATに関して解説する。

人間中心設計において重要なのは、思いこみでではなく、実際の利用者を理解したうえでデザインを進めること。そのためには、インタビューなどによる情報収集が欠かせない。しかし、そこで得た情報をどう処理するかは、HCDにおいて非常に重要なプロセスである。今回は、フィールドワークで集めたデータの分析手法であるGTAとSCATを紹介し、データ分析の基本的な考えや鉄則を解説する。

①フィールドワーク - 情報収集

ビジネスエスノグラフィ

ユーザーがふだんどのような環境で生活しているのか、どういった考え方で商品やサービスに接しているのかといったことを観察し、得られた知見から仮説を構築していく手法。「仮説→調査」ではなく、「観察→分析→仮説構築」という順番になるのが特徴。

最近ビジネスエスノグラフィが流行っている。1999年以来提唱しているユーザー工学は、僕自身の節操のない性格を反映して多分野からの借用や転用を節操なく行っている。およそ思考のプロセスや情報のハンドリングのレベルまで一般化してしまえば、研究分野の壁など存在しないと考えているからだ。マーケティングの分野も、同様な意味で節操がないと感じている――もちろんポジティブな意味においてだ。

それはともかく、設計者の思い込みによってスタートするのではなく、フィールドワークによって現場に密着して問題の発掘や確認を行うという傾向があちこちにでてきたことは基本的には喜ばしい。たとえば建築学の分野でも、この8月に日本建築学会の『JABS建築雑誌』という雑誌で特集が組まれていた。

フィールドワークのアプローチは、文化人類学や民俗学、そして社会学などの分野では当然の基本的な手法だった。心理学の分野では2004年に日本質的心理学会が設立され、質的なデータを重視しようという傾向が横展開してきた。

ユーザビリティの分野でもフィールドワークのアプローチは1997年のBeyer and Holtzblattの著書の刊行とContextual Inquiry(ユーザーシナリオ法)という手法の提案に前後して、ここ10年ほど、活発に行われるようになってきた。

ともかく、日本におけるフィールドワークの普及については、社会学者の貢献が大きい。業界関係の皆さんにも読みやすいものとして、たとえば次のような著書が刊行されている。

②フィールドデータの処理 - 情報分析

さて、今回はフィールドワークのやり方ではなく、そこで得たデータのハンドリングについて触れておきたい。多数の、といっても10~20件くらいのインタビューデータを得た場合、どうやってそれをまとめるか、ということだ。僕自身はここで紹介するような技法を参考にしつつ、自己流でやっているが、まずフィールドワークデータの分析に最初に取り組んでみようという方は、このあとで紹介するGTAやSCATなどの手法を利用されるといいだろう。

ところで、いずれの手法を使うにしても、まず観察やインタビューという手法で得たデータの前処理が必要になる。

観察については、最近ではデジカメが一般化したので、それを利用して静止画や動画を撮ることが多いだろう。しかしそれで安心してはいけない。たしかに画像データは豊富な情報を含んでいるが、そこからどういう意味を読み取るかが肝心である。その場で、もしくは当日のうちに、フィールドノートのような形で、少なくとも自分が気がついたことをメモしておくようにしなければならない。撮影されたデータは単なるピクセルの集まりであって、そこに意味を読み取り、後の解釈に利用するには、そこにあった人工物の意味や使い方、利用する場面などについてメモをしておかねばならない。そうしたメモ類が、この後で紹介する分析の段階で役にたつ。

インタビューについてはICレコーダを使うことが多いだろう。以前の質的研究では、録音を自分で聞きながら文字に書き起こすことが推奨されていた。書き起こしてゆくスピードだと、当時の状況が頭に蘇り、ただの発話の奥にある意味を思い出したり考えついたりすることがあるからだ。しかしスピードが命の現代では、それはいささかアカデミックすぎる。基本的に書き起こしには取得した音声データの6~10倍の時間がかかるからだ。僕は基本的には外注している(たいていはMP3で受け付けてくれる)。ただし料金は高い。1分の音声データの書き起こしに220~300円というのが相場だ。こうして書き起こされたものでも、それをじっくりと読み返すと、自分で音声から書き起こしをする場合には劣るものの、それなりに言外の意味に気づいたりすることもある。ともかく読むことが第一だ。

③GTAとSCAT - 分析手法

では前処理されたデータを分析するプロセスだが、ここでは「GTA」と「SCAT」という2つの分析手法を紹介しよう。

  • GTA(Grounded Theory Approach、グラウンデッド・セオリー・アプローチ)については関連書類も多数でているので、ここではいちいち書名をリストアップしない。Amazonで「グラウンデッドセオリー」を検索してみるといいだろう。これらはいずれも良書だが、戈木氏の本は簡潔にまとまっていると思う。

    実践グラウンデッド・セオリー・アプローチ

    実践グラウンデッド・セオリー・アプローチ
    戈木クレイグヒル 滋子 著
    新曜社(2008年)

  • SCAT Steps for Coding and Theorization 質的データの分析手法

    SCAT(Steps for Coding and Theorization)は特に最近話題になっている手法だが、それについては、

    大谷 「4ステップコーディングによる質的データ分析手法SCATの提案 -着手しやすく小規模データにも適用可能な理論化の手続き-.」名古屋大学大学院教育発達科学研究科紀要(教育科学) v.54, n.2, 27-44, 2008

    を読むことが基本だろう。そのPDFのダウンロードを含め、関連した情報は大谷氏のサイトSCAT Steps for Coding and Theorization 質的データの分析手法に掲載されている。

どちらの手法も……、とここで両者をひとくくりにして説明してしまうのだが、その理由は、大筋においては共通したものがあると考えるからである(フィールドデータからどのようにして自分の関心に適合した情報を取り出し、それをまとめていく筋道は、どのような質的データのまとめ方にも共通したもので、そこまで言ってしまっては身も蓋もないのかもしれないのだが)。また、どちらの手法も「Theory(理論)」という言い方をしているが、これはむしろ「仮説」というべきものだと考えている。理論構築ではなく仮説構築をしているに過ぎないのに、なぜか先達は理論というキーワードを使いたがっている。得られたものを理論だというには、まず対象とするサンプルが少なく、一般的結論として主張するには不十分だと思う。統計的にその傾向を確認するには、こうした調査の後、たとえば質問紙調査などを行った確認作業が必要になる。

ともかく、定性的調査と定量的調査は反復して行うべきものだと思っている。基本的には、

  • 定性的調査=仮説生成
  • 定量的調査=仮説検証

という性格を持っているため、定性的調査が先行することになる。しかし、最近は、ザッとした定量的調査を仮説探索のために行っておくのも有効だと考えるようになってきた。定量的調査でおおまかな状況を把握すると、なぜ高齢者だけにそうした傾向があるのかその理由が知りたい、といったような疑問点がでてくる。いわゆるリサーチクエスチョンである。それを生成するために、費用さえあればの話だが、まずは定量的調査をやってみるのがいいと思う。

まとめると、「定量的調査による仮説探索 → 定性的調査による仮説生成 → 定量的調査による仮説検証」という流れになる。このあたりはまた別途、詳しく書いておきたい。

閑話休題。

GTAはインタビューや観察記録から得られた内容から要点を文章化し、それにカテゴリーラベルをつける。それに対してSCATではインタビューログなどから重要と思われるキーワードを抽出し、それを一般的なキーワードに置換する。要するに第一段階では、いずれの手法も断片的情報を抽出する作業からスタートし、それを仮説に集約していく。内容的素片かキーワードかという点がちょっと異なるが、初心者にとっての容易さからいうとSCATのキーワード抽出の方が入りやすいように思う。

その後、GTAではカテゴリーのグルーピングを行う。これはKJ法と基本的には同じである。これに対し、SCATでは、それぞれの発話語句→一般化→概念化→テーマ・構成概念の構築と、それぞれの発話に密着した形で抽象化や一般化を行っていく。このあたり、まだ僕の理解が不十分なのかもしれないが、GTAは情報素片の脱文脈化を早期に行うのに対して、SCATでは文脈を重視した分析を行っているともいえるだろう。ただ、SCATでも最終的にはテーマや構成概念を集約することになるので、結果的に得られるものは同じになる(はず)である。

こうした分析手法を利用していけば、徐々に自分に合った処理法を考えつくことになるだろうし、それでいいのだと思っている。ただ、オリジナルデータを尊重する姿勢だけは重要視すべきであり、自分の思い込みを正当化するような強引な過剰解釈を行うことは諫めねばならない。とかくビジネスシーンではスピードを重視しすぎる傾向があるが、十分な吟味なしには十分な結果は得られないということを肝に銘じておく必要がある。

この記事が役に立ったらシェア!
メルマガの登録はこちら Web担当者に役立つ情報をサクッとゲット!

人気記事トップ10(過去7日間)

今日の用語

アップロード
手元のPCなどの機器から、ネットワークを介して、別のPCやファイルサーバー、ウェ ...→用語集へ

インフォメーション

RSSフィード


Web担を応援して支えてくださっている企業さま [各サービス/製品の紹介はこちらから]