RCTとは? マーケで使うランダム化比較試験の意味とABテストの違い

RCTとは? マーケで使うランダム化比較試験の意味とABテストの違い

RCTは、施策の効果をズレにくく確かめるための比較方法です。
日本語では「ランダム化比較試験」と呼ばれます。
広告、LP、価格テストでも、条件をそろえてランダムに比べれば「何が効いたのか」をかなり見やすくできます。

この記事では、RCTの意味をまず短く押さえます。
そのうえで、マーケでどう使うか、RCTが使いにくい場面、なんちゃってABテストの罠まで整理します。

RCTはランダムに分けて比べる方法

RCTの形はシンプルです。
対象を2つ以上のグループにランダムに分けます。
片方には施策を入れます。もう片方は入れません。
その結果を比べます。

要素中身役割
介入群新しい広告、LP、新価格などを当てる施策の効果を見る
対照群現状の広告、LP、価格を維持する比較の基準を作る
ランダム化対象を無作為に振り分けるもともとの差を散らす
比較指標CVR、CTR、売上、継続率など結果を同じ物差しで比べる

東京大学の「医療情報をわかりやすく発信するプロジェクト」でも、RCTは対象者を2つ以上のグループに無作為に分けて効果を検証する方法と説明されています。
まずはこの形だけ覚えれば十分です。

ランダムが重要な理由

普通の比較は、施策以外の差が混ざります。
これがあると、「売上が伸びた理由」がわからなくなります。

たとえば次の比較は危ういです。

  • Aは都心ユーザーに配信した
  • Bは地方ユーザーに配信した

このとき差が出ても、広告の勝ち負けとは限りません。
地域差が効いただけかもしれません。

RCTでは、対象をランダムに分けます。
すると年齢、性別、地域、興味関心の偏りを散らしやすくなります。
NIHも、よく設計されたRCTは因果関係を調べるうえで最も強い方法だと説明しています。

比較方法起きやすいこと言いやすいこと
普通の比較属性差や季節要因が混ざる相関は見える
RCT施策以外の差を散らしやすい因果をかなり強く言いやすい

マーケではABテストに近い形で使える

マーケでRCTが一番わかりやすいのは、ABテストです。
同じ時期に、近い条件で、ユーザーをランダムに振り分けて比べる。
この形にできれば、ABテストはRCTにかなり近づきます。

ただし、ABテストなら何でもRCTになるわけではありません。
配信面や流入元がズレていたら、ただの比較です。
大事なのは「ランダムに割り付けたか」です。

場面施策あり施策なし見る指標
LP改善新しいファーストビュー既存デザインCVR、離脱率
広告クリエイティブ新バナー旧バナーCTR、CPA
価格テスト新価格現行価格購入率、売上、粗利
UI変更新導線旧導線完了率、滞在時間

NTTデータ経営研究所も、RCTは医療だけでなく、研究開発やマーケティングでも使えると案内しています。
つまりRCTは、医療の専門用語で終わる話ではありません。

RCTでわかることと、わからないこと

RCTは強いです。
ただし万能ではありません。

わかることわかりにくいこと
その施策が効いたかなぜ効いたかの心理の中身
どちらが勝ったか長期で同じ効果が続くか
特定条件下での差別の媒体や別の顧客層でも再現するか

つまりRCTは、勝ち筋を見つける道具として強いです。
一方で、背景の解釈までは別の分析も必要です。

RCTが使えないケースは普通にある

RCTは強いです。
ただし、現実のマーケでは毎回きれいに組めるわけではありません。

ケースなぜ難しいか起きやすい問題
全員に同じ施策を当てる施策群を分けられない比較対象が消える
法務や倫理の制約が強い施策一部ユーザーだけ条件を変えにくい実験自体が止まる
サンプル数が少ない施策差がノイズに埋もれやすい偶然を勝ち筋と誤認する
季節変動が大きい施策同時比較しないと環境が変わる施策差より時期差を見てしまう

たとえば、大型セール中に価格も訴求もクリエイティブも同時に変える。
この状態では、どれが効いたのかを切り分けにくいです。

こういう場面では、観察データや時系列比較も使います。
ただし、その場合はRCTほど強く因果を言いにくくなります。

マーケで使うときの設計ミス

RCTっぽく見えても、設計が雑だと意味が薄くなります。
特に多いミスはこの3つです。

配信条件がそろっていない

配信面、時間帯、流入元がずれると、施策差ではなく環境差を見てしまいます。
新バナーが勝ったのではなく、たまたま勝ちやすい面に出ただけかもしれません。

指標を途中で変える

最初はCVRを見るつもりだったのに、途中からCTRだけ見る。
これをやると、勝ち負けの基準そのものが変わります。

サンプルが少ないまま結論を出す

数が少ないと、たまたまの揺れを勝ち筋だと思いやすくなります。
早すぎる勝ち判定は危険です。

設計ミスよくある例結果
条件ずれAはSNS流入、Bは検索流入施策差ではなく流入差を見る
指標ぶれ途中でCVRからCTRに乗り換える判断基準が崩れる
早すぎる終了数日だけ見て勝ち判定する偶然の上振れを拾う

なんちゃってABテストの罠

マーケで一番多いのは、ABテストをしているつもりで、実際はただ比較しているだけの状態です。

たとえばこうです。

  • 先週はAを配信した
  • 今週はBを配信した
  • AはInstagram、BはGoogle広告で見た
  • Aは新規中心、Bはリピーター中心だった

これでは、AとBを比べているようで、実際は時期、媒体、ユーザー層まで一緒に変わっています。
つまり「何が効いたか」がわかりません。

見た目実態判断
A/Bの2案を比べた配信時期が違うABテストではなく時系列比較
A/Bを別媒体で配信した媒体差も混ざるクリエイティブ差を断定できない
A/Bで対象ユーザーが違う属性差も混ざるランダム比較になっていない

ABテストを強くする条件はシンプルです。
同じ時期に、近い条件で、ユーザーをランダムに分けることです。
ここを外すと、ABテストではなく「並べて見ただけ」になりやすいです。

RCTを一言でいうと、ズレずに勝ち筋を探す構造

RCTを構造で分けると、こうです。

  1. ユーザーはバラバラで、ノイズが多い
  2. そのまま比べると、何が効いたかがわからない
  3. だからランダムに分ける
  4. 施策以外の差を散らして、効果を見やすくする

この流れがわかれば、RCTの本質はかなりつかめます。
マーケ視点で言えば、意思決定のズレを減らすための実験設計です。

実務で最初にやること

ここまで読んでも、現場で何から始めるかが曖昧だと動きにくいです。
最初は大きな実験ではなく、小さく1本だけ回すほうが安全です。

  1. 変える要素を1つだけ決める
  2. 比較する指標を1つ決める
  3. 同じ時期、近い条件で配信する
  4. ユーザーをできるだけランダムに分ける
  5. 数字が少ない段階で勝ち判定しない

たとえば、LPのファーストビューだけ変えてCVRを見る。
これなら、何が変わったかを追いやすいです。

FAQ

RCTとABテストは同じですか?
同じではありません。 ただし、ユーザーをランダムに割り付けて条件をそろえたABテストは、RCTに近い設計です。
RCTなら必ず正しい答えが出ますか?
必ずではありません。 設計が雑だと、RCTでも判断を誤ります。 指標、対象、サンプル数の設計が必要です。
データ量が多ければRCTはいりませんか?
いりませんとは言えません。 データ量が多くても、比較条件がずれていれば因果は見えにくいままです。

関連記事

参考

attrip

attrip

考えたことを、記事・AI・音楽に変えて発信しています。

盆栽、音楽、ブログ運営、日々の試行錯誤について書いています。

2010年から発信中

コメントを残す