見出し画像

数理:リスクテイクがペイする条件

この記事の提供するもの

前提としての課題意識

ある法則(例えばビジネスルール)の下である明示的な目標(例えば売上ゴール)の達成を目指す行為を「ゲーム」として捉えた時に、そのクリア条件は、
「ゲームオーバーになる前に目標を達成すること」
…だと言えます。これは当然と言えば当然のことです。

一方でまた、「ノーリスク・ノーリターン」という言葉もあります。
これも当然のこととして世に広く受け入れられている言葉です。
しかしリスクテイクは、ゲームオーバーに近づく可能性を向上させます。

では、どんな時ならリスクテイクがペイすると予測できるのでしょうか。
これが本記事の課題意識です。

課題意識・疑問に対して本記事が提供するもの

  1. ゲームオーバー回避の重要性

  2. リスク施策がペイする条件

上記2点について、数理的モデルに具体的パラメータを当てはめて可視化したグラフを示し、そこから、

  • ゲームオーバーまでの距離が大きいほどリスクテイクはペイさせやすい

  • コンパクトなリスクほどペイさせやすい

  • 基本はしっかり「今の取り組み」の期待値の維持・向上に集中すべき

    • 「今の取り組み」に限界を感じるなら新しい挑戦もありだが

    • その場合は新しい挑戦の成功確率をきちんと見極める必要がある

…という、身も蓋もない言い方をすれば、
「余裕がある時に少しずつリスクテイクせよ」
という教訓を抽出します。

これは当たり前のことのように思えますが、人は危機に当たった時ほど無謀なリスクテイクでの一発逆転に賭けてしまいがちであり、それを戒める教訓としては意味があると筆者は考えています。

ゲームオーバー回避の重要性

ある取り組みを神の視点から見た時、成功のための必要条件が$${m}$$個あったとして、各条件の達成・失敗は独立事象であり、それぞれの成功確率が$${p_1, p_2,…,p_{m-1},p_m}$$であったとします。

現実世界では、何が成功の必要条件なのかや、それぞれの成功確率は、自明でないどころか調べようもないことさえ珍しくありません。
しかし、今は神の視点で考えてください。

この時、その取り組み全体の成功確率は、

$$
P = \prod_{i=1}^m p_i
$$

…と表現でき、取り組みに対して$${n}$$回挑戦する時に1回以上成功する確率は、

$$
1 - (1 - P)^n
$$

…と表せます。

$${0 < P \leq 1}$$の時、$${n}$$を無限に増やすと上記式は1に収束します。
つまり、成功確率が0%より僅かでも大きければ、無限回の挑戦を経ることで絶対に成功させられます。

これは当たり前かつ無限回の挑戦など非現実的に思える話かもしれません。
しかし、実際は無限回まで行かなくとも十分な効果を得られます。

Pとnを変化させた時の全体確率の変化

リスクテイクのペイ条件

#1 :成功確率ブースト型リスクテイクのペイ条件

今、$${n}$$回可能な挑戦を$${m}$$回分減らす代わりに取り組み成功確率$${P}$$を$${Q (Q > P)}$$に引き上げる施策の実行是非を考えます。
この施策がペイする条件は、成功時のリターンを$${V}$$とすると、

$$
\{1 - (1 - Q)^{n-m}\} \cdot V - \{ 1- (1 - P)^n \} \cdot V > 0 \\
\Leftrightarrow (1 - P)^n - (1 - Q)^{n-m} > 0 \\
\Rightarrow Q > 1 - \sqrt[n-m]{(1 - P)^n}
$$

…と表現できます。
$${0 < P < 1}$$の時$${0 < 1 - P < 1}$$なので、

  • $${n}$$ = 元々確保できていた挑戦回数…が大きいと見込める時ほど

  • $${m}$$ = リスク施策で消費する挑戦回数…が小さいと見込める時ほど

  • $${P}$$ = 元々の成功確率…が「低い」と見込める時ほど

$${Q}$$ = 押し上げ後の成功確率の必要水準は低くなって、つまり、リスクテイクがペイしやすくなります。

具体的な値を当てはめてみると、例えば下図のようになります。

#2:報酬ブースト型リスクテイクのペイ条件

$${n}$$回可能な挑戦を$${m}$$回分減らす代わりに取り組み成功時の報酬$${V}$$を$${W (W > V)}$$に引き上げる施策の実行是非を考えます。
計算をかんたんにするために$${V = 1}$$とすると、$${W}$$は報酬を何倍にすることがこの施策のペイ条件なのか…を示す値となります。
期待値の差分表現から$${W}$$の下限は、

$$
\{1 - (1 - P)^{n-m} \} \cdot W - \{1 - (1 - P)^n \} > 0 \\
\Leftrightarrow W > \frac{1 - (1 - P)^n}{1 - (1 - P)^{n-m}}
$$

…と表現できます。
この式では、

  • $${n}$$ = 元々確保できていた挑戦回数…が大きいと見込める時ほど

  • $${m}$$ = リスク施策で消費する挑戦回数…が小さいと見込める時ほど

  • $${P}$$ = 元々の成功確率…が「高い」と見込める時ほど

$${W}$$ = 押し上げ後の報酬マルチプルの必要水準は低くなって、つまり、リスクテイクがペイしやすくなります。
$${n}$$・$${m}$$は成功確率ブースト型のリスクテイクと同じ傾向を示しているのに対し、$${P}$$については反対の傾向を示している点に留意してください。

具体的な値を当てはめてみると、例えば下図のようになります。

#3:既存挑戦が軌道に乗る前の新挑戦型リスクテイクのペイ条件

ある取り組みに挑戦している最中、その挑戦がまだ軌道に乗っていない段階ではあるものの、新しい挑戦を試みるケースについて調べてみます。

具体的には、成功したら$${V}$$のリターンが得られる成功確率$${P}$$の取り組みに$${n}$$回挑戦する時、その挑戦回数を$${m}$$回分減らす変わりに確率$${Q}$$で$${W}$$のリターンが得られる新しい挑戦に挑むべきか否かを考えてみます。
この取り組みがペイする条件は、期待値の考え方に基づき、

$$
Q \cdot W + \{1 - (1 - P)^{n-m} \} \cdot V - \{1 - (1 - P)^n\} \cdot V > 0 \\
\Leftrightarrow W > \{(1 - P)^{n-m} - (1 - P)^n\} \cdot \frac{V}{Q}
$$

…と表現できます。
$${n, m, P}$$それぞれの導関数は、

  • $${\frac{dW}{dn} = log(1-P) \cdot (1 - P)^n \cdot \frac{V}{Q} \cdot \frac{1 - (1 - P)^m}{(1 - P)^m}}$$

  • $${\frac{dW}{dm} = -\frac{V}{Q} \cdot log(1-P) \cdot \frac{(1-P)^n}{(1-P)^m}}$$

  • $${\frac{dW}{dP} = \frac{V}{Q}\{n(1-P)^{n-1} - (n - m)(1 - P)^{n-m-1}\}}$$

…と示すことができ、これらをひとつひとつ見ていくと、

  • $${n}$$ = 元々確保できていた挑戦回数…が大きいと見込める時ほど

  • $${m}$$ = リスク施策で消費する挑戦回数…が小さいと見込める時ほど

  • $${P}$$ = 元々の成功確率…が「高い」と見込める時ほど

$${W}$$が小さくなる $${\Leftrightarrow}$$ リスクテイクがペイしやすい…と言えます。

具体的な値を当てはめてみると、例えば下図のようになります。

#4:既存挑戦が軌道に乗った後の新挑戦型リスクテイクのペイ条件

挑戦が軌道に乗り、1回のアクションごとに確率$${P}$$でリターン$${V}$$を得られる状態になったとします。
今、$${n}$$回だけアクションするリソースがある時に、$${m}$$回分のアクションに相当するリソースを消費して確率$${Q}$$でリターン$${W}$$を得る新たな挑戦に取り組むべきかを考えます。
計算をかんたんにするために$${V = 1}$$とすると、$${W}$$は通常リターンの何倍の報酬を得ればこの挑戦がペイするかを示す値となります。
期待値の差分表現から$${W}$$の下限は、

$$
Q \cdot W + (n - m)\cdot P - n \cdot P > 0 \\
\Leftrightarrow W > \frac{P}{Q} \cdot m
$$

…と表現できます。
この式では、

  • $${m}$$ = リスク施策で消費する挑戦回数…が小さいと見込める時ほど

  • $${P}$$ = 通常アクションの成功確率…が「低い」と見込める時ほど

  • $${Q}$$ = 新規挑戦の成功確率…が「高い」と見込める時ほど

$${W}$$が小さくなる $${\Leftrightarrow}$$ リスクテイクがペイしやすい…と言えます。

具体的な値を当てはめてみると、例えば下図のようになります。

#5:既存挑戦が軌道に乗った後の転換率改善リスクテイクのペイ条件

1回のアクションごとに確率$${P}$$でリターン$${V}$$を得られる状態で、$${n}$$回だけアクションするリソースがある時に、$${m}$$回分のアクションに相当するリソースを消費することでリターン獲得確率を$${Q (Q > P)}$$まで引き上げられるタイプのリスク施策について考えます。
この取り組みがペイする$${Q}$$は、期待値の考え方に基づいて、

$$
(n - m) \cdot Q \cdot V - n \cdot P \cdot V > 0 \\
Q > \frac{n}{n - m} \cdot P
$$

…と表現できます。
この式では、

  • $${n}$$ = 元々確保できていた行動回数…が大きいと見込める時ほど

  • $${m}$$ = リスク施策で消費する挑戦回数…が小さいと見込める時ほど

  • $${P}$$ = 通常アクションの成功確率…が「低い」と見込める時ほど

必要な$${Q}$$が小さくなる $${\Leftrightarrow}$$ リスクテイクがペイしやすい…と言えます。

#6:既存挑戦が軌道に乗った後の報酬増幅型リスクテイクのペイ条件

1回のアクションごとに確率$${P}$$でリターン$${V}$$を得られる状態で、$${n}$$回だけアクションするリソースがある時に、$${m}$$回分のアクションに相当するリソースを消費することで報酬獲得時の効用を$${W (W > V)}$$まで引き上げられるタイプのリスク施策について考えます。
計算をかんたんにするために$${V = 1}$$とすると、$${W}$$は通常リターンの何倍の報酬を得ればこの挑戦がペイするかを示す値となります。
期待値の差分表現から$${W}$$の下限は、

$$
(n - m) \cdot P \cdot W - n \cdot P > 0 \\
\Leftrightarrow W > \frac{n}{n-m}
$$

…と表現できます。
この式では、

  • $${n}$$ = 元々確保できていた行動回数…が大きいと見込める時ほど

  • $${m}$$ = リスク施策で消費する挑戦回数…が小さいと見込める時ほど

必要な$${W}$$が小さくなる $${\Leftrightarrow}$$ リスクテイクがペイしやすい…と言えます。

具体的な値を当てはめたグラフは、$${n - m = rn (0 \leq r \leq 1)}$$とした上で、$${W > \frac{n}{n-m} = \frac{1}{r}}$$の軌跡を描きます。

まとめ

ここまで見てきた、

  1. 成功確率ブースト型リスクテイク

  2. 報酬ブースト型リスクテイク

  3. 既存挑戦が軌道に乗る前の新挑戦型リスクテイク

  4. 既存挑戦が軌道に乗った後の新挑戦型リスクテイク

  5. 既存挑戦が軌道に乗った後の転換率改善型リスクテイク

  6. 既存挑戦が軌道に乗った後の報酬増幅型リスクテイク

…から抽出できる知見をまとめると、

  • ゲームオーバーまでの距離が大きいほどリスクテイクはペイさせやすい

    • 確認した全てのモデルで$${n}$$が大きいほどリスクテイクをペイさせやすいためです

  • コンパクトなリスクほどペイさせやすい

    • 確認した全てのモデルで$${m}$$が小さいほどリスクテイクをペイさせやすいためです

  • 基本はしっかり「今の取り組み」の期待値の維持・向上に集中すべき

    • 「今の取り組み」に限界を感じるなら新しい挑戦もあり(#4のケースに相当)だが

    • その場合は新しい挑戦の成功確率($${Q}$$)をきちんと見極める必要がある

…ということが言えると思います。

身も蓋もない言い方で原則を示せば、
「余裕がある時に少しずつリスクテイクせよ」
…ということになろうかと思います。
これは当たり前のことのように思えますが、人は危機に当たった時ほど無謀なリスクテイクでの一発逆転に賭けてしまいがちであり、それを戒める教訓としては意味があると筆者は考えています。

人が危機的状況において無謀に思える一発逆転策に傾倒するのか…については、また別の機会に記事化できればと思います。

この記事が気に入ったらサポートをしてみませんか?