読者です 読者をやめる 読者になる 読者になる

選択確率について1

 \pi

以下の二つの計算過程を書きます

  1. Extreme Value Distributionから直接計算
  2. Williams-Daly-Zachary Theoremから求める

 この記事では1だけ書きます。

1 Extreme Value Distributionからの計算

Extreme Value Distributionはガンベル分布とも呼ばれ、PDFとCDFは以下です。

$$f_X(x) = \exp(-x) \exp(-\exp(-x))$$

$$F_X(x) = \exp(-\exp(-x))$$

 

n個の財から最大の効用をもたら財を選択するんですが、研究者からはその全てを観測することはできず、playerのprivate informationとして効用に確率的な誤差項を付加します。仮定としてadditive separability、つまり確率的な誤差項を観察されるvalueと足し算することでplayerに取っての効用を記述できるとします。

 

ここでplayerが同質の時、財iのplayerにとっての効用は以下のように書ける。ただし$\epsilon_i$はExtreme Value distributionに従い、財ごとにiidとする。

$$u_i = v_i + \epsilon_i$$

 

この設定の時、財iの選択確率は以下のように計算できる。

\begin{align*}P(choose\ i) &= P(u_i \geq u_j)\ \text{for all j}\\&= P(v_i + \epsilon_i \geq v_j + \epsilon_j)\ \text{for all j}\\&= P(\epsilon_i + v_i - v_j \geq \epsilon_j)\ \text{for all j}\\&= \int_{-\infty}^{\infty} \Pi_{j \neq i} \left( F(\epsilon_i + v_i - v_j) \right) f(\epsilon_i) \mathrm{d}\epsilon_i\\&=\int_{-\infty}^{\infty} \Pi_{j \neq i} \left( \exp(-\exp(-\epsilon_i +v_i -v_j)) \right) \exp(-\epsilon_i) \exp(-\exp(-\epsilon_i)) \mathrm{d}\epsilon_i\\&=\int_{-\infty}^{\infty} \Pi_j \left( \exp(-\exp(-(\epsilon_i +v_i - v_j))) \right) \exp(-\epsilon_i) \mathrm{d}\epsilon_i \\&= \int_{-\infty}^{\infty} \exp(-\sum_j \exp(-(\epsilon_i + v_i - v_j))) \exp(-\epsilon_i) \mathrm{d}\epsilon_i\\&= \int_{-\infty}^{\infty} \exp(-\exp(-\epsilon_i)\sum_j \exp(-(v_i -v_j))) \exp(-\epsilon_i) \mathrm{d}\epsilon_i\end{align*}

 

ここで$t = \exp(-\epsilon_i)$で変数変換すると、

\begin{align*} \int_{-\infty}^{\infty} \exp(-t\sum_j \exp(-(v_i - v_j))) \mathrm{d}t&= \frac{1}{\sum_j \exp(-(v_i - v_j))} = \frac{\exp(v_i)}{\sum_j \exp(v_j)} \end{align*}

 

ということで離散選択の確率が計算できました。

肝は最初に$\epsilon_j$を上側から抑える確率にして畳み込んじゃうこと。