[이산형 분포] 기하 분포
이번 포스트에서는 첫 번째 성공이 일어날 때까지 걸리는 시행횟수에 대한 확률분포로 많이 사용되는 기하분포에 대해 알아보겠습니다!
정의
기하분포(Geometric Distribution)란 성공확률이 $p$인 베르누이 시행을 독립적으로 반복할 때, 첫 번째 성공이 일어날 때까지 필요한 시행횟수 $X$에 대한 분포를 말합니다. 위의 정의를 이용한다면 pdf에 대한 이해도 쉽습니다! $X$번 시행하기 바로 전까지는 계속 실패를 했다는 의미이므로 $(1-p)$가 $(X-1)$번 거듭제곱되고, 마지막에 성공하면서 p가 곱해집니다. 따라서 아래와 같이 나타낼 수 있습니다.
$f(x)=p(1-p)^{x-1}, ~~~x=1,2,\ldots$
편의상 $X~{\sim}~Geo(p)$로 표기합니다.
특징
기하분포의 기댓값을 구하는 부분에서 해석학 내용이 조금 들어갑니다. 미분 시그마 교환 부분이 있는데 이에 대한 자세한 해석 증명은 생략하도록 하겠습니다!
$ \begin{align*} E(X) &= \sum_{x=1}^{\infty} xpq^{x-1},~~~~(q=1-p) \\ &=p\sum_{x=1}^{\infty} xq^{x-1} \\ &=p\sum_{x=1}^{\infty} (\frac{d}{dq}q^{x}) \\ &=p(\frac{d}{dq}\sum_{x=1}^{\infty} q^{x}) ~~~~ (\because Interchange~~the~~order~~between~~summation~~and~~differentiation) \\ &=p(\frac{d}{dq}\frac{q}{1-q}) \\ &=p(1-q)^{-2} \\ &=p\frac{1}{p^2} \\ &=\frac{1}{p} \\ \end{align*} $
일반적으로 $Var(X)=E( X^{2})-(E(X)) ^{2}$ 식을 이용하지만, 기하분포는 조금 다르게 구합니다. $E( X^{2})$을 구하는 것보다 $E(X(X+1))$을 구하는 것이 더 쉽기 때문에 $Var(X)=E(X(X+1))-E(X)-(E(X)) ^{2}$ 식을 이용해서 구해보도록 하겠습니다. $E(X(X+1))$은 기댓값과 비슷한 방법으로 구할 수 있습니다!
$ \begin{align*} E(X(X+1))&=\sum_{x=1}^{\infty} x(x+1)pq^{x-1} \\ &=p\sum_{x=1}^{\infty} x(x+1)q^{x-1} \\ &=p\sum_{x=1}^{\infty} (\frac{d^2}{dq^2}q^{x+1}) \\ &=p(\frac{d^2}{dq^2}\sum_{x=1}^{\infty} q^{x+1}) ~~~~ (\because Interchange~~the~~order~~between~~summation~~and~~differentiation) \\ &=p(\frac{d^2}{dq^2}\frac{q^2}{1-q}) \\ &=p \frac{2}{(1-q)^3} \\ &=p \frac{2}{p^3} \\ &=\frac{2}{p^2} \\ Var(X)&=E(X(X+1))-E(X)-(E(X)) ^{2} \\ &=\frac{2}{p^2}-\frac{1}{p}-\frac{1}{p^2} \\ &=\frac{1-p}{p^2} \\ \end{align*} $
적률생성함수는 위의 과정보다 복잡하지 않습니다. 단, $t$의 범위를 꼭 지정해줘야 합니다!
$ \begin{align*} M_{X}(t)&=E(e^{tX}) \\ &=\sum_{x=1}^{\infty} e^{tx}p(1-p)^{x-1} \\ &=\frac{p}{1-p}\sum_{x=1}^{\infty} [e^{t}(1-p)]^{x} \\ &=\frac{p}{1-p} \times \frac{e^{t}(1-p)}{1 - e^{t}(1-p)},~~~~t<-log(1-p) \\ &=\frac{pe^{t}}{1-e^{t}(1-p)}, ~~~~t<-log(1-p) \\ \end{align*} $
기하분포의 성질 중 무기억성(memoryless property)에 대해 소개합니다. $X ~{\sim}~GEO(p)$이면, 임의의 자연수 $j, k$에 대하여 $ P(X > j+k | X > j) = P(X > k)$가 성립합니다. 아래와 같이 증명할 수 있습니다.
$pf.$
$ \begin{align*} P(X > j+k | X > j) &= \frac{P(X > j+k, X > j)}{P(X > j)} \\ &= \frac{P(X > j+k)}{P(X > j)} ~~~~ (\because k > 0)\\ P(X > j) &= \sum_{x=j+1}^{\infty} p(1-p)^{x-1} \\ &= p(1-p)^{j} \times \frac{1}{1-(1-p)} \\ &= (1-p)^{j} \\ \therefore \frac{P(X > j+k)}{P(X > j)} &= \frac{(1-p)^{j+k}}{(1-p)^{j}} \\ &= (1-p)^{k} \\ &= P(X > k) \\ \end{align*} $
무기억성의 의미에 대해 설명드리겠습니다. 확률변수 $X$가 동전 던지기에서 앞면이 처음 나올 때까지의 시행횟수라고 하면, $P(X > j+k|X > j)$는 $j$번보다 많이 동전 던지기를 한 상황에서 $k$번 더 시행하는 확률을 말합니다. 여기에서 무기억성은 앞에서 $j$번보다 많이 동전 던지기를 한 상황을 기억하지 않고, 앞으로 $k$번 더 동전 던지기를 시행하는 것만 고려한다는 것을 뜻합니다. 즉, $j$번보다 많이 동전 던지기를 했을 때 앞으로 $k$ 번 더 동전 던지기를 시행할 확률이나, 처음부터 $k$번보다 많이 동전 던지기를 시행할 확률이나 같다는 것을 의미합니다. 직관적으로 생각해보면, 이전에 동전 던지기를 했던 결과들이 앞으로의 동전 던지기의 결과에 영향을 주기 않죠? 즉, 과거의 조건을 기억하지 않고, 앞으로의 조건만 고려한다는 것을 의미합니다.
Reference
- 수리통계학 [송성주, 전명식 지음]
- 서울시립대학교 수리통계학 I 수업 [정병철 교수님]
- 고려대학교 추론통계학 I 수업 [송성주 교수님]
댓글남기기