Estava sem bateria no telemóvel, portanto, estava sem acesso à Internet.
Isto foi o que me ocorreu (isto são só cálculos, mas parece que sou mais produtivo num café do que em casa ou no trabalho):
Sabe-se que se $0<|x|<1$ então \[ \sum\limits_{n = 0}^\infty {x^n } = \frac{1}{{1 - x}} \] Derivando esta expressão termo a termo temos: \[ \sum\limits_{n = 0}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Note-se que o primeiro termo da série é zero , portanto esta igualdade pode ser reescrita \[ \sum\limits_{n = 1}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Voltando a derivar cada um dos membros \[ \sum\limits_{n = 1}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] E mais uma vez \[ \sum\limits_{n = 2}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] Continuando a derivar obtemos \[ \color{red}\sum\limits_{n = k}^\infty {n(n-1)\cdots(n-k+1)x^{n-k} } = \frac{k!}{\left(1 - x\right)^{k+1}} \] (Fórmula que pode ser confirmada pelo método de indução)
Onde $n(n-1)\cdots(n-k+1)={}^{n}A_k$ é a conhecida fórmula para arranjos de $n$ $k$ a $k$
Dividindo ambas as expressões por $k!$ obtém-se \[ \color{blue}\sum\limits_{n = k}^\infty {\left(\begin{array}{l} {n}\\ {k} \end{array} \right)x^{n-k} } = \frac{1}{\left(1 - x\right)^{k+1}} \] Fazendo as mudanças de variáveis $N=n+1$ e $K=k+1$, esta igualdade converte-se em \[ \color{green}\sum\limits_{N = K}^\infty {\left(\begin{array}{l} {N-1}\\ {K-1} \end{array} \right)x^{N-K} } = \frac{1}{\left(1 - x\right)^{K}} \]
Aplicação à binomial negativa
Diz-se que uma variável aleatória $X$="número de provas de Bernoulli a realizar até se obterem $k$ sucessos" tem distribuição binomial negativa. A função massa de probabilidade desta distribuição é dada por: \[ f_X(x)=P(X=x)= \left\{ {\begin{array}{l} {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - x)^{x - k}\text{ } x = k,k + 1,k + 2...} \\ {0,\text{caso contrário}} \end{array}} \right. \] Assim sendo \begin{eqnarray*} {E(X)}&{ = }&{\sum\limits_{x=k}^\infty {x f_X(x)}}\\ {}&{=}&{\sum\limits_{x = k}^\infty {x\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} }}\\ {}&{ = }&{\frac{{p^k }}{{\left( {k - 1} \right)!}}\sum\limits_{x = k}^\infty {\frac{{x!}}{{\left( {x - k} \right)!}}(1 - p)^{x - k} }}\\ {}&{ = } & { \frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\sum\limits_{x = k}^\infty {^x A_k (1 - x)^{x - k} }}}\\ {}&{ = }& {\frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\frac{{k!}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 1} }}}}\\ {}&{ = }& {\frac{k}{p}} \end{eqnarray*} A função geradora de momentos é \begin{eqnarray*} {M_X (t)}&{ = }&{ E\left( {e^{tX} } \right) }\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} f_X(x)}}\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} } }\\ {}&{ = }&{\sum\limits_{x = k}^\infty {e^{tx - tk} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)e^{tk} p^k (1 - p)^{x - k} }}\\ {}&{ = } &{\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t p} \right)^k \left( {e^t \left( {1 - p} \right)} \right)^{x - k} } } \\ {}&{ = } &{\left( {e^t p} \right)^k {\color{green}\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t \left( {1 - p} \right)} \right)^{x - k} }}}\\ {}&{ = }&{\left( {e^t p} \right)^k {\color{green}\frac{1}{{\left( {1 - e^t \left( {1 - p} \right)} \right)^k }}}}\\ {}&{ = }&{\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k} \end{eqnarray*} Com esta função pode-se calcular \[ E(X^2 ) = \lim_\limits{t\to 0} \frac{{d^2 }}{{dt^2 }}\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} \]\begin{eqnarray*} {\frac{d}{{dt}}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k } \right)}\\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{d}{{dt}}\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)} \\ {}&{ = }&{ k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{{e^t \cdot p\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + e^t \cdot pe^t \cdot \left( {1 - p} \right)}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^2 }}} \\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k \frac{1}{{1 - e^t \cdot \left( {1 - p} \right)}}}\\ {}&{ = }&{\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \end{eqnarray*} Passemos à segunda derivada: \begin{eqnarray*} {\frac{{d^2 }}{{dt^2 }}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\frac{d}{{dt}}\left( {M_{X(t)} } \right)} \right)}\\ {}&{ = }&{ \frac{d}{{dt}}\left( {\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \right)}\\ {}&{ = }&{\frac{{k^2 \cdot e^{kt} \cdot p^k \left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} - k \cdot e^{kt} \cdot p^k \left( {k + 1} \right)\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^k \left[ { - e^t \cdot \left( {1 - p} \right)} \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{2k + 2} }}}\\ {}&{=}&{\frac{{ke^{kt} p^k \left[ {k\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)e^t } \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 2} }}} \end{eqnarray*} Finalmente: \begin{eqnarray*} {E(X^2 )}&{ = }&{\lim_\limits{t\to 0} \frac{d^2 }{dt^2 }\left( M_{X(t)} \right)}\\ {}&{=}&{\frac{{kp^k \left[ {k\left( {1 - \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)} \right]}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 2} }}}\\ {}&{=}&{\frac{{kp^k \left( {kp + k - kp + 1 - p} \right)}}{{p^{k + 2} }}}\\ {}&{ = }&{\frac{{k\left( {k - p + 1} \right)}}{{p^2 }}} \end{eqnarray*}
PS:
- Eu nunca tinha feito isto antes. Em caso de gralhas ou erros, eu vou acabar por corrigir, mas podem contactar-me.
- Obviamente, existem outras formas de fazer algumas destas coisas... eu sei onde pode ver algumas. Por exemplo, posso sugerir o capítulo 4 da primeira edição do livro Introdução à Probabilidade e à Estatística , de Dinis Pestana e Sílvio Velosa — estou a sugerir a primeira edição porque no dia em que escrevo isto é a que está à minha frente!