\( \newcommand{\nPr}[2]{{}^{#1}A_{#2} } \newcommand{\combin}[2]{{}^{#1}C_{#2} } \newcommand{\cmod}[3]{#1 \equiv #2\left(\bmod {}{#3}\right)} \newcommand{\frc}[2]{\displaystyle\frac{#1}{#2}} \newcommand{\mdc}[2]{\left( {#1},{#2}\right)} \newcommand{\mmc}[2]{\left[ {#1},{#2}\right]} \newcommand{\cis}{\mathop{\rm cis}} \newcommand{\ImP}{\mathop{\rm Im}} \newcommand{\ReP}{\mathop{\rm Re}} \newcommand{\sen}{\mathop{\rm sen}} \newcommand{\tg}{\mathop{\rm tg}} \newcommand{\cotg}{\mathop{\rm cotg}} \newcommand{\cosec}{\mathop{\rm cosec}} \newcommand{\cotgh}{\mathop{\rm cotgh}} \newcommand{\cosech}{\mathop{\rm cosech}} \newcommand{\sech}{\mathop{\rm sech}} \newcommand{\sh}{\mathop{\rm sh}} \newcommand{\ch}{\mathop{\rm ch}} \newcommand{\th}{\mathop{\rm th}} \newcommand{\senEL}[1]{\mathop{\rm sen}^{#1}} \newcommand{\tgEL}[1]{\mathop{\rm tg}^{#1}} \newcommand{\cotgEL}[1]{\mathop{\rm cotg}^{#1}} \newcommand{\cosecEL}{\mathop{\rm cosec}^{#1}} \newcommand{\shEL}[1]{\mathop{\rm sh^{#1}}} \newcommand{\chEL}[1]{\mathop{\rm ch^{#1}}} \newcommand{\thEL}[1]{\mathop{\rm th^{#1}}} \newcommand{\cotghEL}[1]{\mathop{\rm cotgh^{#1}}} \newcommand{\cosechEL}[1]{\mathop{\rm cosech^{#1}}} \newcommand{\sechEL}[1]{\mathop{\rm sech^{#1}}} \newcommand{\senq}{\senEL{2}} \newcommand{\tgq}{\tgEL{2}} \newcommand{\cotgq}{\cotgEL{2}} \newcommand{\cosecq}{\cosecEL{2}} \newcommand{\cotghq}{\cotghEL{2}} \newcommand{\cosechq}{\cosechEL{2}} \newcommand{\sechq}{\sechEL{2}} \newcommand{\shq}{\shEL{2}} \newcommand{\chq}{\chEL{2}} \newcommand{\arctg}{\mathop{\rm arctg}} \newcommand{\arcsen}{\mathop{\rm arcsen}} \newcommand{\argsh}{\mathop{\rm argsh}} \newcommand{\argch}{\mathop{\rm argch}} \newcommand{\Var}{\mathop{\rm Var}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\tr}[1]{ \textnormal{Tr}\left({#1}\right)} \newcommand{\C}{\mathbb{C}} \newcommand{\E}{\mathbb{E}} \newcommand{\H}{\mathbb{H}} \newcommand{\I}{\mathbb{I}} \newcommand{\N}{\mathbb{N}} \newcommand{\P}{\mathbb{P}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\til}{\sim} \newcommand{\mdc}{\mathop{\rm m.d.c.}} \newcommand{\mmc}{\mathop{\rm m.m.c.}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\dfrc}{\displaystyle\frac} \newcommand{\Mod}[1]{\ (\mathrm{mod}\ #1)} \)

03/08/2019

De uma derivada de ordem k à binomial negativa.

Ontem à noite, estava eu sentado, num café, a resolver alguns exercícios de Probabilidades e Estatística. Precisei de umas fórmulas para a binomial negativa. Tinha as fórmulas nos meus apontamentos, mas não tinha a dedução. Já estava meio farto de cálculos "mecânicos".
Estava sem bateria no telemóvel, portanto, estava sem acesso à Internet.
Isto foi o que me ocorreu (isto são só cálculos, mas parece que sou mais produtivo num café do que em casa ou no trabalho):
Sabe-se que se $0<|x|<1$ então \[ \sum\limits_{n = 0}^\infty {x^n } = \frac{1}{{1 - x}} \] Derivando esta expressão termo a termo temos: \[ \sum\limits_{n = 0}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Note-se que o primeiro termo da série é zero , portanto esta igualdade pode ser reescrita \[ \sum\limits_{n = 1}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Voltando a derivar cada um dos membros \[ \sum\limits_{n = 1}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] E mais uma vez \[ \sum\limits_{n = 2}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] Continuando a derivar obtemos \[ \color{red}\sum\limits_{n = k}^\infty {n(n-1)\cdots(n-k+1)x^{n-k} } = \frac{k!}{\left(1 - x\right)^{k+1}} \] (Fórmula que pode ser confirmada pelo método de indução)
Onde $n(n-1)\cdots(n-k+1)={}^{n}A_k$ é a conhecida fórmula para arranjos de $n$ $k$ a $k$
Dividindo ambas as expressões por $k!$ obtém-se \[ \color{blue}\sum\limits_{n = k}^\infty {\left(\begin{array}{l} {n}\\ {k} \end{array} \right)x^{n-k} } = \frac{1}{\left(1 - x\right)^{k+1}} \] Fazendo as mudanças de variáveis $N=n+1$ e $K=k+1$, esta igualdade converte-se em \[ \color{green}\sum\limits_{N = K}^\infty {\left(\begin{array}{l} {N-1}\\ {K-1} \end{array} \right)x^{N-K} } = \frac{1}{\left(1 - x\right)^{K}} \]

Aplicação à binomial negativa

Diz-se que uma variável aleatória $X$="número de provas de Bernoulli a realizar até se obterem $k$ sucessos" tem distribuição binomial negativa. A função massa de probabilidade desta distribuição é dada por: \[ f_X(x)=P(X=x)= \left\{ {\begin{array}{l} {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - x)^{x - k}\text{ } x = k,k + 1,k + 2...} \\ {0,\text{caso contrário}} \end{array}} \right. \] Assim sendo \begin{eqnarray*} {E(X)}&{ = }&{\sum\limits_{x=k}^\infty {x f_X(x)}}\\ {}&{=}&{\sum\limits_{x = k}^\infty {x\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} }}\\ {}&{ = }&{\frac{{p^k }}{{\left( {k - 1} \right)!}}\sum\limits_{x = k}^\infty {\frac{{x!}}{{\left( {x - k} \right)!}}(1 - p)^{x - k} }}\\ {}&{ = } & { \frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\sum\limits_{x = k}^\infty {^x A_k (1 - x)^{x - k} }}}\\ {}&{ = }& {\frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\frac{{k!}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 1} }}}}\\ {}&{ = }& {\frac{k}{p}} \end{eqnarray*} A função geradora de momentos é \begin{eqnarray*} {M_X (t)}&{ = }&{ E\left( {e^{tX} } \right) }\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} f_X(x)}}\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} } }\\ {}&{ = }&{\sum\limits_{x = k}^\infty {e^{tx - tk} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)e^{tk} p^k (1 - p)^{x - k} }}\\ {}&{ = } &{\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t p} \right)^k \left( {e^t \left( {1 - p} \right)} \right)^{x - k} } } \\ {}&{ = } &{\left( {e^t p} \right)^k {\color{green}\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t \left( {1 - p} \right)} \right)^{x - k} }}}\\ {}&{ = }&{\left( {e^t p} \right)^k {\color{green}\frac{1}{{\left( {1 - e^t \left( {1 - p} \right)} \right)^k }}}}\\ {}&{ = }&{\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k} \end{eqnarray*} Com esta função pode-se calcular \[ E(X^2 ) = \lim_\limits{t\to 0} \frac{{d^2 }}{{dt^2 }}\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} \]

\begin{eqnarray*} {\frac{d}{{dt}}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k } \right)}\\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{d}{{dt}}\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)} \\ {}&{ = }&{ k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{{e^t \cdot p\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + e^t \cdot pe^t \cdot \left( {1 - p} \right)}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^2 }}} \\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k \frac{1}{{1 - e^t \cdot \left( {1 - p} \right)}}}\\ {}&{ = }&{\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \end{eqnarray*} Passemos à segunda derivada: \begin{eqnarray*} {\frac{{d^2 }}{{dt^2 }}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\frac{d}{{dt}}\left( {M_{X(t)} } \right)} \right)}\\ {}&{ = }&{ \frac{d}{{dt}}\left( {\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \right)}\\ {}&{ = }&{\frac{{k^2 \cdot e^{kt} \cdot p^k \left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} - k \cdot e^{kt} \cdot p^k \left( {k + 1} \right)\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^k \left[ { - e^t \cdot \left( {1 - p} \right)} \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{2k + 2} }}}\\ {}&{=}&{\frac{{ke^{kt} p^k \left[ {k\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)e^t } \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 2} }}} \end{eqnarray*} Finalmente: \begin{eqnarray*} {E(X^2 )}&{ = }&{\lim_\limits{t\to 0} \frac{d^2 }{dt^2 }\left( M_{X(t)} \right)}\\ {}&{=}&{\frac{{kp^k \left[ {k\left( {1 - \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)} \right]}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 2} }}}\\ {}&{=}&{\frac{{kp^k \left( {kp + k - kp + 1 - p} \right)}}{{p^{k + 2} }}}\\ {}&{ = }&{\frac{{k\left( {k - p + 1} \right)}}{{p^2 }}} \end{eqnarray*}
E daqui \[ Var(X) = E\left( {X^2 } \right) - E\left( X \right)^2 = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} - \frac{{k^2 }}{{p^2 }} = \frac{{k\left( {1 - p} \right)}}{{p^2 }} \]
PS:
  • Eu nunca tinha feito isto antes. Em caso de gralhas ou erros, eu vou acabar por corrigir, mas podem contactar-me.
  • Obviamente, existem outras formas de fazer algumas destas coisas... eu sei onde pode ver algumas. Por exemplo, posso sugerir o capítulo 4 da primeira edição do livro Introdução à Probabilidade e à Estatística , de Dinis Pestana e Sílvio Velosa — estou a sugerir a primeira edição porque no dia em que escrevo isto é a que está à minha frente!

Sem comentários:

Enviar um comentário