Com o passar dos anos foram-me aparecendo outras deduções para a fórmula.
Uma óbvia é converter o problema numa equação de diferenças e resolver, e foi um dos primeiros exemplos que testei assim qua aprendi equações de diferenças-
(Encontram uma versão dessa ideia no youtube, aqui: https://www.youtube.com/watch?v=OpA7oNmHobM)
Outra dedução de que gosto muito é visual: https://www.youtube.com/watch?v=aXbT37IlyZQ
Mas há muitas outras.
Por exemplo, recentemente encontrei esta https://www.youtube.com/watch?v=gVMEtOXdhs8.
Hoje apresento uma que me ocorreu durante uma explicação online de Probabilidades e Estatística.
Não é propriamente elegante, visto que vou "recorrer a um exército para matar uma mosca" (eu sei que a expressão é 'recorrer a um canhão para matar uma mosca' , mas aqui pode-se dizer que vou recorrer a vários canhões).
Vou recordar algumas definições:
Seja $X$ uma variável aleatória discreta e $\P$ uma medida de probabilidade \[ X = \left\{ {\begin{array}{cl} {x_i }&{i\in \I} \\ {} \\ {p_i^{} = \P\left( {X = x_i } \right)} \\ \end{array}} \right. \] O valor esperado (ou valor médio, ou esperança matemática, ou momento de primeira ordem) de $X$ é \[ \E(X) = \sum\limits_{i \in \I} {x_i p_i } \] desde que se tenha \[ \E(X) = \sum\limits_{i \in \I} {|x_i| p_i } < \infty \]
Seja $X$ uma variável aleatória discreta e $\P$ uma medida de probabilidade \[ X = \left\{ {\begin{array}{cl} {x_i }&{i\in \I} \\ {} \\ {p_i^{} = \P\left( {X = x_i } \right)} \\ \end{array}} \right. \] O Momento de ordem $n$ da variável aleatória $X$ é \[ \E(X^n) = \sum\limits_{i \in \I} {x_i^n p_i } \] desde que, uma vez mais, se tenha \[ \E(X) = \sum\limits_{i \in \I} {|x_i|^n p_i } < \infty \]
Seja $X$ uma variável aleatória discreta. A função geradora de momentos da variável aleatória $X$ é \[ M_X \left( t \right) = \E\left( {e^{tX} } \right) \]
Depois destas definições, recordo também um resultado
Seja $X$ uma variável aleatória. \[ \left. {\frac{{d^n }}{{dt^n }}M_X (t)} \right|_{t = 0} = \E\left( {X^n } \right) \]
Vamos a isto. Seja $X$ uma variável aleatória com distribuição uniforme discreta de parâmetro $n$ com $n\in\N_1$, ou seja, \[ X \til \text{Uniforme}(n) \] \[ P(X = i) = \left\{ {\begin{array}{ll} {\frc{1}{n}}&{,i\in\{1,\cdots,n\}} \\ {} &{} \\ {0} & {\text{, caso contrário}} \end{array}} \right. \] Então:
\[ M_X \left( t \right) = \E\left( {e^{tX} } \right) = \frc{1}{n}\sum\limits_{i = 1}^n {e^{ti} = } \left\{ {\begin{array}{ll} {\frc{{e^t }}{n}\frc{{1 - e^{nt} }}{{1 - e^t }}}&{,\text{se } t\neq 0} \\ {}&{} \\ {1} &{,\text{se } t = 0} \end{array}} \right. \] para $t\in\R$
A partir deste resultado provam-se os seguintes
\[ \frc{d}{{dt}}\left[{M_X \left( t \right)}\right] = \left\{ {\begin{array}{cl} {\frc{{e^t - \left( {n + 1} \right)e^{\left( {n + 1} \right)t} + ne^{\left( {n + 2} \right)t} }}{{n\left( {1 - e^t } \right)^2 }}}&{,\text{se } t\neq 0} \\ {}&{} \\ {\frc{{n + 1}}{2}}&{,\text{se } t = 0} \end{array}} \right. \] \[ \frc{{d^2 }}{{dt^2 }}\left[{M_X} \left( t \right)\right] = \left\{ {\begin{array}{cl} {\frc{{e^{2t} + e^t - \left( {n + 1} \right)^2 e^{\left( {n + 1} \right)t} + \left( {2n^2 + 2n - 1} \right)e^{\left( {n + 2} \right)t} - n^2 e^{\left( {n + 3} \right)t} }}{{n\left( {1 - e^t } \right)^3 }}}&{,\text{se } t\neq 0} \\ {}&{} \\ {\frc{{\left( {n + 1} \right)\left( {2n + 1} \right)}}{6}}&{,\text{se } t = 0} \end{array}} \right. \]
Consequentemente
\[ \E(X) = \frc{n+1}{2} \] \[ \E(X^2) = \frc{{\left( {n + 1} \right)\left( {2n + 1} \right)}}{6} \]
Atentendo à definição de momento de ordem 2 temos que: \[ \E\left( {X^2 } \right) = \sum\limits_{i = 1}^n {\left( {i^2 \cdot \frc{1}{n}} \right)} = \frc{1}{n}\sum\limits_{i = 1}^n { {i^2 } } \] Então, pelo último teorema: \[ \frc{1}{n}\sum\limits_{i = 1}^n { {i^2 }} = \frc{{\left( {n + 1} \right)\left( {2n + 1} \right)}}{6} \] E imediatamente, sai \[ \sum\limits_{i = 1}^n { {i^2 }} = \frc{{n\left( {n + 1} \right)\left( {2n + 1} \right)}}{6} \]
$\blacksquare$
Sem comentários:
Enviar um comentário