\( \newcommand{\combin}[2]{{}^{#1}C_{#2} } \newcommand{\cmod}[3]{#1 \equiv #2\left(\bmod {}{#3}\right)} \newcommand{\mdc}[2]{\left( {#1},{#2}\right)} \newcommand{\mmc}[2]{\left[ {#1},{#2}\right]} \newcommand{\cis}{\mathop{\rm cis}} \newcommand{\ImP}{\mathop{\rm Im}} \newcommand{\ReP}{\mathop{\rm Re}} \newcommand{\sen}{\mathop{\rm sen}} \newcommand{\tg}{\mathop{\rm tg}} \newcommand{\cotg}{\mathop{\rm cotg}} \newcommand{\cosec}{\mathop{\rm cosec}} \newcommand{\cotgh}{\mathop{\rm cotgh}} \newcommand{\cosech}{\mathop{\rm cosech}} \newcommand{\sech}{\mathop{\rm sech}} \newcommand{\sh}{\mathop{\rm sh}} \newcommand{\ch}{\mathop{\rm ch}} \newcommand{\th}{\mathop{\rm th}} \newcommand{\senEL}[1]{\mathop{\rm sen}^{#1}} \newcommand{\tgEL}[1]{\mathop{\rm tg}^{#1}} \newcommand{\cotgEL}[1]{\mathop{\rm cotg}^{#1}} \newcommand{\cosecEL}{\mathop{\rm cosec}^{#1}} \newcommand{\shEL}[1]{\mathop{\rm sh^{#1}}} \newcommand{\chEL}[1]{\mathop{\rm ch^{#1}}} \newcommand{\thEL}[1]{\mathop{\rm th^{#1}}} \newcommand{\cotghEL}[1]{\mathop{\rm cotgh^{#1}}} \newcommand{\cosechEL}[1]{\mathop{\rm cosech^{#1}}} \newcommand{\sechEL}[1]{\mathop{\rm sech^{#1}}} \newcommand{\senq}{\senEL{2}} \newcommand{\tgq}{\tgEL{2}} \newcommand{\cotgq}{\cotgEL{2}} \newcommand{\cosecq}{\cosecEL{2}} \newcommand{\cotghq}{\cotghEL{2}} \newcommand{\cosechq}{\cosechEL{2}} \newcommand{\sechq}{\sechEL{2}} \newcommand{\shq}{\shEL{2}} \newcommand{\chq}{\chEL{2}} \newcommand{\arctg}{\mathop{\rm arctg}} \newcommand{\arcsen}{\mathop{\rm arcsen}} \newcommand{\argsh}{\mathop{\rm argsh}} \newcommand{\argch}{\mathop{\rm argch}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\tr}[1]{ \textnormal{Tr}\left({#1}\right)} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\H}{\mathbb{H}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\dfrc}{\displaystyle\frac} \newcommand{\Mod}[1]{\ (\mathrm{mod}\ #1)} \)

06/02/2020

Uma fórmula simples e útil no m.r.u.v.

Num movimento rectilíneo uniformemente variado (ou seja, $a$ constante) é válida a fórmula: \[v^2-v_0^2=2a\Delta x\] Consegue deduzi-la?

\[ \left\{ {\begin{array}{l} {x = x_0 + v_0 t + \displaystyle\frac{1}{2}at^2 } \\ {v = v_0 + at} \end{array}} \right. \] \[ \Leftrightarrow \left\{ {\begin{array}{l} {x - x_0 = \left( {v_0 + \displaystyle\frac{1}{2}at} \right)t} \\ {v - v_0 = at} \end{array}} \right. \] \[ \Leftrightarrow \left\{ {\begin{array}{l} {\Delta x = \left( {v_0 + \displaystyle\frac{{v - v_0 }}{2}} \right)\left( {\displaystyle\frac{{v - v_0 }}{a}} \right)} \\ {v - v_0 = at} \end{array}} \right. \] \[ \Leftrightarrow \left\{ {\begin{array}{l} {\Delta x = \left( {\displaystyle\frac{{v + v_0 }}{2}} \right)\left( {\displaystyle\frac{{v - v_0 }}{a}} \right)} \\ {v - v_0 = at} \end{array}} \right. \] \[ \Leftrightarrow \left\{ {\begin{array}{l} {\Delta x = \displaystyle\frac{{\left( {v + v_0 } \right)\left( {v - v_0 } \right)}}{2a}} \\ {v - v_0 = at} \end{array}} \right. \] \[ \Leftrightarrow \left\{ {\begin{array}{l} {2a\Delta x = v^2 - v_0 ^2 } \\ {v - v_0 = at} \end{array}} \right. \]
$\blacksquare$

PS: Não faço ideia se esta fórmula é permitida no exame de FQ do ensino secundário. Como manda o bom senso, não utilizem fórmulas sem antes confirmar se as podem usar com o vosso professor.

25/12/2019

O seno de 18º

Esta ocorreu-me ao olhar para uma estrela de 5 pontas, neste Natal.
Há uns bons anos, partindo de "uma estrela regular de 5 pontas" (não vamos discutir a precisão matemática desta designação, ok?), ocorreu-me uma forma de deduzir o cosseno de $36^{\circ}$. Está em https://cpaulof2.blogspot.com/2013/06/o-numero-de-ouro-parte-3-o-pentagrama-e.html.
Nesse post, eu mostrei que \[\cos 36^{\circ}=\frac{\phi}{2}\] onde $\phi$ é o número de ouro \[\phi=\frac{1+\sqrt{5}}{2}\] Ora, uma fórmula que acabo por utilizar sempre que me aparecem alunos a pedir explicações de cadeiras que envolvem cálculo integral é
\[{\sen}^{2} \alpha=\frac{1-\cos (2\alpha)}{2}\] (um dia destes anexo uns formulários de trigonometria e de séries ao blog...)
Com umas pequenas manipulações algébricas escreve-se \begin{eqnarray*} {{\sen}^{2} 18^{\circ}}&=&{\frac{1-\cos 36^{\circ}}{2}}\\ {}&=&{\frac{1-\displaystyle\frac{1+\sqrt{5}}{4}}{2}}\\ {}&=&{\frac{4-1-\sqrt{5}}{8}}\\ {}&=&{\frac{3-\sqrt{5}}{8}} \end{eqnarray*} Vou tentar transformar $\displaystyle\frac{3-\sqrt{5}}{8}$ no quadrado de um número positivo. \begin{eqnarray*} {\frac{3-\sqrt{5}}{8}}&=&{\frac{6-2\sqrt{5}}{16}}\\ {}&=&{\frac{5-2\sqrt{5}+1}{16}}\\ {}&=&{\frac{\sqrt{5}^2-2\sqrt{5}+1^2}{4^4}}\\ {}&=&{\left(\frac{\sqrt{5}-1}{4}\right)^2} \end{eqnarray*} Conclusão: \[\sen 18^{\circ}=\frac{\sqrt{5}-1}{4}\]
$\blacksquare$
Feliz Natal
Podem ver uma demonstração alternativa, e que se pode apresentar a alunos do ensino secundário em: https://www.youtube.com/watch?v=_00oskWLtII.
Hoje em dia encontra-se de tudo no youtube... mas eu pertenço à velha escola: Prefiro pensar e fazer eu...
Curiosidade diabólica(26/12/2019) \begin{eqnarray*} {\sen 666^{\circ}}&=&{\sen 306^{\circ}}\\ {}&=&{\sen -54^{\circ}}\\ {}&=&{-\sen 54^{\circ}}\\ {}&=&{-\cos 36 ^{\circ}}\\ {}&=&{-\frac{\phi}{2}} \end{eqnarray*}

09/12/2019

Uma curiosidade sobre a constante de Euler-Mascheroni

Em explicações, às vezes aparecem-nos coisas que desconhecíamos, ou que não tínhamos notado até esse momento.
Há uns anos numa lista de exercícios de Probabilidades e Estatística de um aluno da professora Sandra Mendonça (Universidade da Madeira), apareceu, (como curiosidade) a igualdade
\[\gamma=-\Gamma'(1)\]
Onde $\gamma$ é a constante de Euler-Mascheroni.
Fui à minha calculadora, e observei (numericamente) o resultado.
O que se passava é que a definição que eu conhecia de $\gamma$, não era aquela, portanto devia ser possível deduzir a partir da definição que eu tinha, ou de alguma das fórmulas que eu conhecia.
Fui à Wikipedia. Reencontrei a propriedade, mas nada de prova...
Pensei um pouco e consegui chegar à demonstração que deixo aqui hoje.

Vou começar por partilhar convosco um pequeno e antigo pdf meu, de 12 páginas sobre a função Gama (de Euler).

https://drive.google.com/open?id=1Pn2yjn4z0AoLbqozwJcyGfVcdr-p32b4

Nesse pdf, na página 10 recordo a "minha" definição da constante de Euler-Mascheroni :

\[\gamma  = \lim\limits_{n\to \infty} \left( {\sum\limits_{k = 1}^n {\frac{1}{k}}  - \ln n} \right)\]

E mais abaixo, nessa mesma página apresento (e demonstro) a fórmula produto de Weierstrass

\[
\frac{1}{{\Gamma \left( x \right)}} = xe^{  \gamma x} \prod\limits_{k = 1}^\infty  {\left( {1 + \frac{x}{k}} \right)e^{ - \frac{x}{k}} }
\]

Como função auxiliar vou introduzir a função digama, $\psi$ , que é a derivada logarítmica da Gama, isto é

\[
\psi (x): = \left( {\ln \Gamma \left( x \right)} \right)^\prime   = \frac{\Gamma '\left( x \right)}{\Gamma \left( x \right)}
\]

Da fórmula produto de Weierstrass, (aplicando logaritmos a ambos os membros) é imediato que
\[
 - \ln \Gamma \left( x \right) = \ln x +\gamma x + \sum\limits_{k = 1}^{ + \infty } {\left[ {\ln \left( {\frac{{k + x}}{k}} \right) - \frac{x}{k}} \right]}
\]

Derivando ambos os membros temos
\[ - \psi \left( x \right) = \frac{1}{x} + \gamma  + \sum\limits_{k = 1}^{ + \infty } \left[ \frac{1}{k + x}- \frac{1}{k} \right] \]
Para $x=1$ temos \[ -\frac{\Gamma '\left( 1 \right)}{\Gamma \left( 1 \right)} = 1 + \gamma + \sum\limits_{k = 1}^{ + \infty }\left[ \frac{1}{k + 1} - \frac{1}{k} \right] \]

Como a série do lado direito é uma série de Mengoli que converge para $-1$ e $\Gamma(1)=0!=1$

Sai 

\[-\Gamma'(1)=\gamma\]
$\blacksquare$


PS: A Wikipedia apresenta outros resultados curiosos... :)

24/11/2019

Uma dedução das fórmulas do movimento rectilíneo uniformemente variado

Está na moda a (errada) filosofia de que as demonstrações só interessam aos matemáticos. Sem provas pregam-se dogmas, e não ciência. Biologia, Física, Geologia, Matemática, Química são ciências e não religiões. Uma formação científica decente deve ser capaz de dar demonstrações aos alunos, sem se tornar maçadora e aborrecida.

Hoje vou partir da definição de "movimento rectilíneo uniformemente variado" e deduzir as equações da velocidade e das posições, sem recorrer explícitamente ao cálculo integral.
[Esta prova ocorreu-me ontem num esclarecimento de dúvidas de Física de 11º... porque a vi quando eu estava no meu ensino secundário]

movimento rectilíneo uniformemente variado (m.r.u.v.) é um movimento rectilíneo em que a aceleração é constante e tem um valor $a$.

Se é constante, a aceleração média é também constante e igual ao mesmo valor $a$, ou seja
\[\frac{\Delta v}{\Delta t} =a \]
Isso significa que se o objecto inicia o movimento no instante $t=0$ com velocidade $v_0$, noutro instante $t$ terá velocidade $v$, cuja fórmula pode ser facilmente deduzida:
\begin{eqnarray*} {\frac{\Delta v}{\Delta t} =a}{\Leftrightarrow}{\frac{v-v_0}{t-0} =a}\\ {}{\Leftrightarrow}{v-v_0=at}\\ {}{\Leftrightarrow}{v=v_0+at} \end{eqnarray*}

Portanto a equação das velocidades é \[v=v_0+at\]
Num gráfico velocidade-tempo, esta velocidade é uma função afim, ou seja, tem o gráfico de uma recta.



A área entre o gráfico da velocidade e o eixo dos "$t$" dá-nos a variação de posição $\Delta x$ (porquê?).

E assim, para deduzirmos a equação do movimento basta recordar e aplicar a fórmula da área do trapézio:
\[A= \frac{B+b}{2}\times h\]
Onde $B$ e $b$ são as bases e $h$ a altura do trapézio.
Portanto \[\Delta x=\frac{(v_0+at)+v_0}{2}\times t=v_0t+\frac{1}{2}at^2\] Assumindo que no instante $t$ o objecto está na posição $x$ e no instante $t=0$ estava na posição $x_0$, temos \[x-x_0=v_0t+\frac{1}{2}at^2\]
Ou seja \[x=x_0+v_0t+\frac{1}{2}at^2\]
Que é a equação do movimento do objecto.

03/08/2019

De uma derivada de ordem k à binomial negativa.

Ontem à noite, estava eu sentado, num café, a resolver alguns exercícios de Probabilidades e Estatística. Precisei de umas fórmulas para a binomial negativa. Tinha as fórmulas nos meus apontamentos, mas não tinha a dedução. Já estava meio farto de cálculos "mecânicos".
Estava sem bateria no telemóvel, portanto, estava sem acesso à Internet.
Isto foi o que me ocorreu (isto são só cálculos, mas parece que sou mais produtivo num café do que em casa ou no trabalho):
Sabe-se que se $0<|x|<1$ então \[ \sum\limits_{n = 0}^\infty {x^n } = \frac{1}{{1 - x}} \] Derivando esta expressão termo a termo temos: \[ \sum\limits_{n = 0}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Note-se que o primeiro termo da série é zero , portanto esta igualdade pode ser reescrita \[ \sum\limits_{n = 1}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Voltando a derivar cada um dos membros \[ \sum\limits_{n = 1}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] E mais uma vez \[ \sum\limits_{n = 2}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] Continuando a derivar obtemos \[ \color{red}\sum\limits_{n = k}^\infty {n(n-1)\cdots(n-k+1)x^{n-k} } = \frac{k!}{\left(1 - x\right)^{k+1}} \] (Fórmula que pode ser confirmada pelo método de indução)
Onde $n(n-1)\cdots(n-k+1)={}^{n}A_k$ é a conhecida fórmula para arranjos de $n$ $k$ a $k$
Dividindo ambas as expressões por $k!$ obtém-se \[ \color{blue}\sum\limits_{n = k}^\infty {\left(\begin{array}{l} {n}\\ {k} \end{array} \right)x^{n-k} } = \frac{1}{\left(1 - x\right)^{k+1}} \] Fazendo as mudanças de variáveis $N=n+1$ e $K=k+1$, esta igualdade converte-se em \[ \color{green}\sum\limits_{N = K}^\infty {\left(\begin{array}{l} {N-1}\\ {K-1} \end{array} \right)x^{N-K} } = \frac{1}{\left(1 - x\right)^{K}} \]

Aplicação à binomial negativa

Diz-se que uma variável aleatória $X$="número de provas de Bernoulli a realizar até se obterem $k$ sucessos" tem distribuição binomial negativa. A função massa de probabilidade desta distribuição é dada por: \[ f_X(x)=P(X=x)= \left\{ {\begin{array}{l} {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - x)^{x - k}\text{ } x = k,k + 1,k + 2...} \\ {0,\text{caso contrário}} \end{array}} \right. \] Assim sendo \begin{eqnarray*} {E(X)}&{ = }&{\sum\limits_{x=k}^\infty {x f_X(x)}}\\ {}&{=}&{\sum\limits_{x = k}^\infty {x\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} }}\\ {}&{ = }&{\frac{{p^k }}{{\left( {k - 1} \right)!}}\sum\limits_{x = k}^\infty {\frac{{x!}}{{\left( {x - k} \right)!}}(1 - p)^{x - k} }}\\ {}&{ = } & { \frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\sum\limits_{x = k}^\infty {^x A_k (1 - x)^{x - k} }}}\\ {}&{ = }& {\frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\frac{{k!}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 1} }}}}\\ {}&{ = }& {\frac{k}{p}} \end{eqnarray*} A função geradora de momentos é \begin{eqnarray*} {M_X (t)}&{ = }&{ E\left( {e^{tX} } \right) }\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} f_X(x)}}\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} } }\\ {}&{ = }&{\sum\limits_{x = k}^\infty {e^{tx - tk} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)e^{tk} p^k (1 - p)^{x - k} }}\\ {}&{ = } &{\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t p} \right)^k \left( {e^t \left( {1 - p} \right)} \right)^{x - k} } } \\ {}&{ = } &{\left( {e^t p} \right)^k {\color{green}\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t \left( {1 - p} \right)} \right)^{x - k} }}}\\ {}&{ = }&{\left( {e^t p} \right)^k {\color{green}\frac{1}{{\left( {1 - e^t \left( {1 - p} \right)} \right)^k }}}}\\ {}&{ = }&{\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k} \end{eqnarray*} Com esta função pode-se calcular \[ E(X^2 ) = \lim_\limits{t\to 0} \frac{{d^2 }}{{dt^2 }}\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} \]

\begin{eqnarray*} {\frac{d}{{dt}}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k } \right)}\\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{d}{{dt}}\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)} \\ {}&{ = }&{ k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{{e^t \cdot p\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + e^t \cdot pe^t \cdot \left( {1 - p} \right)}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^2 }}} \\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k \frac{1}{{1 - e^t \cdot \left( {1 - p} \right)}}}\\ {}&{ = }&{\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \end{eqnarray*} Passemos à segunda derivada: \begin{eqnarray*} {\frac{{d^2 }}{{dt^2 }}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\frac{d}{{dt}}\left( {M_{X(t)} } \right)} \right)}\\ {}&{ = }&{ \frac{d}{{dt}}\left( {\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \right)}\\ {}&{ = }&{\frac{{k^2 \cdot e^{kt} \cdot p^k \left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} - k \cdot e^{kt} \cdot p^k \left( {k + 1} \right)\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^k \left[ { - e^t \cdot \left( {1 - p} \right)} \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{2k + 2} }}}\\ {}&{=}&{\frac{{ke^{kt} p^k \left[ {k\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)e^t } \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 2} }}} \end{eqnarray*} Finalmente: \begin{eqnarray*} {E(X^2 )}&{ = }&{\lim_\limits{t\to 0} \frac{d^2 }{dt^2 }\left( M_{X(t)} \right)}\\ {}&{=}&{\frac{{kp^k \left[ {k\left( {1 - \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)} \right]}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 2} }}}\\ {}&{=}&{\frac{{kp^k \left( {kp + k - kp + 1 - p} \right)}}{{p^{k + 2} }}}\\ {}&{ = }&{\frac{{k\left( {k - p + 1} \right)}}{{p^2 }}} \end{eqnarray*}
E daqui \[ Var(X) = E\left( {X^2 } \right) - E\left( X \right)^2 = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} - \frac{{k^2 }}{{p^2 }} = \frac{{k\left( {1 - p} \right)}}{{p^2 }} \]
PS:
  • Eu nunca tinha feito isto antes. Em caso de gralhas ou erros, eu vou acabar por corrigir, mas podem contactar-me.
  • Obviamente, existem outras formas de fazer algumas destas coisas... eu sei onde pode ver algumas. Por exemplo, posso sugerir o capítulo 4 da primeira edição do livro Introdução à Probabilidade e à Estatística , de Dinis Pestana e Sílvio Velosa — estou a sugerir a primeira edição porque no dia em que escrevo isto é a que está à minha frente!