\( \newcommand{\combin}[2]{{}^{#1}C_{#2} } \newcommand{\cmod}[3]{#1 \equiv #2\left(\bmod {}{#3}\right)} \newcommand{\mdc}[2]{\left( {#1},{#2}\right)} \newcommand{\mmc}[2]{\left[ {#1},{#2}\right]} \newcommand{\cis}{\mathop{\rm cis}} \newcommand{\ImP}{\mathop{\rm Im}} \newcommand{\ReP}{\mathop{\rm Re}} \newcommand{\sen}{\mathop{\rm sen}} \newcommand{\tg}{\mathop{\rm tg}} \newcommand{\cotg}{\mathop{\rm cotg}} \newcommand{\cosec}{\mathop{\rm cosec}} \newcommand{\cotgh}{\mathop{\rm cotgh}} \newcommand{\cosech}{\mathop{\rm cosech}} \newcommand{\sech}{\mathop{\rm sech}} \newcommand{\sh}{\mathop{\rm sh}} \newcommand{\ch}{\mathop{\rm ch}} \newcommand{\th}{\mathop{\rm th}} \newcommand{\senEL}[1]{\mathop{\rm sen}^{#1}} \newcommand{\tgEL}[1]{\mathop{\rm tg}^{#1}} \newcommand{\cotgEL}[1]{\mathop{\rm cotg}^{#1}} \newcommand{\cosecEL}{\mathop{\rm cosec}^{#1}} \newcommand{\shEL}[1]{\mathop{\rm sh^{#1}}} \newcommand{\chEL}[1]{\mathop{\rm ch^{#1}}} \newcommand{\thEL}[1]{\mathop{\rm th^{#1}}} \newcommand{\cotghEL}[1]{\mathop{\rm cotgh^{#1}}} \newcommand{\cosechEL}[1]{\mathop{\rm cosech^{#1}}} \newcommand{\sechEL}[1]{\mathop{\rm sech^{#1}}} \newcommand{\senq}{\senEL{2}} \newcommand{\tgq}{\tgEL{2}} \newcommand{\cotgq}{\cotgEL{2}} \newcommand{\cosecq}{\cosecEL{2}} \newcommand{\cotghq}{\cotghEL{2}} \newcommand{\cosechq}{\cosechEL{2}} \newcommand{\sechq}{\sechEL{2}} \newcommand{\shq}{\shEL{2}} \newcommand{\chq}{\chEL{2}} \newcommand{\arctg}{\mathop{\rm arctg}} \newcommand{\arcsen}{\mathop{\rm arcsen}} \newcommand{\argsh}{\mathop{\rm argsh}} \newcommand{\argch}{\mathop{\rm argch}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\tr}[1]{ \textnormal{Tr}\left({#1}\right)} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\H}{\mathbb{H}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\dfrc}{\displaystyle\frac} \newcommand{\Mod}[1]{\ (\mathrm{mod}\ #1)} \)

09/12/2019

Uma curiosidade sobre a constante de Euler-Mascheroni

Em explicações, às vezes aparecem-nos coisas que desconhecíamos, ou que não tínhamos notado até esse momento.
Há uns anos numa lista de exercícios de Probabilidades e Estatística de um aluno da professora Sandra Mendonça (Universidade da Madeira), apareceu, (como curiosidade) a igualdade
\[\gamma=-\Gamma'(1)\]
Onde $\gamma$ é a constante de Euler-Mascheroni.
Fui à minha calculadora, e observei (numericamente) o resultado.
O que se passava é que a definição que eu conhecia de $\gamma$, não era aquela, portanto devia ser possível deduzir a partir da definição que eu tinha, ou de alguma das fórmulas que eu conhecia.
Fui à Wikipedia. Reencontrei a propriedade, mas nada de prova...
Pensei um pouco e consegui chegar à demonstração que deixo aqui hoje.

Vou começar por partilhar convosco um pequeno e antigo pdf meu, de 12 páginas sobre a função Gama (de Euler).

https://drive.google.com/open?id=1Pn2yjn4z0AoLbqozwJcyGfVcdr-p32b4

Nesse pdf, na página 10 recordo a "minha" definição da constante de Euler-Mascheroni :

\[\gamma  = \lim\limits_{n\to \infty} \left( {\sum\limits_{k = 1}^n {\frac{1}{k}}  - \ln n} \right)\]

E mais abaixo, nessa mesma página apresento (e demonstro) a fórmula produto de Weierstrass

\[
\frac{1}{{\Gamma \left( x \right)}} = xe^{  \gamma x} \prod\limits_{k = 1}^\infty  {\left( {1 + \frac{x}{k}} \right)e^{ - \frac{x}{k}} }
\]

Como função auxiliar vou introduzir a função digama, $\psi$ , que é a derivada logarítmica da Gama, isto é

\[
\psi (x): = \left( {\ln \Gamma \left( x \right)} \right)^\prime   = \frac{\Gamma '\left( x \right)}{\Gamma \left( x \right)}
\]

Da fórmula produto de Weierstrass, (aplicando logaritmos a ambos os membros) é imediato que
\[
 - \ln \Gamma \left( x \right) = \ln x +\gamma x + \sum\limits_{k = 1}^{ + \infty } {\left[ {\ln \left( {\frac{{k + x}}{k}} \right) - \frac{x}{k}} \right]}
\]

Derivando ambos os membros temos
\[ - \psi \left( x \right) = \frac{1}{x} + \gamma  + \sum\limits_{k = 1}^{ + \infty } \left[ \frac{1}{k + x}- \frac{1}{k} \right] \]
Para $x=1$ temos \[ -\frac{\Gamma '\left( 1 \right)}{\Gamma \left( 1 \right)} = 1 + \gamma + \sum\limits_{k = 1}^{ + \infty }\left[ \frac{1}{k + 1} - \frac{1}{k} \right] \]

Como a série do lado direito é uma série de Mengoli que converge para $-1$ e $\Gamma(1)=0!=1$

Sai 

\[-\Gamma'(1)=\gamma\]
$\blacksquare$


PS: A Wikipedia apresenta outros resultados curiosos... :)

24/11/2019

Uma dedução das fórmulas do movimento rectilíneo uniformemente variado

Está na moda a (errada) filosofia de que as demonstrações só interessam aos matemáticos. Sem provas pregam-se dogmas, e não ciência. Biologia, Física, Geologia, Matemática, Química são ciências e não religiões. Uma formação científica decente deve ser capaz de dar demonstrações aos alunos, sem se tornar maçadora e aborrecida.

Hoje vou partir da definição de "movimento rectilíneo uniformemente variado" e deduzir as equações da velocidade e das posições, sem recorrer explícitamente ao cálculo integral.
[Esta prova ocorreu-me ontem num esclarecimento de dúvidas de Física de 11º... porque a vi quando eu estava no meu ensino secundário]

movimento rectilíneo uniformemente variado (m.r.u.v.) é um movimento rectilíneo em que a aceleração é constante e tem um valor $a$.

Se é constante, a aceleração média é também constante e igual ao mesmo valor $a$, ou seja
\[\frac{\Delta v}{\Delta t} =a \]
Isso significa que se o objecto inicia o movimento no instante $t=0$ com velocidade $v_0$, noutro instante $t$ terá velocidade $v$, cuja fórmula pode ser facilmente deduzida:
\begin{eqnarray*} {\frac{\Delta v}{\Delta t} =a}{\Leftrightarrow}{\frac{v-v_0}{t-0} =a}\\ {}{\Leftrightarrow}{v-v_0=at}\\ {}{\Leftrightarrow}{v=v_0+at} \end{eqnarray*}

Portanto a equação das velocidades é \[v=v_0+at\]
Num gráfico velocidade-tempo, esta velocidade é uma função afim, ou seja, tem o gráfico de uma recta.



A área entre o gráfico da velocidade e o eixo dos "$t$" dá-nos a variação de posição $\Delta x$ (porquê?).

E assim, para deduzirmos a equação do movimento basta recordar e aplicar a fórmula da área do trapézio:
\[A= \frac{B+b}{2}\times h\]
Onde $B$ e $b$ são as bases e $h$ a altura do trapézio.
Portanto \[\Delta x=\frac{(v_0+at)+v_0}{2}\times t=v_0t+\frac{1}{2}at^2\] Assumindo que no instante $t$ o objecto está na posição $x$ e no instante $t=0$ estava na posição $x_0$, temos \[x-x_0=v_0t+\frac{1}{2}at^2\]
Ou seja \[x=x_0+v_0t+\frac{1}{2}at^2\]
Que é a equação do movimento do objecto.

03/08/2019

De uma derivada de ordem k à binomial negativa.

Ontem à noite, estava eu sentado, num café, a resolver alguns exercícios de Probabilidades e Estatística. Precisei de umas fórmulas para a binomial negativa. Tinha as fórmulas nos meus apontamentos, mas não tinha a dedução. Já estava meio farto de cálculos "mecânicos".
Estava sem bateria no telemóvel, portanto, estava sem acesso à Internet.
Isto foi o que me ocorreu (isto são só cálculos, mas parece que sou mais produtivo num café do que em casa ou no trabalho):
Sabe-se que se $0<|x|<1$ então \[ \sum\limits_{n = 0}^\infty {x^n } = \frac{1}{{1 - x}} \] Derivando esta expressão termo a termo temos: \[ \sum\limits_{n = 0}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Note-se que o primeiro termo da série é zero , portanto esta igualdade pode ser reescrita \[ \sum\limits_{n = 1}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Voltando a derivar cada um dos membros \[ \sum\limits_{n = 1}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] E mais uma vez \[ \sum\limits_{n = 2}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] Continuando a derivar obtemos \[ \color{red}\sum\limits_{n = k}^\infty {n(n-1)\cdots(n-k+1)x^{n-k} } = \frac{k!}{\left(1 - x\right)^{k+1}} \] (Fórmula que pode ser confirmada pelo método de indução)
Onde $n(n-1)\cdots(n-k+1)={}^{n}A_k$ é a conhecida fórmula para arranjos de $n$ $k$ a $k$
Dividindo ambas as expressões por $k!$ obtém-se \[ \color{blue}\sum\limits_{n = k}^\infty {\left(\begin{array}{l} {n}\\ {k} \end{array} \right)x^{n-k} } = \frac{1}{\left(1 - x\right)^{k+1}} \] Fazendo as mudanças de variáveis $N=n+1$ e $K=k+1$, esta igualdade converte-se em \[ \color{green}\sum\limits_{N = K}^\infty {\left(\begin{array}{l} {N-1}\\ {K-1} \end{array} \right)x^{N-K} } = \frac{1}{\left(1 - x\right)^{K}} \]

Aplicação à binomial negativa

Diz-se que uma variável aleatória $X$="número de provas de Bernoulli a realizar até se obterem $k$ sucessos" tem distribuição binomial negativa. A função massa de probabilidade desta distribuição é dada por: \[ f_X(x)=P(X=x)= \left\{ {\begin{array}{l} {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - x)^{x - k}\text{ } x = k,k + 1,k + 2...} \\ {0,\text{caso contrário}} \end{array}} \right. \] Assim sendo \begin{eqnarray*} {E(X)}&{ = }&{\sum\limits_{x=k}^\infty {x f_X(x)}}\\ {}&{=}&{\sum\limits_{x = k}^\infty {x\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} }}\\ {}&{ = }&{\frac{{p^k }}{{\left( {k - 1} \right)!}}\sum\limits_{x = k}^\infty {\frac{{x!}}{{\left( {x - k} \right)!}}(1 - p)^{x - k} }}\\ {}&{ = } & { \frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\sum\limits_{x = k}^\infty {^x A_k (1 - x)^{x - k} }}}\\ {}&{ = }& {\frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\frac{{k!}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 1} }}}}\\ {}&{ = }& {\frac{k}{p}} \end{eqnarray*} A função geradora de momentos é \begin{eqnarray*} {M_X (t)}&{ = }&{ E\left( {e^{tX} } \right) }\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} f_X(x)}}\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} } }\\ {}&{ = }&{\sum\limits_{x = k}^\infty {e^{tx - tk} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)e^{tk} p^k (1 - p)^{x - k} }}\\ {}&{ = } &{\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t p} \right)^k \left( {e^t \left( {1 - p} \right)} \right)^{x - k} } } \\ {}&{ = } &{\left( {e^t p} \right)^k {\color{green}\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t \left( {1 - p} \right)} \right)^{x - k} }}}\\ {}&{ = }&{\left( {e^t p} \right)^k {\color{green}\frac{1}{{\left( {1 - e^t \left( {1 - p} \right)} \right)^k }}}}\\ {}&{ = }&{\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k} \end{eqnarray*} Com esta função pode-se calcular \[ E(X^2 ) = \lim_\limits{t\to 0} \frac{{d^2 }}{{dt^2 }}\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} \]

\begin{eqnarray*} {\frac{d}{{dt}}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k } \right)}\\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{d}{{dt}}\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)} \\ {}&{ = }&{ k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{{e^t \cdot p\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + e^t \cdot pe^t \cdot \left( {1 - p} \right)}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^2 }}} \\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k \frac{1}{{1 - e^t \cdot \left( {1 - p} \right)}}}\\ {}&{ = }&{\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \end{eqnarray*} Passemos à segunda derivada: \begin{eqnarray*} {\frac{{d^2 }}{{dt^2 }}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\frac{d}{{dt}}\left( {M_{X(t)} } \right)} \right)}\\ {}&{ = }&{ \frac{d}{{dt}}\left( {\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \right)}\\ {}&{ = }&{\frac{{k^2 \cdot e^{kt} \cdot p^k \left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} - k \cdot e^{kt} \cdot p^k \left( {k + 1} \right)\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^k \left[ { - e^t \cdot \left( {1 - p} \right)} \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{2k + 2} }}}\\ {}&{=}&{\frac{{ke^{kt} p^k \left[ {k\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)e^t } \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 2} }}} \end{eqnarray*} Finalmente: \begin{eqnarray*} {E(X^2 )}&{ = }&{\lim_\limits{t\to 0} \frac{d^2 }{dt^2 }\left( M_{X(t)} \right)}\\ {}&{=}&{\frac{{kp^k \left[ {k\left( {1 - \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)} \right]}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 2} }}}\\ {}&{=}&{\frac{{kp^k \left( {kp + k - kp + 1 - p} \right)}}{{p^{k + 2} }}}\\ {}&{ = }&{\frac{{k\left( {k - p + 1} \right)}}{{p^2 }}} \end{eqnarray*}
E daqui \[ Var(X) = E\left( {X^2 } \right) - E\left( X \right)^2 = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} - \frac{{k^2 }}{{p^2 }} = \frac{{k\left( {1 - p} \right)}}{{p^2 }} \]
PS:
  • Eu nunca tinha feito isto antes. Em caso de gralhas ou erros, eu vou acabar por corrigir, mas podem contactar-me.
  • Obviamente, existem outras formas de fazer algumas destas coisas... eu sei onde pode ver algumas. Por exemplo, posso sugerir o capítulo 4 da primeira edição do livro Introdução à Probabilidade e à Estatística , de Dinis Pestana e Sílvio Velosa — estou a sugerir a primeira edição porque no dia em que escrevo isto é a que está à minha frente!

20/07/2019

O operador Laplaciano em coordenadas polares e em coordenadas esféricas

O operador Laplaciano apareceu-me muitas vezes em problemas com equações diferenciais com derivadas parciais, em problemas de electromagnetismo, e mais recentemente em problemas de mecânica quântica. Muitas vezes é necessário fazer uma mudança de variáveis, para coordenadas polares, esféricas, cilíndricas...
Normalmente, as fórmulas são dadas, sem qualquer dedução. Não porque a dedução em si seja difícil, mas porque os cálculos em si podem ser longos e não trazem nada de novo. O problema deste ponto de vista é que há quem nunca tenha visto nem feito uma dedução!
É um mero exercício de cálculo e de aplicação de principalmente da regra da derivação do produto e da regra da cadeia, para quem quiser fazer.
...E que proponho que se faça! Clicando nos botões podem ver a minha solução e a minha resolução. Sugiro que tente fazê-la primeiro!

O Laplaciano em coordenadas polares

Seja $f:D \subseteq \R^2 \to \R$ uma função real de variável vectorial, ou, como vai ser designação comum neste blog, um campo escalar.
Suponhamos que a função é de classe $C^2$ em $D$.
O Laplaciano de $f$ é a divergência do gradiente de $f$. \[ \nabla ^2 f = \nabla \cdot \nabla f = \dfrc{{\partial ^2 f}}{{\partial x{}^2}} + \dfrc{{\partial ^2 f}}{{\partial y{}^2}} \] Considere-se a nova função que se obtém fazendo a mudança de variáveis \[ \left\{ {\begin{array}{l} {x = r\cos \theta } \\ {y = r\sen \theta } \end{array}} \right. \] para $r>0$ e $\theta\in [0,2\pi[ $ por forma a que, a nova definição faça sentido.
Por abuso de linguagem, continuemos a designar a nova função por $f$.
Determine uma nova fórmula para $\nabla ^2 f$ em função das novas variáveis $r$ e $\theta$.
\[\nabla ^2 f=\dfrc{{\partial ^2 f}}{{\partial r^2 }} + \dfrc{1}{r}\dfrc{\partial f}{\partial r} + \dfrc{1}{{r^2 }}\dfrc{{\partial ^2 f}}{{\partial \theta ^2 }}\]
(Carlos Paulo A. de Freitas; 19/07/2019)
\[ \left\{ {\begin{array}{l} {x = r\cos \theta } \\ {y = r\sen \theta } \end{array}} \right. \Rightarrow \left\{ {\begin{array}{l} {r^2 = x^2 + y^2 } \\ \cos \theta = \dfrc{x}{r} \\ \sen \theta = \dfrc{y}{r} \\ \end{array}} \right. \Rightarrow \left\{ {\begin{array}{l} {2r\dfrc{\partial r}{\partial x} = 2x} \\ 2r\dfrc{\partial r}{\partial y} = 2y \\ - \sen \theta \dfrc{{\partial \theta }}{\partial x} = \dfrc{{r - x\dfrc{\partial r}{\partial x}}}{{r^2 }} \\ \cos \theta \dfrc{{\partial \theta }}{\partial y} = \dfrc{{r - y\dfrc{\partial r}{\partial y}}}{{r^2 }} \end{array}} \right. \Rightarrow \left\{ {\begin{array}{l} {\dfrc{\partial r}{\partial x} = \dfrc{x}{r} = \cos \theta } \\ \dfrc{\partial r}{\partial y} = \dfrc{y}{r} = \sen \theta \\ \dfrc{\partial \theta }{\partial x} = \dfrc{{r - r\cos ^2 \theta }}{{ - r^2 \sen \theta }} = \dfrc{{1 - \cos ^2 \theta }}{{ - r\sen \theta }} = - \dfrc{\sen \theta }{r} \\ \dfrc{\partial \theta }{\partial y} = \dfrc{r - r\sen ^2 \theta }{r^2 \cos \theta } = \dfrc{\cos \theta }{r} \end{array}} \right. \] Portanto:
${\color{red}\dfrc{\partial r}{\partial x}=\cos\theta}$ ; ${\color{green}\dfrc{\partial r}{\partial y}=\sen\theta}$ ; $\color{blue} \dfrc{\partial \theta }{\partial x}=- \dfrc{\sen \theta }{r}$ e $\color{brown} \dfrc{\partial \theta }{\partial y} =\dfrc{\cos \theta }{r}$
Estes resultados agora usam-se neste desenvolvimento: \begin{eqnarray*} { \nabla ^2 f }&{=}&{\dfrc{\partial ^2 f}{\partial x^2} + \dfrc{\partial ^2 f}{\partial y^2}}\\ {}&{=}&{\dfrc{\partial }{\partial x}\left( \dfrc{\partial f}{\partial x} \right) + \dfrc{\partial }{\partial y}\left( {\dfrc{\partial f}{\partial y}} \right)}\\ {}&{=}&{\dfrc{\partial }{\partial x}\underbrace{\left(\dfrc{\partial f}{\partial r}{\color{red}\dfrc{\partial r}{\partial x}} + \dfrc{\partial f}{\partial \theta}{\color{blue} \dfrc{\partial \theta }{\partial x}}\right)}_{\text{regra da cadeia}} + \dfrc{\partial }{\partial y}\underbrace{\left(\dfrc{\partial f}{\partial r}{\color{green}\dfrc{\partial r}{\partial y}} + \dfrc{\partial f}{\partial \theta }\color{brown} \dfrc{\partial \theta }{\partial y}\right)}_{\text{regra da cadeia}} }\\ {}&{=}&{\dfrc{\partial }{\partial x}\left( \dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\partial f}{\partial \theta }\dfrc{\sen \theta }{r} \right) + \dfrc{\partial }{\partial y}\left( \dfrc{\partial f}{\partial r}\sen \theta + \dfrc{\partial f}{\partial \theta}\dfrc{\cos \theta }{r} \right)}\\ {}&{=}&{\dfrc{\partial }{\partial r}\left( {\dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\partial f}{\partial \theta }\dfrc{\sen \theta }{r}} \right){\color{red}\dfrc{\partial r}{\partial x}} + \dfrc{\partial }{\partial \theta }\left( {\dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\partial f}{\partial \theta }\dfrc{\sen \theta }{r}} \right){\color{blue} \dfrc{\partial \theta }{\partial x}}}\\ {}&{ }&{+ \dfrc{\partial }{\partial r}\left(\dfrc{\partial f}{\partial r}\sin \theta + \dfrc{\partial f}{\partial \theta }\dfrc{\cos \theta }{r} \right){\color{green}\dfrc{\partial r}{\partial y}} + \dfrc{\partial }{\partial \theta }\left( {\dfrc{\partial f}{\partial r}\sin \theta + \dfrc{\partial f}{\partial \theta }}\dfrc{\cos \theta }{r} \right){\color{brown} \dfrc{\partial \theta }{\partial y}} }\\ {}&{}&{\text{(regra da cadeia)}}\\ {}&{=}&{\left( \dfrc{\partial ^2 f}{\partial r^2 }\cos \theta + \dfrc{\sen \theta}{r^2 }\dfrc{\partial f}{\partial \theta} - \dfrc{\sen \theta}{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } \right){\color{red}\dfrc{\partial r}{\partial x}} + \left( {\dfrc{\partial ^2 f}{\partial \theta \partial r}\cos \theta - \dfrc{\partial f}{\partial r}\sin \theta - \dfrc{\cos \theta}{r}\dfrc{\partial f}{\partial \theta} - \dfrc{\sen \theta}{r}\dfrc{\partial ^2 f}{\partial \theta ^2 }} \right){\color{blue} \dfrc{\partial \theta }{\partial x}} }\\ {}&{}&{+ \left( \dfrc{\partial ^2 f}{\partial r^2 }\sin \theta - \dfrc{\cos \theta}{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\cos \theta}{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } \right){\color{green}\dfrc{\partial r}{\partial y}} + \left( \dfrc{\partial ^2 f}{\partial \theta \partial r}\sin \theta + \dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\sen \theta}{r}\dfrc{\partial f}{\partial \theta} + \dfrc{\cos \theta}{r}\dfrc{\partial ^2 f}{\partial \theta ^2 } \right){\color{brown}\dfrc{\partial \theta}{\partial y}} }\\ {}&{=}&{\dfrc{\partial ^2 f}{\partial r^2 }\cos ^2 \theta + \dfrc{\sin \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} - \dfrc{\sen \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } - \dfrc{\sen \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial \theta \partial r} + \dfrc{\partial f}{\partial r}\dfrc{\sin ^2 \theta }{r} + \dfrc{\sin \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\sin ^2 \theta }{r^2 }\dfrc{\partial ^2 f}{\partial \theta ^2 } }\\ {}&{ }&{+ \dfrc{\partial ^2 f}{\partial r^2 }\sin ^2 \theta - \dfrc{\sin \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\sen \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } + \dfrc{\sin \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial \theta \partial r} + \dfrc{\partial f}{\partial r}\dfrc{\cos ^2 \theta }{r} - \dfrc{\sen \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\cos ^2 \theta }{r^2 }\dfrc{\partial ^2 f}{\partial \theta ^2 } }\\ {}&{=}&{\dfrc{\partial ^2 f}{\partial r^2 } + \dfrc{1}{r}\dfrc{\partial f}{\partial r} + \dfrc{1}{r^2 }\dfrc{\partial ^2 f}{\partial \theta ^2 }} \end{eqnarray*}

O Laplaciano em coordenadas esféricas

Seja $f:D \subseteq \R^3 \to \R$ um campo escalar.
Suponhamos que a função é de classe $C^2$ em $D$.
O Laplaciano de $f$ é a divergência do gradiente de $f$. \[ \nabla ^2 f = \nabla \cdot \nabla f = \dfrc{\partial ^2 f}{\partial x^2} + \dfrc{\partial ^2 f}{\partial y^2}+ \dfrc{\partial ^2 f}{\partial z^2} \] Considere-se a nova função que se obtém fazendo a mudança de variáveis \[ \left\{ {\begin{array}{l} {x = r\sen \theta \cos \phi} \\ {y = r\sen \theta \sen \phi} \\ {z = r\cos \theta} \end{array}} \right. \] para $r>0$, $\theta\in [0,\pi[ $ e $\phi\in [0,2\pi[ $ por forma a que, a nova definição faça sentido.
Por abuso de linguagem, continuemos a designar a nova função por $f$.
Mostre que \[ \nabla ^2 f = \frac{1}{r^2}\left[\frac{\partial}{\partial r} \left( {r^2}\dfrc{\partial f}{\partial r} \right) + \frac{1}{ \sen \theta }\frac{\partial }{{\partial \theta }}\left( {\sen \theta \frac{{\partial f}}{{\partial \theta }}} \right) + \frac{1}{{ \sen ^2 \theta }}\frac{{\partial ^2 f}}{{\partial \phi ^2 }}\right] \]
Nota: Em breve deixo a minha dedução, análoga à dedução da fórmula em coordenadas polares.

01/07/2019

Uma equação com problemas (I)

Há uns meses chegou-me um explicando com o seguinte problema.

Seja $k\in \R \backslash \{0\} $. Calcule um valor de $k$ de modo que:
\[
\int\limits_k^\pi  {\frac{1}{{\left( {2 + \sin ^2 \left( {2x} \right)} \right)\cos ^{ - 1} \left( {2x} \right)}}dx =  - \frac{{\sqrt 2 }}{2}\pi }
\]

Ao resolver a equação percebi que a equação era impossível!
Abaixo (botão) deixo a minha resolução feita nesse dia.


\begin{eqnarray*} {\int\limits_k^\pi {\frac{1}{{\left( {2 + \sin ^2 \left( {2x} \right)} \right)\cos ^{ - 1} \left( {2x} \right)}}dx}}& {=} &{ - \frac{{\sqrt 2 }}{2}\pi }\\ {\Leftrightarrow \int\limits_k^\pi {\frac{{\cos \left( {2x} \right)}}{{2 + \sin ^2 \left( {2x} \right)}}dx}}&{ = }&{ - \frac{{\sqrt 2 }}{2}\pi }\\ {\Leftrightarrow \frac{1}{2}\int\limits_k^\pi {\frac{{\cos \left( {2x} \right)}}{{1 + \left( {\displaystyle\frac{{\sin \left( {2x} \right)}}{{\sqrt 2 }}} \right)^2 }}dx}} &{=}& { - \frac{{\sqrt 2 }}{2}\pi }\\ {\Leftrightarrow \frac{1}{2}\frac{{\sqrt 2 }}{2}\int\limits_k^\pi {\displaystyle\frac{{\displaystyle\frac{2}{{\sqrt 2 }}\cos \left( {2x} \right)}}{{1 + \left( {\displaystyle\frac{{\sin \left( {2x} \right)}}{{\sqrt 2 }}} \right)^2 }}dx}}&{ = }&{ - \frac{{\sqrt 2 }}{2}\pi } \\ {\Leftrightarrow \int\limits_k^\pi {\frac{{\displaystyle\frac{2}{{\sqrt 2 }}\cos \left( {2x} \right)}}{{1 + \left( {\displaystyle\frac{{\sin \left( {2x} \right)}}{{\sqrt 2 }}} \right)^2 }}dx}}&{ = }& { - 2\pi } \\ {\Leftrightarrow - \arctg\left( {\frac{{\sin \left( {2k} \right)}}{{\sqrt 2 }}} \right)}&{ = }&{ - 2\pi } \\ {\Leftrightarrow \arctg\left( {\frac{{\sin \left( {2k} \right)}}{{\sqrt 2 }}} \right)}&{ = }&{ 2\pi } \\ \end{eqnarray*} Uma vez que o contradomínio da função arcotangente é $\left] { -\displaystyle \frac{\pi }{2},\displaystyle\frac{\pi }{2}} \right[$, a equação obtida é impossível.
Quero que compreendam que mesmo deslocando o contradomínio do arcotangente por um múltiplo inteiro de $\pi$, a equação original continua a ser impossível, visto que essa constante "desapareceria" no decorrer dos cálculos (nomeadamente depois de aplicação da regra de Barrow).


Escrever \[{\frac{{\sin \left( {2k} \right)}}{{\sqrt 2 }}}=\tg (2\pi)\] É um erro gravíssimo!!! (e que demonstra sério e grave desconhecimento do que se anda a fazer)!

Mas, para que não fiquem dúvidas na cabeça mais teimosa, vou provar a impossibilidade daquela equação de outra forma.
Considere-se a função: \[ F(k) = \int\limits_k^\pi {\frac{1}{{\left( {2 + \sin ^2 \left( {2x} \right)} \right)\cos ^{ - 1} \left( {2x} \right)}}dx} = - \frac{{\sqrt 2 }}{4}\arctg\left( {\frac{{\sin \left( {2k} \right)}}{{\sqrt 2 }}} \right) \] Ora, como \[- 1 \le \sin \left( {2k} \right) \le 1 \] então \[\frac{{ - 1}}{{\sqrt 2 }} \le \frac{{\sin \left( {2k} \right)}}{{\sqrt 2 }} \le \frac{1}{{\sqrt 2 }}\] \[\Leftrightarrow - \frac{\pi }{4} \le \arctg\left( {\frac{{\sin \left( {2k} \right)}}{{\sqrt 2 }}} \right) \le \frac{\pi }{4}\] \[ \Leftrightarrow - \frac{{\pi \sqrt 2 }}{{16}} \le - \frac{{\sqrt 2 }}{4}\arctg\left( {\frac{{\sin \left( {2k} \right)}}{{\sqrt 2 }}} \right) \le \frac{{\pi \sqrt 2 }}{{16}}\] \[ \Leftrightarrow - \frac{{\pi \sqrt 2 }}{{16}} \le F(k) \le \frac{{\pi \sqrt 2 }}{{16}}\] Esta última condição prova que $-\displaystyle\frac{{\sqrt 2 }}{2}\pi$ está fora do contradomínio de $F$, portanto a equação original é impossível.
Numa última nota:
  • Não percebi porque se exige no enunciado que $k\neq 0$.   Faz-me suspeitar que há algo de errado com o enunciado.
  • Eu 'verifiquei' numericamente as minhas afirmações antes de me dar ao trabalho de escrever isto... podia ter erros nos cálculos.
  • Como sempre, se encontrarem gralhas ou incorrecções, podem enviar-me para cpaulof at gmail dot com

Actualizações:
  • 03/07/2019: $\cos^{-1}$ deve ser interpretado como a função secante, e não como a função arco-cosseno, graças aos valores dos limites de integração.
  • 03/07/2019: em vez de $k\in\R\backslash \{0\}$ penso que $k$ deve pertencer a um subconjunto de $\R\backslash \left\{x=\displaystyle\frac{\pi}{4}+\frac{n\pi}{2}, n\in \Z\right\}$, mas não sei. O enunciado não é meu.


    \begin{eqnarray*} {D }&{=}&{ \left\{ {x \in \R:\cos \left( {2x} \right) \ne 0} \right\}}\\ {}&{ = }&{\left\{ {x \in \R:2x \ne \frac{\pi }{2} + n\pi ;n \in \Z} \right\}}\\ {}&{ = }&{ \left\{ {x \in \R:x \ne \frac{\pi }{4} + \frac{{n\pi }}{2};n \in \Z} \right\}} \end{eqnarray*}