\( \newcommand{\combin}[2]{{}^{#1}C_{#2} } \newcommand{\cmod}[3]{#1 \equiv #2\left(\bmod {}{#3}\right)} \newcommand{\mdc}[2]{\left( {#1},{#2}\right)} \newcommand{\mmc}[2]{\left[ {#1},{#2}\right]} \newcommand{\cis}{\mathop{\rm cis}} \newcommand{\ImP}{\mathop{\rm Im}} \newcommand{\ReP}{\mathop{\rm Re}} \newcommand{\sen}{\mathop{\rm sen}} \newcommand{\tg}{\mathop{\rm tg}} \newcommand{\cotg}{\mathop{\rm cotg}} \newcommand{\cosec}{\mathop{\rm cosec}} \newcommand{\cotgh}{\mathop{\rm cotgh}} \newcommand{\cosech}{\mathop{\rm cosech}} \newcommand{\sech}{\mathop{\rm sech}} \newcommand{\sh}{\mathop{\rm sh}} \newcommand{\ch}{\mathop{\rm ch}} \newcommand{\th}{\mathop{\rm th}} \newcommand{\senEL}[1]{\mathop{\rm sen}^{#1}} \newcommand{\tgEL}[1]{\mathop{\rm tg}^{#1}} \newcommand{\cotgEL}[1]{\mathop{\rm cotg}^{#1}} \newcommand{\cosecEL}{\mathop{\rm cosec}^{#1}} \newcommand{\shEL}[1]{\mathop{\rm sh^{#1}}} \newcommand{\chEL}[1]{\mathop{\rm ch^{#1}}} \newcommand{\thEL}[1]{\mathop{\rm th^{#1}}} \newcommand{\cotghEL}[1]{\mathop{\rm cotgh^{#1}}} \newcommand{\cosechEL}[1]{\mathop{\rm cosech^{#1}}} \newcommand{\sechEL}[1]{\mathop{\rm sech^{#1}}} \newcommand{\senq}{\senEL{2}} \newcommand{\tgq}{\tgEL{2}} \newcommand{\cotgq}{\cotgEL{2}} \newcommand{\cosecq}{\cosecEL{2}} \newcommand{\cotghq}{\cotghEL{2}} \newcommand{\cosechq}{\cosechEL{2}} \newcommand{\sechq}{\sechEL{2}} \newcommand{\shq}{\shEL{2}} \newcommand{\chq}{\chEL{2}} \newcommand{\arctg}{\mathop{\rm arctg}} \newcommand{\arcsen}{\mathop{\rm arcsen}} \newcommand{\argsh}{\mathop{\rm argsh}} \newcommand{\argch}{\mathop{\rm argch}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\tr}[1]{ \textnormal{Tr}\left({#1}\right)} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\H}{\mathbb{H}} \newcommand{\vect}[1]{\overrightarrow{#1}} \newcommand{\dfrc}{\displaystyle\frac} \newcommand{\Mod}[1]{\ (\mathrm{mod}\ #1)} \)

25/12/2019

O seno de 18º

Esta ocorreu-me ao olhar para uma estrela de 5 pontas, neste Natal.
Há uns bons anos, partindo de "uma estrela regular de 5 pontas" (não vamos discutir a precisão matemática desta designação, ok?), ocorreu-me uma forma de deduzir o cosseno de $36^{\circ}$. Está em https://cpaulof2.blogspot.com/2013/06/o-numero-de-ouro-parte-3-o-pentagrama-e.html.
Nesse post, eu mostrei que \[\cos 36^{\circ}=\frac{\phi}{2}\] onde $\phi$ é o número de ouro \[\phi=\frac{1+\sqrt{5}}{2}\] Ora, uma fórmula que acabo por utilizar sempre que me aparecem alunos a pedir explicações de cadeiras que envolvem cálculo integral é
\[{\sen}^{2} \alpha=\frac{1-\cos (2\alpha)}{2}\] (um dia destes anexo uns formulários de trigonometria e de séries ao blog...)
Com umas pequenas manipulações algébricas escreve-se \begin{eqnarray*} {{\sen}^{2} 18^{\circ}}&=&{\frac{1-\cos 36^{\circ}}{2}}\\ {}&=&{\frac{1-\displaystyle\frac{1+\sqrt{5}}{4}}{2}}\\ {}&=&{\frac{4-1-\sqrt{5}}{8}}\\ {}&=&{\frac{3-\sqrt{5}}{8}} \end{eqnarray*} Vou tentar transformar $\displaystyle\frac{3-\sqrt{5}}{8}$ no quadrado de um número positivo. \begin{eqnarray*} {\frac{3-\sqrt{5}}{8}}&=&{\frac{6-2\sqrt{5}}{16}}\\ {}&=&{\frac{5-2\sqrt{5}+1}{16}}\\ {}&=&{\frac{\sqrt{5}^2-2\sqrt{5}+1^2}{4^4}}\\ {}&=&{\left(\frac{\sqrt{5}-1}{4}\right)^2} \end{eqnarray*} Conclusão: \[\sen 18^{\circ}=\frac{\sqrt{5}-1}{4}\]
$\blacksquare$
Feliz Natal
Podem ver uma demonstração alternativa, e que se pode apresentar a alunos do ensino secundário em: https://www.youtube.com/watch?v=_00oskWLtII.
Hoje em dia encontra-se de tudo no youtube... mas eu pertenço à velha escola: Prefiro pensar e fazer eu...
Curiosidade diabólica(26/12/2019) \begin{eqnarray*} {\sen 666^{\circ}}&=&{\sen 306^{\circ}}\\ {}&=&{\sen -54^{\circ}}\\ {}&=&{-\sen 54^{\circ}}\\ {}&=&{-\cos 36 ^{\circ}}\\ {}&=&{-\frac{\phi}{2}} \end{eqnarray*}

09/12/2019

Uma curiosidade sobre a constante de Euler-Mascheroni

Em explicações, às vezes aparecem-nos coisas que desconhecíamos, ou que não tínhamos notado até esse momento.
Há uns anos numa lista de exercícios de Probabilidades e Estatística de um aluno da professora Sandra Mendonça (Universidade da Madeira), apareceu, (como curiosidade) a igualdade
\[\gamma=-\Gamma'(1)\]
Onde $\gamma$ é a constante de Euler-Mascheroni.
Fui à minha calculadora, e observei (numericamente) o resultado.
O que se passava é que a definição que eu conhecia de $\gamma$, não era aquela, portanto devia ser possível deduzir a partir da definição que eu tinha, ou de alguma das fórmulas que eu conhecia.
Fui à Wikipedia. Reencontrei a propriedade, mas nada de prova...
Pensei um pouco e consegui chegar à demonstração que deixo aqui hoje.

Vou começar por partilhar convosco um pequeno e antigo pdf meu, de 12 páginas sobre a função Gama (de Euler).

https://drive.google.com/open?id=1Pn2yjn4z0AoLbqozwJcyGfVcdr-p32b4

Nesse pdf, na página 10 recordo a "minha" definição da constante de Euler-Mascheroni :

\[\gamma  = \lim\limits_{n\to \infty} \left( {\sum\limits_{k = 1}^n {\frac{1}{k}}  - \ln n} \right)\]

E mais abaixo, nessa mesma página apresento (e demonstro) a fórmula produto de Weierstrass

\[
\frac{1}{{\Gamma \left( x \right)}} = xe^{  \gamma x} \prod\limits_{k = 1}^\infty  {\left( {1 + \frac{x}{k}} \right)e^{ - \frac{x}{k}} }
\]

Como função auxiliar vou introduzir a função digama, $\psi$ , que é a derivada logarítmica da Gama, isto é

\[
\psi (x): = \left( {\ln \Gamma \left( x \right)} \right)^\prime   = \frac{\Gamma '\left( x \right)}{\Gamma \left( x \right)}
\]

Da fórmula produto de Weierstrass, (aplicando logaritmos a ambos os membros) é imediato que
\[
 - \ln \Gamma \left( x \right) = \ln x +\gamma x + \sum\limits_{k = 1}^{ + \infty } {\left[ {\ln \left( {\frac{{k + x}}{k}} \right) - \frac{x}{k}} \right]}
\]

Derivando ambos os membros temos
\[ - \psi \left( x \right) = \frac{1}{x} + \gamma  + \sum\limits_{k = 1}^{ + \infty } \left[ \frac{1}{k + x}- \frac{1}{k} \right] \]
Para $x=1$ temos \[ -\frac{\Gamma '\left( 1 \right)}{\Gamma \left( 1 \right)} = 1 + \gamma + \sum\limits_{k = 1}^{ + \infty }\left[ \frac{1}{k + 1} - \frac{1}{k} \right] \]

Como a série do lado direito é uma série de Mengoli que converge para $-1$ e $\Gamma(1)=0!=1$

Sai 

\[-\Gamma'(1)=\gamma\]
$\blacksquare$


PS: A Wikipedia apresenta outros resultados curiosos... :)

24/11/2019

Uma dedução das fórmulas do movimento rectilíneo uniformemente variado

Está na moda a (errada) filosofia de que as demonstrações só interessam aos matemáticos. Sem provas pregam-se dogmas, e não ciência. Biologia, Física, Geologia, Matemática, Química são ciências e não religiões. Uma formação científica decente deve ser capaz de dar demonstrações aos alunos, sem se tornar maçadora e aborrecida.

Hoje vou partir da definição de "movimento rectilíneo uniformemente variado" e deduzir as equações da velocidade e das posições, sem recorrer explícitamente ao cálculo integral.
[Esta prova ocorreu-me ontem num esclarecimento de dúvidas de Física de 11º... porque a vi quando eu estava no meu ensino secundário]

movimento rectilíneo uniformemente variado (m.r.u.v.) é um movimento rectilíneo em que a aceleração é constante e tem um valor $a$.

Se é constante, a aceleração média é também constante e igual ao mesmo valor $a$, ou seja
\[\frac{\Delta v}{\Delta t} =a \]
Isso significa que se o objecto inicia o movimento no instante $t=0$ com velocidade $v_0$, noutro instante $t$ terá velocidade $v$, cuja fórmula pode ser facilmente deduzida:
\begin{eqnarray*} {\frac{\Delta v}{\Delta t} =a}{\Leftrightarrow}{\frac{v-v_0}{t-0} =a}\\ {}{\Leftrightarrow}{v-v_0=at}\\ {}{\Leftrightarrow}{v=v_0+at} \end{eqnarray*}

Portanto a equação das velocidades é \[v=v_0+at\]
Num gráfico velocidade-tempo, esta velocidade é uma função afim, ou seja, tem o gráfico de uma recta.



A área entre o gráfico da velocidade e o eixo dos "$t$" dá-nos a variação de posição $\Delta x$ (porquê?).

E assim, para deduzirmos a equação do movimento basta recordar e aplicar a fórmula da área do trapézio:
\[A= \frac{B+b}{2}\times h\]
Onde $B$ e $b$ são as bases e $h$ a altura do trapézio.
Portanto \[\Delta x=\frac{(v_0+at)+v_0}{2}\times t=v_0t+\frac{1}{2}at^2\] Assumindo que no instante $t$ o objecto está na posição $x$ e no instante $t=0$ estava na posição $x_0$, temos \[x-x_0=v_0t+\frac{1}{2}at^2\]
Ou seja \[x=x_0+v_0t+\frac{1}{2}at^2\]
Que é a equação do movimento do objecto.

03/08/2019

De uma derivada de ordem k à binomial negativa.

Ontem à noite, estava eu sentado, num café, a resolver alguns exercícios de Probabilidades e Estatística. Precisei de umas fórmulas para a binomial negativa. Tinha as fórmulas nos meus apontamentos, mas não tinha a dedução. Já estava meio farto de cálculos "mecânicos".
Estava sem bateria no telemóvel, portanto, estava sem acesso à Internet.
Isto foi o que me ocorreu (isto são só cálculos, mas parece que sou mais produtivo num café do que em casa ou no trabalho):
Sabe-se que se $0<|x|<1$ então \[ \sum\limits_{n = 0}^\infty {x^n } = \frac{1}{{1 - x}} \] Derivando esta expressão termo a termo temos: \[ \sum\limits_{n = 0}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Note-se que o primeiro termo da série é zero , portanto esta igualdade pode ser reescrita \[ \sum\limits_{n = 1}^\infty {nx^{n-1} } = \frac{1}{\left(1 - x\right)^2} \] Voltando a derivar cada um dos membros \[ \sum\limits_{n = 1}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] E mais uma vez \[ \sum\limits_{n = 2}^\infty {n(n-1)x^{n-2} } = \frac{2}{\left(1 - x\right)^3} \] Continuando a derivar obtemos \[ \color{red}\sum\limits_{n = k}^\infty {n(n-1)\cdots(n-k+1)x^{n-k} } = \frac{k!}{\left(1 - x\right)^{k+1}} \] (Fórmula que pode ser confirmada pelo método de indução)
Onde $n(n-1)\cdots(n-k+1)={}^{n}A_k$ é a conhecida fórmula para arranjos de $n$ $k$ a $k$
Dividindo ambas as expressões por $k!$ obtém-se \[ \color{blue}\sum\limits_{n = k}^\infty {\left(\begin{array}{l} {n}\\ {k} \end{array} \right)x^{n-k} } = \frac{1}{\left(1 - x\right)^{k+1}} \] Fazendo as mudanças de variáveis $N=n+1$ e $K=k+1$, esta igualdade converte-se em \[ \color{green}\sum\limits_{N = K}^\infty {\left(\begin{array}{l} {N-1}\\ {K-1} \end{array} \right)x^{N-K} } = \frac{1}{\left(1 - x\right)^{K}} \]

Aplicação à binomial negativa

Diz-se que uma variável aleatória $X$="número de provas de Bernoulli a realizar até se obterem $k$ sucessos" tem distribuição binomial negativa. A função massa de probabilidade desta distribuição é dada por: \[ f_X(x)=P(X=x)= \left\{ {\begin{array}{l} {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - x)^{x - k}\text{ } x = k,k + 1,k + 2...} \\ {0,\text{caso contrário}} \end{array}} \right. \] Assim sendo \begin{eqnarray*} {E(X)}&{ = }&{\sum\limits_{x=k}^\infty {x f_X(x)}}\\ {}&{=}&{\sum\limits_{x = k}^\infty {x\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} }}\\ {}&{ = }&{\frac{{p^k }}{{\left( {k - 1} \right)!}}\sum\limits_{x = k}^\infty {\frac{{x!}}{{\left( {x - k} \right)!}}(1 - p)^{x - k} }}\\ {}&{ = } & { \frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\sum\limits_{x = k}^\infty {^x A_k (1 - x)^{x - k} }}}\\ {}&{ = }& {\frac{{p^k }}{{\left( {k - 1} \right)!}}{\color{red}\frac{{k!}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 1} }}}}\\ {}&{ = }& {\frac{k}{p}} \end{eqnarray*} A função geradora de momentos é \begin{eqnarray*} {M_X (t)}&{ = }&{ E\left( {e^{tX} } \right) }\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} f_X(x)}}\\ { }&{ = }&{\sum\limits_{x = k}^\infty {e^{tx} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)p^k (1 - p)^{x - k} } }\\ {}&{ = }&{\sum\limits_{x = k}^\infty {e^{tx - tk} \left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)e^{tk} p^k (1 - p)^{x - k} }}\\ {}&{ = } &{\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t p} \right)^k \left( {e^t \left( {1 - p} \right)} \right)^{x - k} } } \\ {}&{ = } &{\left( {e^t p} \right)^k {\color{green}\sum\limits_{x = k}^\infty {\left( {\begin{array}{l} {x - 1} \\ {k - 1} \end{array}} \right)\left( {e^t \left( {1 - p} \right)} \right)^{x - k} }}}\\ {}&{ = }&{\left( {e^t p} \right)^k {\color{green}\frac{1}{{\left( {1 - e^t \left( {1 - p} \right)} \right)^k }}}}\\ {}&{ = }&{\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k} \end{eqnarray*} Com esta função pode-se calcular \[ E(X^2 ) = \lim_\limits{t\to 0} \frac{{d^2 }}{{dt^2 }}\left( {\frac{{e^t p}}{{1 - e^t \left( {1 - p} \right)}}} \right)^k = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} \]

\begin{eqnarray*} {\frac{d}{{dt}}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k } \right)}\\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{d}{{dt}}\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)} \\ {}&{ = }&{ k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^{k - 1} \frac{{e^t \cdot p\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + e^t \cdot pe^t \cdot \left( {1 - p} \right)}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^2 }}} \\ {}&{ = }&{k\left( {\frac{{e^t \cdot p}}{{1 - e^t \cdot \left( {1 - p} \right)}}} \right)^k \frac{1}{{1 - e^t \cdot \left( {1 - p} \right)}}}\\ {}&{ = }&{\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \end{eqnarray*} Passemos à segunda derivada: \begin{eqnarray*} {\frac{{d^2 }}{{dt^2 }}\left( {M_{X(t)} } \right)}&{ = }&{\frac{d}{{dt}}\left( {\frac{d}{{dt}}\left( {M_{X(t)} } \right)} \right)}\\ {}&{ = }&{ \frac{d}{{dt}}\left( {\frac{{k \cdot e^{kt} \cdot p^k }}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} }}} \right)}\\ {}&{ = }&{\frac{{k^2 \cdot e^{kt} \cdot p^k \left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 1} - k \cdot e^{kt} \cdot p^k \left( {k + 1} \right)\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^k \left[ { - e^t \cdot \left( {1 - p} \right)} \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{2k + 2} }}}\\ {}&{=}&{\frac{{ke^{kt} p^k \left[ {k\left( {1 - e^t \cdot \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)e^t } \right]}}{{\left( {1 - e^t \cdot \left( {1 - p} \right)} \right)^{k + 2} }}} \end{eqnarray*} Finalmente: \begin{eqnarray*} {E(X^2 )}&{ = }&{\lim_\limits{t\to 0} \frac{d^2 }{dt^2 }\left( M_{X(t)} \right)}\\ {}&{=}&{\frac{{kp^k \left[ {k\left( {1 - \left( {1 - p} \right)} \right) + \left( {k + 1} \right)\left( {1 - p} \right)} \right]}}{{\left( {1 - \left( {1 - p} \right)} \right)^{k + 2} }}}\\ {}&{=}&{\frac{{kp^k \left( {kp + k - kp + 1 - p} \right)}}{{p^{k + 2} }}}\\ {}&{ = }&{\frac{{k\left( {k - p + 1} \right)}}{{p^2 }}} \end{eqnarray*}
E daqui \[ Var(X) = E\left( {X^2 } \right) - E\left( X \right)^2 = \frac{{k\left( {k - p + 1} \right)}}{{p^2 }} - \frac{{k^2 }}{{p^2 }} = \frac{{k\left( {1 - p} \right)}}{{p^2 }} \]
PS:
  • Eu nunca tinha feito isto antes. Em caso de gralhas ou erros, eu vou acabar por corrigir, mas podem contactar-me.
  • Obviamente, existem outras formas de fazer algumas destas coisas... eu sei onde pode ver algumas. Por exemplo, posso sugerir o capítulo 4 da primeira edição do livro Introdução à Probabilidade e à Estatística , de Dinis Pestana e Sílvio Velosa — estou a sugerir a primeira edição porque no dia em que escrevo isto é a que está à minha frente!

20/07/2019

O operador Laplaciano em coordenadas polares e em coordenadas esféricas

O operador Laplaciano apareceu-me muitas vezes em problemas com equações diferenciais com derivadas parciais, em problemas de electromagnetismo, e mais recentemente em problemas de mecânica quântica. Muitas vezes é necessário fazer uma mudança de variáveis, para coordenadas polares, esféricas, cilíndricas...
Normalmente, as fórmulas são dadas, sem qualquer dedução. Não porque a dedução em si seja difícil, mas porque os cálculos em si podem ser longos e não trazem nada de novo. O problema deste ponto de vista é que há quem nunca tenha visto nem feito uma dedução!
É um mero exercício de cálculo e de aplicação de principalmente da regra da derivação do produto e da regra da cadeia, para quem quiser fazer.
...E que proponho que se faça! Clicando nos botões podem ver a minha solução e a minha resolução. Sugiro que tente fazê-la primeiro!

O Laplaciano em coordenadas polares

Seja $f:D \subseteq \R^2 \to \R$ uma função real de variável vectorial, ou, como vai ser designação comum neste blog, um campo escalar.
Suponhamos que a função é de classe $C^2$ em $D$.
O Laplaciano de $f$ é a divergência do gradiente de $f$. \[ \nabla ^2 f = \nabla \cdot \nabla f = \dfrc{{\partial ^2 f}}{{\partial x{}^2}} + \dfrc{{\partial ^2 f}}{{\partial y{}^2}} \] Considere-se a nova função que se obtém fazendo a mudança de variáveis \[ \left\{ {\begin{array}{l} {x = r\cos \theta } \\ {y = r\sen \theta } \end{array}} \right. \] para $r>0$ e $\theta\in [0,2\pi[ $ por forma a que, a nova definição faça sentido.
Por abuso de linguagem, continuemos a designar a nova função por $f$.
Determine uma nova fórmula para $\nabla ^2 f$ em função das novas variáveis $r$ e $\theta$.
\[\nabla ^2 f=\dfrc{{\partial ^2 f}}{{\partial r^2 }} + \dfrc{1}{r}\dfrc{\partial f}{\partial r} + \dfrc{1}{{r^2 }}\dfrc{{\partial ^2 f}}{{\partial \theta ^2 }}\]
(Carlos Paulo A. de Freitas; 19/07/2019)
\[ \left\{ {\begin{array}{l} {x = r\cos \theta } \\ {y = r\sen \theta } \end{array}} \right. \Rightarrow \left\{ {\begin{array}{l} {r^2 = x^2 + y^2 } \\ \cos \theta = \dfrc{x}{r} \\ \sen \theta = \dfrc{y}{r} \\ \end{array}} \right. \Rightarrow \left\{ {\begin{array}{l} {2r\dfrc{\partial r}{\partial x} = 2x} \\ 2r\dfrc{\partial r}{\partial y} = 2y \\ - \sen \theta \dfrc{{\partial \theta }}{\partial x} = \dfrc{{r - x\dfrc{\partial r}{\partial x}}}{{r^2 }} \\ \cos \theta \dfrc{{\partial \theta }}{\partial y} = \dfrc{{r - y\dfrc{\partial r}{\partial y}}}{{r^2 }} \end{array}} \right. \Rightarrow \left\{ {\begin{array}{l} {\dfrc{\partial r}{\partial x} = \dfrc{x}{r} = \cos \theta } \\ \dfrc{\partial r}{\partial y} = \dfrc{y}{r} = \sen \theta \\ \dfrc{\partial \theta }{\partial x} = \dfrc{{r - r\cos ^2 \theta }}{{ - r^2 \sen \theta }} = \dfrc{{1 - \cos ^2 \theta }}{{ - r\sen \theta }} = - \dfrc{\sen \theta }{r} \\ \dfrc{\partial \theta }{\partial y} = \dfrc{r - r\sen ^2 \theta }{r^2 \cos \theta } = \dfrc{\cos \theta }{r} \end{array}} \right. \] Portanto:
${\color{red}\dfrc{\partial r}{\partial x}=\cos\theta}$ ; ${\color{green}\dfrc{\partial r}{\partial y}=\sen\theta}$ ; $\color{blue} \dfrc{\partial \theta }{\partial x}=- \dfrc{\sen \theta }{r}$ e $\color{brown} \dfrc{\partial \theta }{\partial y} =\dfrc{\cos \theta }{r}$
Estes resultados agora usam-se neste desenvolvimento: \begin{eqnarray*} { \nabla ^2 f }&{=}&{\dfrc{\partial ^2 f}{\partial x^2} + \dfrc{\partial ^2 f}{\partial y^2}}\\ {}&{=}&{\dfrc{\partial }{\partial x}\left( \dfrc{\partial f}{\partial x} \right) + \dfrc{\partial }{\partial y}\left( {\dfrc{\partial f}{\partial y}} \right)}\\ {}&{=}&{\dfrc{\partial }{\partial x}\underbrace{\left(\dfrc{\partial f}{\partial r}{\color{red}\dfrc{\partial r}{\partial x}} + \dfrc{\partial f}{\partial \theta}{\color{blue} \dfrc{\partial \theta }{\partial x}}\right)}_{\text{regra da cadeia}} + \dfrc{\partial }{\partial y}\underbrace{\left(\dfrc{\partial f}{\partial r}{\color{green}\dfrc{\partial r}{\partial y}} + \dfrc{\partial f}{\partial \theta }\color{brown} \dfrc{\partial \theta }{\partial y}\right)}_{\text{regra da cadeia}} }\\ {}&{=}&{\dfrc{\partial }{\partial x}\left( \dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\partial f}{\partial \theta }\dfrc{\sen \theta }{r} \right) + \dfrc{\partial }{\partial y}\left( \dfrc{\partial f}{\partial r}\sen \theta + \dfrc{\partial f}{\partial \theta}\dfrc{\cos \theta }{r} \right)}\\ {}&{=}&{\dfrc{\partial }{\partial r}\left( {\dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\partial f}{\partial \theta }\dfrc{\sen \theta }{r}} \right){\color{red}\dfrc{\partial r}{\partial x}} + \dfrc{\partial }{\partial \theta }\left( {\dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\partial f}{\partial \theta }\dfrc{\sen \theta }{r}} \right){\color{blue} \dfrc{\partial \theta }{\partial x}}}\\ {}&{ }&{+ \dfrc{\partial }{\partial r}\left(\dfrc{\partial f}{\partial r}\sin \theta + \dfrc{\partial f}{\partial \theta }\dfrc{\cos \theta }{r} \right){\color{green}\dfrc{\partial r}{\partial y}} + \dfrc{\partial }{\partial \theta }\left( {\dfrc{\partial f}{\partial r}\sin \theta + \dfrc{\partial f}{\partial \theta }}\dfrc{\cos \theta }{r} \right){\color{brown} \dfrc{\partial \theta }{\partial y}} }\\ {}&{}&{\text{(regra da cadeia)}}\\ {}&{=}&{\left( \dfrc{\partial ^2 f}{\partial r^2 }\cos \theta + \dfrc{\sen \theta}{r^2 }\dfrc{\partial f}{\partial \theta} - \dfrc{\sen \theta}{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } \right){\color{red}\dfrc{\partial r}{\partial x}} + \left( {\dfrc{\partial ^2 f}{\partial \theta \partial r}\cos \theta - \dfrc{\partial f}{\partial r}\sin \theta - \dfrc{\cos \theta}{r}\dfrc{\partial f}{\partial \theta} - \dfrc{\sen \theta}{r}\dfrc{\partial ^2 f}{\partial \theta ^2 }} \right){\color{blue} \dfrc{\partial \theta }{\partial x}} }\\ {}&{}&{+ \left( \dfrc{\partial ^2 f}{\partial r^2 }\sin \theta - \dfrc{\cos \theta}{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\cos \theta}{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } \right){\color{green}\dfrc{\partial r}{\partial y}} + \left( \dfrc{\partial ^2 f}{\partial \theta \partial r}\sin \theta + \dfrc{\partial f}{\partial r}\cos \theta - \dfrc{\sen \theta}{r}\dfrc{\partial f}{\partial \theta} + \dfrc{\cos \theta}{r}\dfrc{\partial ^2 f}{\partial \theta ^2 } \right){\color{brown}\dfrc{\partial \theta}{\partial y}} }\\ {}&{=}&{\dfrc{\partial ^2 f}{\partial r^2 }\cos ^2 \theta + \dfrc{\sin \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} - \dfrc{\sen \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } - \dfrc{\sen \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial \theta \partial r} + \dfrc{\partial f}{\partial r}\dfrc{\sin ^2 \theta }{r} + \dfrc{\sin \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\sin ^2 \theta }{r^2 }\dfrc{\partial ^2 f}{\partial \theta ^2 } }\\ {}&{ }&{+ \dfrc{\partial ^2 f}{\partial r^2 }\sin ^2 \theta - \dfrc{\sin \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\sen \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial r\partial \theta } + \dfrc{\sin \theta \cos \theta }{r}\dfrc{\partial ^2 f}{\partial \theta \partial r} + \dfrc{\partial f}{\partial r}\dfrc{\cos ^2 \theta }{r} - \dfrc{\sen \theta \cos \theta }{r^2 }\dfrc{\partial f}{\partial \theta} + \dfrc{\cos ^2 \theta }{r^2 }\dfrc{\partial ^2 f}{\partial \theta ^2 } }\\ {}&{=}&{\dfrc{\partial ^2 f}{\partial r^2 } + \dfrc{1}{r}\dfrc{\partial f}{\partial r} + \dfrc{1}{r^2 }\dfrc{\partial ^2 f}{\partial \theta ^2 }} \end{eqnarray*}

O Laplaciano em coordenadas esféricas

Seja $f:D \subseteq \R^3 \to \R$ um campo escalar.
Suponhamos que a função é de classe $C^2$ em $D$.
O Laplaciano de $f$ é a divergência do gradiente de $f$. \[ \nabla ^2 f = \nabla \cdot \nabla f = \dfrc{\partial ^2 f}{\partial x^2} + \dfrc{\partial ^2 f}{\partial y^2}+ \dfrc{\partial ^2 f}{\partial z^2} \] Considere-se a nova função que se obtém fazendo a mudança de variáveis \[ \left\{ {\begin{array}{l} {x = r\sen \theta \cos \phi} \\ {y = r\sen \theta \sen \phi} \\ {z = r\cos \theta} \end{array}} \right. \] para $r>0$, $\theta\in [0,\pi[ $ e $\phi\in [0,2\pi[ $ por forma a que, a nova definição faça sentido.
Por abuso de linguagem, continuemos a designar a nova função por $f$.
Mostre que \[ \nabla ^2 f = \frac{1}{r^2}\left[\frac{\partial}{\partial r} \left( {r^2}\dfrc{\partial f}{\partial r} \right) + \frac{1}{ \sen \theta }\frac{\partial }{{\partial \theta }}\left( {\sen \theta \frac{{\partial f}}{{\partial \theta }}} \right) + \frac{1}{{ \sen ^2 \theta }}\frac{{\partial ^2 f}}{{\partial \phi ^2 }}\right] \]
Nota: Em breve deixo a minha dedução, análoga à dedução da fórmula em coordenadas polares.