Mais sobre EDP de primeira ordem

Alguém pode objetar: ah, essa história de características só funciona para equações simples como a do surfista. Vamos então considerar um exemplo mais “complicado”, para que fique claro que o método é bastante geral, e sempre se reduz a resolver explicitamente algumas EDOs. (As quais, por certo, nem sempre conseguimos resolver, mas podem nos dar informações importantes sobre o comportamento qualitativo das soluções da EDP original.)

Vamos começar pela equação

 tv+vxv+v2=0, \displaystyle  \partial_t v + v\partial_x v + v^2=0,

que é certamente mais complicada que a de Hopf. Vamos procurar soluções dessa equação com condição inicial v(0,x)=exv(0,x) = e^{x}. Já sabemos que essa equação se reduz ao seguinte sistema de EDO (equação das características)

t˙=1,x˙=v,v˙=v2. \displaystyle \dot t = 1, \dot x = v, \dot v =-v^2.

tDevemos resolver esse sistema de EDO explicitamente. Notem que a primeira e a última dessas equações têm solução fácil

t(τ,σ)=τ+ t0(σ). \displaystyle t(\tau,\sigma) = \tau +  t_0(\sigma).
v(τ,σ)=v0(σ)1+v0(σ)τ. \displaystyle v(\tau,\sigma) = \frac{v_0(\sigma)}{1+v_0(\sigma)\tau}.

A segunda equação fica

x˙=v0(σ)1+v0(σ)τ \displaystyle \dot x = \frac{v_0(\sigma)}{1+v_0(\sigma)\tau}

cuja solução geral é

x(τ,σ)= log(1+v0(σ)τ) +x0(σ). \displaystyle x(\tau,\sigma) =  \log\left(1+v_0(\sigma)\tau \right)  +x_0(\sigma).

Agora temos que escolher as constantes de integração t0(σ),x0(σ),v0(σ) t_0(\sigma),x_0(\sigma),v_0(\sigma) de maneira a garantirmos a condição inicial v(0,x)=ex.v(0,x) = e^{x}. Vamos ecolher t0=0t_0=0 x0=σx_0=\sigma   e v0=eσv_0 =e^{\sigma} . Com isso, temos a equação paramétrica da solução que procuramos

 t(τ,σ)=τ, \displaystyle  t(\tau,\sigma) = \tau ,
 x(τ,σ)=log(1+eστ) +σ, \displaystyle  x(\tau,\sigma) = \log\left(1+e^{\sigma} \tau \right)  + \sigma ,
v(τ,σ)=1eσ+ τ. \displaystyle v(\tau,\sigma) = \frac{1} {e^{-\sigma}+ \tau}.

Porém, não queremos a solução em forma paramétrica, queremos uma expressão relacionando as variáveis originais do problema, t,x,vt,x,v . Precisamos, portanto, “resolver” as expressões paramétricas para τ,σ \tau,\sigma. A primeira equação nos permite eliminar τ\tau. A segunda equação fica

ex=eσ+te2σ, \displaystyle e^x = e^\sigma + te^{2\sigma},

cuja solução para  eσ  \displaystyle  e^\sigma    é

eσ=1±1+4tex2t. \displaystyle e^\sigma = \frac{-1\pm \sqrt{1 +4te^{x}}}{2t}.

O sinal compatível com as condições iniciais é o “+”.  Substituindo-se na expressão de vv ficamos finalmente com

v(t,x)=1+4tex1 (1+ 1+4tex)t , \displaystyle v(t,x) = \frac{ \sqrt{1 +4te^{x}} -1}{  ( 1 +  \sqrt{1 +4te^{x}})t },

Quem duvida que essa é uma solução, pode verificar na mão que ela satisfaz a equação e a condição inicial. É instrutivo também verificar no Mathematica, ou em qualquer outro pacote equivalente. Os comandos:

f := (Sqrt[1 + 4 t*Exp[x]] – 1)/(t*(Sqrt[1 + 4 t*Exp[x]] + 1))

Simplify[D[f, t] + f*D[f, x] + f^2]

no Mathematica darão como resultado

comprovando que, de fato, temos uma solução.

É impostante frisar que só pudemos escrever a solução em forma fechada porque a condição inicial nos permitiu resolver a equação de x(τ,σ)x(\tau,\sigma) para  σ\sigma. Se a condição inicial fosse, por exemplo, v(0,x)=ex2v(0,x)=e^{-x^2}, não seria possível escrever a solução em termos das variáveis iniciais. Porém, teríamos a solução em forma paramétrica

 x(t,σ)=log(1+eσ2t) +σ, \displaystyle  x(t,\sigma) = \log\left(1+e^{-\sigma^2} t \right)  + \sigma ,
v(t,σ)=1eσ2+t, \displaystyle v(t,\sigma) = \frac{1} {e^{\sigma^2}+ t},

o que é suficiente para inferirmos o comportamento qualitativo das soluções.

Finalmente, vamos considerar um caso em que a EDP não é linear nas derivadas. Por exemplo, a equação

(xv)2+(yv)2=v. \displaystyle ( \partial_x v)^2 + (\partial_y v)^2 = v .

A estratégia de Lagrange-Charpit consiste em considerar essa equação como intersecção de superfícies em um espaço de dimensão mais alta. Introduzindo-se as novas variáveis p=xv p=\partial_x v e q=yv q=\partial_y v, nossa equação é equivalente às curvas de nível da função  ϕ:R5R \phi:\mathbb{R}^5 \to \mathbb{R}

ϕ(x,y,v,p,q)=p2+q2v=0. \displaystyle \phi(x,y,v,p,q) = p^2 + q^2 - v = 0 .

A igualdade expressa por essa equação é válida para todos x,y x, y do domínio de interesse.  Portanto, temos duas novas condições

ϕ1(x,y,v,p,q)=xϕ=2pxp+2qxqp=0. \displaystyle \phi_1(x,y,v,p,q) = \partial_x\phi = 2p\partial_xp + 2q\partial_xq -p = 0 .
ϕ2(x,y,v,p,q)=yϕ=2pyp+2qyqq=0. \displaystyle \phi_2(x,y,v,p,q) = \partial_y\phi = 2p\partial_yp + 2q\partial_yq -q = 0 .

A solução que procuramos é a intersecção  ϕϕ1ϕ2 \phi \cap \phi_1\cap \phi_2 dessas três hiper-superfícies de  R \mathbb{R}, dando origem a uma subvariedade de dimensão 2, como já esperamos para as soluções da nossa equação. Levando-se em conta que yp=xq\partial_yp =\partial_xq, podemos rescrever  ϕ1  \phi_1 ϕ2  \phi_2 como

ϕ1(x,y,v,p,q)= 2pxp+2qypp=0. \displaystyle \phi_1(x,y,v,p,q) =  2p\partial_xp + 2q\partial_yp -p = 0 .
ϕ2(x,y,v,p,q)= 2pxq+2qyqq=0. \displaystyle \phi_2(x,y,v,p,q) =  2p\partial_xq+ 2q\partial_yq -q = 0 .

Bem, estas duas equações são do tipo que tratamos anteriormente, linear nas derivadas. Podemos resolvê-las com o método das características. Teremos

x˙=2p, \displaystyle \dot x = 2p,
y˙=2q, \displaystyle \dot y = 2q,
p˙=p, \displaystyle \dot p = p,
q˙=q, \displaystyle \dot q = q,
v=p2+q2, \displaystyle v = p^2 + q^2,

As soluções são

p=p0eτ, \displaystyle p = p_0e^{\tau},
q=q0eτ, \displaystyle q = q_0e^{\tau},
x=2p0(eτ1)+x0, \displaystyle x = 2p_0(e^{\tau}-1)+x_0,
y=2q0(eτ1)+y0, \displaystyle y = 2q_0(e^{\tau}-1)+y_0,

Para simplificar, vamos tomar as condições iniciais tais que x(0)=2p0x(0) = 2p_0 e y(0)=2q0y(0) = 2q_0. Nesse caso, temos p=x2p =\frac{x}{2} e q=y2q =\frac{y}{2} e a solução final será

v(x,y)=x2+y24. \displaystyle v(x,y) = \frac{x^2 + y^2}{4}.

Sobre a equação de Hopf

Atendendo a pedidos, segue abaixo uma análise detalhada do problema da equação de Hopf (do surfista!) da P2 da turma especial (ou da P2 do curso de 2017).

A equação é tv+vxv=0,\displaystyle \partial_t v + v\partial_xv = 0, e a ideia é resolvê-la explorando a teoria (de Caratheodory) das curvas características.  Bem, a solução dessa EDP é a função v(t,x)v(t,x) , que vamos supor por ora suave. A ideia é considerar essa função como a  superfície de nível  ϕ(t,x,y)=0\phi(t,x,y) = 0 da função ϕ:R3R\phi: \mathbb{R}^3 \to \mathbb{R} dada por ϕ(t,x,y)=v(t,x)y.\phi(t,x,y) = v(t,x) - y. É claro que, por construção, a superfície de nível  ϕ(t,x,y)=0\phi(t,x,y) = 0 corresponde ao gráfico da função v(t,x)v(t,x) que procuramos.

Notem que a equação de Hopf pode ser escrita como

(ı^+vȷ^)Vϕ=0,\displaystyle \underbrace{\left( \hat\imath + v\hat \jmath \right)}_{\vec V}\cdot \nabla\phi = 0,

Sabemos que o campo gradiente ϕ\nabla \phi é normal as superfícies de nível da função ϕ:R3R\phi: \mathbb{R}^3 \to \mathbb{R}. Essa relação nos diz então que o vetor V=ı^+vȷ^ \vec V = \hat\imath + v\hat \jmath deve ser tangente à superfície de nível ϕ(t,x,y)=0\phi(t,x,y) = 0.

Considerem agora a curva Γτ:RR3\Gamma_\tau:\mathbb{R}\to \mathbb{R}^3 dada por (t(τ),x(τ),y(τ))(t(\tau),x(\tau),y(\tau)) , com τR \tau \in \mathbb{R} . Sabemos que Γτ\Gamma_\tau está contida na superfície de nível ϕ(t,x,y)=0\phi(t,x,y)=0 se seu vetor tangente for perpendicular a  ϕ\nabla \phi. Ora, já conhecemos um vetor perpendicular a ϕ\nabla \phi, o vetor V\vec V. Assim, a curva Γτ\Gamma_\tau com vetor tangente

t˙ı^+x˙ȷ^+y˙k^=V=ı^+vȷ^\dot t\hat\imath + \dot x\hat\jmath + \dot y\hat k = \vec V = \hat\imath + v\hat \jmath

está, por construção, contida na superfície de nível que procuramos. Essa curva pode ser facilmente integrada, e teremos

Γτ:(t=τ+t0,x=vτ+x0,y=v=v0),\displaystyle \Gamma_\tau: \quad (t = \tau +t_0,x = v\tau + x_0,y = v = v_0),

sendo que já fizemos a substituição y=v(t,x) y = v(t,x) que vem da definição da superfície de nível. As constantes t0,x0,v0 t_0,x_0, v_0 são constantes de integração e correspondem ao ponto inicial que escolhemos para definir a curva Γτ\displaystyle \Gamma_\tau.

Estamos a um passo de resolvermos a equação de Hopf. Com o que temos agora, dada a condição inicial v(t0,x0)=v0 v(t_0,x_0)=v_0, sabemos calcular o valor da solução  v(t,x) v(t,x) ao longo da curva Γτ\displaystyle \Gamma_\tau. Porém, a solução é uma superfície, não uma curva. É claro que a solução geral requer que escolhamos as condições iniciais (t0,x0,v0) (t_0,x_0, v_0) ao longo de uma outra curva tangente a nossa superfície. Quer dizer, devemos ter uma outra curva  (t0(σ),x0(σ),v0(σ)) (t_0(\sigma),x_0(\sigma), v_0(\sigma)), com vetor tangente também ortogonal a ϕ\nabla \phi, mas linearmente independente de V\vec V. Uma vez especificada essa condição inicial (t0(σ),x0(σ),v0(σ)) (t_0(\sigma),x_0(\sigma), v_0(\sigma)), com σR \sigma\in\mathbb{R}, teremos finalmente a solução v(t,x) v(t,x) em forma paramétrica. No nosso caso, a solução é

Γτ,σ: (t(τ,σ)=τ+t0(σ),x(τ,σ)=vτ+x0(σ),v(τ,σ)=v0(σ)),\displaystyle \Gamma_{\tau,\sigma}:  (t(\tau,\sigma) = \tau +t_0(\sigma),x(\tau,\sigma) = v\tau + x_0(\sigma), v(\tau,\sigma) = v_0(\sigma)),

Vamos agora especificar a solução para a condição inicial proposta no problema, v(0,x)=g(x)v(0,x)=g(x) . Devemos escolher as funções (t0(σ),x0(σ),v0(σ)) (t_0(\sigma),x_0(\sigma), v_0(\sigma)) de maneira adequada. Neste caso, basta escolhê-las como (t0(σ)=0,x0(σ)=σ,v0(σ)=g(σ)) (t_0(\sigma) = 0,x_0(\sigma)=\sigma, v_0(\sigma) = g(\sigma)). Com isto, a representação paramétrica de v(t,x) v(t,x) fica

Γτ,σ: (t(τ,σ)=τ,x(τ,σ)=vτ+σ,v(τ,σ)=g(σ)),\displaystyle \Gamma_{\tau,\sigma}:  (t(\tau,\sigma) = \tau ,x(\tau,\sigma) = v\tau + \sigma , v(\tau,\sigma) =g(\sigma)),

Para obtermos a forma não paramétrica, basta resolver essas equações para τ,σ\tau,\sigma , e neste caso a solução é muito simples, temos τ=t\tau = t e σ=xvt\sigma = x -vt, e a solução final é, na forma implícita,

v=g(xvt).v = g(x-vt).

Para ver porque a equação de Hopf merece o apelido de equação do surfista, veja a solução no site…

Agradecimentos especiais: Mr. M, the surfer, pela autorização de uso da imagem, Mr. R pelos erros apontados, ….

 

Derivadas de delta

Como devemos interpretar  δ(x24)\displaystyle \delta'(x^2 -4) ? Aparentemente, há dúvidas sobre isso. Lembrando, as derivadas de delta são definidas como

δ(x)f(x)dx=δ(x)f(x)dx\displaystyle \int \delta'(x) f(x) dx = -\int \delta(x) f'(x) dx

mas no nosso exemplo o argumento da delta é uma função. O que fazer? Bem, devemos fazer uma mudança de variáveis.  Vamos introduzir a variável y=x24 \displaystyle y = x^2 -4 e lembrar que quando x x percorre a reta real, y y vai de \infty a -4 e depois de -4 a \infty . Teremos

δ(x24)f(x)dx=4δ(y)f(y+4)dy2y+4+4δ(y)f(y+4)dy2y+4\displaystyle \int_{-\infty}^\infty \delta'(x^2 - 4) f(x) dx = \int_{-4}^\infty \delta'(y) f(-\sqrt{y +4}) \frac{ dy}{2\sqrt{y +4}}+\int_{-4}^\infty \delta'(y) f(\sqrt{y +4}) \frac{ dy}{2\sqrt{y +4}}

Pela definição, teremos

 4δ(y)f(y +4)dy2y+4=124δ(y)ddy(f(y+4)y+4) dy = 124δ(y)  (f(y+4)2(y+4)f(y+4)2y+43 )dy=f(2)16+f(2)32\displaystyle  \int_{-4}^\infty \delta'(y) f(\sqrt{y  +4}) \frac{ dy}{2\sqrt{y +4}} = -\frac{1}{2} \int_{-4}^\infty \delta (y)\frac{d}{dy}\left(\frac{f(\sqrt{y +4})}{ \sqrt{ y+4}}\right)  dy  =  -\frac{1}{2} \int_{-4}^\infty \delta (y)   \left( \frac{f'(\sqrt{y +4})}{2(y+4)} -\frac{f(\sqrt{y +4})}{2\sqrt{y+4}^3}   \right) dy = -\frac{f'(2)}{16} + \frac{f(2)}{32}

de onde o resultado do Wolfram Alpha segue facilmente.

(Post de contribuição do Mr. M).

Derivadas distribucionais e a regra da cadeia

Vale a pena retornar ao problema da regra da cadeia com derivadas distribucionais. Vamos considerar o exemplo da função f(x)=sinxx\displaystyle f(x) =\frac{\sin |x|}{x} comentada na aula passada.  O primeiro passo, sempre, para que não fique dúvidas, é inspecionar o gráfico da função, que vai abaixo. (Esse gráfico está no T2 de 2017.)

É evidente que há um salto na origem e, portanto, esperamos uma delta ai. Antes de passarmos ao cálculo da derivada distributiva, convém relembrarmos parte da discussão que foi motivada pela questão do Gustavo. Considerem a função

f(x)={sinxx,x<0,a+sinxx,x>0.f(x) = \left\{ \begin{array}{rl}-\frac{\sin x}{x}, & x <0, \\a+\frac{\sin x}{x}, & x > 0.\end{array}\right.

 

A  derivada usual dessa função é

f(x)={(cosxxsinxx2),x<0,cosxxsinxx2,x>0.f'(x) = \left\{ \begin{array}{cl}-\left(\frac{\cos x}{x} - \frac{\sin x}{x^2} \right), & x <0, \\ \frac{\cos x}{x} - \frac{\sin x}{x^2} , & x > 0.\end{array}\right.

 

Como vocês vêm, a derivada não depende de aa, ou, em palavras, a derivada usual não tem informação sobre a amplitude do salto.  A pergunta que colocamos em sala foi: dada essa derivada usual, podemos integrá-la e obter uma f(x)f(x) ? A resposta é, claramente, sim. Que função obteríamos? Bem, isso vai depender de algumas hipóteses extras. Primeiro, sabemos que essa pergunta sempre é respondida a menos de uma constante que deve ser obtida fixando-se f(x)f(x) para algum valor de xx . As funções  f(x)f(x)   e  f(x)+cf(x) +c, com cc constante, sempre têm a mesma derivada.   Sempre temos que fixar a constante de integração cc com alguma informação sobre f(x)f(x). Essa é a única informação que precisamos fixar para obter f(x)f(x) a partir de f(x)f'(x) ? A resposta é não. Notem que todas as funções neste exemplo não estão definidas em x=0x=0 . Portanto, há uma arbitrariedade aqui. Caso exijamos que f(x)f(x) seja contínua, que é uma hipótese extra ao problema, podemos sim obter de maneira única f(x)f(x)   a partir de f(x)f'(x) , a menos da dependência trivial na constante de integração cc . Com a hipótese de continuidade em x=0x=0 de f(x)f(x) , vamos obter a função que corresponde a a=1a=-1 , convençam-se disso! Sem essa hipótese, não há como “emendar” a solução do lado esquerdo com a do lado direito, como fizemos em sala para um outro exemplo.  O que o caso a=1a=-1 tem de especial? É o caso sem salto! Portanto, é o caso em que não perdemos nenhuma informação ao calcularmos a derivada, ao contrário de qualquer outro valor de a1a\ne -1 , quando vamos ter um salto que não ficará “registrado” na derivada. As derivadas distribucionais são as que “registram” as informações sobre as descontinuidades da função.

Vamos voltar ao problema inicial de determinar a derivada distribucional de f(x)=sinxx\displaystyle f(x) =\frac{\sin |x|}{x} .  Há, no mínimo, 3 maneiras diferentes de se representar essa função:

f(x)=sinxx=signxsinxx= sinxx \displaystyle f(x) =\frac{\sin |x|}{x} = \text{sign}\,x \frac{\sin x}{x} =  \frac{\sin x}{|x|} 

 

Obviamente, vamos obter a mesma derivada distribucional para as três expressões para f(x)f(x). Vamos começar pela que talvez seja a mais simples, a do gabarito do T2 de 2017.

df(x)dx=ddx(signxsinxx)  =2δ(x)+signx(cosxxsinxx2)\displaystyle \frac{d f(x)}{dx} = \frac{d }{dx} \left( \text{sign}\,x \frac{\sin x}{x}\right)   = 2 \delta(x) + \text{sign}\,x \left(\frac{\cos x}{x} - \frac{\sin x}{x^2} \right)=2δ(x)+xcosxsinxx2  \displaystyle= 2 \delta(x) + \frac{ |x|\cos x - \sin |x|}{x^2} 

 

sendo que usamos que ddxsignx=2δ(x) \frac{d }{dx} \text{sign}\,x = 2\delta(x) e que sinxx\frac{\sin x}{x} , que formalmente não está definida na origem, tem uma extensão continua tal que seu valor é 1 na origem.

Porém, poderíamos ter escolhido outra expressão para a função, por exemplo

df(x)dx=ddx(sinxx)  = cosxxdxdxsinxx2 \displaystyle \frac{d f(x)}{dx} = \frac{d }{dx} \left(\frac{\sin |x|}{x}\right)   =  \frac{\cos |x|}{x} \frac{d|x| }{dx} - \frac{\sin |x|}{x^2}  =cosxx( signx+2xδ(x))sinxx2=2δ(x)+signx(cosxxsinxx2)  \displaystyle =\frac{\cos |x|}{x}\left(  \text{sign}\,x + 2x\delta(x)\right)- \frac{\sin |x|}{x^2} = 2 \delta(x) + \text{sign}\,x \left(\frac{\cos x}{x} - \frac{\sin x}{x^2} \right)  

Aqui, usamos que cosx=cosx \cos |x| = \cos x x=xsignx  |x| = x\text{sign}\, x  e que dxdx=signx+2xδ(x)  \frac{d|x|}{dx} = \text{sign}\,x + 2x\delta(x)  . Alguém por objetar aqui: mas não concluímos que xδ(x) x\delta(x) (a “distribuição M”)  era zero? Sim, mas aqui não temos essa distribuição, mas ela multiplicada por cosxx\frac{\cos x}{x}, vejam com cuidado e lembre-se sempre da construção dos aproximantes.

Temos o último caso

df(x)dx=ddx( sinxx)  =cosxx+sinx ddx(1x)\displaystyle \frac{d f(x)}{dx} = \frac{d }{dx} \left(  \frac{\sin x}{|x|}\right)   = \frac{\cos x}{|x|} + \sin x  \frac{d}{dx}\left( \frac{1}{|x|}\right)

 

e agora teremos um problema com o último termo, que imagino ser a principal dúvida naquela questão do T2 de 2017.  Se admitirmos, o que é correto, que 1x=signxx \displaystyle \frac{1}{|x|} = \frac{\text{sign\,}x}{x} , teremos

ddx(1x)=ddx(signxx)=2δ(x)xsignxx2. \displaystyle \frac{d}{dx}\left( \frac{1}{|x|}\right)= \frac{d}{dx}\left( \frac{\text{sign\,}x}{x} \right) = \frac{2\delta(x)}{x} - \frac{\text{sign\,}x}{x^2} .

 

que é o resultado anterior. Porém, poderíamos ter admitido, o que também é perfeitamente correto, que 1x=1xsignx \displaystyle \frac{1}{|x|} = \frac{1}{x \text{sign\,}x}

e nesse caso teríamos

ddx(1x)=ddx(1xsignx)=2δ(x)xsignxx2. \displaystyle \frac{d}{dx}\left( \frac{1}{|x|}\right)= \frac{d}{dx}\left( \frac{1}{x\text{sign\,}x} \right) = -\frac{2\delta(x)}{x} - \frac{\text{sign\,}x}{x^2} . 😨

Obtemos o salto com o sinal errado!!!! 😨 Como sabemos que o salto está com o sinal errado? Pois nós sabemos do gráfico da função que o salto é de -1 a 1, confiram!

O que está errado?!?! Bem, o erro está neste passo que foi implicitamente usado:

ddx(1signx)=1(signx)2ddxsignx=2δ(x) \displaystyle \frac{d}{dx}\left( \frac{1}{\text{sign\,}x}\right)= -\frac{1}{(\text{sign\,}x)^2} \frac{d}{dx} \text{sign\,}x = - 2\delta(x)

 

Como eu sei que esse passo está errado? Como sempre, vamos ver nossos aproximantes. O melhor aproximante pra função sinal (ou pra a de Heaviside) é a tangente hiperbólica

 signx=limntanhnx \displaystyle  \text{sign\,}x = \lim_{n\to\infty}\tanh nx

 

Convençam-se que esses aproximantes não suportam a conclusão acima, pois 1(signx)2ddxsignx\displaystyle \frac{1}{(\text{sign\,}x)^2} \frac{d}{dx} \text{sign\,}x não está definido na origem.  A função sinal, para efeitos distribucionais é definida como  signx=1signx \displaystyle  \text{sign\,}x = \frac{1}{\text{sign\,}x} e, portanto,

ddx(1signx)= ddxsignx= 2δ(x) \displaystyle \frac{d}{dx}\left( \frac{1}{\text{sign\,}x}\right)=  \frac{d}{dx} \text{sign\,}x =  2\delta(x) 😀

Que isso sirva de alerta: as propriedades das derivadas distribucionais podem ser bastante traiçoeiras. Na dúvida, sempre apelem aos aproximantes.

Fenômeno de Gibbs

Como disse na aula, o fenômeno de Gibbs é a curiosa discrepância que surge nas descontinuidades quando comparamos funções descontínuas e suas séries de Fourier. Aqui estão todos os cálculos que fizemos, com esmero, ao contrário da minha lousa. 😀

Relembrando, o ponto chave foi considerar a série de Fourier  da função degrau no intervalo [π,π] [-\pi,\pi]

f(x)={1,0<x<π1,π<x<0  f(x) = \left\{\begin{array}{rr} 1, & \quad 0 < x < \pi \\ -1, & \quad -\pi < x <0 \end{array}\right. 

 

Como a função é impar, terá apenas série em senos f(x)=kbksinkx \displaystyle f(x) = \sum_k b_k\sin kx, sendo

bk =2π0πsinkxdx=2kπ(1coskπ) ={4kπ,k impar 0,k par\displaystyle b_k  = \frac{2}{\pi} \int_0^{-\pi} \sin kx \, dx =\frac{2}{k\pi}(1-\cos k\pi)  = \left\{\begin{array}{cl} \frac{4}{k\pi}, & \quad k\ {\rm impar} \\ 0, & \quad k\ {\rm par} \end{array}\right.

 

Nossa função degrau, portanto, pode ser representada pela série de Fourier

  f(x)=4πn=0sin(2n+1)x2n+1 \displaystyle    f(x) = \frac{4}{\pi}\sum_{n=0}^\infty \frac{\sin (2n+1)x}{2n+1}

 

Abaixo vai o gráfico correspondente aos 5 primeiros termos dessa série

Gibbs1

onde já podemos apreciar o fenômeno do “overshooting” na vizinhança da descontinuidade em  x=0  x=0. Consideremos agora as séries parciais correspondentes à série de Fourier

fM(x)=4πn=0Msin(2n+1)x2n+1 \displaystyle f_M(x) = \frac{4}{\pi}\sum_{n=0}^M \frac{\sin (2n+1)x}{2n+1}

 

A figura acima corresponde ao caso M=4 M=4. Vamos localizar os pontos críticos de fM(x) f_M(x) no intervalo (0,π) (0,\pi), que correspondem aos pontos tais que

 fM(x)=4πn=0Mcos(2n+1)x=0(1)  \displaystyle f'_M(x) = \frac{4}{\pi}\sum_{n=0}^M {\cos (2n+1)x} = 0 \quad\quad (1)

Notem que

n=0Mcos(2n+1)x= Re(n=0M e(2n+1)ix)(2) \displaystyle \sum_{n=0}^M {\cos (2n+1)x} =\ {\rm Re}\left(\sum_{n=0}^M  e^{(2n+1)ix} \right) \quad\quad (2)

 

Desta forma, os zeros de (1) correspondem de fato aos zeros de (2). Ocorre que (2) pode ser facilmente somado, trata-se de uma PG complexa com razão e2ix e^{2ix}

n=0M e(2n+1)ix=eix1e2ix(1e2(M+1)ix) \displaystyle \sum_{n=0}^M  e^{(2n+1)ix} = \frac{e^{ix}}{1-e^{2ix}}\left(1 - e^{2(M+1)ix} \right)

 

Porém, notem que

eix1e2ix=1eixeix=12isinx \displaystyle \frac{e^{ix}}{1-e^{2ix}} = \frac{1}{e^{-ix}-e^{ix}} = -\frac{1}{2i\sin x}

e

 1e2(M+1)ix=ei(M+1)x(ei(M+1)xei(M+1)x) \displaystyle  1 - e^{2(M+1)ix} = e^{i(M+1)x}\left(e^{-i(M+1)x} -e^{i(M+1)x}\right)

 

=2iei(M+1)xsin(M+1)x \displaystyle = -2ie^{i(M+1)x} \sin(M+1)x

 

De onde temos finalmente que

 Re(n=0M e(2n+1)ix)=sin(M+1)xsinxRe(ei(M+1)x)=sin2(M+1)x2sinx \displaystyle  {\rm Re}\left(\sum_{n=0}^M  e^{(2n+1)ix} \right) = \frac{\sin(M+1)x}{\sin x} {\rm Re}\left(e^{i(M+1)x}\right) = \frac{\sin 2(M+1)x}{2\sin x}

implicando que os zeros de (2) no intervalo (0,1) (0,1) , que serão os pontos críticos de (1) no mesmo intervalo, são os pontos x=kπ2(M+1) x=\frac{k\pi}{2(M+1)} , com k=1,2,3, k=1,2,3,\dots . Do gráfico, vemos que o primeiro ponto crítico (k=1 k=1 ) será um máximo localizado em x=π2(M+1) x_* = \frac{\pi}{2(M+1)} .

Calculemos agora fM(x) f_M(x_*)

fM(x)=4πn=0Msin(2n+1)x2n+1=2πn=0MπM+1sinαnαn \displaystyle f_M(x_*) = \frac{4}{\pi}\sum_{n=0}^M \frac{\sin (2n+1)x_*}{2n+1} =\frac{2}{\pi}\sum_{n=0}^M \frac{\pi}{M+1}\frac{\sin \alpha_n}{\alpha_n}

com αn=2n+12M+2π \alpha_n = \frac{2n+1}{2M+2}\pi . Podemos calcular o limite M M\to\infty desta soma se a aproximarmos por uma integral. Notem, primeiramente, que α0=12M+2π \alpha_0 = \frac{1}{2M+2}\pi , αM=2M+12M+2π \alpha_M = \frac{2M+1}{2M+2}\pi e que  αk+1αk=πM+1  \alpha_{k+1} -\alpha_{k} = \frac{\pi}{M+1} . Em outras palavras, o intervalo (0,π) (0,\pi) foi dividido em M+1 M+1 partes iguais (de fato, os extremos tem metade do tamanho), e estamos somando as áreas de retângulos de largura πM+1 \frac{\pi}{M+1} e altura sinαnαn \frac{\sin\alpha_n}{\alpha_n} . A figura abaixo ilustra o caso para M=12 M=12 , sendo que a curva corresponde a função sinxx \frac{\sin x}{x}

Gibbs2

Teremos

limMfM(x)=2π0πsinxxdx1.179 \displaystyle \lim_{M\to\infty} f_M(x_*) = \frac{2}{\pi}\int_0^{\pi}\frac{\sin x}{x}\, dx \approx 1.179

 

que corresponde ao “overshoot”. Note que no limite M M\to\infty, o ponto de máximo x x_* está arbitrariamente próximo da descontinuidade x=0 x=0.  A figura abaixo ilustra o que ocorre para três valores de M: 4, 16 e 32. Ve-se claramente que o primeiro máximo varia pouco, mas sua localização se aproxima de x=0 x=0, de onde percebemos claramente o porquê da norma do L2[π,π] L^2[-\pi,\pi] ser insensível a estas diferenças.

Gibbs3

O fenômeno de Gibbs é caracterizado pelo valor relativo do “overshoot”, e não pelo absoluto como fizemos. No nosso caso, a descontinuidade é  f(0+)f(0)=2 f(0^+)-f(0^-)=2, então o “overshoot” relativo será

1.179129%\frac{1.179 -1}{2}\approx 9\%

 

Que é o famoso resultado. A literatura a respeito é vastíssima. Sugiro este artigo, que é bem contextualizado historicamente e apresenta a derivação original, que não é a apresentada aqui. O resultado original foi deduzido não para a função degrau, mas para uma variação da “dente de serra“. O curioso, e interessantíssimo, é que o fenômeno (incluindo o 9%) é o mesmo para qualquer descontinuidade “razoável”. Isto quer dizer que, do ponto de vista das séries de Fourier, a descontinuidade estudada aqui é genérica. De fato, já discutimos que o ponto fundamental das descontinuidades é o decaimento dos coeficientes bk b_k. Aqui, como esperado, tratando-se de uma função descontínua, os coeficientes decaem como k1 k^{-1}.

Como disse também, Michelson construiu um “computador analógico” para calcular séries de Fourier, e atribuiu erroneamente o fenômeno de Gibbs a um “defeito” mecânico de seu aparato. Mais informações sobre sua curiosa e engenhosa máquina aqui e aqui. Uma visão “mecânica” de como as componentes de Fourier interagem para gerar a função degrau é dada por esta (ótima!) animação, da wikipedia

 

Fourier_series_square_wave_circles_animation

construida a partir do material apresentado aqui. Notem como os diversos modos de Fourier surgem ao combinarmos  epiciclos.  O video abaixo também é muito interessante.

Um último ponto para mostrar que a convergência pontual (quer dizer, com a norma do  L[π,π]L^\infty[-\pi,\pi]) é bastante complicada neste exemplo, surge ao considerarmos não o valor de f(x)f(x) no primeiro ponto fixo, mas em todos. Calculemos

fM(x(k))= 2πn=0MkπM+1sinαnkαnk \displaystyle f_M\left(x_*^{(k)} \right) =  \frac{2}{\pi}\sum_{n=0}^M \frac{k\pi}{M+1}\frac{\sin \alpha_n^k}{\alpha_n^k}

sendo   x(k)=kπ2M+2   x_*^{(k)}=\frac{k\pi}{2M+2}  e  αn(k)=2n+12M+2kπ  \alpha_n^{(k)} = \frac{2n+1}{2M+2}k\pi . Tomemos o limite M M\to \infty , mantendo  k  k constante, de maneira análoga ao que fizemos para o caso k=1 k=1 acima

f(x(k))= 2π0kπsinxxdx \displaystyle f\left(x_*^{(k)} \right) =  \frac{2}{\pi}\int_0^{k\pi} \frac{\sin x}{x}\, dx

Conhecemos esta integral. Seu limite para  k  k\to \infty (integral de Dirichlet) é exatamenteπ2 \frac{\pi}{2}, de onde temos que, longe da singularidade (k k grandes), o valor de f(x(k)) f\left(x_*^{(k)} \right) tende ao valor esperado f(x)=1 f(x)=1. O gráfico abaixo mostra alguns valores de f(x(k)) f\left(x_*^{(k)} \right) para k k pequenos, de onde vemos que a convergência para o valor  f(x)=1 f(x)=1 é o mesmo de uma série alternada.

Gibbs4

No limite M M\to\infty pontos com k k finito estão arbitrariamente próximos, sugerindo que a série de Fourier de f(x) f(x)é, de fato, complicadamente descontínua na região arbitrariamente próxima a x=0 x=0. Contudo, a norma do L2[π,π] L^2[-\pi,\pi] é completamente insensível a este rico comportamento  próximo à descontinuidade x=0 x=0.

 

 

Welcome!

Ola, este será o blog da disciplina de Métodos 2 para o IMECC neste segundo semestre de 2023. Acho que não é necessário falar sobre o que é um blog, vocês provavelmente sabem tão bem quanto eu. Tenho usado este formato do wordpress já há alguns anos, e tenho gostado da experiência. Meus últimos cursos que usaram este recurso vão abaixo, há uma boa quantidade de material que pode ser interessante por lá. Notem, em particular, o primeiro link, que é do meu último oferecimento do curso.

https://metodos17.wordpress.com/

https://ma327cursao.wordpress.com/

https://analiseaplicada.wordpress.com/

https://eletro2015.wordpress.com/

https://ma044.wordpress.com/

O material do curso de Métodos 1 está aqui:

http://vigo.ime.unicamp.br/ms550/

Todas as informações pertinentes sobre o curso poderão ser encontradas, a qualquer instante, neste blog. Olhem, em particular, as informações sobre ementa, avaliações etc. Se quiserem ler um pouco sobre a história desse curso, consultem o texto disponível aqui, de um oferecimento de 15 anos atras. Os que clicarem verão que os blogs do cursão já tem alguma história…

É importante notar que neste segundo semestre, temos também uma turmas especial de Métodos 2, a turma MS650%. Mais detalhes, aqui.