Análise 2
Vamos utilizar o
Moodle MAT.
Para fazer perguntas e discutir assuntos da disciplina de análise 2,
vamos utilizar o
fórum Talkyard de análise 2.
Semana 00 - revisão de cálculo com várais variáveis (cálculo 3)
Semana 01 - espaços vetoriais normados
Semana 02 - a diferencial como transformação linear
O conteúdo desta semana são os capítulos 1 e 2 do Análise no Espaço $R^n$.
O capítulo 1 é sobre a definição de diferencial em termos de transformações lineares.
O capítulo 2 é de exemplos.
-
Definindo a derivada com limite:
uma maneira de definir a derivada,
quando o domínio é um aberto de $\mathbb{R}$,
é tomando o limite da velocidade média para obter a velocidade instantânea.
Quando o domínio não é $\mathbb{R}$,
podemos utilizar essa mesma formulação para definir
a derivada direcional
\begin{equation*}
\partial_{\vec{v}} f(a)
=
\lim_{t \rightarrow 0}
\frac{f(a + t \vec{v}) - f(a)}{t}.
\end{equation*}
-
Derivada como transformação linear:
uma outra formulação para derivada utiliza o "resto".
Escrevemos
\begin{equation*}
f(a + \Delta t) = f(a) + \vec{\alpha} \Delta t + \rho(\Delta t),
\end{equation*}
e para que $\vec{\alpha}$ seja a derivada de $f$ no ponto $a$,
precisamos que $\rho'(0) = 0$.
Ou seja,
\begin{equation*}
\frac{\rho(\Delta t)}{\Delta t} \xrightarrow{\Delta t \rightarrow 0} 0.
\end{equation*}
Vamos então,
utilizar uma formulação semelhante para definir
a derivada de uma função entre espaços vetoriais normados quaisquer.
-
Exemplos teóricos:
vamos mostrar como calcular a derivada,
a partir da definição,
para alguns exemplos simples.
-
Unicidade da derivada / Derivadas direcionais:
Neste vídeo,
vamos falar de dois assuntos:
a unicidade da derivada,
e a relação entre as derivadas direcionais
e a derivada como transformação linear.
Dizemos que f é diferenciável num ponto $a$ de seu domínio,
quando conseguimos fazer a quela decomposição...
\begin{equation*}
f(a + \vec{v}) = f(a) + T\vec{v} + \rho(\vec{v}),
\end{equation*}
onde $T$ é linear e contínua,
e $\rho$ é tal que
\begin{equation*}
\frac{\rho(\vec{v})}{\|\vec{v}\|}
\xrightarrow{\vec{v} \rightarrow 0} \vec{0}.
\end{equation*}
Mas será que só existe uma maneira de fazer isso?
Será que a derivada de f é única?
Quando a função é diferenciável num ponto $a$ de seu domínio,
com diferencial $Df(a) = T$,
as derivadas direcionais são dadas por
\begin{equation*}
\partial_{\vec{v}} f(a) = T\vec{v}.
\end{equation*}
-
Matriz jacobiana:
a diferencial de uma função
\begin{equation*}
f: \Omega \subset \mathbb{R}^p \rightarrow \mathbb{R}^q
\end{equation*}
é uma transformação linear de $\mathbb{R}^p$ em $\mathbb{R}^q$.
E portanto,
pode ser representada por uma matriz $q \times p$.
Essa é a matriz jacobiana.
Semana 03 - regra da cadeia
O assunto
regra da cadeia
corresponde ao capítulo 4 do livro texto.
-
Escrevendo "o resto" de um modo diferente:
ao invés de escrevermos
\begin{equation*}
f(a + \vec{v}) = f(a) + T\vec{v} + \rho(\vec{v}),
\end{equation*}
vamos escrever
\begin{equation*}
f(a + \vec{v}) = f(a) + T\vec{v} + r(\vec{v}) \|\vec{v}\|.
\end{equation*}
-
A regra da cadeia:
vamos enunciar e demonstrar a regra da cadeia.
Se $g$ é diferenciável no ponto $a$,
e $f$ é diferenciável no ponto $g(a)$,
então $f \circ g$ é diferenciável no ponto $a$.
Neste caso,
\begin{equation*}
D(f \circ g)(a)
=
Df(g(a)) \circ Dg(a).
\end{equation*}
-
Fração com denominador igual a zero:
vamos discutir de que maneira o resto na forma $r(\vec{v}) \|\vec{v}\|$
deixou a demonstração da regra da cadeia um pouco mais simples.
-
Derivação ao longo de curvas:
A regra da cadeia vai nos permitir
calcular a integral de uma função diferenciável $f$
ao longo de uma curva diferenciável $\varphi$.
-
O gradiente:
Toda transformação linear $T: \mathbb{R}^p \rightarrow \mathbb{R}$
pode ser representada pelo produto interno
com um vetor $\vec{a} \in \mathbb{R}^p$:
\begin{align*}
T: \mathbb{R}^p &\rightarrow \mathbb{R}
\\
\vec{v} &\mapsto \vec{a} \cdot \vec{v}.
\end{align*}
No caso da diferencial de uma função
$f: \Omega \subset \mathbb{R}^p \rightarrow \mathbb{R}$,
chamamos esse vetor de gradiente,
e denotamos por $\nabla f(a)$:
\begin{align*}
Df(a): \mathbb{R}^p &\rightarrow \mathbb{R}
\\
\vec{v} &\mapsto \nabla f(a) \cdot \vec{v}.
\end{align*}
-
Interpretação geomética do gradiente:
o produto interno tem interpretação geométrica.
Por exemplo,
dois vetores $\vec{a}, \vec{b} \in \mathbb{R}^p$
são ortogonais quando $\vec{a} \cdot \vec{b} = 0$.
Dessa forma,
o gradiente,
que representa a diferencial em termos do produto interno,
também tem interpretação geomética.
-
Multiplicadores de Lagrange:
a interpretação geométrica do gradiente pode nos ajudar a entender
o método dos multiplicadores de Lagrange.
-
Cálculo em superfícies:
a regra da cadeia diz que podemos não apenas utilizar a reta
\begin{equation*}
\varphi(t) = a + t \vec{v}
\end{equation*}
para definir a derivada direcional
de uma função diferenciável num ponto $a$
com respeito a um vetor $\vec{v}$...
mas podemos utilizar qualquer curva $\varphi$
que passe pelo ponto $a$ com velocidade $\vec{v}$.
Usando este,
podemos para fazer cálculo em superfícies.
Semana 04 - exercícios
Durante esta semana,
vamos discutir os exercícios
e eventuais dúvidas sobre o conteúdo,
no fórum.
Se houver discussão / dúvidas,
eu faço um vídeo e publico na sexta-feira.
Todos tem o livro texto?
Lista de exercícios:
-
Exercícios do capítulo 1 do livro texto
(Análise no espaço $\mathbb{R}^n$).
-
Exercícios do capítulo 2 do livro texto
(Análise no espaço $\mathbb{R}^n$).
-
Exercícios do capítulo 4 do livro texto
(Análise no espaço $\mathbb{R}^n$),
com exceção do exercício 7.
Semana 05 - desigualdade do valor médio
A ideia é simples:
Se a velocidade média durante um trajeto for igual a $v$,
em algum momento a velocidade instantânea precisa,
necessariamente, precisa ser maior do que $v$.
Com a desigualdade do valor médio,
conseguimos mostrar, por exemplo,
que quando a derivada de duas funções é exatamente igual
(em todos os pontos),
então a diferença entre elas é constante.
É isso que nos permite, por exemplo,
saber que se $f(x) = F'(x)$,
então
\begin{equation*}
\int f(x) \,\mathrm{d}x
=
F + k,
\end{equation*}
para alguma constante $k$.
-
Topologia induzida:
a topologia de um espaço $X$ pode ser "restrita"
a um subconjunto $B \subset X$.
-
Conexidade:
um espaço topológico pode ter dois "pedaços".
Uma maneira de formalizar essa ideia é através do conceito
de conexidade.
-
O teorema para funções $\mathbb{R} \rightarrow \mathbb{R}$:
revisão do teorema do valor médio de Análise 1.
-
Sobre o teorema (desigualdade) e sua demonstração:
vamos falar sobre o teorema e sobre a demonstração.
O passo final da demonstração não será feito!
No último vídeo desta semana,
faremos uma demonstração mais simples,
utilizando funcionais lineares.
-
Quando a diferencial é nula:
Se a diferencial de uma função
\begin{equation*}
f: \Omega \subset \mathbb{R}^p \rightarrow \mathbb{R}^q
\end{equation*}
é nula em todo ponto de $\Omega$,
então $f$ é constante nos subconjuntos conexos de $\Omega$.
-
A diferenciabilidade em um "ponto de colagem":
ao construirmos uma função,
é comum termos uma fórmula que nos garante que a função
é contínua e diferenciável em todos os pontos...
exceto um,
onde nossa fórmula fica com um zero em algum denominador.
É comum que consigamos definir o valor da função nesse ponto
"singular", de modo a garantir que a função seja contínua.
Por exemplo,
\begin{align*}
f: \Omega \subset E &\rightarrow F
\\
x &\rightarrow f(x) =
\begin{cases}
\mathrm{e}^{-1/x^2}, &x \neq 0
\\
0, &x = 0.
\end{cases}
\end{align*}
Mas será que $f$ é diferenciável em $0$?
-
Demonstração com funcionais lineares:
vamos fazer uma demonstração muito bacana
(se é que está correta!)
do teorema.
Semana 06 - derivada da derivada e derivada parcial
Assuntos da semana:
capítulos 3 e 7.
-
Classes de diferenciabilidade:
Em análise 1,
a derivada de uma função era (novamente) um número.
Assim, ficava fácil falar da derivada segunda,
da derivada terceira, e assim por diante.
Agora,
a derivada é uma transformação linear (uma matriz).
Mas o espaço das transformações lineares contínuas entre espaços normados
é (novamente) um espaço normado.
Então,
apesar de um pouco mais complicado,
ainda podemos falar da taxa de variação da taxa de variação.
Ou seja,
das derivadas de ordem superior.
Em termos de matrizes...
é simplesmente a taxa de variação das entradas da matriz.
-
Generalizando o conceito de derivada parcial:
Em nosso primeiro contato com derivadas parciais,
tratávamos todas as coordenadas, com exceção de uma, como constantes,
e derivávamos com respeito a um dos eixos.
Agora,
vamos decompor o domínio em dois (ou mais) subespaços...
novamente, podemos manter, com exceção de uma,
todas as outras coordenadas como constantes,
e definir derivadas parciais generalizadas.
-
Quando as derivadas parciais existem e são contínuas:
Estamos cansados de saber que não basta ter as derivadas parciais
para que a função seja diferenciável.
Mas quando as derivadas parciais são contínuas,
a função é diferenciável!!!
Semana 07 - teorema de Schwarz
O assunto desta semana é o
teorema de Schwarz (capítulo 8).
Num curso de cálculo de várias variáveis,
aprendemos que quando as derivadas parciais de segunda ordem são contínuas
(ou seja, a função é de classe $C^2$),
então $\partial_{ij}f = \partial _{ji}f$.
Este é, basicamente o teorema de Schwarz.
Do ponto de vista da transformação bilinear $D^2f(a)$,
o teorema diz que $D^2f(a)$ é uma transformação simétrica
\begin{equation*}
D^2f(a)(\vec{v}, \vec{w})
=
D^2f(a)(\vec{w}, \vec{v}).
\end{equation*}
-
Sobre a derivada segunda:
o que representa a transformação $D^2f(a)$ em termos da
aproximação linear de $f$ em torno do ponto $a$?
Como isso se relaciona com a comutatividade da operação de
tomar derivadas parciais
?
-
Transformações bilineares:
A derivada de segunda ordem pode ser vista como uma transformação bilinear
\begin{align*}
B: E \times E &\rightarrow F
\\
(\vec{v}, \vec{w}) &\mapsto (D^2 f(a) \vec{v})\vec{w}.
\end{align*}
-
Igualdade de transformações bilineares:
A derivada segunda é uma transformação bilinear.
Demonstrar o teorema de Schwarz consiste em mostrar que as transformações bilineares
\begin{equation*}
B(v,w) = D^2 f(a)(v,w)
\quad\text{e}\quad
D(v,w) = D^2 f(a)(w,v)
\end{equation*}
são iguais.
Vamos ver um critério para igualdade de transformações bilineares,
que é útil quando se trabalha com o "resto" que aparece na definição de
derivada como transformação linear.
-
Motivando o teorema de Schwarz:
Uma demonstração comum do teorema de Schwarz consiste em
tirar de um chapéu mágico
uma função e sair estimando cotas superiores para a derivada.
Antes de fazermos isso,
vamos dar uma olhada dentro do chapéu mágico! :-)
-
Demonstração do teorema de schwarz:
Ufa!
Se segure... é só uma contaiada enorme...
não vejo muita vantagem em assistir esse vídeo, não. :-(
Semana 08 - prova 1
P1.
Semana 09 - fórmula de Taylor
A derivada de $f$ no ponto $a$ é a aproximação linear
do comportamento de $f$ no ponto $a$.
Se usarmos mais derivadas...
$D^2f(a)$, $D^3f(a)$, $D^4f(a)$, etc.,
será que não podemos melhorar
essa aproximação?
Semana 10 - integração
Aula presencial.
Capítulo 6 de Análise no Espaço $\mathbb{R}^n$.
Semana 11 - integração
Aula presencial.
Capítulos 6 e 11 de Análise no Espaço $\mathbb{R}^n$.