Otimização/Método da lagrangiana aumentada: diferenças entre revisões

[edição não verificada][edição não verificada]
Conteúdo apagado Conteúdo adicionado
m ops... faltou uma |
m atualizando
Linha 114:
\end{matrix}\right.</math>
}}
{{Demonstração
| Basta notar que dentro do conjunto viável as funções objetivos são iguais.
 
 
 
}}
 
Linha 129 ⟶ 127:
}}
{{Demonstração
|<math>\begin{align}
|
<math>\begin{align}
\beta_\rho(v) & = \inf_{x \in \mathbb{R}^n} l_\rho(x,v)\\
 
Linha 152 ⟶ 149:
|Verifique que <math>\{x \in \mathbb{R}^n; l_\rho(x,v) \le \lambda \}</math> é compacto, qualquer que seja <math>\lambda \in \mathbb{R}</math> e <math>v \in \mathbb{R}^q</math>.
}}
{{Demonstração|Resolução}}
 
{{Proposição
Linha 226 ⟶ 223:
* Já foi mostrado que a função é fortemente convexa em uma vizinhança. Logo, os minimizadores devem estar em tal vizinhança.
* A prova é um pouco técnica, e usa as condições de KKT, mostrando que o cone linearizado é igual ao cone tangente.
{{DemonstraçãoProva}}
 
O segundo teorema é:
Linha 237 ⟶ 234:
Observações:
* A propriedade 2 praticamente segue do fato de não haver salto de dualidade.
{{DemonstraçãoJustificativa}}
 
Com esses resultados, tem-se a garantia de que o algoritmo realmente converge para uma solução, desde que os parâmetros sejam tomados adequadamente. A questão que ainda permanece é como identificar os valores adequados de <math>\rho</math> e de <math>\delta</math> para que tal convergência ocorra.