Utilizador:Thiago Marcel/Mestrado/Análise/Cap2: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Limpou toda a página
Linha 1:
== 2.1 ==
<math> \forall \; f \in L(\mathbb{R}^n; \mathbb{R})=(\mathbb{R}^n)^*, \exists ! \; y \in \mathbb{R}^n</math> tal que <math> f(x)= \langle y,x \rangle, \forall x \in \mathbb{R}^n</math>.
* Tome <math> f \in (\mathbb{R}^n)^* </math> um funcional linear arbitrário. Sabemos que de <math> f:\mathbb{R}^n \to \mathbb{R} </math> têm-se que <math> \exists A_{n \times 1} \in M(n \times 1)</math> tal que <math> f(x)=Ax=(A_{11} A_{12} ... A_{1n}) \cdot (x_1 x_2 ... x_n)^t = A_{11}x_1 + A_{12}x_2 + ... + A_{1n}x_n = \langle A, x \rangle </math>; Definimos <math> A_{1i} = y_i</math>, assim A=y e portanto <math> \forall f \in (\mathbb{R}^n)^*, f(x)= \langle A,x \rangle = \langle y,x \rangle, \forall x \in \mathbb{R}^n </math>.
 
== 2.2==
Um conjunto <math>\{u_1, u_2, ..., u_r\} \subset \mathbb{R}^n </math> diz-se ortonormal quando <math>\langle u_j, u_j \rangle = 1 \; e \; \langle u_i, u_j \rangle = 0, \; para \; i \not = j</math> quaisquer. Todo conjunto ortonormal é parte de um base ortonormal. Se <math>\{u_1, ..., u_n\} \;</math> é uma base ortonormal então <math> x = \sum_{i=1}^{n} \langle x,u_i \rangle u_i, \forall x \in \mathbb{R}^n</math>.
* Seja <math> S_k \subset W </math>, um conjunto ortonormal contido num espaço vetorial. Devemos mostrar que <math>S_k \subset \beta_W</math>, onde <math>\beta_W \;</math> é uma base de W.
* Seja <math> S_k = \{ u_1, u_2, ..., u_k \}, \beta_W = \{ u_1, u_2, ..., u_{k-1}, u_k, u_{k+1}, ..., u_n \} \;</math>, onde n = dim W. Desses dois conjuntos vemos claramente o que queremos, onde os vetores que faltam a <math> S_k \;</math>, podem ser determinados pelo processo de Gram-Schimidt.
* Tomando K = {o conjunto das combinações lineares dos elementos de <math> S_k \;</math> } = <math> \{ u/ u= \langle S_k, x \rangle, \forall x \in \mathbb{R}^k \} </math>. Como <math> S_k \subset W </math>. Logo K é subespaço de W.
* Seja <math> v \in K \Rightarrow v= \langle S_k, y \rangle \Rightarrow \langle v,u_l \rangle, onde \; 1 \le l \le k \Rightarrow \sum_{i=1}^k \langle y_i u_i,u_l \rangle \Rightarrow \sum_{i=1}^k y_i \langle u_i,u_l \rangle = c_j </math>.
* Quando v = 0, <math> c_j=0 \;</math>, isso implica que <math> S_k \;</math> é linearmente independente.
* Tome <math> w \in W \Rightarrow w = w_1 u_1 + ... + w_n u_n,</math> onde <math> w_1, ..., w_n \;</math> são as coordenadas de w em relação à base <math> \beta_W \;</math>.
* <math> \langle w, u_i \rangle = \langle w_1 u_1 + ... + w_n u_n, u_i \rangle = \langle w_1 u_1,u_i \rangle + ... + \langle w_n u_n, u_i \rangle = w_1\langle u_1,u_i \rangle + ... + w_n\langle u_n, u_i \rangle = w_i </math>. Logo <math> w=w_1 u_1 + ... + w_n u_n= \langle w, u_1 \rangle u_1 + ... + \langle w, u_n \rangle u_n, \forall w \in \mathbb{R}^n </math>
 
== 2.3 ==
Considere em <math> \mathbb{R}^m, \mathbb{R}^n </math> a norma euclidiana. Dada uma aplicação linear <math> A:\mathbb{R}^m \to \mathbb{R}^n </math>, existe uma única aplicação linear <math> A*:\mathbb{R}^n \to \mathbb{R}^m </math>, chamada a adjunta de A, tal que <math> \langle Ax, y \rangle = \langle x, A*y\rangle, \forall x \in \mathbb{R}^m, y \in \mathbb{R}^n </math>. Dado <math> b \in \mathbb{R}^n </math>, a equação Ax=b, possui solução <math> x \in \mathbb{R}^m </math> se, e somente se, b é ortogonal a todo elemento do núcleo de A*. Conclua que a imagem de A* e a imagem de A têm a mesma dimensão.
* Dada <math> A:</math>