∀ f ∈ L ( R n ; R ) = ( R n ) ∗ , ∃ ! y ∈ R n {\displaystyle \forall \;f\in L(\mathbb {R} ^{n};\mathbb {R} )=(\mathbb {R} ^{n})^{*},\exists !\;y\in \mathbb {R} ^{n}} tal que f ( x ) = ⟨ y , x ⟩ , ∀ x ∈ R n {\displaystyle f(x)=\langle y,x\rangle ,\forall x\in \mathbb {R} ^{n}} .
Tome f ∈ ( R n ) ∗ {\displaystyle f\in (\mathbb {R} ^{n})^{*}} um funcional linear arbitrário. Sabemos que de f : R n → R {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} } têm-se que ∃ A n × 1 ∈ M ( n × 1 ) {\displaystyle \exists A_{n\times 1}\in M(n\times 1)} tal que f ( x ) = A x = ( A 11 A 12 . . . A 1 n ) ⋅ ( x 1 x 2 . . . x n ) t = A 11 x 1 + A 12 x 2 + . . . + A 1 n x n = ⟨ A , x ⟩ {\displaystyle f(x)=Ax=(A_{11}A_{12}...A_{1n})\cdot (x_{1}x_{2}...x_{n})^{t}=A_{11}x_{1}+A_{12}x_{2}+...+A_{1n}x_{n}=\langle A,x\rangle } ; Definimos A 1 i = y i {\displaystyle A_{1i}=y_{i}} , assim A=y e portanto ∀ f ∈ ( R n ) ∗ , f ( x ) = ⟨ A , x ⟩ = ⟨ y , x ⟩ , ∀ x ∈ R n {\displaystyle \forall f\in (\mathbb {R} ^{n})^{*},f(x)=\langle A,x\rangle =\langle y,x\rangle ,\forall x\in \mathbb {R} ^{n}} .
Um conjunto { u 1 , u 2 , . . . , u r } ⊂ R n {\displaystyle \{u_{1},u_{2},...,u_{r}\}\subset \mathbb {R} ^{n}} diz-se ortonormal quando ⟨ u j , u j ⟩ = 1 e ⟨ u i , u j ⟩ = 0 , p a r a i ≠ j {\displaystyle \langle u_{j},u_{j}\rangle =1\;e\;\langle u_{i},u_{j}\rangle =0,\;para\;i\not =j} quaisquer. Todo conjunto ortonormal é parte de um base ortonormal. Se { u 1 , . . . , u n } {\displaystyle \{u_{1},...,u_{n}\}\;} é uma base ortonormal então x = ∑ i = 1 n ⟨ x , u i ⟩ u i , ∀ x ∈ R n {\displaystyle x=\sum _{i=1}^{n}\langle x,u_{i}\rangle u_{i},\forall x\in \mathbb {R} ^{n}} .
Seja S k ⊂ W {\displaystyle S_{k}\subset W} , um conjunto ortonormal contido num espaço vetorial. Devemos mostrar que S k ⊂ β W {\displaystyle S_{k}\subset \beta _{W}} , onde β W {\displaystyle \beta _{W}\;} é uma base de W.
Seja S k = { u 1 , u 2 , . . . , u k } , β W = { u 1 , u 2 , . . . , u k − 1 , u k , u k + 1 , . . . , u n } {\displaystyle S_{k}=\{u_{1},u_{2},...,u_{k}\},\beta _{W}=\{u_{1},u_{2},...,u_{k-1},u_{k},u_{k+1},...,u_{n}\}\;} , onde n = dim W. Desses dois conjuntos vemos claramente o que queremos, onde os vetores que faltam a S k {\displaystyle S_{k}\;} , podem ser determinados pelo processo de Gram-Schimidt.
Tomando K = {o conjunto das combinações lineares dos elementos de S k {\displaystyle S_{k}\;} } = { u / u = ⟨ S k , x ⟩ , ∀ x ∈ R k } {\displaystyle \{u/u=\langle S_{k},x\rangle ,\forall x\in \mathbb {R} ^{k}\}} . Como S k ⊂ W {\displaystyle S_{k}\subset W} . Logo K é subespaço de W.
Seja v ∈ K ⇒ v = ⟨ S k , y ⟩ ⇒ ⟨ v , u l ⟩ , o n d e 1 ≤ l ≤ k ⇒ ∑ i = 1 k ⟨ y i u i , u l ⟩ ⇒ ∑ i = 1 k y i ⟨ u i , u l ⟩ = c j {\displaystyle v\in K\Rightarrow v=\langle S_{k},y\rangle \Rightarrow \langle v,u_{l}\rangle ,onde\;1\leq l\leq k\Rightarrow \sum _{i=1}^{k}\langle y_{i}u_{i},u_{l}\rangle \Rightarrow \sum _{i=1}^{k}y_{i}\langle u_{i},u_{l}\rangle =c_{j}} .
Quando v = 0, c j = 0 {\displaystyle c_{j}=0\;} , isso implica que S k {\displaystyle S_{k}\;} é linearmente independente.
Tome w ∈ W ⇒ w = w 1 u 1 + . . . + w n u n , {\displaystyle w\in W\Rightarrow w=w_{1}u_{1}+...+w_{n}u_{n},} onde w 1 , . . . , w n {\displaystyle w_{1},...,w_{n}\;} são as coordenadas de w em relação à base β W {\displaystyle \beta _{W}\;} .
⟨ w , u i ⟩ = ⟨ w 1 u 1 + . . . + w n u n , u i ⟩ = ⟨ w 1 u 1 , u i ⟩ + . . . + ⟨ w n u n , u i ⟩ = w 1 ⟨ u 1 , u i ⟩ + . . . + w n ⟨ u n , u i ⟩ = w i {\displaystyle \langle w,u_{i}\rangle =\langle w_{1}u_{1}+...+w_{n}u_{n},u_{i}\rangle =\langle w_{1}u_{1},u_{i}\rangle +...+\langle w_{n}u_{n},u_{i}\rangle =w_{1}\langle u_{1},u_{i}\rangle +...+w_{n}\langle u_{n},u_{i}\rangle =w_{i}} . Logo w = w 1 u 1 + . . . + w n u n = ⟨ w , u 1 ⟩ u 1 + . . . + ⟨ w , u n ⟩ u n , ∀ w ∈ R n {\displaystyle w=w_{1}u_{1}+...+w_{n}u_{n}=\langle w,u_{1}\rangle u_{1}+...+\langle w,u_{n}\rangle u_{n},\forall w\in \mathbb {R} ^{n}}
Considere em R m , R n {\displaystyle \mathbb {R} ^{m},\mathbb {R} ^{n}} a norma euclidiana. Dada uma aplicação linear A : R m → R n {\displaystyle A:\mathbb {R} ^{m}\to \mathbb {R} ^{n}} , existe uma única aplicação linear A ∗ : R n → R m {\displaystyle A^{*}:\mathbb {R} ^{n}\to \mathbb {R} ^{m}} , chamada a adjunta de A, tal que ⟨ A x , y ⟩ = ⟨ x , A ∗ y ⟩ , ∀ x ∈ R m , y ∈ R n {\displaystyle \langle Ax,y\rangle =\langle x,A^{*}y\rangle ,\forall x\in \mathbb {R} ^{m},y\in \mathbb {R} ^{n}} . Dado b ∈ R n {\displaystyle b\in \mathbb {R} ^{n}} , a equação A x = b {\displaystyle Ax=b\;} , possui solução x ∈ R m {\displaystyle x\in \mathbb {R} ^{m}} se, e somente se, b é ortogonal a todo elemento do núcleo de A ∗ {\displaystyle A^{*}\;} . Conclua que a imagem de A ∗ {\displaystyle A^{*}\;} e a imagem de A têm a mesma dimensão.
Vamos verificar que ⟨ A x , y ⟩ = ⟨ x , A ∗ y ⟩ {\displaystyle \langle Ax,y\rangle =\langle x,A^{*}y\rangle } .
Seja y ∈ R n {\displaystyle y\in \mathbb {R} ^{n}} e f : R m → R {\displaystyle f:\mathbb {R} ^{m}\to \mathbb {R} } . Então f ( x ) = ⟨ A x , y ⟩ , ∀ x ∈ R m , y ∈ R n {\displaystyle f(x)=\langle Ax,y\rangle ,\forall x\in \mathbb {R} ^{m},y\in \mathbb {R} ^{n}} é um funcional linear sobre R m {\displaystyle \mathbb {R} ^{m}} . Pelo exercício 2.1 acima ∃ ! z ∈ R m {\displaystyle \exists !\;z\in \mathbb {R} ^{m}} tal que f ( x ) = ⟨ x , z ⟩ ⇒ ⟨ A x , y ⟩ = ⟨ x , z ⟩ , ∀ x ∈ R m {\displaystyle f(x)=\langle x,z\rangle \Rightarrow \langle Ax,y\rangle =\langle x,z\rangle ,\forall x\in \mathbb {R} ^{m}} . Indiquemos A ∗ ( y ) = z {\displaystyle A^{*}(y)=z\;} , assim temos que ⟨ A x , y ⟩ = ⟨ x , A ∗ y ⟩ {\displaystyle \langle Ax,y\rangle =\langle x,A^{*}y\rangle } .
Vamos verificar que A ∗ {\displaystyle A^{*}\;} é linear:
⟨ x , A ∗ ( c a + b ) ⟩ = ⟨ A x , ( c a + b ) ⟩ = ⟨ A x , c a ⟩ + ⟨ A x , b ⟩ = c ⟨ A x , a ⟩ + ⟨ A x , b ⟩ = c ⟨ x , A ∗ a ⟩ + ⟨ x , A ∗ b ⟩ = ⟨ x , c A ∗ a ⟩ + ⟨ x , A ∗ b ⟩ = {\displaystyle \langle x,A^{*}(ca+b)\rangle =\langle Ax,(ca+b)\rangle =\langle Ax,ca\rangle +\langle Ax,b\rangle =c\langle Ax,a\rangle +\langle Ax,b\rangle =c\langle x,A^{*}a\rangle +\langle x,A^{*}b\rangle =\langle x,cA^{*}a\rangle +\langle x,A^{*}b\rangle =} = ⟨ x , c A ∗ a + A ∗ b ⟩ {\displaystyle =\langle x,cA^{*}a+A^{*}b\rangle }
unicidade de A ∗ {\displaystyle A^{*}\;} .
Para y ∈ R n {\displaystyle y\in \mathbb {R} ^{n}} arbitrário, o vetor z = A ∗ y ∈ R m {\displaystyle z=A^{*}y\in \mathbb {R} ^{m}} é determinado de modo único como sendo o vetor z tal que ⟨ A x , y ⟩ = ⟨ x , A ∗ y ⟩ , ∀ x ∈ R n {\displaystyle \langle Ax,y\rangle =\langle x,A^{*}y\rangle ,\forall x\in \mathbb {R} ^{n}}
Dado b ∈ R n {\displaystyle b\in \mathbb {R} ^{n}} , a equação A x = b {\displaystyle Ax=b\;} , possui solução x ∈ R m ⇒ {\displaystyle x\in \mathbb {R} ^{m}\Rightarrow } b é ortogonal a todo elemento do núcleo de A ∗ {\displaystyle A^{*}\;} .
Tome A x = b ∈ R n {\displaystyle Ax=b\in \mathbb {R} ^{n}} , onde ⟨ b , y ⟩ = ⟨ x , A ∗ y ⟩ {\displaystyle \langle b,y\rangle =\langle x,A^{*}y\rangle } . Tome y ∈ R n {\displaystyle y\in \mathbb {R} ^{n}} tal A ∗ y = 0 ⇒ ⟨ b , y ⟩ = ⟨ x , 0 ⟩ = 0 ⇒ b ⊥ y , y ∈ K e r ( A ∗ ) {\displaystyle A^{*}y=0\Rightarrow \langle b,y\rangle =\langle x,0\rangle =0\Rightarrow b\perp y,y\in Ker(A^{*})}
Dado b é ortogonal a todo elemento do núcleo de A ∗ ⇒ b ∈ R n {\displaystyle A^{*}\Rightarrow b\in \mathbb {R} ^{n}} , a equação A x = b {\displaystyle Ax=b\;} , possui solução x ∈ R m {\displaystyle x\in \mathbb {R} ^{m}} .
Tome b , y ∈ R n ; b ⊥ y , y ∈ K e r ( A ∗ ) ⇒ ⟨ b , y ⟩ = 0 = ⟨ x , 0 ⟩ = ⟨ x , A ∗ y ⟩ = ⟨ A x , y ⟩ ⇒ A x = b {\displaystyle b,y\in \mathbb {R} ^{n};b\perp y,y\in Ker(A^{*})\Rightarrow \langle b,y\rangle =0=\langle x,0\rangle =\langle x,A^{*}y\rangle =\langle Ax,y\rangle \Rightarrow Ax=b}
A imagem de A ∗ {\displaystyle A^{*}\;} e a imagem de A têm a mesma dimensão.
Como b é ortogonal aos vetores y ∈ K e r ( A ∗ ) {\displaystyle y\in Ker(A^{*})} logo b ∈ I m ( A ∗ ) {\displaystyle b\in Im(A^{*})} , mas b = A x , b ∈ I m ( A ) {\displaystyle b=Ax,b\in Im(A)} , portanto d i m ( I m ( A ∗ ) ) = d i m ( I m ( A ) ) {\displaystyle dim(Im(A^{*}))=dim(Im(A))\;}