Seja V um espaço vetorial sobre um corpo K . Em V , pode-se definir a função binária ⟨ ⋅ , ⋅ ⟩ : V × V → K {\displaystyle \langle \cdot ,\cdot \rangle :V\times V\rightarrow K} (denominada produto interno ), que satisfaz os seguintes axiomas:
⟨ u , v ⟩ = ⟨ v , u ⟩ ¯ {\displaystyle \langle u,v\rangle ={\overline {\langle v,u\rangle }}}
⟨ u + v , w ⟩ = ⟨ u , w ⟩ + ⟨ v , w ⟩ {\displaystyle \langle u+v,w\rangle =\langle u,w\rangle +\langle v,w\rangle }
⟨ λ u , v ⟩ = λ ⟨ u , v ⟩ {\displaystyle \langle \lambda u,v\rangle =\lambda \langle u,v\rangle }
Se v ≠ 0 {\displaystyle v\neq 0} , então ⟨ v , v ⟩ {\displaystyle \langle v,v\rangle } > 0 {\displaystyle 0} em que u , v e w são vetores de V , e λ é um elemento de K .
A partir desses axiomas, é possível provar as seguintes consequências:
⟨ u , v + w ⟩ = ⟨ u , v ⟩ + ⟨ u , w ⟩ {\displaystyle \langle u,v+w\rangle =\langle u,v\rangle +\langle u,w\rangle }
⟨ u , λ v ⟩ = λ ¯ ⟨ u , v ⟩ {\displaystyle \langle u,\lambda v\rangle ={\overline {\lambda }}\langle u,v\rangle }
Se v = 0 {\displaystyle v=0} , então ⟨ v , v ⟩ = 0 {\displaystyle \langle v,v\rangle =0}
Se ⟨ v , v ⟩ = 0 {\displaystyle \langle v,v\rangle =0} , então v = 0 {\displaystyle v=0}
O produto escalar sobre o espaço vetorial R 3 {\displaystyle \mathbb {R} ^{3}} satisfaz os axiomas do produto interno e é definido por:
⟨ ( x 1 , y 1 , z 1 ) , ( x 2 , y 2 , z 2 ) ⟩ = x 1 x 2 + y 1 y 2 + z 1 z 2 {\displaystyle \langle (x_{1},y_{1},z_{1}),(x_{2},y_{2},z_{2})\rangle =x_{1}x_{2}+y_{1}y_{2}+z_{1}z_{2}} Se f e g são duas funções contínuas em um intervalo fechado, é possível definir o produto interno:
⟨ f , g ⟩ = ∫ f ( x ) g ( x ) ¯ d x {\displaystyle \langle f,g\rangle =\int f(x){\overline {g(x)}}\,dx} Vetores ortogonais
editar
Diz-se que dois vetores u , v ∈ V {\displaystyle u,v\in V} são ortogonais se ⟨ u , v ⟩ = 0 {\displaystyle \langle u,v\rangle =0} .
Consequências (prove!):
Se ⟨ u , v ⟩ = 0 , ∀ v ∈ V {\displaystyle \langle u,v\rangle =0,\forall v\in V} , então u = 0 {\displaystyle u=0}
Se ⟨ T ( u ) , v ⟩ = 0 , ∀ u , v ∈ V {\displaystyle \langle T(u),v\rangle =0,\forall u,v\in V} , então T = 0 {\displaystyle T=0} Complemento ortogonal
editar
Seja v ∈ V , v ≠ 0 {\displaystyle v\in V,v\neq 0}
Define-se o complemento ortogonal de v , v ⊥ {\displaystyle v^{\perp }} , como:
v ⊥ = { v } ⊥ = { u ∈ V | ⟨ u , v ⟩ = 0 } . {\displaystyle v^{\perp }=\{v\}^{\perp }=\{u\in V|\langle u,v\rangle =0\}.} Consequências (prove!):
v ⊥ {\displaystyle v^{\perp }} é um subespaço vetorial de V
Seja W {\displaystyle W} um subespaço vetorial de V, e α = { v 1 , v 2 , … , v n } {\displaystyle \alpha =\{v_{1},v_{2},\ldots ,v_{n}\}} uma base de W {\displaystyle W} . v ∈ W ⊥ ⟺ v ∈ v i ⊥ , i = 1 , … , n {\displaystyle v\in W^{\perp }\iff v\in v_{i}^{\perp },i=1,\ldots ,n}
( W ⊥ ) ⊥ = W {\displaystyle (W^{\perp })^{\perp }=W} , W é subespaço de V.
Seja V um espaço vetorial sobre o corpo K , com produto interno.
Define-se a norma ou comprimento de um vetor v ∈ V {\displaystyle v\in V} como sendo o número ⟨ v , v ⟩ {\displaystyle {\sqrt {\langle v,v\rangle }}} , que indicamos por | v | {\displaystyle |v|} .
Consequências (prove!):
| v | = 0 ⟺ v = 0 {\displaystyle |v|=0\Longleftrightarrow v=0}
Se v ≠ 0 {\displaystyle v\neq 0} , então | v | > 0 {\displaystyle |v|>0}
| λ v | = | λ | | v | , ∀ λ ∈ K , v ∈ V {\displaystyle |\lambda v|=|\lambda ||v|,\forall \lambda \in K,v\in V}
Se ⟨ u , v ⟩ = 0 {\displaystyle \langle u,v\rangle =0} , então | u + v | 2 = | u | 2 + | v | 2 {\displaystyle |u+v|^{2}=|u|^{2}+|v|^{2}} (Teorema de Pitágoras) Projeção ortogonal
editar
Projeção de um vetor v na direção de um vetor u, em que u ≠ 0
editar
Define-se essa projeção como sendo o vetor
proj u v = ⟨ v , u ⟩ ⟨ u , u ⟩ ⋅ u {\displaystyle {\mbox{proj}}_{u}v={\frac {\langle v,u\rangle }{\langle u,u\rangle }}\cdot u}
Projeção de um vetor v sobre um subespaço vetorial W de V
editar
Seja W = [ u 1 , u 2 ] {\displaystyle W=[u_{1},u_{2}]} , em que { u 1 , u 2 } {\displaystyle \{u_{1},u_{2}\}} é uma base ortogonal de W .
proj W v = proj u 1 v + proj u 2 v {\displaystyle {\mbox{proj}}_{W}v={\mbox{proj}}_{u_{1}}v+{\mbox{proj}}_{u_{2}}v}
Desigualdade de Cauchy-Schwarz
editar
Dados u , v ∈ V {\displaystyle u,v\in V} , então | ⟨ u , v ⟩ | ≤ | u | ⋅ | v | {\displaystyle |\langle u,v\rangle |\leq |u|\cdot |v|}
Desigualdade triangular
editar
| u + v | ≤ | u | + | v | , ∀ u , v ∈ V {\displaystyle |u+v|\leq |u|+|v|,\forall u,v\in V}
Base ortogonal e ortonormal
editar
Uma base { v 1 , v 2 , … , v n } {\displaystyle \{v_{1},v_{2},\ldots ,v_{n}\}} de V é dita ortonormal se ⟨ v i , v j ⟩ = δ i j {\displaystyle \langle v_{i},v_{j}\rangle =\delta ij} , em que
δ i j = 1 {\displaystyle \delta ij=1} , se i = j
δ i j = 0 {\displaystyle \delta ij=0} , se i ≠ jA base é ortogonal se os vetores são ortogonais dois a dois.
v1.v2=0
Propriedade: n vetores não-nulos e ortogonais dois a dois, em um espaço de dimensão n , são linearmente independentes.
Processo de ortogonalização de Gram-Schmidt
editar
Dada uma base { v 1 , v 2 , … , v n } {\displaystyle \{v_{1},v_{2},\ldots ,v_{n}\}} de V, podemos encontrar, a partir desta base,
uma base ortogonal { u 1 , u 2 , … , u n } {\displaystyle \{u_{1},u_{2},\ldots ,u_{n}\}} de V.
u i = v i − ∑ k = 1 i − 1 ⟨ v i , u k ⟩ ⟨ u k , u k ⟩ u k {\displaystyle u_{i}=v_{i}-\sum _{k=1}^{i-1}{\frac {\langle v_{i},u_{k}\rangle }{\langle u_{k},u_{k}\rangle }}u_{k}}
Distância entre dois vetores
editar
Define-se a distância entre dois vetores quaisquer, u e v , como sendo
d ( u , v ) = | u − v | {\displaystyle d(u,v)=|u-v|}
Uma função distância tem as seguintes propriedades:
d ( u , v ) ≥ 0 {\displaystyle d(u,v)\geq 0}
d ( u , v ) = 0 ⇔ u = v {\displaystyle \quad d(u,v)=0\Leftrightarrow u=v}
d ( u , v ) = d ( v , u ) {\displaystyle d(u,v)=d(v,u)}
d ( u , v ) ≤ d ( u , w ) + d ( w , v ) {\displaystyle d(u,v)\leq d(u,w)+d(w,v)} Tais propriedades podem ser facilmente verificadas pela definição de norma.
Melhor aproximação de um vetor v de V por um vetor de W, subespaço vetorial de V
editar
Se d ( v , u ) ≤ d ( v , u ′ ) , ∀ u ′ ∈ W {\displaystyle d(v,u)\leq d(v,u'),\forall u'\in W} , então u é o vetor de W que dá a aproximação mais adequada de v por um vetor de W.
Demonstra-se que u = p r o j W v {\displaystyle u=proj_{W}v}
Wikipedia