A distribuição do conteúdo deste livro está confusa ou pouco didática (discuta ). Pede-se aos editores que reavaliem a distribuição do mesmo.
Esta página é um esboço de matemática. Ampliando-a você ajudará a melhorar o Wikilivros.
Definição
Uma função
T
:
V
→
W
,
{\displaystyle T:V\to W,}
onde
V
{\displaystyle V}
e
W
{\displaystyle W}
são espaços vetoriais sobre um corpo
K
,
{\displaystyle K,}
é dita uma transformação linear se, para todos
u
,
v
∈
V
{\displaystyle u,v\in V}
e para todo
λ
∈
K
,
{\displaystyle \lambda \in K,}
tem-se
T
(
u
+
v
)
=
T
(
u
)
+
T
(
v
)
{\displaystyle \;T(u+v)=T(u)+T(v)}
T
(
λ
u
)
=
λ
T
(
u
)
{\displaystyle T(\lambda u)=\lambda \,T(u)}
Sejam V e W espaços vetoriais sobre um corpo K, onde a
d
i
m
V
<
∞
{\displaystyle dim\;V<\infty }
. Seja
{
v
1
,
v
2
,
.
.
.
,
v
n
}
{\displaystyle \{v_{1},v_{2},...,v_{n}\}\;}
uma base de V e
w
1
,
w
2
,
.
.
.
,
w
n
{\displaystyle w_{1},w_{2},...,w_{n}\;}
vetores quaisquer de W. Então existe uma transformação linear
T
:
V
↦
W
,
T
v
i
=
w
i
,
i
=
1
,
.
.
.
,
n
{\displaystyle T:V\mapsto W,Tv_{i}=w_{i},i=1,...,n}
.
Prova
T existe e está bem definida
Dado
v
∈
V
,
∃
x
=
(
x
1
,
.
.
.
,
x
n
)
,
x
i
∈
K
,
i
=
1
,
.
.
.
,
n
{\displaystyle v\in V,\exists x=(x_{1},...,x_{n}),x_{i}\in K,i=1,...,n}
tal que
v
=
∑
i
=
1
n
x
i
v
i
{\displaystyle v=\sum _{i=1}^{n}x_{i}v_{i}}
. Podemos definir T em v como
T
v
=
∑
i
=
1
n
x
i
w
i
{\displaystyle Tv=\sum _{i=1}^{n}x_{i}w_{i}}
. Sendo
{
v
1
,
v
2
,
.
.
.
,
v
n
}
{\displaystyle \{v_{1},v_{2},...,v_{n}\}\;}
uma base, tem-se a unicidade de
(
x
1
,
.
.
.
,
x
n
)
{\displaystyle (x_{1},...,x_{n})}
e, consequentemente, T está bem definida por meio da regra que associa o vetor
v
∈
V
{\displaystyle v\in V}
ao vetor
T
v
∈
W
{\displaystyle Tv\in W}
. Vemos através da definição que
T
v
=
∑
i
=
1
n
x
i
T
v
i
=
∑
i
=
1
n
x
i
w
i
⇒
T
v
i
=
w
i
,
i
=
1
,
.
.
.
,
n
{\displaystyle Tv=\sum _{i=1}^{n}x_{i}Tv_{i}=\sum _{i=1}^{n}x_{i}w_{i}\Rightarrow Tv_{i}=w_{i},i=1,...,n}
.
T é linear
Tome
w
∈
V
,
w
=
∑
i
=
1
n
y
i
v
i
,
c
∈
K
{\displaystyle w\in V,w=\sum _{i=1}^{n}y_{i}v_{i},c\in K}
. Assim
c
v
+
w
=
c
∑
i
=
1
n
x
i
v
i
+
∑
i
=
1
n
y
i
v
i
=
∑
i
=
1
n
(
c
x
i
+
y
i
)
v
i
{\displaystyle cv+w=c\sum _{i=1}^{n}x_{i}v_{i}+\sum _{i=1}^{n}y_{i}v_{i}=\sum _{i=1}^{n}(cx_{i}+y_{i})v_{i}}
. Pela definição
T
(
c
v
+
w
)
=
∑
i
=
1
n
(
c
x
i
+
y
i
)
w
i
{\displaystyle T(cv+w)=\sum _{i=1}^{n}(cx_{i}+y_{i})w_{i}}
. De outro modo
c
T
v
+
T
w
=
c
∑
i
=
1
n
x
i
w
i
+
∑
i
=
1
n
y
i
w
i
=
∑
i
=
1
n
(
c
x
i
+
y
i
)
w
i
{\displaystyle cTv+Tw=c\sum _{i=1}^{n}x_{i}w_{i}+\sum _{i=1}^{n}y_{i}w_{i}=\sum _{i=1}^{n}(cx_{i}+y_{i})w_{i}}
. Portanto
T
(
c
v
+
w
)
=
c
T
v
+
T
w
{\displaystyle T(cv+w)=cTv+Tw\;}
.
T é única
Suponha que exista
U
:
V
↦
W
,
U
v
i
=
w
i
,
i
=
1
,
.
.
.
,
n
{\displaystyle U:V\mapsto W,Uv_{i}=w_{i},i=1,...,n\;}
, então se
v
=
∑
i
=
1
n
x
i
v
i
{\displaystyle v=\sum _{i=1}^{n}x_{i}v_{i}}
, então
U
v
=
∑
i
=
1
n
x
i
U
v
i
=
∑
i
=
1
n
x
i
w
i
=
T
v
,
∀
v
∈
V
{\displaystyle Uv=\sum _{i=1}^{n}x_{i}Uv_{i}=\sum _{i=1}^{n}x_{i}w_{i}=Tv,\forall v\in V}
.
A seguir será discutido um exemplo de como achar a imagem de uma transformação linear. Considere
T
:
R
2
→
R
2
{\displaystyle T:\mathbb {R} ^{2}\rightarrow \mathbb {R} ^{2}}
, definida por
T
(
x
,
y
)
=
(
2
x
+
3
y
,
4
x
−
3
y
)
{\displaystyle T(x,y)=(2x+3y,4x-3y)}
.
O valor de
T
{\displaystyle T}
em um ponto
(
x
,
y
)
{\displaystyle (x,y)}
pode ser reescrito da seguinte forma:
T
(
x
,
y
)
=
(
2
x
+
3
y
,
4
x
−
3
y
)
=
x
(
2
,
4
)
+
y
(
3
,
−
3
)
{\displaystyle T(x,y)=(2x+3y,4x-3y)=x(2,4)+y(3,-3)}
.
Consequentemente, todo ponto da imagem é uma combinação linear dos vetores
(
2
,
4
)
{\displaystyle (2,4)}
e
(
3
,
−
3
)
{\displaystyle (3,-3)}
, isto é, tais vetores formam um conjunto de geradores para a imagem de
T
{\displaystyle T}
. Como poderá ser verificado pelo leitor[ 1] , estes vetores também são linearmente independentes, constituindo portanto uma base para a imagem de
T
{\displaystyle T}
.
Definição
Seja
T
:
V
→
W
{\displaystyle T:V\to W\,}
uma transformação linear entre os espaços vetoriais V e W . O núcleo da transformação linear, Ker(T) , é a imagem inversa do vetor nulo em W:
K
e
r
(
T
)
=
{
v
∈
V
|
T
(
v
)
=
0
}
{\displaystyle Ker(T)=\{v\in V|T(v)=0\}\,}
O núcleo de uma transformação linear é um subespaço vetorial do seu domínio
A demonstração é simples:
Ker(T) não é vazio, pois 0V é um elemento de Ker(T) , já que T(0V ) = 0W
Se
v
,
w
∈
K
e
r
(
T
)
,
{\displaystyle v,w\in Ker(T)\,,}
então T(v) = T(w) = 0 , logo, pela linearidade de T , T(v + w) = 0 e
v
+
w
∈
K
e
r
(
T
)
{\displaystyle v+w\in Ker(T)\,}
Se
λ
∈
K
{\displaystyle \lambda \in K\,}
e
v
∈
K
e
r
(
T
)
,
{\displaystyle v\in Ker(T)\,,}
temos
T
(
v
)
=
0
{\displaystyle T(v)=0\,}
logo
T
(
λ
v
)
=
λ
T
(
v
)
=
λ
0
=
0
,
{\displaystyle T(\lambda v)=\lambda T(v)=\lambda 0=0\,,}
ou seja,
λ
v
∈
K
e
r
(
T
)
{\displaystyle \lambda v\in Ker(T)\,}
Se
d
i
m
V
<
∞
{\displaystyle dimV<\infty }
, e
T
:
V
↦
W
{\displaystyle T:V\mapsto W}
O posto(T) = dim Im(T),isto é, a dimensão da imagem de T(V), isto é, a quantidade de vetores L.I. que geram toda a imagem de T(V).
e
A Nulidade(T) = dim Ker(T), isto é, é a dimensão do núcleo de T(V), isto é, a quantidade de vetores L.I. que geram todo o núcleo de T(V).
Teorema do posto e da nulidade
editar
Sejam V e W espaço vetoriais sobre o corpo K e
T
:
V
↦
W
{\displaystyle T:V\mapsto W}
. Se
d
i
m
V
<
∞
{\displaystyle dimV<\infty }
, então posto(T) + Nulidade(T) = dim V
Prova
Definindo a base do núcleo e a base do espaço:
Seja
{
v
1
,
v
2
,
.
.
.
,
v
k
}
{\displaystyle \{v_{1},v_{2},...,v_{k}\}\;}
uma base do Ker(T). Existem vetores
v
j
,
{\displaystyle v_{j},\;}
com j=k+1,...,n onde
{
v
1
,
v
2
,
.
.
.
,
v
k
,
v
k
+
1
,
.
.
.
v
n
}
{\displaystyle \{v_{1},v_{2},...,v_{k},v_{k+1},...v_{n}\}\;}
é uma base de V.
Definindo a base da imagem:
Como
{
v
1
,
v
2
,
.
.
.
,
v
n
}
{\displaystyle \{v_{1},v_{2},...,v_{n}\}\;}
é a base de V, T aplicada nessa base gera um conjunto que gera a imagem de T por V. Aplicando T sobre os vetores da base de V, temos
T
v
1
,
T
v
2
,
.
.
.
,
T
v
n
{\displaystyle Tv_{1},Tv_{2},...,Tv_{n}\;}
, mas
T
v
1
=
T
v
2
=
.
.
.
=
T
v
k
=
0
{\displaystyle Tv_{1}=Tv_{2}=...=Tv_{k}=0\;}
, pela definição de núcleo. Assim os vetores
T
v
k
+
1
,
.
.
.
,
T
v
n
{\displaystyle Tv_{k+1},...,Tv_{n}\;}
geram a imagem de T(V).
Provando que os vetores são independentes:
Como queremos uma base, eles devem ser independentes, isto é, devem
∃
c
i
∈
K
,
{\displaystyle \exists c_{i}\in K,}
tal que
∑
i
=
1
n
c
i
v
i
=
0
⇔
c
i
=
0
,
i
=
1
,
.
.
.
,
n
{\displaystyle \sum _{i=1}^{n}c_{i}v_{i}=0\Leftrightarrow c_{i}=0,i=1,...,n}
.
Tomemos
∑
i
=
k
+
1
n
c
i
(
T
v
i
)
=
0
⇔
T
(
∑
i
=
k
+
1
n
c
i
v
i
)
=
0
{\displaystyle \sum _{i=k+1}^{n}c_{i}(Tv_{i})=0\Leftrightarrow T(\sum _{i=k+1}^{n}c_{i}v_{i})=0}
. Logo
w
=
∑
i
=
k
+
1
n
c
i
v
i
∈
K
e
r
(
T
)
{\displaystyle w=\sum _{i=k+1}^{n}c_{i}v_{i}\in Ker(T)}
. Como
w
∈
K
e
r
(
T
)
,
w
=
∑
i
=
1
k
b
i
v
i
,
b
i
∈
K
{\displaystyle w\in Ker(T),w=\sum _{i=1}^{k}b_{i}v_{i},b_{i}\in K}
.
Portanto
w
=
∑
i
=
k
+
1
n
c
i
v
i
=
∑
i
=
1
k
b
i
v
i
⇔
∑
i
=
k
+
1
n
c
i
v
i
−
∑
i
=
1
k
b
i
v
i
=
0
{\displaystyle w=\sum _{i=k+1}^{n}c_{i}v_{i}=\sum _{i=1}^{k}b_{i}v_{i}\Leftrightarrow \sum _{i=k+1}^{n}c_{i}v_{i}-\sum _{i=1}^{k}b_{i}v_{i}=0}
. Como
v
1
,
v
2
,
.
.
.
,
v
k
{\displaystyle v_{1},v_{2},...,v_{k}\;}
são L.I., então
b
i
=
c
i
=
0
,
∀
i
=
1
,
.
.
.
,
n
{\displaystyle b_{i}=c_{i}=0,\forall i=1,...,n}
.
Definindo posto e nulidade:
O Posto(T) = dim Im(T). Como
T
v
k
+
1
,
.
.
.
,
T
v
n
{\displaystyle Tv_{k+1},...,Tv_{n}\;}
geram a imagem de T(V), logo o posto(T)= n - (k+1) +1 = n-k.
A nulidade (T) = dim Ker(T). Como
{
v
1
,
v
2
,
.
.
.
,
v
k
}
{\displaystyle \{v_{1},v_{2},...,v_{k}\}\;}
é uma base do Ker(T), logo a Nulidade (T)= k - 1 + 1 = k
Como n = dim V, Nulidade(T)=k e Posto(T)=n-k, portanto Posto(T) + Nulidade(T) = dim(V).
Teorema (existência e unicidade)
Se V é um espaço vetorial de dimensão n e
α
=
{
v
1
,
v
2
,
…
,
v
n
}
{\displaystyle \alpha =\{v_{1},v_{2},\ldots ,v_{n}\}}
é
uma base de V , então existe um único funcional f , tal que
f
(
v
i
)
=
λ
i
,
i
=
1
,
2
,
…
,
n
{\displaystyle f(v_{i})=\lambda _{i},i=1,2,\ldots ,n}
e
λ
i
∈
K
{\displaystyle \lambda _{i}\in K}
Teorema (base dual)
Se V é um espaço vetorial,
d
i
m
V
=
n
{\displaystyle \mathrm {dim} V=n}
e
β
=
{
v
1
,
v
2
,
…
,
v
n
}
{\displaystyle \beta =\{v_{1},v_{2},\ldots ,v_{n}\}}
é uma base de V, então existe uma única base
β
∗
=
{
f
1
,
f
2
,
…
,
f
n
}
{\displaystyle \beta ^{*}=\{f_{1},f_{2},\ldots ,f_{n}\}}
de
V
∗
{\displaystyle V^{*}}
tal que
f
i
(
v
j
)
=
δ
i
j
{\displaystyle f_{i}(v_{j})=\delta _{ij}}
Definição
β
∗
{\displaystyle \beta ^{*}}
é chamada de base dual de
β
{\displaystyle \beta }
V
∗
{\displaystyle V^{*}}
é chamado de espaço dual de V
Corolários :
f
=
∑
f
(
v
i
)
f
i
{\displaystyle f=\sum f(v_{i})f_{i}}
v
=
∑
f
i
(
v
)
v
i
{\displaystyle v=\sum f_{i}(v)v_{i}}
Teorema (representação dos funcionais lineares)
Sejam V um espaço vetorial sobre K ,
d
i
m
V
=
n
,
{\displaystyle \mathrm {dim} V=n,}
com produto interno, e
f
:
V
→
K
{\displaystyle f:V\rightarrow K}
um funcional linear. Então existe um único vetor
v
o
∈
V
,
{\displaystyle v_{o}\in V,}
tal
que
f
(
v
)
=
⟨
v
,
v
o
⟩
,
{\displaystyle f(v)=\langle v,v_{o}\rangle ,}
∀
v
∈
V
.
{\displaystyle \forall v\in V.}
Demonstra-se ainda que
v
o
=
∑
f
(
e
i
)
¯
e
i
{\displaystyle v_{o}=\sum {\overline {f(e_{i})}}e_{i}}
Dizemos que T uma transformação linear,
T
:
V
↦
V
{\displaystyle T:V\mapsto V}
é chamada operador linear de T sobre V.
Adjunto de um operador linear
editar
Definição
Seja V um espaço vetorial.
O operador adjunto,
T
∗
:
V
→
V
,
{\displaystyle T^{*}:V\rightarrow V,}
de um determinado operador linear
T
:
V
→
V
{\displaystyle T:V\rightarrow V}
é definido pela igualdade:
⟨
T
(
u
)
,
v
⟩
=
⟨
u
,
T
∗
(
v
)
⟩
,
∀
u
,
v
∈
V
{\displaystyle \langle T(u),v\rangle =\langle u,T^{*}(v)\rangle ,\quad \forall u,v\in V}
Demonstra-se que todo operador linear possui um e apenas um operador adjunto correspondente.
A partir da definição, podemos obter as seguintes conseqüências (prove!):
(
S
+
T
)
∗
=
S
∗
+
T
∗
{\displaystyle (S+T)^{*}=S^{*}+T^{*}}
(
λ
T
)
∗
=
λ
¯
T
∗
{\displaystyle (\lambda T)^{*}={\bar {\lambda }}T^{*}}
(
S
∘
T
)
∗
=
T
∗
∘
S
∗
{\displaystyle (S\circ T)^{*}=T^{*}\circ S^{*}}
Proposição
Seja V um espaço vetorial sobre K ,
d
i
m
V
=
n
,
{\displaystyle \mathrm {dim} V=n,}
com produto interno.
Seja
α
=
{
e
1
,
e
2
,
…
,
e
n
}
{\displaystyle \alpha =\{e_{1},e_{2},\ldots ,e_{n}\}}
uma base ortonormal de V . Então
[
T
]
α
=
(
a
i
j
)
,
{\displaystyle [T]_{\alpha }=(a_{ij}),}
onde
a
i
j
=
⟨
T
(
e
j
)
,
e
i
⟩
{\displaystyle a_{ij}=\langle T(e_{j}),e_{i}\rangle }
Corolário
Seja V um espaço vetorial sobre K ,
d
i
m
V
=
n
,
{\displaystyle \mathrm {dim} V=n,}
com produto interno.
Então, para qualquer base
α
=
{
e
1
,
e
2
,
…
,
e
n
}
{\displaystyle \alpha =\{e_{1},e_{2},\ldots ,e_{n}\}}
ortonormal de V , temos que
a matriz
[
T
∗
]
α
=
(
[
T
]
α
¯
)
t
.
{\displaystyle [T^{*}]_{\alpha }=({\overline {[T]_{\alpha }}})^{t}.}
Auto-adjunto (
T
∗
=
T
{\displaystyle T^{*}=T}
)
Unitário (
T
∗
=
T
−
1
{\displaystyle T^{*}=T^{-1}}
)
Normal (
T
∗
T
=
T
T
∗
{\displaystyle T^{*}T=TT^{*}}
)
Definição
T
:
V
→
V
{\displaystyle T:V\rightarrow V}
é chamado de auto-adjunto se
T
∗
=
T
.
{\displaystyle T^{*}=T.}
Uma matriz A é auto-adjunta se
A
¯
t
=
A
.
{\displaystyle {\overline {A}}^{t}=A.}
Se
K
=
R
,
{\displaystyle K=R,}
[
T
]
α
{\displaystyle [T]_{\alpha }}
é chamada simétrica.
Se
K
=
C
,
{\displaystyle K=C,}
[
T
]
α
{\displaystyle [T]_{\alpha }}
é chamada hermitiana.
Os seguintes enunciados são úteis na prova de teoremas do operador auto-adjunto:
Se
⟨
T
(
u
)
,
v
⟩
=
0
,
∀
u
,
v
∈
V
,
{\displaystyle \langle T(u),v\rangle =0,\forall u,v\in V,}
então
T
=
0.
{\displaystyle T=0.}
Se V é complexo e
⟨
T
(
u
)
,
u
⟩
=
0
,
∀
u
∈
V
,
{\displaystyle \langle T(u),u\rangle =0,\forall u\in V,}
então
T
=
0.
{\displaystyle T=0.}
Prove :
Se
T
∗
=
T
{\displaystyle T^{*}=T}
e
⟨
T
(
u
)
,
u
⟩
=
0
,
∀
u
∈
V
,
{\displaystyle \langle T(u),u\rangle =0,\forall u\in V,}
então
T
=
0.
{\displaystyle T=0.}
Seja
T
:
V
→
V
,
{\displaystyle T:V\rightarrow V,}
com V complexo. Então
T
∗
=
T
⟺
⟨
T
(
v
)
,
v
⟩
∈
R
.
{\displaystyle T^{*}=T\iff \langle T(v),v\rangle \in R.}
Definição
T
:
V
→
V
{\displaystyle T:V\rightarrow V}
é chamado de unitário se
T
∗
=
T
−
1
.
{\displaystyle T^{*}=T^{-1}.}
Uma matriz A é unitária se
A
¯
t
=
A
−
1
{\displaystyle {\overline {A}}^{t}=A^{-1}}
Prove :
T é unitário
⟺
⟨
T
(
u
)
,
T
(
v
)
⟩
=
⟨
u
,
v
⟩
{\displaystyle \iff \langle T(u),T(v)\rangle =\langle u,v\rangle }
(T preserva o produto interno)
T é unitário
⟺
|
T
(
u
)
|
=
|
u
|
{\displaystyle \iff |T(u)|=|u|}
(T preserva a norma)
T é unitário
⟺
T
−
1
{\displaystyle \iff T^{-1}}
é unitário
Definição
T
:
V
→
V
{\displaystyle T:V\rightarrow V}
é chamado de normal se
T
T
∗
=
T
∗
T
.
{\displaystyle TT^{*}=T^{*}T.}
Uma matriz A é normal se
A
A
∗
=
A
∗
A
{\displaystyle AA^{*}=A^{*}A}
Prove :
Todo operador auto-adjunto é normal
Todo operador unitário é normal
É importante ressaltar, ainda, que existem operadores normais que não são unitários nem auto-adjuntos.
Definição
W , subespaço vetorial de V , é dito invariante sob o operador
T
:
V
→
V
,
{\displaystyle T:V\rightarrow V,}
se
T
(
W
)
⊂
W
.
{\displaystyle T(W)\subset W.}
Dizemos também que W é T -invariante.
Prove :
Se W é T -invariante, então
W
⊥
{\displaystyle W^{\perp }}
é
T
∗
{\displaystyle T^{*}}
-invariante.
Se W é T -invariante e T é auto-adjunto, então W é
T
∗
{\displaystyle T^{*}}
-invariante.
Se W é T -invariante e T é inversível, então
T
(
W
)
=
W
.
{\displaystyle T(W)=W.}
Se W é T -invariante e T é inversível, então W é
T
−
1
{\displaystyle T^{-1}}
-invariante e
T
−
1
(
W
)
=
W
.
{\displaystyle T^{-1}(W)=W.}
Se W é T -invariante e T é unitário, então W é
T
−
1
{\displaystyle T^{-1}}
-invariante (ou
T
∗
{\displaystyle T^{*}}
-invariante).
Se W é T -invariante e T é unitário, então
W
⊥
{\displaystyle W^{\perp }}
é T -invariante.