Title | Bases ortogonales-Procedimiento de Gram-Schmidt |
---|---|
Author | Jean Pierre Yesquen Vasquez |
Course | algebra matricial |
Institution | Universidad Nacional Agraria La Molina |
Pages | 9 |
File Size | 207 KB |
File Type | |
Total Downloads | 92 |
Total Views | 136 |
TEORIA...
Tema 10 Bases ortogonales En el Tema 9 derivamos conceptos tales como la distancia y el ángulo entre vectores (y con éste el de ortogonalidad) o la longitud de vectores a partir de la noción de producto interno. Si dotamos a un espacio vectorial de tal producto, también podemos aplicar el término “ortogonal” a ciertos subespacios vectoriales. En lo que sigue, vamos a aplicar dicho término a otros conceptos.
10.1. Conjuntos ortogonales y bases ortogonales Un conjunto de vectores {u1 , . . . , up } de V se denomina conjunto ortogonal si cada par de vectores diferentes del conjunto es ortogonal, es decir, si hui , uj i = 0 siempre que i 6= j. Ejemplo Vamos a demostrar que {u1 , u2 , u3 } ⊂ R3 con u1 = (3, 1, 1)t , u2 = (−1, 2, 1)t y 1 u3 = (−1, −4, 7)t es un conjunto ortogonal respecto al producto escalar usual. 2
1
Debemos considerar los tres posibles pares de vectores diferentes: hu1 , u2 i = 3 · (−1) + 1 · 2 + 1 · 1 = 0 ,
7 1 hu1 , u3 i = 3 · (−1) + 1 · (−2) + 1 · = 0 , 2 2 7 1 hu2 , u3 i = −1 · (−1) + 2 · (−2) + 1 · = 0 . 2 2 Por tanto, {u1 , u2 , u3 } es un conjunto ortogonal. Teorema Si S = {u1 , . . . , up } es un conjunto ortogonal de vectores no nulos de V, entonces S es linealmente independiente.
Obsérvese que la implicación inversa no es cierta en general. Ejemplo 1 t es un conjunto ortogonal. Ya sabemos que (3, 1, 1) , (−1, 2, 1) , (−1, −4, 7) 2 Comprobemos que, efectivamente, sus vectores son linealmente independientes; si
t
t
escribimos la combinación lineal: 1 α(3, 1, 1)t + β(−1, 2, 1) + γ (−1, −4, 7)t 2 y la igualamos a cero, es trivial ver que ha de ser α = β = γ = 0. En cambio, el conjunto {(1, 1, 1)t , (1, 0, 1)t } es linealmente independiente y, obviamente, no es ortogonal.
Un conjunto {u1 , . . . , up } es un conjunto ortonormal si es un conjunto ortogonal de vectores unitarios.
2
Ejemplo Podemos obtener un conjunto ortonormal a partir del conjunto ortogonal t t 1 (−1, −4, 7)t simplemente dividiendo cada vector entre su (3, 1, 1) , (−1, 2, 1) , 2 norma. Así, tendremos que
1 1 1 √ (3, 1, 1)t , √ (−1, 2, 1)t , √ (−1, −4, 7)t , 11 6 66
es un conjunto ortonormal, como se comprueba de manera trivial. Obviamente, si S es un conjunto ortogonal de vectores no nulos de V, como es linealmente independiente, será una base del subespacio W generado por S. Puesto que S es tanto un conjunto ortogonal como una base de W la denominaremos base ortogonal de W. Si además los vectores de S son unitarios, diremos que S es una base ortonormal de W . Si hay n = dim(V) vectores en S, entonces W = V y S es una base ortogonal (ortonormal) de V . Veamos una consecuencia importante de esta idea: Proposición Sea (w1 , . . . , wp ) una base ortogonal del subespacio W de V. Entonces, cada w de W tiene una representación única como combinación lineal de w1 , . . . , wp . De hecho, si w = c1 w1 + · · · + cp wp , entonces cj =
hw, wj i , hwj , wj i
para todo j = 1, . . . , p.
3
Ejemplo 1 (−1, −4, 7)t forman un conjunto 2 ortogonal S; así, son linealmente independientes y, en consecuencia, forman una
Los vectores u1 = (3, 1, 1)t , u2 = (−1, 2, 1)t y u3 =
base ortogonal de R3 . Vamos a expresar el vector v = (6, 1, −8)t como combinación lineal de estos vectores. Se tiene que hv, u1 i = 11 , hu1 , u1 i = 11 ,
hv, u2 i = −12 ,
hv, u3 i = −33 ,
hu2 , u2 i =
hu3 , u3 i =
6,
33 . 2
Entonces v=
12 33 11 u1 − u2 − u3 = u1 − 2u2 − 2u3 . 11 6 33/2
En otras palabras, las coordenadas de v con respecto a la base S son: [v]S = (1, −2, −2)t .
El siguiente resultado relaciona el concepto de conjuntos ortonormales con las matrices ortogonales. Teorema Una matriz A (m × n) es ORTOGONAL (es decir, At A = I) si y sólo si tiene columnas ORTONORMALES.
Además, como veremos en el Tema 12, dada una matriz ortogonal cuadrada Q, ésta representa, respecto a alguna base ortogonal, un cierto tipo de transformaciones lineales con la propiedad de transformar bases ortonormales en bases ortonormales. A continuación estudiamos un método que nos permite obtener una base ortogonal para cualquier subespacio W de un espacio vectorial dado V, a partir de cualquier base de W. Obviamente, si queremos obtener una base ortonormal, bastará con normalizar los 4
vectores obtenidos con dicho método.
10.1.1.
Procedimiento de Gram-Schmidt
El procedimiento de Gram-Schmidt es un algoritmo simple para obtener una base ortogonal (u ortonormal, normalizando los nuevos vectores) a partir de otra que no lo es. Para ilustrar cómo funciona, consideremos el siguiente ejemplo: Ejemplo Sea S el subespacio de R2 con el producto escalar usual y definido por S = Gen(v1 , v2 ), con v1 = (3, 6, 0)t y v2 = (1, 2, 2)t , linealmente independientes y no ortogonales (su producto interno no es nulo). Si queremos construir una base ortogonal de S, podemos considerar p = Pv1 (v2 ) =
15 (3, 6, 0)t , 45
de manera que v2 − p sea ortogonal a v1 (ver la figura).
v2 − p
v2
v1 p = Pv1 (v2 )
Obviamente, w2 = v2 − p = (0, 0, 2)t pertenece a S, puesto que es una combinación lineal de v1 (con coeficiente −kPv1 (v2 )k) y de v2 (con coeficiente 1). Además es ortogonal a v1 . De esta manera, el par (v1 , w2 ) constituye una base ortogonal de S.
5
Finalmente obtenemos una base ortonormal BS de S dividiendo cada vector por su norma: BS =
1 √ (1, 2, 0)t , (0, 0, 1)t 5
.
Generalicemos esta idea. Método de Gram-Schmidt. Sea una base (v1 , . . . , vp ) del subespacio S de V. Definimos: w1 = v1 , hv2 , w1 i w1 , hw1 , w1 i hv3 , w1 i hv3 , w2 i = v3 − w2 , w1 − hw2 , w2 i hw1 , w1 i .. .
w2 = v2 − w3
wp = vp −
hvp , w2 i hvp , wp−1 i hvp , w1 i w1 − w2 − · · · − wp−1 . hw1 , w1 i hw2 , w2 i hwp − 1, wp−1 i
Entonces (w1 , . . . , wp ) es una base ortogonal de S. Además Gen(v1 , . . . , vk ) = Gen(w1 , . . . , wk ),
1 6 k 6 p.
Ejemplo Consideremos el espacio vectorial P1 sobre R con el producto interno: ha0 + a1 x, b0 + b1 xi = a0 b0 + 2a1 b1 . Consideremos la base B1 = (p1 , p2 ) = (1 + x, 1 − x). Claramente, los vectores de esta base no son ortogonales, ya que hp1 , p2 i = 1 · 1 + 2 · 1 · (−1) = −1 6= 0. Vamos a utilizar el método de Gram-Schmidt para obtener una base ortogonal de P1 . En
6
primer lugar, consideramos el vector q1 = p1 ; el segundo vector de la base q2 lo calculamos mediante: q2 = p2 −
1 2 hp2 , q1 i q1 = p2 + q1 = (2 − x) . hq1 , q1 i 3 3
Por tanto, la base B2 = (q1 , q2 ) es ortogonal, como se comprueba fácilmente. Si estamos interesados en utilizar una base ortonormal, dividimos cada vector de B2 por su norma: 1 q1′ = √ (1 + x) , 3
10.1.2.
2 q2′ = √ (2 − x) . 3
Factorización QR
Una aplicación adicional del método de Gram-Schmidt es la siguiente. Si {A1 , . . . , An } son las columnas de una matriz A de dimensión m×n con columnas linealmente independientes, podemos aplicar Gram-Schmidt a A1 , . . . , An . Normalizando, es posible obtener una descomposición de A de la forma descrita en el siguiente teorema. Esta factorización es muy útil para simplificar diversos problemas, como la resolución de sistemas de ecuaciones o el cálculo de la inversa de una matriz. Teorema: La factorización QR Si A es una matriz m × n con columnas linealmente independientes, entonces A puede ser factorizada de la forma A = Q R, donde Q es una matriz m × n cuyas columnas forman una base ortonormal de C(A) y R es una matriz n × n triangular superior e invertible con componentes positivas en su diagonal principal.
7
Ejemplo Vamos a encontrar la factorización Q R de
1 0 0
1 1 0 . A= 1 1 1 1 1 1 Las columnas de A son linealmente independientes, por lo que podemos encontrar una base ortonormal para Gen(A1 , A2 , A3 ) = C(A). En primer lugar, hacemos w1 = A1 = (1, 1, 1, 1)t . A continuación hacemos hA2 , w1 i w1 = w 2 = A2 − hw1 , w1 i
1 3 t t (0, 1, 1, 1) − (1, 1, 1, 1) = (−3, 1, 1, 1)t . 4 4
Para simplificar los cálculos, escalamos w2 usando un factor de 4, es decir: w 2′ = (−3, 1, 1, 1)t . Finalmente, obtenemos el tercer vector de la base ortogonal de la forma: hA3 , w2′i ′ hA3 , w1 i w1 − w hw2′, w 2′ i 2 hw1 , w1 i 2 2 = (0, 0, 1, 1)t − (1, 1, 1, 1)t − (−3, 1, 1, 1)t 12 4 1 = (0, −2, 1, 1)t . 3
w 3 = A3 −
Es decir, una base ortogonal sencilla de C(A) sería:
(1, 1, 1, 1)t , (−3, 1, 1, 1)t , (0, −2, 1, 1)t .
8
Ahora podemos normalizar la base; los correspondientes vectores formarán las columnas de Q en la factorización: √ 0 1/2 −3/ 12 √ √ 1/2 1/ 12 −2/ 6 Q= . √ √ 1/ 12 1/ 6 1/2 √ √ 1/2 1/ 12 1/ 6 Puesto que las columnas de Q son ortonormales, tenemos que Qt Q = I3 . Ahora necesitamos encontrar la matriz triangular superior R que verifica A = Q R. Si multiplicamos ambos miembros de esta expresión por Qt resulta Q t A = Q t Q R = I3 R = R . Así:
1/2 1/2 1/2 1/2 √ √ √ √ R = Qt A = −3/ 12 1/ 12 1/ 12 1/ 12 √ √ √ 0 −2/ 6 1/ 6 1/ 6
3/2 1 2 √ √ = 0 3/ 12 2/ 12 √ 0 0 2/ 6
9
.
1 0 0
1 1 0 1 1 1 1 1 1...