Uploaded by soledad sóñora

Libro Algebra 2013

advertisement
Introducción
ÁLGEBRA
al
LINEAL
Ignacio Aemilius, Marcelo Cerminara,
Andrea Mesa, Fernando Peláez
2013
Aemilius, Ignacio - Cerminara, Marcelo - Mesa, Andrea - Peláez, Fernando.
Introducción al álgebra lineal.
c I. Aemilius, M. Cerminara, A. Mesa, F. Peláez
De esta edición:
Grupo Armónico Ediciones
Montevideo, Julio 2013.
Diseño de carátula: Fernando Peláez.
Impreso en Uruguay.
Edición amparada por el Art. 79 de la ley 13.349
I.S.B.N. 978-9974-98-735-7
Queda prohibida cualquier forma de reproducción, transmisión o archivo en sistemas recuperables
del presente ejemplar, ya sea para uso privado o público, por medios mecánicos, electrónicos, electrostáticos, magnéticos o cualquier otro, total o parcialmente, con o sin finalidad de lucro, salvo
expresa autorización de los autores.
Índice general
1. Álgebra de Matrices
5
1.1. Matrices y operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3. Apéndice de esta sección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2. Sistemas de ecuaciones lineales
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . .
2.2. Matriz asociada a un sistema de ecuaciones lineales
2.3. El método de escalerización . . . . . . . . . . . . .
2.4. Teorema de Rouche - Frobenius . . . . . . . . . . .
2.5. Sistemas cuadrados, determinantes y Cramer . . .
2.6. Cálculo de la inversa de una matriz invertible . . .
2.7. Apéndice de esta sección . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. El espacio vectorial Rn
3.1. El espacio vectorial R2 . . . . . . . . . . . . . . . . . .
3.1.1. Suma de vectores y producto de un número por
3.1.2. Rectas en R2 . . . . . . . . . . . . . . . . . . .
3.2. El espacio vectorial R3 . . . . . . . . . . . . . . . . . .
3.2.1. Suma de vectores y producto de un número por
3.2.2. Rectas en R3 . . . . . . . . . . . . . . . . . . .
3.2.3. Planos en R3 . . . . . . . . . . . . . . . . . . .
3.3. El espacio vectorial Rn . . . . . . . . . . . . . . . . . .
3.3.1. Suma de vectores y producto de un número por
3.3.2. Combinaciones lineales . . . . . . . . . . . . . .
3.4. Dependencia e independencia lineal . . . . . . . . . . .
4. Subespacios vectoriales de Rn
4.1. Espacios vectoriales reales . . . . . . . . . .
4.2. Subespacios vectoriales de Rn . . . . . . . .
4.3. Generador de un subespacio vectorial de Rn
4.4. Base y dimensión de un subespacio vectorial
4.5. Rango de una matriz . . . . . . . . . . . . .
4.6. Apéndice de este capı́tulo . . . . . . . . . .
3
. . . .
. . . .
. . . .
de Rn
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
un
. .
. .
un
. .
. .
. .
un
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
vector
. . . .
. . . .
vector
. . . .
. . . .
. . . .
vector
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
22
23
28
31
38
41
.
.
.
.
.
.
.
.
.
.
.
49
50
50
54
59
59
60
65
72
72
74
83
.
.
.
.
.
.
91
91
95
102
108
116
123
5. Rn como espacio euclidiano
5.1. Producto interno, norma y ángulos . . . . . . . . . .
5.2. Conjuntos ortogonales y proyecciones ortogonales . .
5.3. Cálculo de distancias . . . . . . . . . . . . . . . . . .
5.3.1. Vector perpendicular a un plano. . . . . . . .
5.3.2. Distancia de un punto a un plano. . . . . . .
5.3.3. Distancia de un punto a una recta. . . . . . .
5.4. Aproximación por el método de mı́nimos cuadrados .
5.4.1. Descripción del método. . . . . . . . . . . . .
5.4.2. Una fórmula para la proyección ortogonal . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
125
. 125
. 134
. 150
. 150
. 151
. 152
. 155
. 155
. 158
6. Diagonalización
6.1. Introducción . . . . . . . . . . . .
6.2. Valores y vectores propios de una
6.3. Matrices diagonalizables . . . . .
6.4. Apéndice . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
161
161
163
169
176
7. Transformaciones lineales
7.1. Definición, propiedades básicas y ejemplos . . . . . . . . . . . .
7.2. Matriz asociada a una transformación lineal . . . . . . . . . . .
7.3. Operaciones con transformaciones lineales . . . . . . . . . . . .
7.4. Inversa de una transformación lineal . . . . . . . . . . . . . . .
7.5. Núcleo e imagen de una transformación lineal . . . . . . . . . .
7.6. Transformaciones lineales inyectivas, sobreyectivas y biyectivas
7.7. Valores y vectores propios de una transformación lineal . . . .
7.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.9. Ejercicios variados de opción múltiple . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
179
179
184
188
190
192
195
199
202
205
8. Respuestas a los ejercicios
. . . .
matriz
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
211
Capı́tulo 1
Álgebra de Matrices
Es probable que el lector ya tenga experiencia con la utilización de “planillas bidimensionales” que resultan de utilidad para organizar y procesar datos. Por ejemplo, consideremos
el caso de una empresa uruguaya que vende cuatro tipo de artı́culos (de tipo A, B, C y
D), de las cuales se conocen las cantidades vendidas en los meses de setiembre, octubre,
noviembre, diciembre y enero. Esta información figura en la siguiente matriz:


60 130 70 150
 100 200 120 330 



A=
 150 240 130 510 
 129 223 148 947 
88 147 105 430
En la primera fila aparecen las cantidades vendidas en setiembre de los cuatro tipos de
artı́culos, en la segunda las cantidades vendidas en octubre, y ası́ sucesivamente. Esta es
una matriz de 5 filas y 4 columnas.
Ahora bien, esos datos correspondı́an solo a Montevideo. La información adicional sobre
las cantidades vendidas en la ciudad de Tacuarembó viene dada por esta otra matriz:


10 13 12 15
 10 24 9 30 



B=
 16 25 10 48 
 11 21 15 88 
9 15 10 40
Como se sigue el mismo criterio para dar la información, esta matriz también tiene 5 filas
y 4 columnas. ¿Cómo obtenemos el total de ventas en los dos departamentos de cada
artı́culo en cada mes? Resulta claro que debemos sumar cada elemento de la matriz A con
su correspondiente en la matriz B:


70 143 82 165
 110 224 129 360 


 166 265 140 558 


 140 244 163 1035 
97 162 115 470
6
Capı́tulo 1. Álgebra de Matrices
O sea, hemos calculado una nueva matriz (también de 5 filas y 4 columnas) que se obtuvo
realizando ciertas operaciones con los elementos de las matrices originales.
Supongamos ahora que durante esos meses la empresa no ha cambiado el precio de sus
artı́culos: los de tipo A se venden a a pesos, los de tipo B a b pesos, .... La matriz de
precios de los artı́culos es entonces:
 
a
 b 
 
 c 
d
Una de las preguntas que nos podemos plantear es: en cada uno de los cinco meses ¿cual
es el ingreso total de la empresa por concepto de ventas en Montevideo? La respuesta es
muy simple: en setiembre fue de 60a + 130b + 70c + 150d; en octubre fue de 100a + 200b +
120c + 330d; y ası́ sucesivamente. La información global sobre los ingresos a cada uno de
los cinco meses podrı́a estar presentada en la siguiente matriz:


60a + 130b + 70c + 150d
 100a + 200b + 120c + 330d 


 150a + 240b + 130c + 510d 


 129a + 223b + 148c + 947d 
88a + 147b + 105c + 430d
que también puede pensarse como el resultado de cierto tipo de operación entre las matrices


 
60 130 70 150
a
 100 200 120 330 


 b 
 150 240 130 510  y  


 c 
 129 223 148 947 
d
88 147 105 430
Este breve ejemplo introductorio pretende poner de relieve que, más allá de las matrices
como objetos estáticos para organizar datos, puede resultar de mucha utilidad estudiar
operaciones (y las propiedades de las mismas) entre estos objetos.
1.1.
Matrices y operaciones con matrices
Definición 1.1.1. Llamaremos matriz A de m filas por n columnas (de tamaño m × n)
con entradas aij a un ordenamiento rectangular de números


a11 a12 . . . a1n
 a21 a22 . . . a2n 


A= .
..
.. 
..
 ..
.
.
. 
am1 am2 . . . amn
Notación: En general, la matriz A con entradas aij la indicaremos por A = ((aij ))i=1,...,m
j=1,...,n
o más brevemente A = ((aij )) cuando las dimensiones estén claras. El primer ı́ndice, i,
indica la fila y el segundo, j, la columna a la que pertenece la entrada aij . Ası́, se dirá que
1.1. Matrices y operaciones con matrices
7
la entrada aij ocupa la posición ij dentro de la matriz.
El conjunto de todas las matrices m × n lo indicaremos como Mm×n .
Si A es una matriz de m filas por n columnas entonces sus filas serán representadas por
los sı́mbolos F1 (A), F2 (A), ... , Fm (A) respectivamente (es decir, Fi (A) es la i-ésima fila
de A). De modo análogo sus columnas serán representadas mediante C1 (A), C2 (A), ... ,
Cn (A) respectivamente (es decir, Cj (A) es la j-ésima columna de A).
Llamaremos matriz columna (fila) a una matriz de tamaño m × 1 (1 × n).
Definición 1.1.2. Igualdad de matrices.
Diremos que dos matrices son iguales si tienen el mismo tamaño y los mismas entradas
en las mismas posiciones. Dicho de otro modo, si A y B son dos matrices m × n, entonces
A = B ⇐⇒ aij = bij ∀i = 1, . . . , m, j = 1, . . . , n.
1 2
4 2
Ejemplo 1.1.1. Sean A =
yB=
.
−3 1
−3 1
Entonces A 6= B pues a11 = 1 6= b11 = 4
Definición 1.1.3. Suma de matrices.
Si A = ((aij )) y B = ((bij )) son dos matrices m × n entonces la suma A + B es la matriz
C = ((cij )) también m × n en donde cij = aij + bij .



1
5
0
Ejemplo 1.1.2. Sean A =  1
2 −1  y B = 
0 −1
3

 

1
5
0
0 −8 −1
2 −1  +  2
2
0  =
A+B = 1
0 −1
3
1 −2
2

0 −8 −1
2
2
0 , entonces
1 −2
2


1+0
5−8
0−1
 1+2
2 + 2 −1 + 0 
0 + 1 −1 − 2
3+2


1 −3 −1

3
4 −1 
=
1 −3
5
Proposición 1.1.1. Propiedades de la suma de matrices.
(S1) Asociativa: A + B + C = A + B + C , ∀ A, B, C ∈ Mm×n .
(S2) Conmutativa: A + B = B + A, ∀ A, B ∈ Mm×n .
(S3) Existencia de neutro: Existe O ∈ Mm×n tal que A+O = O +A = A, ∀ A ∈ Mm×n .
(S4) Existencia de opuesto: Para cada A ∈ Mm×n existe B ∈ Mm×n tal que A+B = O.
(Notación: B = −A).
La prueba queda a cargo del lector y consiste simplemente en aplicar las propiedades
conocidas de la suma de números reales. Indicamos, no obstante, que la matriz O de la
propiedad (S3) se denomina matriz nula y tiene ceros en todas sus entradas. Por su
parte, la matriz −A (opuesta de A) es la que tiene en sus entradas los opuestos de las
correspondientes entradas de A.
Como toda matriz tiene una matriz opuesta es posible definir la resta de matrices de
manera análoga a lo que se hace con números reales.
8
Capı́tulo 1. Álgebra de Matrices
Definición 1.1.4. Resta de matrices.
Si A y B son dos matrices m × n entonces la resta A − B es la suma de la matriz A mas
la opuesta de la B.
Definición 1.1.5. Producto de un número por una matriz.
Si λ es un número real y A es una matriz m × n entonces el producto λA es la matriz
B = ((bij )) también m × n en donde bij = λaij
En otras palabras, cada entrada de λA se obtiene multiplicando por λ a la correspondiente
entrada de A.
3
1
Ejemplo 1.1.3. Sean λ = 5 y A =
entonces
0 −2
3
1
15
5
λA = 5
=
0 −2
0 −10
Proposición 1.1.2. Propiedades del producto de un número por una matriz.
(P1) Asociativa: αβ A = α(βA), ∀ α, β ∈ R y A ∈ Mm×n .
(P2) Existencia de neutro real: 1.A = A, ∀ A ∈ Mm×n
(P3) Distributiva respecto de la suma de números: (α + β)A = αA + βA, ∀ α, β ∈ R y
∀ A ∈ Mm×n .
(P4) Distributiva respecto de la suma de matrices: α(A + B) = αA + αB, ∀ α ∈ R y
∀ A, B ∈ Mm×n .
Definición 1.1.6. Producto de matrices.
Si A es una matriz m × p y B es una matriz p × n entonces el producto de matrices
A.B es la matriz C = ((cij )) m × n donde
cij =
p
X
aih bhj
h=1
El siguiente esquema ayuda a recordar la forma de realizar la operación:


b11 . . . b1j . . . b1n
 b21 . . . b2j . . . b2n 


 ..

..
 . ... . ... ... 
bp1 . . . bpj

a11 a12
 ..
..
 .
.

 ..
..
 .
.

 ai1 ai2

 ..
..
 .
.
am1 am2
...
...
...
...
a1p
..
.
..
.
aip
..
.
...
. . . amp






















..
.
..
.
..
.
..
.
−→ cij
..
..
.
.
..
..
.
.
↓
. . . bpn

..
.
..
.
..
.
..
.
..
.
..
.
..
.
..
.










1.1. Matrices y operaciones con matrices
Ejemplo 1.1.4. Si A =
A.B =
2 −1
0
2
2 −1
0
2
1 2
−1 3
yB=
9
1 2
−1 3
entonces:
2·1 + (−1)(−1) 2·2 + (−1)3
=
0·1 + 2(−1)
0·2 + 2·3
3 1
=
−2 6
=


1
2
 2 1 
2 1 −1
0

Ejemplo 1.1.5. Sean A =
yB=
 1 1 . El producto de A por
2 1
2 −1
1 0
B es:


1 2

2 1 −1
0 
 2 1 = 3 4
2 1
2 −1  1 1 
5 7
1 0
pues
2·1 + 1·2 + (−1)1 + 0·1 = 3
2·2 + 1·1 + (−1)1 + 0·0 = 4
2·1 + 1·2 + 2·1 + (−1)1 = 5
2·2 + 1·1 + 2·1 + (−1)0 = 7
Vale la pena observar que las matrices no deben ser necesariamente del mismo tamaño
para poder multiplicarlas. De hecho, si se mira con cuidado la definición, se observa que
para poder hacerlo la cantidad de columnas de la primera debe coincidir con la cantidad
de filas de la segunda. Cuando esto ocurre se dice que la primera matriz es conformable
con la segunda.


 
1 2 1
x
Ejemplo 1.1.6. Sean A =  2 1 1  y X =  y  entonces
1 1 2
z

  

1 2 1
x
x + 2y + z
A.X =  2 1 1  y  =  2x + y + z 
1 1 2
z
x + y + 2z

1 2 1
Ejemplo 1.1.7. Sean A =  2 1 1  y Y =
1 1 2

Y.A =


1
2
1
x y z  2 1 1 =
1 1 2
x y z
entonces
x + 2y + z 2x + y + z x + y + 2z
10
Capı́tulo 1. Álgebra de Matrices
Observación 1.1.1. Si volvemos a mirar el ejemplo introductorio de comienzo de capı́tulo
observamos que la matriz


60a + 130b + 70c + 150d
 100a + 200b + 120c + 330d 


 150a + 240b + 130c + 510d 


 129a + 223b + 148c + 947d 
88a + 147b + 105c + 430d
que daba la información global sobre los ingresos a cada uno de los cinco meses, coincide
con el producto matricial:


 
60 130 70 150
a
 100 200 120 330 
  b 

 150 240 130 510  .  

  c 
 129 223 148 947 
d
88 147 105 430
Observación 1.1.2. Las columnas de la matriz 
producto.

1 1
2 1 0
Consideremos las matrices A =
y B =  2 1 . Su producto A.B resulta
1 2 1
1 1
ser:


1 1
2 1 0 
4
3
A.B =
2 1 =
1 2 1
6 4
1 1
Podemos observar que la primera columna de A.B coincide con el producto de la matriz
A por la primera columna de B, mientras la segunda columna de A.B coincide con el
producto de la matriz A por la segunda columna de B:
 
 
1
1
3
2 1 0  
4
2 1 0  
1
2
=
,
=
4
1 2 1
6
1 2 1
1
1
Este resultado es general y surge de la propia definición de producto de matrices. Si A es
una matriz m × n, B una matriz n × p y A.B su producto entonces la columna j-ésima
de A.B coincidirá con el producto de la matriz A por la columna j-ésima de B (para
j = 1, 2, ... , p). En sı́mbolos:
Cj (A.B) = A . Cj (B)
Por otra parte, con las filas sucede algo similar:




1 1
1 1
2 1 0  2 1 = 4 3
y
1 2 1  2 1 =
1 1
1 1
6 4
la i-ésima fila de A.B coincide con el producto de la i-ésima fila de A por la matriz B
(i = 1, 2, ... , m). En sı́mbolos:
Fi (A.B) = Fi (A) . B
1.1. Matrices y operaciones con matrices
11
Definición 1.1.7. La matriz identidad.
Llamaremos matriz identidad In a la matriz n × n dada por


1 0 ... 0
 0 1 ... 0 


In =  . . .
.. 
.
.
.
 . .
. . 
0 0 ...
1
Se trata entonces de la matriz que tiene al número 1 en todas las entradas de la diagonal
principal y al número 0 en el resto de las entradas.


1 0 0
Por ejemplo: I3 =  0 1 0 
0 0 1
La matriz identidad juega un papel especial en el producto de matrices pues es inmediato
verificar que cumple:
In .A = A, ∀ A ∈ Mn×p
,
B.In = B, ∀ B ∈ Mm×n
Observación 1.1.3. Sobre las propiedades del producto de matrices.
En la operación de producto de matrices no se cumplen algunas de las propiedades usuales
del producto de números reales.
No conmutatividad. En el ejemplo 1.1.6 se observa que dos matrices pueden ser conformables en un orden y no en otro. De hecho, en ese ejemplo A.X tiene sentido pero X.A no.
Ahora bien, aunque las matrices sean cuadradas, no tiene por qué
al
coincidir
el resultado
2 1
1 0
multiplicarlas en un orden o en el inverso. En efecto sean A =
yB=
1 1
0 0
entonces
2 1
1 0
2 0
A.B =
=
1 1
0 0
1 0
1 0
2 1
2 1
B.A =
=
0 0
1 1
0 0
Naturalmente el contraejemplo solo indica que en general A.B 6= B.A lo cual no significa
que no existan matrices que conmuten.
No Hankel. El producto de dos matrices puede dar como resultado la matriz nula sin
1 0
0 0
que ninguna de las matrices sea la nula. En efecto, si A =
y B =
0 0
1 3
entonces ninguna de las dos matrices es nula y sin embargo:
1 0
0 0
0 0
A.B =
.
=
0 0
1 3
0 0
Proposición 1.1.3. Propiedades del producto de matrices.
Asociativa Si A ∈ Mm×n , B ∈ Mn×p y C ∈ Mp×q , entonces (A.B).C = A.(B.C)
Distributiva Si A, B ∈ Mm×n , C ∈ Mp×m y D ∈ Mn×q entonces
C.(A + B) = C.A + C.B y (A + B).D = A.D + B.D
12
Capı́tulo 1. Álgebra de Matrices
Existencia de Neutro Si In es la matriz identidad n × n entonces
In .A = A, ∀ A ∈ Mn×p
,
B.In = B, ∀ B ∈ Mm×n
La demostración se puede encontrar en el apéndice del final de este capı́tulo.
Definición 1.1.8. Potencias de una matriz.
Sea A una matriz n × n. Definimos:
A0 = In
,
Ak+1 = A.Ak , ∀ k ∈ N.
1
2
3 0
2
Ejemplo 1.1.8. Si A =
entonces A = A.A =
1 −1
0 3
Definición 1.1.9. Traspuesta de una matriz.
Si A = ((aij )) es una matriz m × n, definimos la matriz traspuesta de A como la matriz
B = ((bij )) de dimensión n × m en donde bij = aji . Notación: la traspuesta de A se
simbolizará At .


1 2
1 2 3
Ejemplo 1.1.9. Sea A =
entonces At =  2 1 
2 1 1
3 1
1 2
1 2
. En este caso resultó B = B t , cuando esto
Sea B =
entonces B t =
2 3
2 3
ocurra diremos
que la matriz

 B es simétrica

0
2 −1
0 −2
1
Sea C =  −2
0
1  entonces C t =  2
0 −1  por lo tanto C t = −C,
1 −1
0
−1
1
0
cuando esto
ocurra
diremos
que
la
matriz
C
es
antisimétrica.


1
 −2 
t

Sea D = 
 2  entonces D = 1 −2 2 0 . Obsérvese que la traspuesta de una
0
matriz columna resulta ser un matriz fila.
Proposición 1.1.4. Propiedades de la matriz traspuesta.
1. (A + B)t = At + B t , ∀ A, B ∈ Mm×n .
2. (λ A)t = λ At , ∀ A ∈ Mm×n , ∀λ ∈ R.
3. (A.B)t = B t .At , para toda pareja de matrices A y B conformables.
4. (At )t = A, ∀ A ∈ Mm×n .
La demostración queda cargo del lector.
Ejercicio 1.1.1. Construya la matriz A = ((aij )) 3 × 2 que cumple aij = 2i − j,
(i = 1, 2, 3 , j = 1, 2).
a + b −2
2 −2
Ejercicio 1.1.2. Calcule a y b para que
=
3
a−b
3
4
1.1. Matrices y operaciones con matrices
13
Ejercicio 1.1.3. Se consideran las siguientes matrices:




1 0 −1
1
0 −1 2
5 −2
2
3 −1
A=
,B=
, C =  0 2 −3  , D =  3 −2
1 6 
1
0
1 −2
5
2 1
0
0 −5
4 3
1. Encuentre las siguientes matrices: A + At , 2C − 7I3 , B t .B , B.B t .
2. Calcule todos los productos (que se puedan realizar) de dos factores utilizando las
matrices A, B, C y D. (Por ejemplo A.B tiene sentido pero A.D no.)
1 3
3. Encuentre todas las matrices X que verifiquen la igualdad 2A − 4X =
2 1
Ejercicio 1.1.4. Investigue si las siguientes igualdades se cumplen para toda pareja de
matrices A, B ∈ Mn×n . En caso de que no se cumplan siempre, halle la condición que
deben verificar A y B para que la igualdad sea verdadera.
1. (A + B)2 = A2 + 2A.B + B 2
2. (A + B)(A − B) = A2 − B 2
3. Ap .Aq = Ap+q , p y q naturales.
4. Ap .B p = (A.B)p , p natural.
Ejercicio 1.1.5.
1. Una matriz A se dice simétrica si At = A. Pruebe que B + B t es simétrica para
toda matriz B n × n.
2. Una matriz A se dice antisimétrica si At = −A. Pruebe que B −B t es antisimétrica
para toda matriz B n × n.


a a2 + 2
5
3. Halle todos los valores de a para que la matriz  −3a
1
−1  sea simétrica.
5
−1
0
Ejercicio 1.1.6.
1. Halle todas las matrices A 2 × 2 tales que A2 = I2 .
2. Halle todas las matrices A 2 × 2 tales que A2 = −I2 .
3. Halle todas las matrices A 2 × 2 tales que A2 = O.
Ejercicio 1.1.7. Traza de una matriz cuadrada.
Si A es una matriz se define la traza de A como el número tr(A) =
Pruebe que:
1. tr(A + B) = tr(A) + tr(B), ∀ A, B ∈ Mn×n .
2. tr(cA) = c tr(A), ∀ A ∈ Mn×n , ∀ c ∈ R.
3. tr(A) = tr At , ∀ A ∈ Mn×n .
4. tr(A.B) = tr(B.A), ∀ A, B ∈ Mn×n .
5. No existen matrices A, B ∈ Mn×n tales que A.B − B.A = In .
1 1
1
Ejercicio 1.1.8. Se considera la matriz A =
1 1 −1
i=n
X
i=1
aii .
14
Capı́tulo 1. Álgebra de Matrices
1. Demuestre que existen infinitas matrices B tales que A.B = I2 .
2. Demuestre que no existe ninguna matriz C tal que C.A = I3 .
Ejercicio 1.1.9. Una empresa comercializa cuatro artı́culos. A continuación se dan las
matrices columna correspondientes al stock al comienzo de la semana (S), a las compras
(C) y las ventas (V ) realizadas por la empresa en esa semana y la matriz de precios de
venta de cada artı́culo (vigente en la semana y sin IVA).



20
2
 17 
 4


S=
 15  , C =  0
4
3




7
3000

 16 
 2000
 , V =



 8  , P =  1000
2
9000




1. Exprese las operaciones matriciales que permiten obtener la matriz correspondiente
al stock al final de la semana y la matriz de precios de venta con el IVA.
2. Exprese las operaciones matriciales que permiten obtener el ingreso obtenido por la
empresa durante la semana.
Ejercicio 1.1.10. Una fábrica produce tres artı́culos y en esa producción se necesita una
materia prima y mano de obra de acuerdo con lo que se indica a continuación:
Artı́culo 1: Cada unidad requiere 3 kilos de materia prima y 4 horas hombre.
Artı́culo 2: Cada unidad requiere 2 kilos de materia prima y 5 horas hombre.
Artı́culo 3: Cada unidad requiere 4 kilos de materia prima y 6 horas hombre.
1. Sean: p1 el precio por kilo de la materia prima y p2 la remuneración por hora de
trabajo. Defina dos matrices u y v de modo que el producto ut v sea el costo variable
por producir x unidades del artı́culo 1, y unidades del artı́culo 2 y z unidades del
artı́culo 3.
2. Sea k el costo fijo de producción y a, b, c los precios de venta de cada unidad de
los artı́culos 1, 2 y 3 respectivamente. Exprese mediante operaciones matriciales la
utilidad que obtiene la fábrica al vender x unidades del artı́culo 1, y unidades del
artı́culo 2 y z unidades del artı́culo 3.
Ejercicio 1.1.11. Una empresa vende cinco clases de artı́culos (de tipo A, de tipo B, de
tipo C, de tipo D y tipo E). Se conocen las cantidades vendidas en los años 2007 al 2010.
Esta información viene dada por la matriz M mientras que los precios de los artı́culos por
la matriz P :




5
100 120 130 150
 9 
 50 60 60 80 







P = 
M =  150 240 200 260 
 10 
 129 223 240 300 
 7 
111 122 144 157
8
(Esto quiere decir que cada artı́culo de tipo A cuesta 5 pesos, y ası́ sucesivamente). Mediante operaciones matriciales ¿es posible calcular el ingreso total de la empresa durante
estos cuatro años?
Ejercicio 1.1.12. Una empresa fabrica tres productos (A, B y C) cada uno de los cuales
requiere de ciertas cantidades de tres tipos de materia prima y de mano de obra. La matriz
1.2. Matrices invertibles
15
R resume los requerimientos por unidad de cada producto:


2 4 5 5
R =  3 2 3 8 
1 3 5 4
Las necesidades de materias primas se dan en kg por unidad y las de mano de obra en
horas por unidad. Las tres materias primas cuestan $2, $3 y $1,50 por kg respectivamente.
Los costos de mano de obra son de $5 por hora. Suponga que se deben fabricar 500, 1000
y 400 productos de tipo A, B y C respectivamente. Plantee las operaciones matriciales que
deben realizarse para calcular el costo total de la producción.
Ejercicio 1.1.13. Un experto en sondeos de opinión está observando una elección para
elegir al Intendente de una ciudad. A partir de la última encuesta se obtuvieron los porcentajes de preferencias de seis zonas diferentes con respecto a los tres candidatos. Dichos
valores se muestran en la siguiente matriz:


0, 40 0, 35 0, 30 0, 50 0, 30 0, 36
M =  0, 42 0, 40 0, 25 0, 30 0, 30 0, 32 
0, 18 0, 25 0, 45 0, 20 0, 40 0, 32
El número de ciudadanos que se espera voten en cada zona es 30000, 60000, 70000, 45000,
55000, 40000 respectivamente. En base a esta información ¿cuál es la proyección de resultados que se puede hacer?
1.2.
Matrices invertibles
Como toda matriz tiene una matriz opuesta hemos podido definir la resta de matrices de
modo análogo a como se hace con números reales. Sin embargo, el lector habrá notado
que no hemos hablado de “división” de matrices. ¿Cómo se definı́a la división de números
reales? Basándonos en el hecho de que todo real diferente de 0 tiene inverso, si a, b ∈ R y
b 6= 0 la división a/b se define como el producto de a por b−1 en donde b−1 es el inverso
de b, que está caracterizado por b b−1 = 1 (el inverso de un número b es otro número que
multiplicado por b da como resultado el neutro del producto). Estas consideraciones nos
llevan a la siguiente definición.
Definición 1.2.1. Matriz invertible.
Sea A una matriz n × n. Diremos que la matriz A es invertible si, y solo si, existe B
matriz n × n tal que
A.B = In
y
B.A = In
(1.1)
donde In es la matriz identidad n × n
Observación 1.2.1. Nuevamente, como consecuencia de la no conmutatividad del producto de matrices debemos, en la definición anterior, exigir que A.B y B.A sean ambos
iguales a la identidad. A priori podrı́a ocurrir que A.B = In 6= B.A. Veremos más adelante
que esto realmente no es posible. De hecho, probaremos que si existe B tal que A.B = In
entonces B.A = In . Observemos además que las matrices invertibles son por definición
matrices cuadradas.
16
Capı́tulo 1. Álgebra de Matrices
A continuación veremos que la matriz B que cumple (1.1), cuando existe, es única. Por
tal motivo se le llama inversa de A y se utiliza la notación B = A−1
Proposición 1.2.1. Sean B1 y B2 matrices n × n que cumplen (1.1) entonces B1 = B2
Demostración. Se tiene:
B1 = B1 I = B1 (A B2 ) = (B1 A) B2 = I B2 = B2
♠
2 1
1 −1
Ejemplo 1.2.1. La matriz A =
es invertible, pues existe B =
1 1
−1
2
tal que A.B = I y B.A = I (verificarlo).


1 1
0
Ejemplo 1.2.2. La matriz A =  1 0 −1  no es invertible, pues para cualquier
0 0
0


a b c

matriz B =
d e f  se cumple que
g h i





1 1
0
a b c
a+d b+e c+f
A.B =  1 0 −1   d e f  =  a − g b − h c − i  6=
0 0
0
g h i
0
0
0


1 0 0

6=
0 1 0 =I
0 0 1
Proposición
1.2.2.
El caso de matrices 2 × 2
a b
Sea A =
. Si ad − bc 6= 0 entonces A es invertible y A−1 =
c d
1
ad−bc
d −b
−c a
Demostración. Si no
un candidato para A−1 tendrı́amos que plantearnos
conociéramos
e f
una matriz genérica
multiplicarla por A, imponer que dicho producto sea la
g h
1 0
identidad
y, de ese modo, intentar hallar las entradas e, f, g y h. No nos interesa
0 1
hacer eso en este momento ya que dicho planteo será discutido más adelante. Ahora, el
lector puede simplemente verificar que los productos
d
d
−b
−b
a b
a b
ad−bc
ad−bc
ad−bc
ad−bc
.
y
.
−c
a
−c
a
c d
c d
ad−bc
ad−bc
ad−bc
ad−bc
1 0
dan como resultado la matriz identidad
.
♠
0 1
Para hallar la inversa (en caso que exista) de una matriz 2×2 alcanza con aplicar la fórmula
que se dio en el teorema anterior. Para matrices cuadradas de dimensiones mayores a 2 la
situación es completamente diferente pues no existen “fórmulas sencillas” para aplicar. En
el próximo capı́tulo veremos una condición necesaria y suficiente para que una matriz sea
1.2. Matrices invertibles
17
invertible ası́ como también un algoritmo que nos permitirá hallar la inversa. Aunque no
sepamos eso todavı́a, podemos continuar estudiando algunas propiedades de las matrices
invertibles.
Proposición 1.2.3. La inversa de un producto de matrices.
Si A y B son dos matrices n × n invertibles entonces A.B es invertible y
(A.B)−1 = B −1 .A−1
Demostración. Para demostrarlo basta con multiplicar A.B por su “candidata” a inversa
y verificar que da la identidad:
= In
z }| {
(A.B) B −1 .A−1 = A (B.B −1 ) A−1 = A.In .A−1 = A.A−1 = In
= In
♠
z }| {
(B −1 .A−1 )(A.B) = B −1 (A−1 .A) B = B −1 .In .B = B −1 .B = In
Ejercicio 1.2.1. Halle la inversa de las siguientes matrices y verifique:
2 1
4 1
A=
,
B=
1 1
2 1
Ejercicio 1.2.2. Investigue si las siguientes afirmaciones son verdaderas o falsas justificando la respuesta (en caso de ser verdadera deberá demostrar y, en caso de ser falsa
deberá dar un contraejemplo).
−1
1. Si A es una matriz invertible entonces A−1
=A
2. Si A es una matriz invertible y k 6= 0 entonces kA es invertible y (kA)−1 = k1 A−1
−1
t
3. Si A es una matriz invertible entonces At también lo es y At
= A−1
4. Si A y B son dos matrices invertibles n × n entonces A + B es invertible.
5. Si A y B son dos matrices invertibles n × n y A + B es invertible entonces
(A + B)−1 = A−1 + B −1
Ejercicio 1.2.3. Sea A una matriz n × n. Pruebe que:
1. se cumple la igualdad: (In − A)(In + A + A2 + . . . + Ak ) = In − Ak+1 (k natural).
2. si A2 = O entonces In − A es invertible.
3. si A3 = O entonces In − A es invertible.
4. si existe k ∈ N tal que Ak = O entonces In − A es invertible.
5. Si A2 + 2A + In = O entonces A es invertible.
6. Si A3 − A + In = O entonces A es invertible.
Ejercicio 1.2.4. Matrices semejantes.
Se dice que dos matrices A y B, ambas n × n, son semejantes si existe una matriz P
n × n e invertible tal que B = P −1 .A.P . Supongamos que A y B sean semejantes. Pruebe
que:
1. At y B t son semejantes.
18
Capı́tulo 1. Álgebra de Matrices
2.
3.
4.
5.
A es invertible si, y solo si, B es invertible.
tr(A) = tr(B) (recuerde la propiedad (4) en el ejercicio 1.1.7).
B k = P −1 .Ak .P , ∀ k ∈ N.
si Ak = O entonces B k = O.
1.3.
Apéndice de esta sección
Demostración de las propiedades del producto de matrices.
Asociativa Si A ∈ Mm×n , B ∈ Mn×p y C ∈ Mp×q , entonces (A.B).C = A.(B.C)
En efecto pongamos (A.B).C = D = ((dij )) y A.(B.C) = D ′ = ((d′ij )). Observemos,
en primer lugar, que ambas matrices D y D ′ tienen tamaño m × q. Debemos probar
que dij = d′ij ∀ i = 1, 2, ... , m ; ∀ j = 1, 2, ... , q.
d′ij =
X
aih
X
bhs csj
s
h
!!
=
X
s
X
h
aih bhs
!
csj
!
= dij
Distributiva Si Si A, B ∈ Mm×n , C ∈ Mp×m y D ∈ Mn×q entonces
C.(A + B) = C.A + C.B y (A + B).D = A.D + B.D
Demostremos solamente la primera parte (la otra es totalmente análoga). Pongamos
C.(A + B) = G = ((gij )),
C.A = E = ((eij )) y C.B = F = ((fij )).
Debemos probar entonces que gij = eij + fij ∀ i, j.
X
X
gij =
cih ahj + bhj =
cih ahj + cih bhj =
h
h
=
X
h
♠
cih ahj +
X
h
cih bhj = eij + fij
Capı́tulo 2
Sistemas de ecuaciones lineales
2.1.
Introducción
Gran parte de lo que estudiaremos en este curso se vincula con los sistemas de ecuaciones lineales y, por lo tanto, vale la pena dedicar algún tiempo a presentarlos, discutir sus
propiedades y ciertas estrategias para resolverlos. El lector que ya conozca estos temas
tendrá, en todo caso, una oportunidad para repasarlos.
Algunos ejemplos de sistemas de ecuaciones lineales son los siguientes:
2x − 3y = 4
(sistema de 2 ecuaciones con 2 incógnitas)
3x + 4y = 1

 x + y + 2z = 8
x − y + z = 0 (sistema de 3 ecuaciones con 3 incógnitas)

x+y+z =6
x − 3y + z = 1
(sistema de 2 ecuaciones con 3 incógnitas)
x + 4y − z = 2

 x − 2y = 1
x + 3y = 2
(sistema de 3 ecuaciones con 2 incógnitas)

−x + 2y = 3
Cuando tengamos varias incógnitas podemos elegir una misma letra para representarlas y
distinguirlas mediante el uso de subı́ndices diferentes:

x1 + 2x2 + x3 − x4 + x5 + x6 = 1



x1 − 2x2 + x3 + x4 + x5 − x6 = 0
(sistema de 5 ecuaciones con 6 incógnitas)
x1 + 2x2 + x3 + 9x4 + 5x5 + 3x6 = 3



x1 + 2x2 + x3 + 2x4 − x5 + 3x6 = 2
20
Capı́tulo 2. Sistemas de ecuaciones lineales
Un sistema de m ecuaciones lineales con n incógnitas x1 , x2 , . . . , xn es un problema
del tipo:

a11 x1 + a12 x2 + . . . + a1n xn
= b1



 a21 x1 + a22 x2 + . . . + a2n xn
= b2
(S)
..
..

.
.



am1 x1 + am2 x2 + . . . + amn xn = bm
donde aij con i = 1, . . . , m y j = 1, . . . , n (los coeficientes del sistema) y bj con j = 1, . . . , m
(los términos independientes) son números.1 Diremos que el sistema es m × n, indicando
siempre con el primer número la cantidad de ecuaciones y con el segundo la de incógnitas.
Una solución del sistema (S) es una lista ordenada de n números (α1 , α2 , . . . , αn ) tales
que si se sustituye x1 = α1 , x2 = α2 , . . . , xn = αn se verifican simultáneamente las m
ecuaciones.
Llamaremos conjunto solución del sistema (S) y lo notaremos Sol(S) al conjunto de
todas las soluciones de (S). Resolver un sistema es determinar su conjunto solución.2
Clasificaremos los sistemas de acuerdo al número de soluciones que tenga. Diremos entonces que un sistema es compatible determinado si tiene una única solución, compatible
indeterminado si tiene más de una solución3 e incompatible si no tiene ninguna solución.
Ejemplo 2.1.1. El ejemplo más sencillo de un sistema lineal es el 1 × 1:
ax = b
En pocos renglones podemos discutir completamente como es el conjunto solución. Si a 6= 0
entonces el sistema es compatible determinado y su única solución es x = ab = a−1 b. Si
en cambio a = 0 hay dos posibilidades: si b 6= 0 el sistema es incompatible y si b = 0
trivialmente el sistema es compatible indeterminado y cualquier número es solución del
mismo.
Naturalmente este problema es extremadamente sencillo, pero como acontece muchas veces
las ideas que aquı́ se utilizan, convenientemente adaptadas, resultaran útiles en casos más
generales y complicados.
Ejemplo 2.1.2.

 x=1
(S)
y=3

z=2
es un sistema 3 × 3. Se observa de manera inmediata que Sol(S) = {(1, 3, 2)}.
1
En nuestro cursos los números que consideraremos pertenecen al cuerpo de los reales.
En general, salvo que se indique lo contrario, las soluciones se consideraran en el mismo conjunto de
números que los coeficientes, o sea los números reales.
3
Veremos más adelante que si un sistema lineal admite más de una solución entonces necesariamente
debe admitir infinitas.
2
2.1. Introducción
Ejemplo 2.1.3.
21

 x + y + 2z = 8
(S)
2y + z = 8

z=2
es también un sistema 3 × 3. Aquı́ con algo más de trabajo también se puede deducir
fácilmente el conjunto solución. Para esto basta observar que de abajo hacia arriba cada
ecuación tiene exactamente una incógnita más que la siguiente, por este motivo se dice que
el sistema está “escalerizado”. De la última ecuación se despeja z = 2. Con este valor de z
sustituimos en la segunda ecuación y tenemos 2y+2 = 8 =⇒ 2y = 6 =⇒ y = 3. Finalmente
con los valores de y y z hallados “subimos” a la primera ecuación y sustituyendo se tiene
que x + 3 + 2(2) = 8 =⇒ x = 1. En consecuencia Sol(S) = {(1, 3, 2)}.
Este procedimiento de despejar una incógnita en una ecuación y sustituirla en otra de
arriba se denomina sustitución hacia atrás.
Definición 2.1.1. Sistemas equivalentes.
Diremos que dos sistemas (S) y (S ′ ) son equivalentes cuando sol(S) = sol(S ′ ), es decir,
cuando tienen el mismo conjunto solución.
Observemos que en los ejemplos 2.1.2 y 2.1.3 los conjuntos solución son iguales, por lo que
los sistemas son equivalentes.
Ejemplo 2.1.4.

 x + y + 2z = 8
(S)
x−y+z =0

x+y+z =6
Una estrategia para resolver este sistema, inspirada en los ejemplos anteriores, podrı́a ser
la de sustituir el sistema (S) por otro (S ′ ), equivalente y “escalerizado”, de modo de poder
resolver (S ′ ) (y por ende (S) ya que al ser equivalentes los conjuntos solución de ambos
sistemas coinciden) con el procedimiento utilizado en el ejemplo 2.1.3. Analicemos un poco
estas ideas antes de retomar la resolución concreta del ejemplo.
La pregunta que naturalmente surge es ¿cómo hacer para sustituir un sistema por otro
que resulte equivalente? Para responderla introducimos la siguiente definición.
Definición 2.1.2. Transformaciones elementales.
Llamaremos transformaciones elementales a cualquiera de las siguientes operaciones
efectuadas a las ecuaciones de un sistema lineal:
1. Intercambiar de lugar dos ecuaciones. (Fi ↔ Fj )
2. Multiplicar una ecuación por un número α 6= 0. (αFi )
3. Sumar a una ecuación un múltiplo de otra. (Fi + βFj )
Entre paréntesis se indica la notación que utilizaremos para especificar cada operación en
los ejemplos. La ecuación i-ésima será notada con Fi .
La siguiente proposición responde la pregunta formulada arriba.
22
Capı́tulo 2. Sistemas de ecuaciones lineales
Proposición 2.1.1. Si en un sistema lineal de ecuaciones se efectúa una transformación
elemental entonces el sistema resultante es equivalente al original.
La demostración se puede encontrar en el apéndice de este capı́tulo.
Las cuestiones que se imponen ahora son las de saber si cualquier sistema puede ser
“escalerizado” mediante transformaciones elementales y en caso afirmativo determinar un
método o algoritmo que permita hacerlo. Volvamos a analizar el ejemplo 2.1.4.
Ejemplo 2.1.4 (continuación). Para que el sistema quede “escalerizado”, en la segunda y
tercera ecuación no debe aparecer la incógnita x entonces dejemos la primera ecuación igual
y realicemos transformaciones elementales en la segunda y tercera. La idea es combinar
ambas con la primera de modo que los coeficientes de la incógnita x se anulen. Como el
coeficiente de x en las tres ecuaciones es 1 basta en ambos casos restar la primera.


 x + y + 2z = 8
 x + y + 2z = 8
x−y+z =0 ∼
−2y − z = −8
←− F2 − F1


←− F3 − F1
x+y+z =6
−z = −2
El sistema está ya “escalerizado”, si multiplicamos las dos últimas ecuaciones por −1 se
obtiene el sistema del ejemplo 2.1.3 por lo cual Sol(S) = {(1, 3, 2)}
2.2.
Matriz asociada a un sistema de ecuaciones lineales
Definición 2.2.1. Dado un sistema de ecuaciones lineales

= b1

 a11 x1 + a12 x2 + . . . + a1n xn

 a21 x1 + a22 x2 + . . . + a2n xn
= b2
(S)
..
..

.
.



am1 x1 + am2 x2 + . . . + amn xn = bm
llamaremos matriz asociada al sistema a la matriz A, de tamaño m×n, cuyas entradas
son los coeficientes del mismo:


a11 a12 . . . a1n
 a21 a22 . . . a2n 


A= .
..
.. 
.
.
.
 .
.
.
. 
am1 am2 . . . amn
Llamaremos matriz ampliada asociada al
(n + 1) definida por:

a11 a12
 a21 a22

A|b= .
..
 ..
.
am1 am2
sistema a la matriz A | b, de tamaño m ×
...
...
..
.
a1n
a2n
..
.
b1
b2
..
.
. . . amn
bm





Diremos que dos matrices ampliadas son equivalentes si los respectivos sistemas lo son.
2.3. El método de escalerización
23
Observación 2.2.1. Sistemas de ecuaciones en notación matricial.
Manteniendo la notación de la definición anterior, designemos con X y b a las matrices
columna de las incógnitas y de los términos independientes respectivamente



X=

x1
x2
..
.
xn





Entonces el sistema se puede escribir:



b=

,
(M )
b1
b2
..
.
bm





A.X = b
El sistema (S) y la ecuación matricial (M ) son equivalentes en el siguiente sentido:
(x1 , x2 , . . . , xn ) es solución de (S)
⇐⇒



X=

x1
x2
..
.
xn



 es solución de (M )

La ecuación (M ) da lugar a una notación más compacta (matricial) para un sistema de
ecuaciones.
Ejemplo 2.2.1. Consideremos el sistema
(S)


x + y + 2z = 9
3x + 6y − 5z = 0

2x + 4y − 3z = 1
entonces la matriz del sistema, la matriz de los términos independientes y la matriz ampliada son:


 


1 1
2 9
9
1 1 2
A = 3 6 −5 , b =  0  y A|b =  3 6 −5 0 
1
2 4 −3
2 4 −3 1


x
El sistema en notación matricial se escribe: A.  y  = b
z
2.3.
El método de escalerización
Para aplicar el procedimiento de escalerización del ejemplo 2.1.4 a la matriz ampliada de
un sistema simplemente aplicamos las mismas transformaciones elementales sobre las filas
de esta matriz.
24
Capı́tulo 2. Sistemas de ecuaciones lineales
Ejemplo 2.3.1. Intentemos escalerizar


1 1
2 9
 3 6 −5 0  ∼
2 4 −3 1


1 1
2
9
 0 3 −11 −27 
∼
1
0 0
1
3


9
1 1
2
 0 3 −11 −27 
∼
0 0
1
3
el sistema del ejemplo 2.2.1


1 1
2
9
 0 3 −11 −27  ←− F2 − 3F1
0 2 −7 −17
←− F3 − 2F1
←− F3 − 23 F2
←− 3F3
Por lo tanto el sistema (S) es equivalente al sistema

 x + y + 2z = 9
3y − 11z = −27

z =3
Ahora podemos proceder a realizar sustitución hacia atrás. De la última ecuación se tiene
z = 3. Con este valor sustituimos en la segunda y tenemos 3y − 33 = −27 =⇒ 3y = 6 =⇒
y = 2. Finalmente sustituyendo en la primera x + 2 + 6 = 9 =⇒ x = 1. En consecuencia
el sistema es compatible determinado y Sol(S) = {(1, 2, 3)}.
Hasta ahora no hemos sido precisos para definir a que le llamamos un sistema o matriz
escalerizada.
Definición 2.3.1. Matriz escalerizada y escalerizada reducida.
Llamaremos matriz escalerizada a una matriz que cumpla las siguientes condiciones
1. Todas las filas, salvo quizás la primera, comienzan con una sucesión de ceros.
2. Cada fila tiene al principio por lo menos un cero más que la fila inmediata superior.
Llamaremos matriz escalerizada reducida a una matriz escalerizada que además cumple las siguientes condiciones:
1. La primera entrada no nula de una fila es 1.
2. La columna correspondiente a la primera entrada no nula de una fila tiene el resto
de las entradas todas nulas.
Diremos que un sistema está escalerizado si su matriz ampliada lo está.
Escalerizar un sistema (o matriz) consiste en encontrar un sistema (matriz) escalerizado equivalente. Si A es una matriz y E es una matriz escalerizada equivalente a A
diremos que E es una forma escalerizada de A.
Ejemplo 2.3.2.

2
 0
A=
 0
0
1
3
0
0
0
2
2
0

1
1 

1 
4

2
 0
B=
 0
0
1
0
0
0
0
3
0
0

1
1 

2 
0
2.3. El método de escalerización

1
 0
C=
 0
0
0
1
0
0
25
4
2
0
0

0
0 

1 
0

1
 0
D=
 0
0
1
0
0
0
0
1
0
0
1
2
0
0

0
0 

1 
0
Las matrices A y B son escalerizadas mientras que C y D son escalerizadas reducidas.
En el ejemplo 2.2.1 se aprecia que, una vez obtenida la forma escalerizada, el método de
sustitución hacia atrás permite resolver el sistema. Cabe entonces preguntarse el motivo
para introducir la definición de matriz escalerizada reducida. Veamos el siguiente ejemplo.

 2x + 4y + 2z = −2
Ejemplo 2.3.3. Queremos resolver el sistema: (S)
x + y + 2z = 0

−x + y − 2z = 2
La matriz ampliada del sistema es:


2 4
2 −2
 1 1
2
0 
−1 1 −2
2
Procedamos a escalerizarla, para lo cual, en primer lugar, obtenemos una matriz equivalente, pero con ceros en la segunda y tercera posición de la primera columna. Dejamos la
primera fila fija y la utilizamos como “pivot” para combinar con las otras dos.

 

2 4
2 −2
2
4
2 −2
 1 1
2
0  ∼  0 −1
1
1  ←− F2 − 12 F1
−1 1 −2
2
0
3 −1
1
←− F3 + 12 F1
Ahora la primera y segunda fila tienen el aspecto adecuado. El segundo paso consiste en
sustituir la tercera fila por otra con dos ceros en los primeros lugares. Para esto combinamos
convenientemente la tercera con la segunda fila.

 

2
4
2 −2
2
4 2 −2
 0 −1
1
1  ∼  0 −1 1
1 
(2.1)
0
3 −1
1
0
0 2
4
←− F3 + 3F2
Nótese que al dar el segundo paso, la primera fila ya no interviene y se procede de manera
análoga al primer paso, pero utilizado la segunda fila como fila “pivot”.
Ahora que obtuvimos una forma escalerizada de la matriz original podrı́amos proceder
con la sustitución hacia atrás, pero en lugar de esto intentemos obtener la forma reducida.
Fijamos la tercera fila como “pivot” y la combinamos con la primera y segunda de modo
que se anulen las entradas de la tercera columna correspondientes a la primera y segunda
fila
 


2
4 2 −2
2
4 0 −6
←− F1 − F3
 0 −1 1
1  ∼  0 −1 0 −1  ←− F2 − 12 F3
0
0 2
4
0
0 2
4
Combinando la segunda
fila y segunda columna

2
4
 0 −1
0
0
fila con la primera obtenemos un cero en la entrada de primera
 

0 −6
2
0 0 −10
←− F1 + 4F2
0 −1  ∼  0 −1 0 −1 
2
4
0
0 2
4
26
Capı́tulo 2. Sistemas de ecuaciones lineales
Para llegar a la forma reducida solo resta obtener
fila

 
2
0 0 −10
1 0
 0 −1 0 −1  ∼  0 1
0
0 2
0 0
4
unos en las entradas no nulas de cada

0 −5
←− 12 F1
0
1  ←− −F2
1
2
←− 12 F3
El sistema resultante, equivalente a (S), es entonces

 x = −5
′
(S )
y=1

z=2
Luego, es compatible determinado y Sol(S) = {(−5, 1, 2)}.
Obsérvese que en 2.1 la escalera que se obtuvo tiene todos sus “escalones” de ancho una
columna. Esto implica que en el correspondiente sistema cada ecuación tenga exactamente
una incógnita más que la inmediata inferior.
El proceso de obtener la forma reducida sustituye entonces al algoritmo de sustitución
hacia atrás. Además, el lector puede observar que la forma escalerizada de una matriz no
es única (para obtener otra basta sustituir una fila por una combinación de ella con una
fila inferior), pero la reducida sı́ lo es.

 2x + 4y + 2z = −2
Ejemplo 2.3.4. Queremos resolver el sistema: (S)
x + y + 2z = 0 La matriz

−x + y − 4z = 2
ampliada del sistema es:


2 4
2 −2
 1 1
2
0 
−1 1 −4
2
Procedamos como en el ejemplo anterior

 

2 4
2 −2
2
4
2 −2
 1 1
2
0  ∼  0 −1
1
1  ←− F2 − 12 F1
2
1
←− F3 + 12 F1
−1 1 −4
0
3 −3


2
4 2 −2

∼
0 −1 1
1 
0
0 0
4
←− F3 + 3F2
A diferencia del ejemplo precedente, la forma escalerizada de la matriz ampliada tiene tres
escalones, esto es, un escalón más que la de la matriz del sistema. La última ecuación del
sistema escalerizado es 0 = 4 y, consecuentemente, el sistema resulta incompatible.
Ejemplo 2.3.5. Procedamos a resolver el sistema:

 x + 2y + 3z = 4
x + 3y + 4z = 5
(S)

2x + 5y + 7z = 9
2.3. El método de escalerización
27
La matriz ampliada del sistema es:


1 2 3 4
 1 3 4 5 
2 5 7 9
Se tiene:

∼
 

1 2 3 4
1 2 3 4
 1 3 4 5  ∼  0 1 1 1  ←− F2 − F1
2 5 7 9
0 1 1 1
←− F3 − 2F1


1 2 3 4
 0 1 1 1 
0 0 0 0
←− F3 − F2
Vale la pena observar que, al igual que en el ejemplo 2.3.3, el número de escalones de la
matriz ampliada y el de la matriz del sistema coinciden. Por esta razón el sistema resulta
compatible. Sin embargo, aquı́ la “escalera” presenta “descansos” o escalones largos (el
primero y el segundo). El sistema de ecuaciones asociado es

 x + 2y + 3z = 4
′
(S )
y+z =1

0=0
Despejando y en función de z de la segunda ecuación se obtiene y = 1 − z. Sustituyendo en
la primera y operando resulta x = 2 − z. Cada valor real de z elegido libremente determina
una solución del sistema (S). Por ejemplo, si z = 1, se obtiene la solución (1, 0, 1). Si z = 0
se tiene la solución (2, 1, 0). El sistema es entonces compatible indeterminado y en virtud
de que una de sus incógnitas puede elegirse libremente diremos que tiene un grado de
libertad. El conjunto solución es
Sol(S) = { (2 − z, 1 − z, z) / z ∈ R }
Ejemplo 2.3.6. Hasta ahora hemos visto solamente sistemas de 3 ecuaciones con 3
incógnitas, pero las ideas utilizadas funcionan para cualquier sistema m × n. Veamos
un ejemplo de un sistema de 4 ecuaciones con 3 incógnitas.



x + y − 2z = 3
1 1 −2 3



 1 2
1 1 
x + 2y + z = 1


(S)
cuya matriz ampliada es:


1
1
3
2
x
+
y
+
3z
=
2



1 2 −4 2
x + 2y − 4z = 2
Escalerizando tenemos que la matriz es equivalente a las siguientes:

1
 0

 0
0

1 −2
3
1
3 −2 
 ←− F2 − F1 intercambiando la tercera fila con la cuarta se obtiene
0
5 −1  ←− F3 − F1
1 −2 −1
←− F4 − F1
28
Capı́tulo 2. Sistemas de ecuaciones lineales



1
1 −2
3
 0
1
3 −2 
 ∼ 
 0
1 −2 −1 
0
5 −1
0

1
 0

llegando finalmente a
 0
0
1
 0
∼
 0
0

1 −2
3
1
3 −2 

0 −5
1  ←− F3 − F2
0
5 −1

1 −2
3
1
3 −2 

0 −5
1 
0
0
0
←− F4 + F3
El número de escalones de la matriz ampliada y el de la matriz del sistema coinciden.
Por esta razón el sistema resulta compatible. Mas aún, como el número de escalones
coincide con el número de incógnitas, el sistema es compatible determinado. El sistema de
ecuaciones asociado es entonces

x + y − 2z = 3



y + 3z = −2
(S ′ )
−5z = 1



0=0
El valor de z queda determinado z = −1/5 y por sustitución hacia atrás se determinan
los únicos valores de y y x que son: y = −7/5 , x = 4. El conjunto solución del sistema
contiene una sola terna: Sol(S) = {(4, −7/5, −1/5)}.
Otro ejemplo (en este caso de un sistema de cinco ecuaciones con seis incógnitas) puede
encontrarse en el apéndice a este capı́tulo.
Los ejemplos anteriores parecen indicar que cualquier matriz y por ende cualquier sistema
puede ser escalerizado. Establezcamos este hecho en el siguiente resultado (cuya demostración se puede encontrar en el apéndice a este capı́tulo):
Proposición 2.3.1. Toda matriz puede ser transformada en una matriz escalerizada (o
escalerizada reducida) mediante una cantidad finita de transformaciones elementales.
Corolario 2.3.1. Todo sistema lineal es equivalente a uno escalerizado.
2.4.
Teorema de Rouche - Frobenius
En las discusiones realizadas de los ejemplos de la sección anterior se aprecia cierta relación entre el número de escalones de la forma escalerizada y la cantidad de soluciones del
sistema. En esta sección establecemos con precisión esta relación describiendo completamente el conjunto solución de un sistema lineal de ecuaciones en termino de la cantidad
de “escalones” del mismo.
Definición 2.4.1. Número de escalones de una matriz escalerizada.
Si E es una matriz escalerizada el número de escalones de E es la cantidad de filas
no nulas.
Observación 2.4.1. Si E es una matriz escalerizada y E ′ es una matriz reducida equivalente entonces el número de escalones de ambas es el mismo.
2.4. Teorema de Rouche - Frobenius
29
Observación 2.4.2. Ya hemos observado que la forma escalonada de una matriz no es
única. Sin embargo, y aunque no lo hemos probado todavı́a, la forma reducida sı́ lo es. De
este hecho y de la observación precedente se deduce que la cantidad de escalones de todas
las formas escalerizadas de una misma matriz coinciden.
Definición 2.4.2. Rango por filas o número de escalones de una matriz.
Si A es una matriz llamaremos número de escalones de A al número de escalones
de cualquiera de sus formas escalerizadas. Este número también se denomina rango por
filas de la matriz y se simboliza rgf (A).
Teorema 2.4.1 (Rouche - Frobenius). Sea (S) un sistema de m ecuaciones lineales con
n incógnitas con matriz ampliada A|b. Si p es el número de escalones de A y p′ el número
de escalones de A|b entonces
1. (S) es compatible si, y solo si, p = p′ .
2. Si (S) es compatible entonces
a) (S) es determinado si, y solo si, p = n.
b) (S) es indeterminado si, y solo si, p < n.
Dicho de otro modo:
1. (S) es compatible si, y solo si, rgf (A) = rgf (A|b) (el rango por filas de A coincide
con el rango por filas de la matriz ampliada).
2. Si (S) es compatible entonces
a) (S) es determinado si, y solo si, rgf (A) = n (el rango por filas de A coincide
con el rango por filas de la matriz ampliada y con el número de columnas de
A).
b) (S) es indeterminado si, y solo si, rgf (A) < n (el rango por filas de A coincide
con el rango por filas de la matriz ampliada pero es menor que el número de
columnas de A).
Observación 2.4.3. Un sistema con más incógnitas que ecuaciones.
Supongamos que tenemos un sistema de m ecuaciones con n incógnitas. Tanto su matriz
asociada como su forma escalerizada serán matrices m × n, es decir, tendrán m filas y
n columnas. Por lo tanto, la cantidad de escalones p de la matriz escalerizada siempre
será menor o igual que m. Supongamos que hay más incógnitas que ecuaciones, o sea
m < n. En este caso resulta que p < n y, por lo tanto, según el teorema de Rouche Frobenius, el sistema no puede ser determinado. Conclusión: un sistema lineal con más
incógnitas que ecuaciones solo puede ser incompatible o compatible indeterminado, nunca
compatible determinado.
30
Capı́tulo 2. Sistemas de ecuaciones lineales
Ejemplo 2.4.1. Veamos algunos ejemplos en donde se muestra la forma escalerizada de
la matriz ampliada de un sistema y el comportamiento del sistema correspondiente según
el teorema de Rouche-Frobenius.


2
1 2 −2
5
 0 −1 1
1
2 


 0
0 2
4
3 
0
0 0
2 −1
rgf (A) = rgf (A|b) = n = 4 =⇒
sistema compatible determinado.

1
 0

 0
0

2
2 −3 1
1 −1
1 3 

0
2
1 2 
0
0
0 0
rgf (A) = rgf (A|b) = 3 < n = 4 =⇒
sistema compatible indeterminado.


2
2 −3 1
1 −1
1 3 

0
0
0 0 
0
0
0 0
rgf (A) = rgf (A|b) = 2 < n = 4 =⇒
sistema compatible indeterminado.
1
 0

 0
0

1
 0

 0
0


2
2 −3 1
1 −1
1 3 

0
0
0 7 
0
0
0 0

1 2
2 −3 1 7
 0 1 −1
1 3 2 
0 0
2
1 2 5
rgf (A) = 2 6= rgf (A|b) = 3 =⇒
sistema incompatible.
rgf (A) = rgf (A|b) = 3 < n = 5 =⇒
sistema compatible indeterminado.
Observación 2.4.4. Un sistema homogéneo no es incompatible.
Un sistema con todas las entradas del término independiente nulas se denomina sistema
homogéneo.

a11 x1 + a12 x2 + . . . + a1n xn
= 0



 a21 x1 + a22 x2 + . . . + a2n xn
= 0
(H)
..
..

.
.



am1 x1 + am2 x2 + . . . + amn xn = 0
Se observa que si sustituimos todas las incógnitas por 0 (x1 = 0, . . . , xn = 0) entonces se
verifican todas las ecuaciones. Es decir, (0, 0, . . . , 0) es solución del sistema (H). A esta
solución la llamaremos solución trivial. Tenemos entonces que un sistema homogéneo
nunca es incompatible. Será compatible determinado si solo admite la solución trivial, y
compatible indeterminado si admite soluciones distintas de la trivial (además de la trivial,
claro).
2.5. Sistemas cuadrados, determinantes y Cramer
31
Observación 2.4.5. Más incógnitas que ecuaciones en un sistema homogéneo.
Según la observación 2.4.3 si un sistema tiene más incógnitas que ecuaciones no puede
ser determinado. Luego, todo sistema homogéneo con más incógnitas que ecuaciones es
indeterminado y, por lo tanto, admite soluciones distintas de la trivial.
Ejercicio 2.4.1. Resuelva los siguientes sistemas de ecuaciones:



 2x − 2y + z = 1
 2x − 2y + z = 1
 −x + 5y + 3z = 1
x + y − 4z = 1
x + y − 4z = 1
2x + y + 5z = 0
(a)
(b)
(c)



3x − y − 3z = 2
3x − y − 3z = 4
3x − 2y + 4z = −1



 x + y − 3z = −1
 x1 − x2 − x3 + 4x4 = 5

2x + y − 2z = 1
(d)
2x1 − 3x2 − 4x3 + 9x4 = 13
(e)
x
+y+z =3



2x1 + x2 + 4x3 + 5x4 = 1

x + 2y − 3z = 1
Ejercicio 2.4.2. En cada uno de los siguientes casos calcule el rango por filas de la matriz
A y concluya el comportamiento del sistema homogéneo A.X = O.






1
1 1
1
1 −2
0
1 −2
 1 −2 4 

(a) A =  1
1 −2  (b) A =  1
0
5  (c) A = 
 2 −1 2 
−3 −3
6
1 −2
3
4 −2 7
Ejercicio 2.4.3. Resuelva los siguientes sistemas discutiendo según el parámetro m ∈ R.



 x + y + mz = 1
 x + my − z = 2m + 1
 mx + y − z = m − 3
(a)
x + my + z = 1
(b)
x − m2 y − z = m
(c)
(m + 1)x + (m + 1)z = 3m



mx + y + z = −2
mx + my + mz = 1
x + my + z = 0
Ejercicio 2.4.4. Resuelva los siguientes sistemas de ecuaciones:


x1 + x2 + x3 + 2x4 = 4


3x1 − x2 − 3x3 − x4 = −2





 2x1 + x2 + 2x3 + 2x4 = 7
2x1 − 2x2 − 6x3 − 6x4 = −4
x1 + 2x2 + x3 + 4x4 = 5
(a)
(b)


 2x1 − x2 − 3x3 − 2x4 = −3
 3x1 − 2x2 + 3x3 − 4x4 = 7




3x1 + x2 + 3x3 + 7x4 = 2
4x1 − 3x2 + 4x3 − 5x4 = 10
2.5.
Sistemas cuadrados, determinantes y Cramer
Para los sistemas que tienen la misma cantidad de incógnitas que de ecuaciones (cuadrados)
existen algunos resultados especiales que mencionaremos en esta sección. Comencemos
considerando el caso de un sistema 2 × 2:
ax + by = e
a b
con matriz asociada A =
cx + dy = f
c d
Si suponemos, para fijar ideas, que a 6= 0, una matriz escalerizada correspondiente a A es:
a
b
0 ad − bc
←− (−c)F1 + aF2
32
Capı́tulo 2. Sistemas de ecuaciones lineales
Resulta entonces que el sistema es determinado si, y solo si, el número ad − bc es distinto
de cero. Este número se denomina determinante de la matriz A y se simboliza:
det(A) =
a b
c d
= ad − bc
Como el lector conoce de cursos anteriores, es posible definir el determinante de una
matriz cuadrada (n × n). Recordemos algunos procedimientos de cálculo. Por ejemplo,
una de las maneras de calcular el determinante de una matriz 3 × 3 es a partir de la regla
de Sarrus:
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a21 a12 a33 − a11 a32 a23
Debemos tener presente que la regla de Sarrus es válida solamente para determinantes de
matrices 3 × 3. Otra forma de calcularlo es mediante el “desarrollo por la primera fila”:
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11
a22 a23
a32 a33
− a12
a21 a23
a31 a33
+ a13
También es posible “desarrollarlo” por otras filas o columnas haciendo
pondientes en cada caso.4 Por ejemplo, el desarrollo del determinante
es:
a11 a12 a13
a12 a13
a11 a13
+ a22
− a23
a21 a22 a23 = −a21
a32 a33
a31 a33
a31 a32 a33
a21 a22
a31 a32
los cambios correspor la segunda fila
a11 a12
a31 a32
En el caso particular de una matriz triangular (todas las entradas por encima o por debajo
de la diagonal principal son ceros) el resultado es muy simple. En efecto, desarrollándolo
por la primera columna se obtiene:
a11 a12 a13
0 a22 a23
0
0 a33
= a11 a22 a33
Es ası́ que el determinante de una matriz triangular es simplemente el producto de los
elementos que están en la diagonal principal.
Con excepción de la regla de Sarrus, el resto de las consideraciones mencionadas son válidas
también para el determinante de cualquier matriz n × n. Observemos que, por ejemplo,
el cálculo a partir del desarrollo por una fila (o columna) de un determinante 4 × 4 nos
llevarı́a a calcular cuatro determinantes 3 × 3, mientras que el un determinante 5 × 5 a
cinco determinantes 4 × 4. Por suerte, los determinantes tienen una serie de propiedades
que permiten un cálculo más simple y eficiente vinculado nuevamente con un proceso de
escalerización. Repasemos algunas de ellas (en todos los casos nos referiremos a matrices
cuadradas).
4
Recordemos que el desarrollo por una lı́nea (fila o columna) es la suma de los productos de los elementos
de la lı́nea por sus respectivos adjuntos. A su vez, el adjunto asociado a aij es el producto de (−1)i+j por
el subdeterminante de un orden menor que se obtiene al quitar de la matriz original la fila i y la columna
j (que se denomina menor complementario de aij ).
2.5. Sistemas cuadrados, determinantes y Cramer
33
Algunas propiedades de los determinantes.
(1) Si B es una matriz que se obtiene permutando dos filas (o dos columnas) de la matriz
A entonces det(B) = −det(A).
(2) Si B es una matriz que se obtiene multiplicando cada uno de los elementos de una
fila (o columna) de la matriz A por un número k entonces det(B) = k det(A).
(3) Si a una fila (o columna) de una matriz se le suma un múltiplo de otra fila (columna)
entonces su determinante no cambia.
(4) El determinante de una matriz triangular es el producto de los elementos que están
en su diagonal principal.
(5) El determinante de una matriz A y el de su traspuesta At coinciden.
(6) Si una columna (fila) de una matriz A es combinación lineal de otras columnas (filas)
de A entonces det(A) = 0. En particular, si dos filas (o dos columnas) de una matriz
son proporcionales entonces el determinante vale 0.
(7) Si A y B son matrices n × n entonces det(A.B) = det(A) det(B).
Observemos que las transformaciones aplicadas sobre las filas que se mencionan en las tres
primeras propiedades, coinciden con las transformaciones elementales sobre las filas
de una matriz (o sobre las ecuaciones de un sistema) que fueron definidas en 2.1.2. Dichas
transformaciones eran la base del proceso de escalerización de matrices (o sistemas) y
ahora serán utilizadas (conjuntamente con la propiedad (4)), para desarrollar un método
eficiente de cálculo de determinantes por escalerización. Veamos un par de ejemplos.
Ejemplo 2.5.1. Queremos calcular
1 1
1
1 2 −2 . Para ello aplicamos convenientemente
2 1
7
la propiedad (3):
1 1
1
1 2 −2
2 1
7
=
=
1
1
1
0
1 −3
0 −1
5
1 1
1
0 1 −3
0 0
2
←− F2 − F1
←− F3 − 2F1
=2
←− F3 + F2
Al haber llegado al determinante de una matriz triangular, en el último simplemente
multiplicamos los elementos de la diagonal.
4 2
9 1
7 4
5 1
Ejemplo 2.5.2. Queremos calcular
. En primer lugar permutamos la
2 5 −3 1
−3 4
2 1
primera columna con la cuarta (utilizando la propiedad (1)), para luego comenzar la
escalerización del determinante obtenido:
4
7
2
−3
2
9 1
4
5 1
5 −3 1
4
2 1
1
1
= −
1
1
2
9
4
4
5
7
5 −3
2
4
2 −3
1
0
=−
0
0
2
9
4
2 −4
3
3 −12 −2
2 −7 −7
←− F2 − F1
←− F3 − F1
←− F4 − F1
34
Capı́tulo 2. Sistemas de ecuaciones lineales
1
0
=−
0
0
2
9
4
2 −4
3
3 −12 −2
0 −3 −10
←− F4 − F2
Ahora, para eliminar el 3 de la segunda columna podrı́amos sumarle a la tercera fila la
segunda multiplicada por −3
2 . En caso de no querer trabajar con fracciones podemos, en
primera instancia, multiplicar la tercera fila por 2. Al hacer esto debemos estar atentos
pues, según la propiedad (2), el nuevo determinante valdrá 2 veces el anterior:
1
0
=−
0
0
2
9
4
2 −4
3
3 −12 −2
0 −3 −10
1
= −
2
1
0
0
0
2
9
4
2 −4
3
6 −24 −4
0 −3 −10
←− 2F3
Continuando la escalerización y luego permutando las dos últimas filas:
1
= −
2
1
0
0
0
2
9
4
2 −4
3
0 −12 −13
0 −3 −10
←− F3 − 3F2
1
=
2
1
0
0
0
2
9
4
2 −4
3
0 −3 −10
0 −12 −13
Finalmente llegamos a:
1
=
2
1
0
0
0
2
9
4
2 −4
3
0 −3 −10
0
0
27
=
1
2 (−3) 27 = −81
2
←− F4 − 4F3
Observación 2.5.1. Determinantes de una matriz y de sus formas
escalerizadas.


4 2
9 1
 7 4
5 1 

Retomemos el ejemplo anterior simbolizando con A a la matriz A = 
 2 5 −3 1 .
−3 4
2 1
Para obtener una forma escalerizada de A podemos aplicar sobre sus filas las mismas
transformaciones que
 se realizaron en el
 ejemplo. Una forma escalerizada de A es enton1 2
9
4
 0 2 −4
3 

ces la matriz B = 
 0 0 −3 −10 . Si bien los determinantes de estas matrices no
0 0
0
27
coinciden, uno es múltiplo no nulo del otro. Según las propiedades (1), (2) y (3), eso ocurrirá siempre que apliquemos sobre las filas de la matriz los tres tipos de transformaciones
elementales. Resulta entonces que si A es una matriz cualquiera n × n, y B es una de sus
formas escalerizadas, entonces existirá m ∈ R, m 6= 0 tal que det(A) = m det(B).
En particular, podemos afirmar que si el determinante de una matriz A vale 0, entonces
también será nulo el determinante de cualquiera de sus formas escalerizadas. Y recı́procamente, si el determinante de alguna de sus formas escalerizadas vale 0, también valdrá 0
el determinante de A.
2.5. Sistemas cuadrados, determinantes y Cramer
35
Lo que ocurrió con el sistema 2 × 2 planteado al comienzo de esta sección admite una
generalización para sistemas cuadrados cualesquiera.
Teorema 2.5.1. Teorema de Cramer.
Sea A una matriz n×n y (S) el sistema de n ecuaciones con n incógnitas dado por A.X = b
(A es la matriz asociada al sistema, X es la matriz columna de las incógnitas y b es la
matriz columna de los términos independientes). Entonces las siguientes afirmaciones son
equivalentes:
1. A es invertible.
2. det(A) 6= 0.
3. (S) es compatible determinado independientemente de b.
Demostración.
(1) =⇒ (2)
Por hipótesis existe A−1 tal que A.A−1 = In . Entonces, aplicando la propiedad (7)
de los determinantes llegamos a
det(A) det A−1 = det (In )
Como det (In ) = 1 obtenemos la siguiente igualdad:
det(A) det A−1
= 1.
Esto implica que det(A) 6= 0. Más aún, podemos despejar y obtener:
det A−1
=
1
det(A)
(2) =⇒ (3)
Para estudiar el comportamiento del sistema (S) consideramos una forma escalerizada de la matriz A. Como A es n × n toda forma escalerizada B de A también
será n × n y tendrá nulas todas sus entradas por debajo de la diagonal principal:
 ′

a11 a′12 a′13 . . . . . . a′1n
 0
a′22 a′23 . . . . . . a′2n 




..
′
′

.
0
a33
a3n 
B= 0

 ..

..
..
. . . . ..
 .

.
.
. .
.
′
0
0
... ... 0
ann
En principio, B podrı́a tener filas nulas, pues no conocemos su rango por filas. Pero
eso no puede ocurrir. En efecto, como por hipótesis det(A) 6= 0, la observación previa
nos permite asegurar que det(B) 6= 0. Como el determinante de B es el producto de
36
Capı́tulo 2. Sistemas de ecuaciones lineales
los elementos de su diagonal principal
0 (a′ii 6= 0, ∀ i):
 ′
a11 a′12
 0
a′22


0
B=
 0
 ..
..
 .
.
0
0
deducimos que ninguno de ellos puede valer
a′13 . . .
a′23 . . .
.
a′33 . .
..
..
.
.
... ...

. . . a′1n
. . . a′2n 


′
a3n 


. . ..

. .
′
0
ann
Resulta entonces que el rango por filas de A es n y, por lo tanto, el rango por filas de
A coincide con el rango por filas de la matriz ampliada y con el número de columnas
de A (que es n). Del teorema de Rouche-Frobenius podemos concluir que el sistema
(S) es compatible determinado.
(3) =⇒ (1)
Paso 1: Se demostrará que existe B tal que A.B = In .
Para cada j entre 1 y n designemos con ej a la columna j-ésima de la matriz identidad
In :
 
 
 
1
0
0
 0 
 1 
 0 
 
 
 
 
 
 
e1 =  0  , e2 =  0  , . . . , en =  0 
 .. 
 .. 
 .. 
 . 
 . 
 . 
0
0
1
Por hipótesis, los sistemas A.X = e1 , A.X = e2 , . . . , A.X = en son compatibles
determinados. Sean entonces X1 , X2 , . . . , Xn las matrices n × 1 que verifican:
A.X1 = e1 , A.X2 = e2 , . . . . . . , A.Xn = en
Si B es la matriz n × n que tiene como columnas a X1 , X2 , . . . , Xn entonces, de
la definición de producto de matrices (ver Observación 1.1.2), resulta que A.B = In .
Paso 2: Se demostrará que B también cumple B.A = In .
Para ello comenzamos observando que, como 1 = det(In ) = det(A) det(B), el determinante de B no puede ser 0. Aplicando a la matriz B la implicación ( (2) =⇒ (3) )
(ya demostrada) concluimos que el sistema B.X = b es compatible determinado para cualquier b. Repitiendo para la matriz B el razonamiento realizado en el Paso 1
para la matriz A, podemos asegurar que existe una matriz C tal que B.C = In . Se
tiene:
C = In .C = (A.B).C = A.(B.C) = A.In = A =⇒ C = A
♠
Observación 2.5.2. Sea A una matriz n × n y (S) el sistema de n ecuaciones con n
incógnitas dado por A.X = b. Del teorema anterior resultan las siguientes observaciones:
1. Si det(A) = 0 entonces el sistema es compatible indeterminado o incompatible (esto
dependerá de b). Ahora bien, si det(A) = 0 y además el sistema es homogéneo,
entonces éste resulta compatible indeterminado.
2.5. Sistemas cuadrados, determinantes y Cramer
37
2. Si det(A) 6= 0 entonces el sistema es compatible determinado independientemente
de b.
3. En el caso en que (S) sea compatible determinado (lo cual, según el teorema de
Cramer, equivale a A invertible) podemos encontrar una fórmula matricial para su
única solución. En efecto:
X̃ es solución de (S) ⇐⇒ A.X̃ = b ⇐⇒ A−1 A.X̃ = A−1 .b ⇐⇒
A−1 .A X̃ = A−1 .b ⇐⇒ In .X̃ = A−1 .b ⇐⇒ X̃ = A−1 .b
Ejemplo 2.5.3. Si bien los sistemas 2 × 2 se resuelven fácilmente por escalerización,
veamos como aplicar la fórmula anterior en esos casos. Supongamos que queremos resolver
el sistema
2x + y = 3
(S)
x + y = −1
2 1
La matriz asociada es A =
. Como det(A) = 1 6= 0 el sistema es compatible
1 1
1 −1
−1
. Luego, la única
determinado y A es invertible. La inversa de A es A =
−1
2
solución del sistema es:
1 −1
3
4
−1
A .b =
=
−1
2
−1
−5
Ejercicio 2.5.1. Calcule los siguientes determinantes:
(a)
(d)
4
5
3 −2
2 1
1
−1 5 −17
−8 7 −37
(b)
(e)
7 −2
π
2
3 −2
4
6 −4
1
1
1
−1
1
1 0
1 −1 1
0 −1 1
1
1 1
(c)
1 −2
4
−3
5
2
3
6 −1
(f )
1
2 −3
4
3 −1
2
4
−2 −3
6 −7
1
3 −1
2
Ejercicio 2.5.2. Si A es una matriz n × n tal que A3 = A, ¿cuáles son los posibles valores
para el det(A)?
Ejercicio 2.5.3. Se sabe que A es una matriz 3 × 3 y que det(A) = 5. calcule el determinante de B = 2A2 A−1 .
Ejercicio 2.5.4. Sean A y B dos matrices n × n y k un número real. Investigue si las
siguientes afirmaciones son verdaderas o falsas.
1. det(A + B) = det(A) + det(B)
2. det(kA) = k det(A)
3. det(kA) = kn det(A)
38
Capı́tulo 2. Sistemas de ecuaciones lineales
Ejercicio 2.5.5.
1. Sea A una matriz n × n antisimétrica (esto quiere decir que At = −A). Pruebe que
si n es impar entonces det(A) = 0.
2. Una matriz A n×n se dice nilpotente cuando existe algún natural k tal que Ak = O
(matriz nula). Pruebe que el determinante de una matriz nilpotente vale 0.
3. Una matriz A n × n se dice idempotente cuando A2 = A. ¿Qué valores puede tener
el determinante de una matriz idempotente? Construya ejemplos en los que ocurra
los distintos casos.
Ejercicio 2.5.6. Analice (sin resolverlos) si los siguientes sistemas homogéneos son determinados o indeterminados.

 x+y−z =0
(a)
x + y + 3z = 0

x + y − 5z = 0


x + 2y = 0
(b)
kx + ky + kz = 0

x + 2y + kz = 0
En los dos últimos se deberá discutir según k ∈ R.

 x + y + kz = 0
(c)
x − ky + z = 0

kx + y + z = 0
Ejercicio 2.5.7. Sean f y g dos funciones con derivada segunda en un intervalo I. Se
define:
ϕ : I −→ R / ϕ(t) =
Compruebe que ϕ′ (t) =
2.6.
f (t) g(t)
f ′′ (t) g′′ (t)
f (t) g(t)
f ′ (t) g′ (t)
, ∀ t ∈ I.
Cálculo de la inversa de una matriz invertible
La idea utilizada al principio del capı́tulo para resolver un sistema lineal 1×1, funcionó también para resolver un sistema lineal n × n con n > 1. La fórmula X = A−1 .b no solo es
análoga a la obtenida en el ejemplo 2.1.1, sino que parece indicar un nuevo procedimiento
para resolver sistemas lineales. Sin embargo hay varios asuntos para aclarar. En primer
lugar todo lo hecho aquı́ se aplica solamente a sistemas cuadrados. En segundo lugar dicha
fórmula es válida solamente bajo la hipótesis de que A sea invertible. Finalmente, cuando
A es invertible, para poder aplicar la fórmula necesitamos saber cómo obtener la matriz
A−1 , inversa de A. A continuación veremos un algoritmo para calcular la matriz inversa.
Como se demostró en el teorema 2.5.1, si A es una matriz n × n y existe B ∈ Mn×n tal que
A.B = In entonces B.A = In y, por lo tanto, B es la inversa de A. Para hallar la inversa
de una matriz A invertible nos bastará entonces con hallar B tal que A.B = In . Esto
es equivalente a resolver n sistemas de ecuaciones con igual matriz asociada y diferentes
términos independientes. En efecto, si indicamos por Cj (B) la columna j-ésima de B y por
2.6. Cálculo de la inversa de una matriz invertible
39
ej la columna j-ésima de In tenemos que



A.B = A

A.B
 = I⇐⇒

C1 (B) C2 (B) . . . Cn (B)
AC1 (B) AC2 (B) . . . ACn (B)






 = 
=



...
...


e1 e2 . . . en




 = In ⇐⇒



...


 
..
.
b1j
0
 .. 
 .. 
..
 . 
 . 
.


 
j



⇐⇒ (Sj )
←−
lugar
j
(j = 1, 2, ..., n)
A
b
=
1
=
e
 jj 
 
 .. 
 .. 
..
 . 
 . 
.
..
0
bnj
.
Como los n sistemas S1 , S2 , . . . , Sn tienen la misma matriz A de coeficientes (con diferentes términos independientes), se pueden resolver simultáneamente escalerizando la matriz
( A| I ).
2 1
Ejemplo 2.6.1. Consideremos la matriz A =
. Como det(A) = 2 6= 0 resulta
4 3
x11 x12
que A es invertible. Su inversa será la matriz C =
tal que A.C = I. Se
x21 x22
tiene:
2 1
4 3
x11 x12
x21 x22
=
2x11 + x21 2x12 + x22
4x11 + 3x21 4x12 + 3x22
=
1 0
0 1
Igualando (por columna) se tienen los siguientes sistemas de ecuaciones:
2 1
x11
2x11 + x21 = 1
⇐⇒
(S1 )
=
4x11 + 3x21 = 0
4 3
x21
2x12 + x22 = 0
2 1
x12
(S2 )
⇐⇒
=
4x12 + 3x22 = 1
4 3
x22
Como para ambos sistemas la matriz A es
simultáneamente
2 1 1 0
2
∼
4 3 0 1
0
2
∼
0
1
∼
0
1
0
0
1
la matriz de coeficientes, los podemos resolver
1
1
0
1
0
1
1 0
−2 1
←− F2 + (−2)F1
3 −1
←− F1 − F2
−2 1
3
− 12
←− 12 F1
2
−2 1
40
Por lo tanto
Capı́tulo 2. Sistemas de ecuaciones lineales
x11
x21
=
3
2
−2
y
A−1
x12
x22
=
− 12
. Es decir que la inversa de A es
1
3
− 12
2
.
−2 1
=
Luego de las explicaciones anteriores podemos describir el método de la siguiente forma.
Para calcular la inversa de la matriz A de tamaño n × n, escalerizamos hasta llegar a
la forma escalerizada reducida de A realizando las mismas operaciones en todas las filas
de ( A| I ). Cuando finalmente lleguemos a ( I| B ) tendremos que A−1 = B. Veamos un
ejemplo en donde aplicamos directamente este método.


−1
1
1
Ejemplo 2.6.2. Hallemos la inversa de A =  1 −1
1  (verifique que su deter1
1 −1
minante es 6= 0). Se tiene:




−1
1
1
1 0 0
−1 1 1
1 0 0
 1 −1
1
0 1 0  ∼  0 0 2
1 1 0  ←− F2 + F1
←− F3 + F1
1
1 −1
0 0 1
0 2 0
1 0 1


−1 1 1
1 0 0
∼  0 2 0
1 0 1 
0 0 2
1 1 0


2 −2 0
−1 0 0
←− F3 − 2F1
∼  0
2 0
1 0 1 
0
0 2
1 1 0


2 0 0
0 1 1
←− F1 + F2


∼
0 2 0
1 0 1
0 0 2
1 1 0


1 0 0
0 12 12
1
∼  0 1 0
0 12 
2
1
1
0 0 1
0
2
2
Resulta entonces que

A−1 = 
0
1
2
1
2
1
2
0
1
2
1
2
1
2
0


Ejercicio 2.6.1. Investigue si las siguientes matrices son invertibles y, en caso afirmativo,
encuentre la matriz inversa.






1
1
1
1 −2
4
1 0 1
A= 1
1 −1 
B =  −1
3 −7 
C = 2 1 0 
1 −1
1
2
1 −7
1 0 0




1 1
1 0
2 3 3
 1 1 −1 1 

D= 1 2 0 
E=
 1 0 −1 1 
0 1 3
−1 1
1 1
2.7. Apéndice de esta sección
2.7.
41
Apéndice de esta sección
Ejemplo 2.7.1. Otro ejemplo de resolución de un sistema de ecuaciones lineales

x1 + 2x2 + x3 + x5 + x6 = 1




 −x1 − 2x2 + x3 + x4 − x6 = 0
(S)
x1 + 2x2 + 3x3 − x4 − 2x5 − x6 = 2


x
+ 2x2 + 3x3 + x4 + 2x5 − x6 = 0


 1
x1 + 2x2 + x3 + 4x4 + 9x5 + 3x6 = 1
La matriz del sistema ampliada es:

1
2
 −1 −2

 1
2

 1
2
1
2
1
0
1
1 1
1
1
0 −1 0
3 −1 −2 −1 2
3
1
2 −1 0
1
4
9
3 1






Como antes, el proceso comienza fijando la primera fila como “pivot”
primera entrada para lograr anular el resto de la primera columna.


1
2 1
0
1
1 1
 −1 −2 1
1
0 −1 0 


 1
2 3 −1 −2 −1 2 

∼
 1
2 3
1
2 −1 0 
1
2 1
4
9
3 1


1 2 1
0
1
1
1
 0 0 2
1 
1
1
0



∼  0 0 2 −1 −3 −2
1 

 0 0 2
1
1 −2 −1 
0 0 0
4
8
2
0
y utilizando su
←− F2 + F1
←− F3 − F1
←− F4 − F1
←− F5 − F1
En los ejemplos anteriores, en el segundo paso se utilizaba la entrada ubicada en la segunda
fila y segunda columna para conseguir ceros en el resto de la columna. Aquı́ esto no es
posible pues la segunda columna ya tiene todas sus entradas (salvo la primera) nulas.
Utilizamos entonces la entrada ubicada en la segunda fila y tercera columna para generar
ceros en el resto de la columna tres.






1
0
0
0
0
2
0
0
0
0
1
0
1
1
1
2
1
1
0
1
2 −1 −3 −2
1
2
1
1 −2 −1
0
4
8
2
0



∼





∼


1
0
0
0
0
2
0
0
0
0
1
0
1
1
1
2
1
1
0
1
0 −2 −4 −2
0
0
0
0 −2 −2
0
0
4
8
2



 ←− F3 − F2

 ←− F4 − F2
←− F5
(2.2)
42
Capı́tulo 2. Sistemas de ecuaciones lineales
En el tercer paso escalerizaremos la columna siguiente (la cuarta)






1
0
0
0
0
2
0
0
0
0
1
0
1
1
1
2
1
1
0
1
0 −2 −4 −2
0
0
0
0 −2 −2
0
4
8
2
0


 
 
∼
 
 
1
0
0
0
0
2
0
0
0
0
1
0
1
1
1
2
1
1
0
1
0 −2 −4 −2
0
0
0
0 −2 −2
0
0
0
0
0






←− F5 + 2F3
Ya tenemos la forma escalerizada, pero como en el ejemplo 2.3.3 continuemos hasta obtener
la forma reducida






1
0
0
0
0



∼


2
0
0
0
0
1
0
0
0
0
1
0
1
1
2
1
1
0
0 −2 −4 −2
0
0
0 −2
0
0
0
0

1 2
 0 0

∼
 0 0
 0 0
0 0
2
0
0
0
0
1
1
0
−2
0



∼



1
0
1
0
0
←− F1 + 12 F4

2
1
1
0
1 
0 −2 −4
0
2 
 ←− F3 − F4 ∼
0
0
0 −2 −2 
0
0
0
0
0


1 2 1
0
1
0
0
1
 0 0 2
0 −1
0
2 

 ←− F2 + 2 F3
0
2 
∼
∼
 0 0 0 −2 −4

 0 0 0

0
0 −2 −2
0 0 0
0
0
0
0

3
0
0
0 −1
←− F1 − 12 F2
2

2
0 −1
0
2 
0 −2 −4
0
2 
∼


0
0
0 −2 −2
0
0
0
0
0

3
1 2 0 0
2
 0 0 1 0 −1
2

∼
2
 0 0 0 1
 0 0 0 0
0
0 0 0 0
0
El sistema de ecuaciones asociado queda entonces

x1 + 2x2 + 32 x5 = −1



x3 − 12 x5 = 1
(S ′ )
x4 + 2x5 = −1



x6 = 1

0 −1
1
0
1 
 ←− 2 F12
0 −1 
 ←− − 21 F3
1
1  ←− − 2 F4
0
0
(2.3)
2.7. Apéndice de esta sección
Despejando se tiene
43

x1



x3
x


 4
x6
= −2x2 − 32 x5 − 1
= 12 x5 + 1
= −2x5 − 1
=1
Las incógnitas x2 y x5 no pueden determinarse, las otras se obtienen como función de ellas.
Cada valor real de x2 y x5 (elegidos libremente) determina una solución del sistema (S). Por
ejemplo, si x2 = 1 y x5 = 0 se obtiene la solución (−3, 1, 1, −1, 0, 1). Si x2 = −1 y x5 = 2
se tiene la solución (−2, −1, 2, −5, 2, 1). El sistema es entonces compatible indeterminado
y en virtud de que dos de sus incógnitas pueden elegirse libremente diremos que tiene dos
grados de libertad. El conjunto solución es
3
1
Sol(S) =
−2x2 − x5 − 1, x2 , x5 + 1, −2x5 − 1, x5 , 1 , x2 ∈ R, x5 ∈ R
2
2
Demostración de la Proposición 2.1.1:
Si en un sistema lineal de ecuaciones se efectúan una transformación elemental el sistema
resultante es equivalente al original.
Demostración. La demostración es muy sencilla y la haremos solamente en el caso que
la transformación elemental sea del tipo 3. El resto queda a cargo del lector.
Supongamos que el sistema original sea

a11 x1 + a12 x2 + · · · + a1n xn = b1




..


.





 ai1 x1 + ai2 x2 + · · · + ain xn = bi
..
(S)
.



aj1 x1 + aj2 x2 + · · · + ajn xn = bj




..


.



am1 x1 + am2 x2 + · · · + amn xn = bm
Supongamos que sumamos a la ecuación i un múltiplo de la ecuación j. El sistema resultante es

a11 x1 + a12 x2 + · · · + a1n xn = b1




..


.



 (ai1 x1 + ai2 x2 + · · · + ain xn ) + β(aj1 x1 + aj2 x2 + · · · + ajn xn ) = bi + βbj


..
(S ′ )
.



a
x
+
a
x
+
· · · + ajn xn = bj

j1 1
j2 2



.

..




am1 x1 + am2 x2 + · · · + amn xn = bm
Para probar que ambos son equivalentes deberemos ver que Sol(S) = Sol(S ′ ). Como se
trata de mostrar la igualdad de dos conjuntos tendremos que demostrar que están mutuamente incluidos.
44
Capı́tulo 2. Sistemas de ecuaciones lineales
Veamos primero que Sol(S) ⊂ Sol(S ′ ). Sea (α1 , α2 , · · · , αn ) ∈ Sol(S) es claro que (α1 , α2 , · · · , αn )
satisface todas las ecuaciones de (S ′ ) (pues son las mismas que las de (S)) salvo tal vez
la i-esima. Como (α1 , α2 , · · · , αn ) debe verificar la i-esima y j-esima ecuación de (S) se
tiene que
ai1 α1 + ai2 α2 + · · · + αin xn = bi y aj1 α1 + aj2 α2 + · · · + ajn αn = bj
por lo tanto
(ai1 α1 + ai2 α2 + · · · + ain αn ) + β(aj1 α1 + aj2 α2 + · · · + ajn αn ) = bi + βbj
de donde (α1 , α2 , . . . , αn ) ∈ Sol(S ′ ).
Finalmente probemos que Sol(S ′ ) ⊂ Sol(S). Consideremos ahora
(α1 , α2 , . . . , αn ) ∈ Sol(S ′ ).
Igual que antes es claro (α1 , α2 , . . . , αn ) debe verificar todas las ecuaciones de (S) salvo
tal vez la i-esima pero como
(ai1 α1 + ai2 α2 + · · · + ain αn ) + β(aj1 α1 + aj2 α2 + · · · + ajn αn ) = bi + βbj
y
aj1 α1 + aj2 α2 + · · · + ajn αn = bj
se deduce que
ai1 α1 + ai2 α2 + · · · + ain αn = bi
con lo cual (α1 , α2 , . . . , αn ) ∈ Sol(S) y la prueba esta concluida. ♠
Demostración de la Proposición 2.3.1:
Toda matriz puede ser transformada en una matriz escalerizada (o escalerizada reducida)
mediante una cantidad finita de transformaciones elementales.
Demostración. La prueba es algorı́tmica.5 Indicaremos esquemáticamente el procedimiento, los detalles quedan a cargo del lector.
Sea A = ((aij )) una matriz m × n cualquiera. En el desarrollo que sigue a continuación
cambiaremos la notación habitual pasando a simbolizar con Ai = (ai1 , ai2 , . . . , ain ) a la
fila i-ésima de la matriz A.
El objetivo del primer paso es obtener una matriz con una primera columna que tenga
nulas todas sus entradas excepto la primera. Si toda la primera columna es nula se pasa
a la segunda y ası́ sucesivamente hasta tener una primera columna con alguna entrada
distinta de cero. La idea para anular el resto de las entradas de la columna es ubicar la
entrada no nula (a la que llamaremos pivot) en la primera fila y utilizar esta para combinar convenientemente con cada fila a los efectos de lograr ceros en todas las posiciones.
Para simplificar la notación aquı́ supondremos que ya la primera columna tiene alguna entrada no nula. Con la suposición indicada comenzamos reconociendo si a11 6= 0. Si a11 = 0
5
Un algoritmo es, groseramente hablando, un conjunto de acciones expresadas en un lenguaje formal y
sin ambigüedades que pueden ser comprendidos y ejecutados por una persona o una máquina.
Este algoritmo es conocido con el nombre de Método de Gauss.
2.7. Apéndice de esta sección
45
cambiamos la primera fila por otra cuya primera entrada sea no nula.6 Una vez que el
pivot esta ubicado realizamos el primer paso de la escalerización:

 

A1
A1
 A2
  A′
 ←− A2 − a21 A1
a11

  2

 ..



..
..
..
..
 .



.
.
.

∼ .

 Ai
  A′
 ←− Ai − ai1 A1
a11

  i

 ..
  ..

..
..
..
 .



.
.
.
.
Am
A′m
A1
←− Am − aam1
11
La matriz que obtuvimos tiene el siguiente aspecto:

a11 a12 . . . a1n
 0
a′22 . . . a′2n

 ..
..
. . ..
 .
. .
.
a′m2 . . . a′mn
0





En el segundo paso el objetivo es obtener una nueva matriz que tenga las entradas de
la segunda columna todas nulas salvo tal vez las dos primeras. Para eso repetimos el
procedimiento del paso uno a la sub-matriz que aparece recuadrada.
De nuevo el primer paso es determinar el segundo pivot para esto chequeamos que a′22 6= 0
de lo contrario cambiamos la segunda fila por otra (de abajo) con segunda entrada no
nula. Podrı́a ocurrir que todas las entradas de la segunda fila fuesen nulas en ese caso la
segunda columna ya tiene el aspecto adecuado por lo cual el procedimiento se continúa
ubicando un pivot en al posición 2, 3 (ver (2.2) en el ejemplo 2.7.1). Supongamos, para
fijar ideas, que a′22 6= 0 entonces el segundo paso de la escalerización es:












A1
A′2
A′3
..
.
A′i
..
.
A′m

..
.
..
.

 
 
 
 
 
∼
 
 
 
 
 

A1
A′2
A′′3
..
.
..
.
A′′i
..
.
..
.
A′′m
La matriz obtenida en el paso dos tiene entonces el

a11 a12 a13 . . .
 0
a′22 a′23 . . .

 0
0
a′′33 . . .

 ..
..
..
..
 .
.
.
.
0
0


 ←− A′3 − a32 A′2
a22


..

.

 ←− A′ − ai2 A′
i

a22 2

..

.
←− A′m − aam2
A′2
22
aspecto:

a1n
a′2n 

a′′3n 


..

.
a′′m3 . . . a′′mn
6
Por razones numéricas y para evitar errores de redondeo al resolver sistemas con ayuda de la computadora resulta muchas veces importante, aún cuando a11 6= 0 cambiar la primera fila por la fila que tenga
la primera entrada mayor, este procedimiento se conoce como pivoteo.
46
Capı́tulo 2. Sistemas de ecuaciones lineales
Repetimos nuevamente los pasos previos aplicados a la sub-matriz del recuadro. El procedimiento culmina cuando se llega a la última fila o columna.
Para obtener la matriz escalerizada reducida a partir de la escalerizada, basta con repetir
el procedimiento pero tomando como pivots la entrada que ocupa el lugar inferior derecho
de la matriz y yendo hacia arriba. ♠
Demostración del teorema de Rouche - Frobenius.
Sea (S) un sistema lineal de m ecuaciones con n incógnitas con matriz ampliada A|b. Sea
p el número de escalones de A y p′ el número de escalones de A|b entonces
1. (S) es compatible si y solo si p = p′
2. Si (S) es compatible entonces
a) (S) es determinado si y solo si p = n.
b) (S) es indeterminado si y solo si p < n.
Demostración. Comencemos probando los recı́procos de las tres afirmaciones. Observemos en primer lugar que como A tiene n columnas y cada escalón ocupa por lo menos una
columna deducimos que para cualquier sistemas se cumple que
p≤n
Supongamos que p = p′ . De (2.4) se deduce que
p′ = p < n. Analicemos el primer caso. La forma
como columnas por lo tanto debe ser:

1 0 0
... ...
 0 1 0
... ...


..
 0 0 1
.

 .. .. . . . . . .
 . .
.
.
.

 .. ..
.
.. 1
 . .

 0 0 ... ... 0
0 0 ... ... 0
(2.4)
hay dos posibilidades p′ = p = n o
reducida debe tener tantos escalones
0
0
..
.
..
.
c1
c2
..
.
..
.
.
0 ..
1 cn
0 0













Donde la columna de entradas ci representa el termino independiente luego de efectuado
el proceso de escalerización. El sistema correspondiente es

x1 = c1



 x2 = c2
..
..

.
.



xn = cn
el cual es compatible determinado.
Veamos ahora el segundo caso, p′ = p < n. Como la forma escalerizada tiene más columnas
que escalones necesariamente algún escalón debe tener “descanso” y por lo tanto la forma
reducida debe ser
2.7. Apéndice de esta sección





























1
0
..
.
..
.
..
.
..
.
0 ⋆
1 ⋆
0
..
.
..
.
..
.
0
..
.
0 ...
..
. ...
...
...
...
...
... ⋆ 0
... ⋆ 0
... 0
... 0
.
... 0 1
. . . ..
. .. ..
.
. 0
. . . ..
..
..
. 1
... . ...
..
... . ... ... 0
.
.
. . . .. . . . . . . ..
.
.
. . . .. . . . . . . ..
0 0 ... ... 0 ...
0
..
.
0
..
.
47
... ...
..
..
.
.
0 ...
..
. ...
0 0 ... ... 0 ...
0
0
..
.
..
.
⋆
⋆
..
.
..
.
.
0 ..
... ⋆ 0
... ⋆ 0
. .
. . . .. ..
. .
. . . .. ..
. .
. . . .. ..
. . . 0 c1
. . . 0 c2
. .
. . . .. ..
. .
. . . .. ..
. .
. . . .. ..
.
1 ⋆ . . . ⋆ 0 . . . .. cs
.
0 0 . . . 0 1 . . . .. cs+1
.. ..
. . ..
.
. 0 ..
. . . . . .. ..
.
. . . . . . .. 0 . . . 0 0 . . . 1 cp
.
. . . . . . .. 0 . . . 0 0 . . . 0 0
.
.. ..
. .
. .
. . . ..
. . . . . .. .. . . . .. ..
.
. . . . . . .. 0 . . . 0 0 . . . 0 0





























donde las zonas de estrellas representan submatrices con entradas arbitrarias.
Para analizar la solución de este sistema intentemos aplicar el algoritmo de sustitución
hacia atrás. Supongamos que s es la primera fila (comenzando desde abajo) con descanso
(escalón de ancho mayor que una columna). Las ecuaciones s + 1, s + 2, . . . , p son entonces
xs+1 = cs+1
xs+2 = cs+2
..
.
xp = cp
la ecuación s es
xh + as h+1 xh+1 + . . . + ass xs = cs
despejando se tiene
xh = cs − (as h+1 xh+1 + . . . + ass xs )
La incógnita xh no puede entonces determinarse sino en función de los valores de xh+1 , . . . , xs .
Fijemos valores arbitrarios para estas últimas s − h incógnitas, xh quedará determinado y
con estos valores podemos ahora sustituir en las ecuación s−1, . . . , 1 y continuar el proceso
de sustitución hacia atrás. Esto demuestra que el sistema es compatible, pues hay soluciones pero si cambiamos la elección hecha para los valores de xh+1 , . . . , xs se obtiene otro
valor para xh y consecuentemente otra solución con lo cual el sistema resulta compatible
indeterminado. De hecho como las variables xh+1 , . . . , xs se pueden elegir arbitrariamente
se obtienen infinitas soluciones. Obsérvese que estas elecciones arbitrarias se pueden hacer sólo en los descansos y que el número de variables que pueden elegirse libremente es
n − p (la suma de los anchos de los descansos es igual al número de columnas menos el de
escalones).
Demostremos ahora que si (S) compatible entonces p′ = p. Para probarlo demostraremos
48
Capı́tulo 2. Sistemas de ecuaciones lineales
su contra recı́proco7 y para esto basta con ver que p < p′ implica (S) incompatible pues
en cualquier sistema A|b tiene una columna más que A y por lo tanto se cumple que p ≤ p′
Si p < p′ , la última columna de la forma reducida de la matriz ampliada debe tener un
escalón por lo tanto la forma es:


1 0 ⋆ ... ⋆ 0 ... 0 ⋆ ⋆ 0
 0 1 ⋆ ... ⋆ 0 ... 0 ⋆ ⋆ 0 


 0 0 0 ... 0 1 ... 0 ⋆ ⋆ 0 


 .. .. ..
.
. . .. .. .. .. 
 . . . . . . ..
.
. . . . 


 0 0 0 ... 0 0 ... 1 ⋆ ⋆ 0 


 0 0 0 ... 0 0 ... 0 0 0 1 
0 0 0 ... 0 0 ... 0 0 0 0
En consecuencia la ultima ecuación del sistema es
0=1
de donde resulta que (S) debe ser incompatible.
Si S es compatible determinado debe ser p = n pues si p < n ya hemos visto que (S)
resultarı́a indeterminado.
De manera análoga se razona para probar que S compatible indeterminado implica p < n.
♠
7
Recordemos que un resultado de lógica elemental establece que (A ⇒ B) si, y solo si, (negación de B ⇒
negación de A).
Capı́tulo 3
El espacio vectorial Rn
En diversos problemas de Economı́a, Administración y Ciencias Sociales (además, claro
está, de otras áreas cientı́ficas), aparecen relaciones que expresan la variación de ciertas
magnitudes en función de otras. Consideremos, por ejemplo, el caso de una empresa que
produce y vende un solo tipo de artı́culo. En este contexto se denomina demanda a la
cantidad de artı́culos que los consumidores están dispuestos a comprar. Es claro que dicha demanda dependerá del precio p que se le fije al artı́culo y, por lo tanto, puede ser
considerada como una función D : [0, +∞) −→ R / p 7−→ D(p). Para comprender el comportamiento de este tipo de funciones el lector a estudiado (desde educación secundaria)
diversos conceptos y técnicas de cálculo, ası́ como también las propiedades fundamentales
del conjunto R de los números reales.
Si bien en este modelo simplificado se supone que la función depende de una sola variable,
parece bastante razonable pensar que pueda depender de varias. De hecho, en microeconomı́a se supone que la demanda de un bien depende, no solamente del precio del mismo
bien, sino también de los precios de los bienes sustitutos y del ingreso del consumidor.
En este caso la demanda serı́a una función de tres variables y, aparentemente, el nuevo modelo permitirı́a una descripción más adecuada de la realidad. No debe sorprender
entonces que uno de nuestros próximos objetivos sea el de estudiar funciones de varias
variables. La usual notación f (x) será cambiada por f (x, y) y f (x, y, z) para funciones de
dos y tres variables respectivamente. Como la cantidad de estas no es siempre la misma
(dependerá del problema a considerar), conviene realizar una teorı́a general, en donde la
función dependa de una cantidad arbitraria, digamos n, de variables. En ese caso escribiremos f (x1 , x2 , . . . , xn ). Observemos que cada punto del dominio de esta función ya no
es un número real sino una lista ordenada de n números reales: (x1 , x2 , . . . , xn ).
Si bien cada lista (x1 , x2 , . . . , xn ) es simplemente una matriz, un estudio más profundo
del conjunto de tales listas permitirá desarrollar una teorı́a de enorme riqueza dentro de
la Matemática y de suma importancia por sus diversas aplicaciones.
Capı́tulo 3. El espacio vectorial Rn
50
3.1.
El espacio vectorial R2
Definición 3.1.1. El conjunto R2 .
Designaremos con R2 al conjunto de todos los pares ordenados de números reales o, de
manera equivalente, a todas las matrices columna de tamaño 2 × 1:
2
R
=
x1
x2
/ x1 , x2 ∈ R
La interpretación geométrica de este conjunto es por demás conocida. En efecto, una vez
fijado un sistema de coordenadas cartesianas en el plano, queda establecida una correspondencia biunı́voca entre los puntos
y los pares ordenados de números reales.
del plano
x1
A cada par ordenado de números
le corresponde un único punto p del plano
x2
y, recı́procamente, cada punto del plano es correspondiente de un único par de números
reales.
y
y
p=
x2
o
x1
x1
x2
x
p=
x2
o
x1
x1
x2
x
0
También podemos considerar el “vector” con origen en o =
y extremo en p e ima0
x1
→ Es ası́ que, de manera dual, podemos interpretar
ginar el par
como el vector −
op.
x2
R2 como el conjunto de puntos del plano, o como el conjunto de vectores del plano que
tienen origen en o.
Por este motivo a los elementos de R2 los denominaremos (indistintamente) puntos o
vectores, mientras que a los números reales los llamaremos escalares.
3.1.1.
Suma de vectores y producto de un número por un vector
Definición
3.1.2.
Suma de
vectores.
x1
y1
2
Si x =
∈R ey=
∈ R2 entonces la suma x + y es el vector definido por
x2
y2
x1 + y 1
x+y =
∈ R2 .
x2 + y 2
3.1. El espacio vectorial R2
51
Dicho de otro modo, el vector x + y se obtiene sumando componente a componente. Observemos que esta definición coincide con la de suma de matrices (en este caso, de matrices
2 × 1) y, por lo tanto, esta operación tendrá las mismas propiedades que las conocidas para
la suma de matrices.
0
Al vector o =
lo llamaremos vector nulo. Asimismo, dado un vector cualquiera
0
x1
x=
designaremos con −x al vector cuyas componentes son, respectivamente, las
x2
−x1
opuestas de las de x, es decir: −x =
−x2
Proposición 3.1.1. Propiedades básicas de la suma de vectores.
(S1) Asociativa: (u + v) + w = u + (v + w) , ∀ u, v, w ∈ R2 .
(S2) Conmutativa: u + v = v + u , ∀ u, v ∈ R2 .
(S3) Existencia de neutro: Existe o ∈ R2 tal que o + u = u , ∀ u ∈ R2 .
(S4) Existencia de opuesto: Para cada u ∈ R2 existe −u ∈ R2 tal que u + (−u) = o.
Observación 3.1.1.
(1) Como mencionamos anteriormente, se trata de las propiedades de la suma de matrices
y, por lo tanto, no es necesario demostrarlas. De todos modos, en caso de querer hacerlo, la
prueba es muy simple ya que alcanza con utilizar las propiedades de la suma de números
reales.
(2) Como ya lo sabemos para matrices, el neutro de la suma es único y el opuesto de cada
vector también es único.
(3) Dados dos vectores u, v ∈ R2 , la resta u − v se define como la suma de u mas el
opuesto de v: u − v = u + (−v).
Definición 3.1.3.
de un número por un vector.
Producto
x1
Si λ ∈ R y x =
∈ R2 entonces el producto λx del número λ por x es el vector
x2
λx1
definido por λx =
∈ R2 .
λx2
Dicho de otro modo, el vector λx se obtiene multiplicando por λ a cada componente de
x. Observemos que esta definición coincide con la de producto de un número por una
matriz (en este caso, de matrices 2 × 1) y, por lo tanto, esta operación tendrá las mismas
propiedades que las conocidas para matrices.
Proposición 3.1.2. Propiedades básicas del producto de un número por un
vector.
(P1) Asociativa: (αβ)u = α(βu) , ∀ u ∈ R2 , ∀ α, β ∈ R.
(P2) Existencia de neutro real: 1 u = u , ∀ u ∈ R2 .
(P3) Distributiva respecto de la suma de números: (α + β)u = αu + βu ,
∀ u ∈ R2 , ∀ α, β ∈ R.
(P4) Distributiva respecto de la suma de vectores: α(u + v) = αu + αv ,
∀ u, v ∈ R2 , ∀ α ∈ R.
Capı́tulo 3. El espacio vectorial Rn
52
Definición 3.1.4. Vectores colineales.
Sean u, v ∈ R2 . Diremos que u y v son colineales cuando uno es múltiplo del otro, es
decir, si existe α ∈ R tal que v = αu, o si existe β ∈ R tal que u = βv.
3
−1
6
−2
3
−1
Por ejemplo, los vectores
y
son colineales, mientras que
y
6
no lo son.
7
Sea z un vector cualquiera de R2 y o el vector nulo de R2 . Como o = 0 z, podemos decir
que o es colineal con cualquier otro vector z ∈ R2 .
Observación 3.1.2. Interpretación geométrica del producto de un número por
un vector.
a
λa
Si u =
y λ ∈ R entonces λu =
. El hecho de que las componentes de λu
b
λb
son proporcionales a las de u implica que los puntos o, u y λu están alineados (o sea,
están sobre una misma recta).
λu
λb
u
b
a
o
λa
Vale la pena observar, además, que:
Si λ > 0 entonces el punto λu está en la semirrecta de origen o que contiene a
u. En particular, si λ > 1 entonces λu no pertenece al segmento de extremos o,
u (el vector λu tiene el mismo sentido u pero “longitud” mayor), mientras que si
0 < λ < 1 entonces λu pertenece al segmento de extremos o, u (el vector λu tiene
el mismo sentido u pero “longitud” menor).
Si λ < 0 entonces λu está en la semirrecta de origen o que no contiene a u.
u
u
0<λ<1
λ<0
λu
o
o
λu
3.1. El espacio vectorial R2
53
Observación 3.1.3. Interpretación geométrica de la suma y la resta de vectores.
a
c
2
, v =
. El vector suma
Consideremos dos vectores no nulos de R : u =
b
d
a+c
resulta ser u + v =
. Veamos cómo podemos obtener geométricamente dicho
b+d
vector u + v (ver próxima figura). A partir de consideraciones geométricas relativamente
sencillas se deduce que el cuadrilátero cuyos vértices son los puntos o, u, v y u + v es un
paralelogramo, y que el vector u + v es una de las diagonales del mismo.
u+v
b+d
b
u
d
v
o
a
c
a+c
Para hallar geométricamente la suma de u mas v procedemos entonces de la siguiente
manera: construimos el paralelogramo con esos vectores como lados y el vector u + v
resultará ser la diagonal (con origen en o) del paralelogramo. A este procedimiento le
llamaremos regla del paralelogramo. De hecho, la interpretación la hemos realizado
en el caso en que u y v no son colineales. Queda como ejercicio para el lector realizar la
correspondiente interpretación geométrica en el caso en que los dos vectores sean colineales.
Ahora bien, la resta u−v coincide con la suma de u más el opuesto de v. La interpretación
geométrica de la resta de vectores se visualiza en la siguiente figura.
u+v
u−v
u+v
u−v
u
u
v
v
o
o
−v
−v
Capı́tulo 3. El espacio vectorial Rn
54
3.1.2.
Rectas en R2
Recta que pasa por un punto y es paralela a un vector.
Como el lector conoce de cursos anteriores, existen varias maneras de determinar una recta
en el plano. Por ejemplo, si damos un punto p y un vector no nulo v, entonces hay una
única recta L que pasa por p y es paralela al vector v.
L
p
v
o
¿Cómo podemos describir analı́ticamente los puntos de dicha recta L?
En la siguiente figura se observa (a partir de la regla del paralelogramo) que para cada
real λ el punto p + λv pertenece a L.
p + λv
L
p
λv
v
o
Recı́procamente, para cada punto x ∈ L existirá algún λ ∈ R tal que x = p + λv. Tenemos
entonces que la recta L coincide con el siguiente conjunto de puntos:
L = { p + λv / λ ∈ R }
Llamaremos ecuación paramétrica vectorial de la recta que pasa por p y es paralela
a v a la ecuación:
x = p + λv , λ ∈ R.
3.1. El espacio vectorial R2
55
Para cada valor del parámetro λ obtenemos un punto de la recta y, recı́procamente, todo
punto de la recta se obtiene de esa forma para algún valor de λ. Observemos, en particular,
que para λ = 0 se obtiene el punto p.
p1
v1
x
Si p =
, v=
y x=
entonces, igualando componente a compop2
v2
y
nente en la ecuación paramétrica vectorial de la recta obtenemos:
x = p1 + λv1
y = p2 + λv2
, λ ∈ R.
que se denominan ecuaciones paramétricas de la recta.
Ejemplo
3.1.1. Busquemos las ecuaciones
paramétricas de la recta L que pasa por p =
2
1
y es paralela al vector v =
. Simplemente hay que sustituir en la ecuación
1
1
anterior obteniendo:
x = 2+λ
(L)
, λ ∈ R.
y = 1+λ
1
o
v
p
1
2
Está claro que se trata de la recta que pasa por p y tiene coeficiente angular 1. Si despejamos λ en la primera ecuación obtenemos λ = x − 2. Sustituyendo en la segunda queda
y = x− 1, que es la ecuación reducida de esta recta. Esto quiere decir que un punto
x
pertenece a la recta L si, y solo si, sus componentes verifican la ecuación y = x − 1.
y
Recta que pasa por dos puntos
Sean p y q dos puntos diferentes. Hay una única recta que pasa por ambos puntos. Observemos que dicha recta es la misma que pasa por p y es paralela al vector q − p.
La ecuación paramétrica vectorial de la recta S que pasa por p y q es entonces:
x = p + λ(q − p) , λ ∈ R.
Capı́tulo 3. El espacio vectorial Rn
56
q
p
q−p
o
Observemos, en particular, que para λ = 0 se obtiene el punto p y que para λ = 1 se
obtiene el punto q.
Las ecuaciones paramétricas permiten describir con cierta comodidad algunos subconjuntos particulares de la recta. Por ejemplo, si permitimos que el parámetro λ varı́e solamente
en los reales positivos entonces la expresión:
x = p + λ(q − p) , λ > 0.
representa la semirrecta (abierta) con origen en p que contiene a q
q
p
λ(q − p)
q−p
o
Por otra parte, si restringimos el parámetro al intervalo [0, 1] obtenemos el segmento
cerrado de extremos p y q:
x = p + λ(q − p) , 0 ≤ λ ≤ 1.
3.1. El espacio vectorial R2
57
q
p
q−p
λ(q − p)
o
En particular, para λ = 1/2 obtenemos el punto medio del segmento: m =
p+q
2
p1
q1
x
Si p =
, q=
y x=
entonces las ecuaciones paramétricas de
p2
q2
y
esta recta son:
x = p1 + λ(q1 − p1 )
y = p2 + λ(q2 − p2 )
, λ ∈ R.
En la descripción anterior hemos tenido en cuenta que la recta que pasa por p y q coincide
con la que pasa por p y es paralela al vector q − p. Obviamente, también coincide con la
que pasa por q y es paralela al vector p − q:
x = q + µ(p − q) , µ ∈ R.
Ejemplo 3.1.2. Busquemos lasecuaciones
paramétricas
y la ecuación reducida de la recta
−1
2
S que pasa por los puntos p =
yq=
. La ecuación paramétrica vectorial
4
−2
es:
x = p + α(q − p) , α ∈ R.
Igualando componente a componente resulta:
x = −1 + 3α
(S)
y = 4 − 6α
, α ∈ R.
Si despejamos α en la primera ecuación obtenemos α = x+1
3 . Sustituyendo en la segunda
resulta y = 4−6 x+1
,
que
luego
de
operar
queda
y
=
−2x+2
que es la ecuación reducida
3
de esta recta. Observemos que, efectivamente, las coordenadas de ambos puntos verifican
esta ecuación.
Capı́tulo 3. El espacio vectorial Rn
58
Ejemplo 3.1.3. Intersección de dos rectas en R2 .
Cuando buscamos la intersección de dos rectas L y S en R2 las posibilidades que se
presentan son las siguientes:
T
L S = {p0 } : las rectas son secantes (se cortan en un solo punto).
T
L S = L = S : las rectas son coincidentes.
T
L S = ∅ : las rectas son paralelas y no coincidentes.
L
L
S
p0
L=S
S
Busquemos, a modo de ejemplo, la intersección de las rectas L y S de los ejemplos anteriores. Para ello podemos trabajar tanto con las ecuaciones reducidas
como
con las ecuaciones
x
paramétricas. Debe quedar claro que estamos buscando puntos
que pertenezcan a
y
ambas rectas.
Si trabajamos con las reducidas el problema se reduce a resolver el siguiente sistema de
y =x−1
dos ecuaciones con dos incógnitas:
La única solución de este sistema es
y = −2x + 2
x =1, y= 0. Resulta entonces que las rectas son secantes y su único punto de intersección
1
es
.
0
Si trabajamos con las paramétricas
deberemos resolver el siguiente sistema

 de cuatro ecuax
=
2
+
λ



 x = 2+λ


y = 1+λ
y = 1+λ
ciones con cuatro incógnitas:
que es equivalente a
x
=
−1
+
3α
2 + λ = −1 + 3α






y = 4 − 6α
1 + λ = 4 − 6α
Las últimas dos ecuaciones dan lugar a un subsistema compatible determinado cuya única
solución es λ = −1, α = 2/3. Sustituyendo en las dos primeras resulta x = 1, y = 0.
Ejercicio 3.1.1. Consideremos
las siguientes rectas:
1
−1
L1 que pasa por p1 =
y es paralela al vector u1 =
.
2
1
−2
1
L2 que pasa por p2 =
y por p3 =
.
2
−1
2
1
L3 que pasa por p4 =
y por p5 =
.
1
−3
1. Halle las ecuaciones paramétricas y reducidas de L1 , L2 y L3 .
T
T
T
2. Encuentre las siguientes intersecciones: L1 L2 , L1 L3 , L2 L3 .
3. Interprete geométricamente los resultados obtenidos en (b).
3.2. El espacio vectorial R3
3.2.
59
El espacio vectorial R3
Definición 3.2.1. El conjunto R3 .
Designaremos con R3 al conjunto de todos las ternas ordenadas de números reales o, de
manera equivalente, a todas las matrices columna de dimensión 3 × 1:



x1


 x2  / x1 , x2 , x3 ∈ R
R3 =


x3
Para interpretar geométricamente este conjunto, ya no nos alcanza con un plano, sino
que necesitamos recurrir al espacio. En efecto, una vez fijado un sistema de coordenadas
cartesianas en el espacio, queda establecida una correspondencia biunı́voca entre los puntos
del
 espacio
 y las ternas ordenadas de números reales. A cada terna ordenada de números
x1
 x2  le corresponde un único punto p del espacio (de abscisa x1 , ordenada x2 y cota
x3
x3 ), y recı́procamente, cada punto del espacio es correspondiente de una única terna de
números reales.
z
x3

x1
p =  x2 
x3

x2
o
y
x1
x
De manera similar a lo que habı́amos hecho en R2 , podemos interpretar R3 como el conjunto de puntos del espacio, o como el conjunto de vectores del espacio que tienen origen
en o. Es ası́ que, a los elementos de R3 los denominaremos (indistintamente) puntos o
vectores.
3.2.1.
Suma de vectores y producto de un número por un vector
En R3 , la suma de vectores y el producto de un número por un vector se definen de manera
análoga a como se hizo en R2 y, de hecho, estas operaciones coinciden con las de suma y
Capı́tulo 3. El espacio vectorial Rn
60
producto por un número de matrices 3 × 1:

 
 

x1
y1
x1 + y 1
 x2  +  y 2  =  x2 + y 2 
x3
y3
x3 + y 3
,

 

x1
λx1
λ  x2  =  λx2 
x3
λx3
Estas operaciones tienen exactamente las mismas propiedades que establecimos en las
proposiciones 3.1.1 y 3.1.2 Por ese motivo no volveremos a escribirlas nuevamente. Por
otra parte, la interpretación geométrica de estas operaciones (ası́ como el concepto de
vectores colineales), es también totalmente análoga a la realizada en R2 . En particular, si
u, v ∈ R3 son dos vectores no colineales, los puntos o, u y v determinan un plano, y la
suma u + v se visualiza a partir de la regla del paralelogramo en dicho plano:
v−u
u+v
v
u
o
Ejemplo 3.2.1. Consideremos los siguientes vectores en R3 :


 


1
1
−1
u =  −1  , v =  2  , w =  −5 . Entonces:
4
1
2


4
2u + v − w =  5 
7
3.2.2.
y


0
u − 2v − w =  0  = o
0
Rectas en R3
Las mismas consideraciones geométricas realizadas en R2 nos permiten llegar a las siguientes caracterizaciones analı́ticas de las rectas en R3 .
Recta que pasa por un punto y es paralela a un vector.
Si p es un punto de R3 y v es un vector no nulo de R3 , entonces la recta L que pasa por
p y es paralela al vector v coincide con el siguiente conjunto de puntos:
L = { p + λv / λ ∈ R }
3.2. El espacio vectorial R3
61
La ecuación paramétrica vectorial de dicha recta es entonces:
x = p + λv , λ ∈ R.
Para cada valor del parámetro λ obtenemos un punto de la recta y, recı́procamente, todo
punto de la recta se obtiene de esa forma para algún valor de λ. Observemos, en particular,
que para λ = 0 se obtiene el punto p.



 

v1
x
p1
Si p =  p2  , v =  v2  y x =  y  entonces, igualando componente a
p3
v3
z
componente en la ecuación paramétrica vectorial obtenemos:

 x = p1 + λv1
y = p2 + λv2

z = p3 + λv3
, λ ∈ R.
que se denominan ecuaciones paramétricas de la recta.
Ejemplo

 3.2.2. Busquemos las ecuaciones
  paramétricas de la recta L que pasa por p =
2
1
 −3  y es paralela al vector v =  2 . Simplemente hay que sustituir en la ecuación
5
1
anterior obteniendo:

 x = 2+λ
(L)
y = −3 + 2λ , λ ∈ R

z = 5+λ
Si despejamos λ en la primera ecuación obtenemos λ = x − 2. Sustituyendo
en la segunda

x
=
2+λ

y la tercera obtenemos el siguiente sistema equivalente al anterior:
2x − y − 7 = 0

x−z+3=0
2x − y − 7 = 0
A las dos últimas ecuaciones
las llamaremos “ecuaciones reducidas”
x−z+3=0
 
x

de la recta L. Esto quiere decir que un punto
y  pertenece a la recta L si, y solo si,
z
2x − y − 7 = 0
sus componentes verifican el sistema
x−z+3 = 0
Observemos que en R3 una recta tiene dos ecuaciones reducidas.
Recta que pasa por dos puntos
Si p y q son dos puntos diferentes de R3 entonces la recta S que pasa por p y q coincide
con el siguiente conjunto de puntos:
Capı́tulo 3. El espacio vectorial Rn
62
S = { p + λ(q − p) / λ ∈ R }
La ecuación paramétrica vectorial de dicha recta es entonces:
x = p + λ(q − p) , λ ∈ R.
Observemos, en particular, que para λ = 0 se obtiene el punto p y que para λ = 1 se
obtiene el punto q. Por otra parte, si permitimos que el parámetro λ varı́e solamente en
los reales positivos entonces obtenemos la semirecta (abierta) con origen en p que contiene
a q, y si restringimos el parámetro al intervalo [0, 1], obtenemos el segmento cerrado de
extremos p y q.




q1
p1
Si p =  p2  , q =  q2 
p3
q3
esta recta son:

 x
y

z


x
y x =  y  entonces las ecuaciones paramétricas de
z
= p1 + λ(q1 − p1 )
= p2 + λ(q2 − p2 )
= p3 + λ(q3 − p3 )
, λ ∈ R.
Ejemplo 3.2.3. Busquemos las 
ecuaciones
paramétricas

  y la ecuación reducida de la recta
1
2
S que pasa por los puntos p =  3  y q =  1 . La ecuación paramétrica vectorial
2
4
es:
x = p + α(q − p) , α ∈ R.
Igualando componente a componente resulta:

 x = 1+α
(S)
y = 3 − 2α

z = 2 + 2α
, α ∈ R.
Si despejamos α en la primera ecuación obtenemos α = x − 1. Sustituyendo
en la segunda

x
=
1+α

y la tercera obtenemos el siguiente sistema equivalente al anterior:
2x + y − 5 = 0

2x − z = 0
2x + y − 5 = 0
Entonces, las ecuaciones reducidas de la recta S son
2x − z = 0
Ejemplo 3.2.4. Intersección de dos rectas en R3 .
Busquemos, a modo de ejemplo, la intersección de las rectas L y S de los ejemplos anteriores. Para ello podemos trabajar tanto con las ecuaciones reducidas como con las ecuaciones
3.2. El espacio vectorial R3
63


x
paramétricas. Debe quedar claro que estamos buscando puntos  y  que pertenezcan a
z
ambas rectas.
Si trabajamos con las reducidas el problemase reduce a resolver el siguiente sistema de
2x − y − 7 = 0



x−z+3 = 0
cuatro ecuaciones con tres incógnitas: (R)
2x + y − 5 = 0



2x − z = 0
Si trabajamos con las paramétricas deberemos resolver el siguiente sistema:


x = 2+λ
x = 2+λ








y = −3 + 2λ
y = −3 + 2λ






z = 5+λ
z = 5+λ
(P )
que es equivalente a
x
=
1
+
α
2+λ = 1+α










y = 3 − 2α
−3 + 2λ = 3 − 2α




z = 2 + 2α
5 + λ = 2 + 2α
A diferencia de lo que ocurrı́a en R2 , y a pesar de que estamos en presencia de seis
ecuaciones con cinco incógnitas, la resolución de este último no presenta mayores dificultades.En efecto, el carácter (determinado, indeterminado o incompatible) del subsistema
 2+λ = 1+α
−3 + 2λ = 3 − 2α es el mismo que el de (P ). Al resolverlo en este caso particu(P ′ )

5 + λ = 2 + 2α
lar obtenemos que (P ′ ) es compatible determinado con única solución: λ = 1, α = 2. Esto
implica que (P ) es determinado y que, por lo tanto, las rectas L y S se cortan en un solo
punto. Para hallar dicho punto sustituimos
(P
) el valor λ = 1 (o α = 2) obteniendo:
 en 
3 

T
x = 3, y = −1, z = 6 =⇒ L S =  −1 


6
Observación 3.2.1. Rectas que se cruzan.
En R3 dos rectas pueden tener intersección vacı́a sin ser paralelas.


0
 0 
1


1
 0 
0
A
B
o


0
 1 
0
Capı́tulo 3. El espacio vectorial Rn
64
Entretantos
 x =
(A)
y =

z =
ejemplos posibles
tomemos las rectas A y B de ecuaciones paramétricas

λ
 x = 0
0
, (B)
y = 1 Obviamente su intersección es vacı́a. Sin embargo

0
z = α
 
 
1
0
(A) es paralela al vector  0  y (B) al vector  0  que no son colineales. Vale la
0
1
pena observar que la recta A coincide
con el eje Ox mientras que B es una recta paralela
 
0
al eje Oz que pasa por el punto  1 
0
Cuando buscamos la intersección de dos rectas L y S en R3 tenemos entonces las siguientes
posibilidades:
T
L S = {p0 } : las rectas son secantes (se cortan en un solo punto).
T
L S = L = S : las rectas son coincidentes.
T
L S = ∅ : las rectas pueden ser paralelas (y no coincidentes) o pueden cruzarse.
Para decidirlo consideramos vectores vL paralelo a L y vS paralelo a S.
• Si vL y vS son colineales entonces L y S son paralelas.
• Si vL y vS no son colineales entonces L y S se cruzan.




 
1
−1
3
Ejercicio 3.2.1. Se consideran: p1 =  2  , p2 =  1  , p3 =  1 
−1
3
1
 




5
2
4
p4 =  0  , u1 =  −1  , u2 =  0  y las rectas L1 que pasa por p1 y es
4
3
−2
paralela a u1 , L2 que pasa por p2 y es paralela a u2 y L3 que pasa por p3 y p4 .
1. Halle las ecuaciones paramétricas y reducidas de L1 , L2 y L3 .
T
T
T
2. Encuentre las siguientes intersecciones: L1 L2 , L1 L3 , L2 L3 .
3. Interprete geométricamente los resultados obtenidos en la parte anterior.
Ejercicio 3.2.2. Pruebe que las siguientes rectas (dadas por sus ecuaciones reducidas)
son paralelas:
(L)
x + 2y − 1 = 0
z−y−3 = 0
(S)
x + 2z + 1 = 0
x+y+z−1=0
Ejercicio 3.2.3. Se consideran las rectas L y S dadas por sus ecuaciones paramétricas:

 x = 1 + 2λ
(L)
y = −2 + aλ

z =1−λ
,

 x = 5 + 4α
(S)
y = 4 + 6α

z = −1 − bα
Encuentre a, b ∈ R para que las rectas sean
T paralelas (eventualmente coincidentes). Para
los valores de a y b hallados encuentre L S.
3.2. El espacio vectorial R3
3.2.3.
65
Planos en R3
Como habı́amos mencionado, si u y v son dos vectores no colineales de R3 entonces
determinan un plano. Nos estamos refiriendo al plano Πo que pasa por o y que es paralelo
a dichos vectores. A partir de la regla del paralelogramo deducimos que, cualesquiera que
sean los escalares α, β, los puntos de la forma αu + βv siempre pertenecen al plano Πo .
Más aún, todo punto de dicho plano se obtiene de esa forma.
αu + βv
βv
v
o
u
αu
Ahora bien, dado un punto p ∈ R3 (que no tiene por qué ser o) también queda determinado
un plano Π que pasa por p y que es paralelo a u y v. Los puntos de este plano son de la
forma p + αu + βv, en donde los escalares α y β pueden variar en los reales de todas las
maneras posibles.
p + αu + βv
p
o
Plano que pasa por un punto y es paralelo a dos vectores no colineales.
Consideremos un punto p ∈ R3 y dos vectores u y v de R3 no colineales. La ecuación
paramétrica del plano Π que pasa por p y es paralelo a los vectores u y v es:
x = p + αu + βv
α, β ∈ R.
Capı́tulo 3. El espacio vectorial Rn
66








x
x0
u1
v1
Si x =  y  , p =  y0 , u =  u2 , v =  v2  entonces las ecuaciones
z
z0
u3
v3
paramétricas del plano mencionado son:

 x = x0 + αu1 + βv1
y = y0 + αu2 + βv2

z = z0 + αu3 + βv3
α , β ∈ R.


x
Esto quiere decir que un punto x =  y  pertenece a Π si, y solo si, sus coordenadas
z
verifican las tres ecuaciones mencionadas. Observemos también que las tres igualdades
pueden escribirse de la siguiente manera:






u1
v1
x − x0
 y − y0  = α  u2  + β  v2 
z − z0
u3
v3
x − x0 u1 v1
lo cual implica que el determinante y − y0 u2 v2 tiene que valer 0 (pues su primera
z − z0 u3 v3
columna es una combinación lineal de las otras dos). Podemos observar también que si
desarrolláramos este determinante por la primera columna y luego ordenáramos en x, y, z,
obtendrı́amos una expresión del tipo ax + by + cz − d, en donde a, b, c y d son constantes
con a,
 b yc no son simultáneamente nulos. Podemos concluir entonces que un un punto
x
x =  y  pertenece a Π si, y solo si, sus coordenadas verifican una ecuación de la forma
z
ax + by + cz − d = 0
que se suele denominar ecuación reducida del plano.
Observación 3.2.2. Ecuación reducida de un plano en R3
Es posible demostrar el recı́proco de la afirmación previa, esto es, toda ecuación de la
forma: ax + by + cz = d, en donde a, b, c son constantes no simultáneamente nulas, es la
ecuación de un plano en R3 . Esto será estudiado utilizando otros elementos en el capı́tulo
6. Vale la pena observar que, como dos ecuaciones equivalentes tienen el mismo conjunto
solución, la ecuación reducida de un plano no es única. Si m 6= 0 las ecuaciones
ax + by + cz = d
y
max + mby + mcz = md
son equivalentes y, por lo tanto, respresentan el mismo plano.
Con respecto a las rectas en R3 habı́amos observado que tenı́an dos ecuaciones reducidas
de la forma ax + by + cz = d. Ahora podemos interpretar ese resultado. En efecto, al dar
una recta mediante dos ecuaciones de este tipo, estamos determinando dicha recta como
la intersección de dos planos.
3.2. El espacio vectorial R3
67






1
3
−3
Ejemplo 3.2.5. Consideremos p =  0 , u =  1 , v =  1  y sea Π el
2
−1
5
plano que pasa por p y es paralelo a los vectores u y v .
Las ecuaciones paramétricas de Π son:

 x = 1 + 3α − 3β
y =α+β

z = 2 − α + 5β
α , β ∈ R.
Ahora bien, despejando α y β (en función de x e y) de las dos primeras ecuaciones obtenemos:
x + 3y − 1
−x + 3y + 1
α=
β=
6
6
x − 2y + z = 3
, que
 
x

es la ecuación reducida del plano Π. Esto quiere decir que un punto
y  pertenece al
z
plano si, y solo si, sus componentes verifican la ecuación x − 2y + z = 3.
Sustituyendo en la tercera ecuación y ordenando llegamos a:
Plano que pasa por tres puntos no alineados.
Sean p1 , p2 , p3 tres puntos no alineados. Sabemos que determinan un plano Π al cual
pertenecen. Como los tres puntos no están alineados entonces los vectores p3 − p1 y
p2 − p1 no son colineales y son paralelos a Π.
Luego, la ecuación paramétrica vectorial del plano Π que pasa por esos puntos es:
x = p1 + α(p3 − p1 ) + β(p2 − p1 )
p2
α , β ∈ R.
Π
p3
p1
p2 − p1
o
p3 − p1
Capı́tulo 3. El espacio vectorial Rn
68






1
1
−1
Ejemplo 3.2.6. Consideremos los puntos p1 =  1 , p2 =  −1  y p3 =  −1 .
1
2
3




0
−2
Como los vectores p2 − p1 =  −2  y p3 − p1 =  −2  no son colineales los tres
1
2
puntos p1 , p2 y p3 determinan un plano Π al cual pertenecen. Las ecuaciones paramétricas
de dicho plano son:

 x = 1 + −2β
y = 1 − 2α − 2β
α , β ∈ R.

z = 1 + α + 2β
El lector podrá verificar que, eliminando α y β entre las tres ecuaciones, la ecuación
reducida de este plano resulta ser:
(Π)
x + y + 2z = 4
Como se observa fácilmente, las coordenadas de cada uno de los tres puntos dados verifican
esta última ecuación.
Veamos ahora otra manera de obtener la ecuación reducida de este plano Π sin hallar las
ecuaciones paramétricas. En efecto, sabemos que la ecuación reducida de Π es de la forma
ax + by + cz = d. Como las coordenadas de cada uno de los tres puntos deben verificar
esta ecuación obtenemos:

 a+b+c=d
a − b + 2c = d

−a − b + 3c = d
Resolviendo este sistema (S) se obtiene que es compatible indeterminado con un grado de
libertad y una forma de expresar su conjunto solucuón es:
sol(S) = { (−b, b,2b, 4b) / b ∈ R }
Por ejemplo, si tomamos b = 1, obtenemos a = 1, b = 1, c = 2 y d = 4, que da lugar a la
ecuación hallada anteriormente x + y + 2z = 4.
Si tomamos otro valor de b, los coeficientes cambian, pero la ecuación final es equivalente
a x + y + 2z = 4, y por lo tanto, representa el mismo plano. Por ejemplo, si tomamos
b = 2, obtenemos a = 2, b = 2, c = 4 y d = 8, que da lugar a la ecuación 2x + 2y + 4z = 8.
Observación 3.2.3. Intersección de recta y plano.
Consideremos el problema de intersecar una recta L con un plano Π en R3 . Supongamos
que conocemos las ecuaciones paramétricas de L y la ecuación reducida de Π:

 x = p1 + λv1
(L)
y = p2 + λv2

z = p3 + λv3
(Π) ax + by + cz = d
3.2. El espacio vectorial R3
69

x = p1 + λv1



y = p2 + λv2
El problema planteado nos lleva a estudiar el sistema (S)
que, a
z = p3 + λv3



ax + by + cz = d

x
=
p
+
λv

1
1


y = p2 + λv2
su vez, es equivalente a este otro:
z = p3 + λv3



a(p1 + λv1 ) + b(p2 + λv2 ) + c(p3 + λv3 ) = d
Ordenando la cuarta ecuación, esta resultará de la forma Aλ = B (en donde A y B
son constantes), es decir, una ecuación lineal de primer grado con una sola incógnita. El
comportamiento de esta ecuación (determinada, indeterminada o incompatible) será el
mismo que el del sistema (S). Tenemos entonces que las únicas posibilidades son:
T
Si (S) es compatible determinado entonces L Π = {q} (la recta corta al plano en
un solo punto).
T
Si (S) es compatible indeterminado entonces L Π = L (la recta está contenida en
el plano).
T
Si (S) es incompatible entonces L Π = ∅ (la recta es paralela al plano).
L
q
Π
L
Π
L
Π



0
Ejercicio 3.2.4. Se consideran los puntos p1 =  1  , p2 = 
1
Encuentre las ecuaciones paramétricas y la ecuación reducida del
esos tres puntos. Verifique que Π pasa por el origen.



1
1
2  , p3 =  1 .
0
−1
plano Π que pasa por


1
Ejercicio 3.2.5. Consideremos la recta L que pasa por los puntos q1 =  −1  y
1
 
2
q2 =  1 .
0
1. Encuentre la intersección de L con el plano Π1 de ecuación 2x + 3y + 3z = 6.
70
Capı́tulo 3. El espacio vectorial Rn
2. Encuentre la intersección de L con el plano Π2 de ecuación x − y − z = 3.
3. Encuentre la intersección de L con el plano Π3 de ecuación x − y − z = 1.
(En todos los casos realice la interpretación geométrica correspondiente).
 


 
1
0
1





Ejercicio 3.2.6. Se consideran los puntos p1 =
0
, p2 =
3
, p3 =
1 
2
−3
0


3
y q =  −2 
k
1. Verifique que los puntos p1 , p2 y p3 no están alineados y encuentre la ecuación
reducida del plano Π que determinan.
2. Sea L la recta que pasa por p1 y q. Determine el número k sabiendo que L está contenida en Π.
Ejercicio 3.2.7.Se consideran
las siguientes

 rectas:

1
1
L1 que pasa por  3  y es paralela a  −1 
−2
1




0
2
L2 que pasa por  1  y por  −1 
−1
1
y = −x
L3 de ecuaciones reducidas
z = −2x

 x = −1 + λ
L4 de ecuaciones paramétricas
y = 2 − 3λ

z=1
1. Verifique que L1 y L2 son paralelas y halle la ecuación del plano Π1 que las contiene.
2. Verifique que L3 y L4 son secantes y halle la ecuación del plano Π2 que las contiene.
3. Halle las ecuaciones paramétricas de la recta intersección de los planos Π1 y Π2 .
Ejercicio 3.2.8.Se consideran
las siguientes 
rectas:

1
1



2
y es paralela a v1 =
−1 
L1 que pasa por
0
2
 


0
3
L2 que pasa por  1  y es paralela a v2 =  −1 
2
2
1. Verifique que L1 y L2 son coplanares y halle la ecuación del plano Π determinado
por ellas.


−3
2. Verifique que q =  2  pertenece a L2 y que la recta que pasa por q y es paralela
0
a v1 está contenida en el plano Π.
3.2. El espacio vectorial R3
71
Ejercicio 3.2.9. En cada uno de los siguientes casos reconozca geométricamente el subconjunto de R3 definido por las relaciones dadas:
(1) x = 0
(2) y = 0
(3) z = 0
(4) x = 2
(5) y = 3
(6) z = −2
(7) y = x
(8) x ≥ 0
(9) y ≥ 0
(10) z ≥ 0
(11) x ≥ 2
(12) y ≤ 3
x=0
x=0
y=0
y=0
(13)
(14)
(15)
(16)
y=0
z=0
z=0
z≥0
x≥0
(19) x + y + z = 1
(17)
(18) x2 + y 2 + z 2 = 0
y≥0
(20) x ≥ 0 , y ≥ 0 , z ≥ 0 , x + y + z ≤ 1
Ejercicio 3.2.10.
1. Encuentre las ecuaciones
ecuación reducida
del plano Π1 que pasa
 paramétricas

y la


0
1
1
por los puntos: o =  0  , p2 =  1  , p3 =  −1 
0
1
0
 


2
1
2. Se considera la recta L que pasa por  2  y es paralela al vector  −1  , y la
2
1
   
1
3
T
recta S que pasa por los puntos  0  y  4 . Encuentre L S.
3
1
3. Sea T
Π2 el plano determinado por L y S (que resultaron secantes). Demuestre que
Π1 Π2 es una recta y encuentre un vector paralelo a la misma.
Ejercicio 3.2.11.
1. Encuentre las ecuaciones
ecuación reducida
 paramétricas

y la 
 del plano Π1 que pasa
1
0
0
por los puntos: e1 =  0  , e2 =  1  , e3 =  0 
0
0
1
 
2
2. Se considera la recta L que pasa por o y es paralela al vector  1  , y la recta S
1
   
0
2
que pasa por los puntos  0  y  1 . Demuestra que L y S son paralelas y no
1
2
coincidentes.
T
3. Sea Π2 el plano determinado por L y S. Demuestre que Π1 Π2 es una recta y
encuentre un vector paralelo a la misma.
Ejercicio 3.2.12. Encuentre la intersección de los tres planos dados por las siguientes
ecuaciones reducidas:
(Π1 ) x + y + z = 2 , (Π2 ) 2x + 3y + z = 5 , (Π3 ) − x − 2y + z = −1
¿Qué otras posibilidades se pueden dar para la intersección de tres planos en R3 ?
Capı́tulo 3. El espacio vectorial Rn
72
3.3.
El espacio vectorial Rn
Con excepción de la visualización geométrica, todos los conceptos que hemos introducido
(o repasado) en R2 y R3 se extienden de manera natural a Rn , es decir, al conjunto de
las n-uplas ordenadas de números reales. Muy en particular, las propiedades de la suma
de vectores y producto de un número por un vector continuarán siendo válidas. De todos
modos, repetiremos las definiciones y los teoremas desarrollados en las secciones anteriores,
no solo para insistir con la analogı́a, sino para observar su validez dentro de un contexto
más general.
Definición 3.3.1. El conjunto Rn .
Designaremos con Rn al conjunto de todas las matrices columna de tamaño n × 1:



x1






  x2 



n
R =
 ..  / xi ∈ R, i = 1, 2, ... , n


 . 






xn
A los elementos de Rn los denominaremos (indistintamente) puntos o vectores, mientras
que a los números reales los llamaremos escalares.
3.3.1.
Suma de vectores y producto de un número por un vector
Definición 3.3.2. Suma de vectores.




x1
y1
 x2 
 y2 




n
Si x =  .  ∈ R e y =  .  ∈ Rn entonces la suma x + y es el vector definido
 .. 
 .. 
xn
yn


x1 + y 1
 x2 + y 2 


por x + y = 
 ∈ Rn
..


.
xn + y n
Dicho de otro modo, el vector x + y se obtiene sumando componente a componente. Observemos que esta definición coincide con la de suma de matrices (en este caso de matrices
n × 1) y, por lo tanto, esta operación tendrá las mismas propiedades que las conocidas
para la suma de matrices.
En este contexto, a la matriz nula n × 1 (que tiene ceros en todas sus componentes) la
llamaremos vector nulo y la simbolizaremos o. Asimismo, dado un vector cualquiera x
designaremos con −x al vector cuyas componentes son, respectivamente, las opuestas de
las de x.1
1
Como habrán observado hemos introducido un cambio de notación. De aquı́ en adelante los vectores
los designaremos con tipografı́a normal, por ejemplo u, y no en “negrita” u, como lo hicimos antes.
3.3. El espacio vectorial Rn
73
Proposición 3.3.1. Propiedades básicas de la suma de vectores.
(S1)
(S2)
(S3)
(S4)
Asociativa: (u + v) + w = u + (v + w) , ∀ u, v, w ∈ Rn .
Conmutativa: u + v = v + u , ∀ u, v ∈ Rn .
Existencia de neutro: Existe o ∈ Rn tal que o + u = u , ∀ u ∈ Rn .
Existencia de opuesto: Para cada u ∈ Rn existe −u ∈ R2 tal que u + (−u) = o.
Observación 3.3.1.
(1) Como mencionamos anteriormente, se trata de las conocidas propiedades de la suma
de matrices y, por lo tanto, no es necesario demostrarlas. De todos modos, en caso de
querer hacerlo, la prueba es muy simple ya que alcanza con utilizar las propiedades de la
suma de números reales.
(2) Como ya lo sabemos para matrices, el neutro de la suma es único y el opuesto de cada
vector también es único.
(3) Dados dos vectores u, v ∈ Rn , la resta u − v se define como la suma de u mas el opuesto
de v: u − v = u + (−v).
Definición 3.3.3.
de un número por un vector.

 Producto
x1
 x2 


Si λ ∈ R y x =  .  ∈ Rn entonces el producto λx del número λ por x es el vector
 .. 
x
n


definido por λx = 

λx1
λx2
..
.
λxn



 ∈ Rn

Dicho de otro modo, el vector λx se obtiene multiplicando por λ a cada componente de
x. Observemos que esta definición coincide con la de producto de un número por una
matriz (en este caso de matrices n × 1) y, por lo tanto, esta operación tendrá las mismas
propiedades que las conocidas para matrices.
Proposición 3.3.2. Propiedades básicas del producto de un número por un
vector.
(P1) Asociativa: (αβ)u = α(βu) , ∀ u ∈ Rn , ∀ α, β ∈ R.
(P2) Existencia de neutro real: 1 u = u , ∀ u ∈ Rn .
(P3) Distributiva respecto de la suma de números: (α + β)u = αu + βu ,
∀ u ∈ Rn , ∀ α, β ∈ R.
(P4) Distributiva respecto de la suma de vectores: α(u + v) = αu + αv ,
∀ u, v ∈ Rn , ∀ α ∈ R.




2
3
 −1 


 , v =  −3/2 .
Ejemplo 3.3.1. Consideremos los siguientes vectores en R4 : u = 
 1 
 3/2 
4
6
Capı́tulo 3. El espacio vectorial Rn
74
Entonces:


5
 −5/2 

u+v =
 5/2 
10
,


6
 −3 

2v = 
 3  ,
12
3u − 2v = o
Definición 3.3.4. Vectores colineales.
Sean u, v ∈ Rn . Diremos que u y v son colineales cuando uno es múltiplo del otro, es
decir, si existe α ∈ R tal que v = αu, o si existe β ∈ R tal que u = βv.






2
4
2
 −1 




 y  −2  son colineales, mientras que  −1 
Por ejemplo, los vectores 
 2 
 4 
 2 
1
2
1


4
 −2 

y 
 5  no lo son.
π
Sea z un vector cualquiera de Rn y o el vector nulo de Rn . Como o = 0 z, podemos decir
que o es colineal con cualquier otro vector z ∈ Rn .
3.3.2.
Combinaciones lineales
Definición 3.3.5. Combinación lineal.
Sean U = {u1 , u2 , . . . , ur } ⊂ Rn y z ∈ Rn . Diremos que z es combinación lineal de U
si, y solo si, existen escalares α1 , α2 , . . . , αr ∈ R tales que z = α1 u1 + α2 u2 + · · · + αr ur .
Cuando z sea combinación lineal de U abreviaremos: “z es C.L. de U ”.
Ejemplo 3.3.2. Consideremos el caso en que U contiene un solo vector no nulo: U = {u}
con u 6= o. En este caso los vectores que son combinación lineal de U son aquellos de la
forma λu con λ ∈ R. Es decir, son todos los vectores colineales con u. ¿Qué ocurre si u
fuese el vector nulo?
Observación 3.3.2. Interpretación geométrica en R2 de las C.L. de dos vectores.
Sea U = {u1 , u2 } ⊂ R2 un conjunto formado por dos vectores no colineales. Si α1 , α2 ∈ R
la regla del paralelogramo nos permite visualizar el vector α1 u1 + α2 u2
α2 u2
u2
u1
α1 u1
Observemos que, al variar α1 y α2 de todas las maneras posibles en R, recorremos todos
los vectores de R2 . Dicho de otro modo, todo vector de R2 se podrá expresar como C.L.
de {u1 , u2 }. ¿Qué hubiese sucedido si u1 y u2 fuesen colineales?
3.3. El espacio vectorial Rn
75
Ejemplo
ejemplo en R3 . Consideremos U = {u1 , u2 } ⊂ R3 en donde
 3.3.3.
 Veamos
 un 
1
−1



u1 =
−1
y u2 =
3 .
1
2
(1) ¿Cómo obtenemos combinaciones lineales de U ? Simplemente multiplicando u1 por un
número, u2 por otro número
los resultados.
 y sumando

−1
Por ejemplo 2u1 + 3u2 =  7  es una C.L. de U . ¿Es posible obtener otras?
8


4
Sı́, otro ejemplo es 3u1 − u2 =  −6 . ¿Cuántas C.L. de U podemos formar?
1
(2) Algunas C.L. particulares de U se obtienen cuando
uno de los vectores
 multiplicamos

α1
por 0. Por ejemplo las C.L. de la forma α1 u1 + 0u2 =  −α1  nos dan vectores que son
α1
todos colineales con u1 . Resulta claro que hay infinitas C.L. diferentes de U .
(3) Un caso particular (trivial, pero fundamental a tener en cuenta) es cuando tomamos
todos los escalares nulos. Esta se denomina la C.L. trivial de U y da como resultado el
vector nulo: 0u1 + 0u2 = o.
(4) Ahora bien, un problema más interesante consiste en preguntarnos
 si cierto vector
1

dado es (o no) C.L. de U . Consideremos por ejemplo el vector z =
1  y tratemos de
4
averiguar si es C.L. de U . Tenemos:
z es C.L. de U
⇐⇒ ∃ α1 , α2 ∈ R / α1 u1 + α2 u2 = z



  
1
−1
1
⇐⇒ ∃ α1 , α2 ∈ R / α1  −1  + α2  3  =  1 
1
2
4
Ordenando componente a componente
resulta que z será C.L. de U si, y solo si, existen

α
−
α

1
2 =1
α1 , α2 ∈ R que verifiquen:
−α1 + 3α2 = 1 .

α1 + 2α2 = 4
El problema
se reduce entonces a estudiar un sistema de ecuaciones lineales. Escalerizando
 α1 − α2 = 1
2α2 = 2 . Este sistema es compatible (de hecho compatible determillegamos a

0=0
nado) con única solución α1 = 2 , α2 = 1. La respuesta es entonces afirmativa. El vector
z es C.L. de U . Mas aún, la única manera de expresar z como C.L. de U es: z = 2u1 + u2 .
Capı́tulo 3. El espacio vectorial Rn
76


1
Consideremos ahora el vector w =  1  y tratemos de averiguar si es C.L. de U . Repi2

α1 − α2 = 1

−α1 + 3α2 = 1
tiendo el mismo razonamiento que en el caso anterior llegamos al sistema

α1 + 2α2 = 2
que (luego de efectuar 
las mismas operaciones en la escalerización que en el caso anterior)
 α1 − α2 = 1
2α2 = 2 . Este sistema es incompatible y, por lo tanto, la
resulta equivalente a

0=4
respuesta es negativa: w NO es C.L. de U .
(5) Como acabamos de ver, hay vectores de R3 que son C.L. de U y otros que no lo
3
son. ¿Podremos caracterizar todos
 losvectores de R que sean C.L. de U ? Para ello nos
a
planteamos un vector genérico  b  y efectuamos el mismo procedimiento que antes.
c

α1 − α2 = a

−α1 + 3α2 = b (de incógnitas
Este vector será C.L. de U si, y solo si, el sistema

α1 + 2α2 = c
α1 , α2 ) es compatible.
Efectuando
la
misma
escalerización
que
en los ejemplos anteriores

 α1 − α2 = a
llegamos a
2α2 = a + b

0 = 5a + 3b − 2c
Una discusión muy simple que nos lleva a la siguiente concusión: el vector será C.L. de U
si, y solo si, 5a + 3b − 
2c = 
0. Tenemos entonces que los vectores de R3 que son C.L. de U
a

son aquellos vectores
b  cuyas componentes verifiquen la relación 5a + 3b − 2c = 0,
c
es decir, son los vectores del conjunto:
 

a


 b  ∈ R3 / 5a + 3b − 2c = 0


c

 α1 − α2 = a
Una última observación: cuando 5a + 3b − 2c = 0 el sistema
2α2 = a + b

0 = 5a + 3b − 2c
no solamente queda compatible, sino también compatible determinado. Esto quiere decir
que cada vector que sea C.L. de U se podrá escribir de una única manera como C.L. de
U.
 
 


1
0
2
Ejemplo 3.3.4. Consideremos los vectores u1 =  0  , u2 =  1  , u3 =  −1 
2
1
3
3
y el conjunto V = {u1 , u2 , u3 }. Queremos caracterizar los vectores de R que sean C.L. de
V , es decir, queremos encontrar la condición que debe cumplir un vector de R3 para ser
3.3. El espacio vectorial Rn
77


a
C.L. de V . Para ello consideramos un vector genérico z =  b  y planteamos que
c
⇐⇒ ∃ α1 , α2 , α3 ∈ R / α1 u1 + α2 u2 + α3 u3 = z

 α1 + 0α2 + 2α3 = a
0α1 + α2 − α3 = b
Esto nos lleva al sistema de ecuaciones (de incógnitas α1 , α2 , α3 )

2α1 + α2 + 3α3 = c


1 0
2 a
La matriz ampliada asociada a dicho sistema es  0 1 −1 b .
2 1
3 c
Escalerizando tenemos:




1 0
2
a
1 0
2
a
 0 1 −1
b 
∼  0 1 −1
b 
0 1 −1 −2a + c
←− F3 − 2F1
0 0
0 2a + b − c
←− F2 − F3
z es C.L. de V
El rango por filas (o sea, el número de escalones) de la matriz del sistema es 2. Según el
teorema de Rouche-Frobenius, el sistema será compatible si, y solo si, el rango por filas
de la matriz ampliada también vale 2. Se deduce entonces que la condición para que z sea
C.L. de V es 2a + b − c = 0.
 
a
Conclusión: los vectores de R3 que son C.L. de V son aquellos vectores  b  cuyas
c
componentes verifiquen la relación 2a + b − c = 0, es decir, son los vectores del conjunto:

 
a


 b  ∈ R3 / 2a + b − c = 0


c
El sistema escalerizado correspondiente es

 α1 + 0α2 + 2α3 = a
(S)
α2 − α3 = b

0 = 2a + b − c
Observemos que, a diferencia del ejemplo anterior, cuando 2a + b − c = 0 el sistema (S)
queda compatible, pero no determinado, sino indeterminado con un grado de libertad (α1
y α2 se pueden poner en función de α3 ). Esto quiere decir que cada vector que sea C.L. de
V se podrá escribir
infinitas maneras como C.L. de V . Para visualizar
 de 
 esto
 tomemos un
a
1
vector particular  b  que cumpla 2a+b−c = 0. Por ejemplo v =  2  (el lector puec
4

 α1 + 0α2 + 2α3 = 1
α2 − α3 = 2
de elegir cualquier otro). Para este vector el sistema (S) queda:

0 =0
Como decı́amos, resulta ser un sistema compatible indeterminado cuyas soluciones vienen
dadas por: α1 = 1 − 2α3 , α2 = 2 + α3 , α3 cualquiera.
Capı́tulo 3. El espacio vectorial Rn
78
Para diferentes elecciones de α3 resultarán los valores de α1 y α2 para los cuales v se
pueda escribir como α1 u1 + α2 u2 + α3 u3 . Tomaremos entonces algunos valores de α3 y
verificaremos que, para todos ellos, se cumple la igualdad v = α1 u1 + α2 u2 + α3 u3

Si α3 = 1 =⇒ α1 = −1 , α2 = 3 y 

Si α3 = −1 =⇒ α1 = 3 , α2 = 1 y 

Si α3 = 2 =⇒ α1 = −3 , α2 = 4 y 
1
2
4
1
2
4
1
2
4



 


1
0
2
 = −1  0  + 3  1  + 1  −1 
2
1
3

 
 


1
0
2
 = 3  0  + 1  1  − 1  −1 
2
1
3

 
 


1
0
2
 = −3  0  + 4  1  + 2  −1 
2
1
3
Observación 3.3.3. Combinación lineal en notación matricial.


 
1
1
 2 
 4 

 
Consideremos los vectores u1 = 
 3  , u2 =  1  , u3 =
5
2
4
U = {u1 , u2 , u3 } ⊂ R . La combinación lineal α1 u1 + α2 u2 + α3 u3


1
 2 

α1 
 3  + α2
5


1
 4 
  + α3
 1 
2




se

2
1 
 y el conjunto
3 
4
puede escribir:



2
α1 + α2 + 2α3
 1 
 2α1 + 4α2 + α3
  = 
 3 
 3α1 + α2 + 3α3
5α1 + 2α2 + 4α3
4

1
 2
Observemos que el último vector coincide con el producto de la matriz 
 3
5


α1
el vector de coeficientes  α2  . Es ası́ que vale la siguiente igualdad:
α3


1
 2 

α1 
 3  + α2
5


1
 4 
  + α3
 1 
2



2
1
 1 
 2
  = 
 3 
 3
4
5
1
4
1
2




1
4
1
2

2
1 
 por
3 
4



2
α1

1  
α2 
3 
α3
4
Con respecto a esta matriz observemos que su primera columna está formada por las
componentes de u1 , su segunda columna por las componentes de u2 , y su tercera columna
por las componentes de u3 . Esta matriz se designará MU . Observemos también que, como
en este ejemplo U está formado por tres vectores de R4 , la matriz MU resulta tener 4 filas
y 3 columnas (es decir, es 4 × 3). Tenemos entonces que la C.L. α1 u1 + α2 u2 + α3 u3 se
puede escribir como el producto de la matriz MU por el vector de los coeficientes de la
3.3. El espacio vectorial Rn
79
C.L. :
α1 u1 + α2 u2 + α3 u3


α1
= MU .  α2 
α3
Esta observación, que hemos introducido con un ejemplo particular, es totalmente general.
Dado un conjunto U = {u1 , u2 , . . . , ur } ⊂ Rn designaremos con MU a la matriz n × r tal
que su primera columna está formada por las componentes de u1 , su segunda columna por
las componentes de u2 , y ası́ sucesivamente. La C.L. α1 u1 + α2 u2 + . . . + αr ur se puede
escribir como el producto de la matriz MU por el vector de los coeficientes de la C.L. :



α1 u1 + α2 u2 . . . + αr ur = MU . 

α1
α2
..
.
αr





Como sabemos, un vector z ∈ Rn será C.L. de U si, y solo si, existen escalares α1 , α2 , . . . , αr ∈
R tales que α1 u1 + α2 u2 . . . + αr 
ur = 
z. O, de manera equivalente, si, existen escalares
α1
 α2 


α1 , α2 , . . . , αr ∈ R tales que MU .  .  = z. Esta última es la notación matricial para
.
 . 
αr
un sistema de ecuaciones lineales de incógnitas α1 , α2 , . . . , αr . Podemos resumir entonces
lo siguiente:


α1
 α2 


Si el sistema
MU  .  = z
.
 . 
αr
es incompatible entonces z NO es C.L. de U .
es compatible entonces z es C.L. de U .
es compatible determinado entonces hay una sola C.L. de U que da como resultado
z.
es compatible indeterminado entonces hay infinitas C.L. de U que dan como resultado
z.


 
 
1
1
2
 1 
 2 
 3 

 
 
Ejemplo 3.3.5. Consideremos los vectores u1 = 
 −1  , u2 =  1  , u3 =  4 
−1
2
1
y el conjunto U = {u1 , u2 , u3 } ⊂ R4 . Queremos caracterizar todos los vectores de R4 que
Capı́tulo 3. El espacio vectorial Rn
80
son C.L. de U , es decir, queremoshallar
 la condición (o condiciones) que deben verificar
a
 b 

a, b, c y d para que el vector z = 
 c  sea C.L. de U . En este caso la matriz ampliada
d




α1
1 1 2 a
 α2 
 1 2 3 b 



del sistema MU . 
 α3  = z es  −1 1 4 c .
α4
−1 2 1 d
Escalerizando tenemos que la matriz es equivalente a las siguientes:

1
 0

 0
0
1
1
2
3

2
a
1 b−a 
 ←− F2 − F1
6 a + c  ←− F3 + F1
3 a+d
←− F4 + F1

1
 0
∼ 
 0
0
1
1
0
0

2
a
b−a 
1

4 3a − 2b + c  ←− F3 − 2F2
0 4a − 3b + d
←− F4 − 3F2
El rango por filas (o sea, el número de escalones) de MU es rgf (MU ) = 3. Según el teorema
de Rouche-Frobenius, el sistema será compatible si, y solo si, el rango por filas de la matriz
ampliada también es 3. Se deduce entonces que la condición para que z sea C.L. de U es
4a − 3b + d = 0.
Observación 3.3.4. Los vectores canónicos de Rn .
Para cada j entre 1 y n designaremos con ej al vector de Rn cuyas componentes son todas
nulas, salvo la j-ésima que vale 1:




e1 = 






Si x = 


x1
x2
x3
..
.
xn
1
0
0
..
.
0








 , e2 = 




0
1
0
..
.
0








 , . . . , en = 




0
0
0
..
.
1











 es un vector cualquiera de Rn entonces vale la igualdad:


x = x1 e1 + x2 e2 + x3 e3 + . . . + xn en
Resulta entonces que cualquier vector es C.L. del conjunto de vectores canónicos. Mas
aún, los coeficientes de la C.L. son las propias componentes del vector x. Además, es claro
que no hay otra manera de escribir x como C.L. de estos vectores canónicos. De aquı́ en
adelante designaremos con la letra C al conjunto de vectores canónicos de Rn , es decir:
C = {e1 , e2 , . . . , en }. Observemos también que la matriz MC no es otra que la matriz
3.3. El espacio vectorial Rn
identidad In :
81



MC = 

1
0
..
.
0 ... 0
1 ... 0
.. . . ..
. .
.
0 0 ... 1



 = In

Ejercicio 3.3.1. Sean λ ∈ R y v ∈ Rn . Demuestre que λ v = o si, y solo si, λ = 0 o v = o.
Ejercicio 3.3.2. Se consideran los vectores:


 
 
1
2
1
u= 1  , v= 1  , w= 2 
2
3
a
Encuentre todos los valores de a para los cuales w es C.L. de {u, v}.
Ejercicio 3.3.3. En cada uno de los siguientes casos se pide:
Halle la matriz MU .
Halle todos los vectores que son C.L. de U .
Decida
si el 
vector

 z dado
 es C.L. deU . 
−1 
1
 1
1. U =  0  ,  2 
, z= 2 .


2
1
3


 
  

1
2
1 
1

2. U =  0  ,  −1  ,  0 
, z= 1 .


−1
1
1
−1
  
 
  


0
2
1 
1
 1
3. U =  1  ,  −1  ,  1  ,  1 
, z =  −2  .


1
1
−1
0
3

 


  
1
3
1
2 




 1 


 
1 
  , z2 =  3  .
, 0 
=
4. U = 
,
z
1
 1 
 −3 
 −1   1 





1
−3
−1
3
1
1
2
2
3
5. U =
,
,
,
, z=
.
2
1
3
2
5
Ejercicio 3.3.4. Determine si las siguientes afirmaciones son verdaderas o falsas justificando la respuesta.
1. Sean U = {u1 , u2 } ⊂ Rn y z1 , z2 dos vectores que son C.L. de U . Si v = 2z1 + 3z2
entonces v es C.L. de U .
2. Sean u1 , u2 , u3 ∈ Rn tales que u1 es C.L. de {u2 , u3 } y u2 es C.L. de {u3 }. Entonces
u1 es C.L. de {u3 }.
3. Sean u1 , u2 , u3 ∈ Rn tales que u1 es C.L. de {u2 , u3 } y u2 no es C.L. de {u3 }. Entonces
u1 no es C.L. de {u3 }.
Capı́tulo 3. El espacio vectorial Rn
82
Ejercicio 3.3.5. Se considera el conjunto:

 
1
2



  1
−1
 
U= 
 0  ,  1



1
0


2


  −1  
4
 , 

  1  ⊂R


1



−2
 −5 

1. Investigue si z = 
 −2  es combinación lineal de U .
6
2. Encuentre todos los vectores de R4 que son C.L. de U .
Ejercicio 3.3.6. Se consideran:
  
 

−1
1 
 1
U =  1 , a , b 


1
−1
−1
,


1
z =  −a 
−3
Investigue si z es C.L. de U . (Se deberá discutir según a, b ∈ R).
Ejercicio 3.3.7. Rectas en Rn .
Sean p y q dos puntos distintos de Rn y v un vector no nulo de Rn . Análogamente a lo
que ocurre en R2 y R3 damos las siguientes definiciones:
La recta que pasa por p y es paralela al vector v es el conjunto: { p + λv / λ ∈ R }
La recta que pasa por p y q es el conjunto : { p + λ(q − p) / λ ∈ R }
El segmento de extremos p y q es el conjunto : { p + λ(q − p) / λ ∈ [0, 1] } que también
puede expresarse como { (1 − t)p + tq / t ∈ [0, 1] }
1. 
Encuentre
paramétricas de la recta en R4 que pasa por los puntos
 lasecuaciones

1
3
 −1 
 2 


 
 1  y  3 . Encuentre una recta que pase por el origen y que sea paralela
2
1
a la recta anterior.
2. Diremos que tres puntos p1 , p2 , p3 ∈ Rn están alineados cuando pertenecen a una
misma recta. Demuestre que p1 , p2 , p3 están alineados si, y solo si, los vectores p2 −p1
y p3 − p1 son colineales.
Ejercicio 3.3.8. Conjuntos convexos.
Un subconjunto C de Rn se dice convexo cuando para toda pareja de puntos p, q ∈ C se
cumple que el segmento con extremos en p y en q está contenido en C. (Dicho de manera
más coloquial, es un conjunto donde no se puede jugar a la escondida). En sı́mbolos:
C ⊂ Rn es convexo ⇐⇒ ∀ p, q ∈ C se cumple (1 − t)p + tq ∈ C, ∀ t ∈ [0, 1]
1. Encuentre ejemplos de conjuntos convexos en R2 .
2. Demuestre que la intersección de dos conjuntos convexos es un conjunto convexo.
3. ¿Es la unión de conjuntos convexos un conjunto convexo?
3.4. Dependencia e independencia lineal
3.4.
83
Dependencia e independencia lineal
Definición 3.4.1. Conjuntos linealmente dependientes y linealmente independientes.
Sea U = {u1 , u2 , . . . , ur } ⊂ Rn un conjunto con al menos dos vectores (r ≥ 2).
Diremos que U es linealmente dependiente (L.D.) cuando alguno de sus vectores es
C.L. de los restantes vectores de U .
Cuando U no sea linealmente dependiente diremos que es linealmente independiente
(L.I.).


 
 
1
2
3
 0 
 1 
 1 

 
 
Ejemplo 3.4.1. Sean u1 = 
 1  , u2 =  2  , u3 =  3 
−1
1
0
y el conjunto U = {u1 , u2 , u3 }. Es inmediato observar que u3 = u1 +u2 . Se deduce entonces
que U es L.D.
Observemos también que u3 = u1 + u2 implica u1 + u2 − u3 = o y esto quiere decir que
hemos encontrado una C.L. no trivial de U que da como resultado o.
      
0
0 
 1
Ejemplo 3.4.2. Sea C = {e1 , e2 , e3 } =  0  ,  1  ,  0  . Observemos que


0
0
1
cualquier C.L. entre e1 y e2 tendrá un 0 en la tercera componente, de donde resulta que
e3 no es C.L. de {e1 , e2 }. Con un razonamiento similar se concluye que e1 no es C.L. de
{e2 , e3 } y que e2 no es C.L. de {e1 , e3 }. Ninguno de los vectores de C se puede expresar
como C.L. de los restantes y, por lo tanto, C es L.I.
Observación 3.4.1. Dos situaciones muy simples.
(a) Si un conjunto (con más de un vector) contiene al vector nulo entonces es L.D. En
efecto, sea U = {o, u2 , . . . , ur }. Como, obviamente, o = 0u2 + . . . 0ur , el vector
nulo es C.L. de los restantes y, por lo tanto, U es L.D.
(b) Cuando el conjunto en cuestión contiene exactamente dos vectores entonces es inmediato estudiar si es L.I. o L.D. Sea U = {u, v} ⊂ Rn . U es L.D. si, y solo si, algunos
de sus vectores es C.L. del otro, es decir, si y solo si, son colineales. Resulta entonces
que cuando tenemos solamente dos vectores alcanza con mirarlos para poder decidir:
si son proporcionales entonces U es L.D. y, si no lo son, entonces U es L.I.
En la observación anterior se vio que cuando el conjunto contiene solamente dos vectores
entonces es trivial estudiar si es L.I. o L.D. Ahora bien, cuando el conjunto contiene más
de dos vectores, dicho estudio no es (en general) inmediato. Consideremos el siguiente
ejemplo:

 
 

1
−5
2 




 10   −1 
2 






U= 
 ,  −7  ,  1 

 −1



3
−19
7
¿Alguno de sus vectores es C.L. de los restantes? A “simple vista” (y sin hacer operaciones)
parecerı́a que no podemos adelantarnos a responder la pregunta. El próximo teorema nos
dará una caracterización diferente de los conjuntos L.D.
Capı́tulo 3. El espacio vectorial Rn
84
Teorema 3.4.1. Condición necesaria y suficiente para que un conjunto sea L.D.
Sea U = {u1 , u2 , . . . , ur } ⊂ Rn un conjunto con al menos dos vectores (r ≥ 2).
Entonces U es L.D. si, y solo si, existe una C.L. no trivial de U que da como resultado el
vector nulo o.
Demostración. Como mencionamos anteriormente, el vector nulo siempre es C.L. de
cualquier conjunto, pues se obtiene trivialmente multiplicando por ceros los vectores de
dicho conjunto. A dicha C.L. la denominábamos C.L. trivial. Pero, como ya hemos visto
en algunos ejemplos, puede suceder que existan C.L. no triviales de U que también den
como resultado o.
( =⇒ ) Por hipótesis U es L.D. Esto quiere decir que alguno de sus vectores es C.L.
de los restantes. Supongamos (para fijar ideas) que u1 es C.L. de los demás. Tenemos
entonces que existen escalares α2 , . . . , αr ∈ R tales que u1 = α2 u2 + . . . + αr ur .
Lo anterior implica que o = −u1 + α2 u2 + . . . + αr ur . Hemos encontrado entonces
una C.L. no trivial (con al menos uno de los coeficientes diferente de cero) de U que
da o.
( ⇐= ) Ahora nuestra hipótesis es que existe una C.L. no trivial de U que da como
resultado o. O sea, existe alguna C.L. de U con al menos un coeficiente diferente
de 0 que da o. Tenemos entonces que existen escalares λ1 , λ2 , . . . , λr ∈ R, no
todos nulos, tales que o = λ1 u1 + λ2 u2 + . . . + λr ur . Supongamos (sin pérdida de
generalidad)
que es λ1 6=0. De la igualdad anterior podemos despejar u1 obteniendo:
−λ2
r
u1 = λ1 u2 + . . . + −λ
ur . Hemos encontado entonces un vector de U que es
λ1
C.L. de los restantes, y eso es precisamente lo que querı́amos probar. ♠
Corolario 3.4.2. Condición necesaria y suficiente para que un conjunto sea L.I.
Del teorema anterior surge inmediatamente lo siguiente:
Un conjunto U es L.I. si, y solo si, la única C.L. de U que da como resultado o es la
trivial.
Observación 3.4.2. Una convención para un conjunto con un solo vector. Si
u ∈ Rn es un vector no nulo entonces λu = o si, y solo si, λ = 0. Dicho de otro modo,
la única C.L. de {u} que da o es la trivial. Debido a esto convenimos en que un conjunto
con un solo vector no nulo es L.I.
Por otra parte, el producto de cualquier real por o da como resultado o. Consideraremos
entonces que {o} es L.D.
Según los resultados anteriores, para averiguar si el conjunto U = {u1 , u2 , . . . , ur } ⊂ Rn
es L.I. o L.D. podemos considerar el sistema lineal homogéneo


α1
 α2 


MU .  .  = o
.
 . 
αr
y decidir de la siguiente manera:
3.4. Dependencia e independencia lineal
85
Si el sistema es compatible determinado (solo admite la solución trivial) entonces U
es L.I.
Si el sistema es compatible indeterminado (admite soluciones distintas de la trivial)
entonces U es L.D.
Ejemplo 3.4.3. Consideremos el conjunto
  
1
−5


  
2
 ,  −6
U = {u1 , u2 , u3 } = 

1   −1



4
−12

2 

  3 
, 
  1 


6
 
Para investigar si es L.I. o L.D. trabajamos con la matriz ampliada:

1 −5
 2 −6

 1 −1
4 −12
2
3
1
6

0
0 

0 
0
que escalerizando queda


1 −5
2 0
 0
4 −1 0 


 0
0
0 0 
0
0
0 0
El sistema es entonces compatible indeterminado y, por lo tanto, U es L.D.
Ahora bien, como U es L.D., alguno de sus vectores tiene que ser C.L. de los restantes.
¿Cómo deberı́amos proceder para hallar tal vector? Si volvemos al sistema escalerizado
(colocando ahora las incógnitas) tenemos:

α1 − 5α2 + 2α3 = 0



4α2 − α3 = 0
0=0



0=0
Hay infinitas soluciones que vienen dadas (por ejemplo) mediante: α1 = −3α2 , α3 = 4α2 ,
α2 cualquiera. Para todas las ternas (α1 , α2 , α3 ) que verifiquen esas relaciones se cumplirá:
α1 u1 + α2 u2 + α3 u3 = o. Por ejemplo, si tomamos α2 = 1 resultan α1 = −3 y α3 = 4 con
lo que −3u1 + u2 + 4u3 = o. De esta última igualdad podemos despejar cualquiera de los
tres vectores en función de los otros dos. En este caso, cualquiera de los tres vectores es
C.L. de los restantes.
Observación 3.4.3. No siempre tiene que ocurrir lo que sucedió en el ejemplo anterior.
Es decir, si un conjunto U es L.D. eso no implica que cualquiera de sus vectores sea
C.L.
 delosrestantes.
  Para
 ello consideremos el siguiente ejemplo: U = {u1 , u2 , u3 } =
1
2
0 


      

1
2
  ,   ,  0  . Este conjunto es L.D. (pues u2 = 2u1 + 0u3 ) y sin embargo
 1   2   0 





1
2
7
u3 no es C.L. de {u1 , u2 }.
Capı́tulo 3. El espacio vectorial Rn
86
Observación 3.4.4. En Rn no hay conjuntos L.I. con más de n vectores.
Supongamos que U = {u1 , u2 , . . . , ur } ⊂ Rn 
es un 
subconjunto de Rn con más de n vecα1
 α2 


tores (r > n). En este caso el sistema MU  .  = o es un sistema homogéneo con
 .. 
αr
más incógnitas que ecuaciones y, por lo tanto (recordar la observación 2.4.5), es compatible indeterminado (tiene soluciones distintas de la trivial). Se deduce entonces que todo
subconjunto de Rn con más de n vectores es necesariamente L.D.
Observación 3.4.5. Interpretación geométrica en R2 y R3 .
Según la observación previa, en R2 no puede haber un conjunto L.I. con más de dos
vectores. Esto tiene una interpretación geométrica bastante simple. En efecto, sea
{u, v} ⊂ R2 un conjunto L.I. Sabemos que esto es equivalente a decir que u y v no
son colineales. Sea w otro vector de R2 . Si w es colineal con u o con v entonces es
claro que {u, v, w} es L.D. Supongamos entonces que w no es colineal con u ni con
v. Designemos con S a la recta que pasa por o y u, y con T a la que pasa por o y
v. La paralela por w a T intersecta a S en u1 , mientras que la paralela por w a S
intersecta a T en v2 . La regla del paralelogramo nos permite afirmar que w = u1 + v2
y, por lo tanto, w es C.L. de {u, v}.
T
v2
w
v
o
u
u1
S
En definitiva, se observa geométricamente que si {u, v} ⊂ R2 es L.I., entonces cualquier otro vector w de R2 se puede escribir como C.L. de {u, v} y, consecuentemente,
{u, v, w} es L.D.
Consideremos ahora un conjunto {u, v} ⊂ R3 L.I. Como estos dos vectores no son
colineales determinan un plano Π que pasa por o y que es paralelo a ambos. Sea
ahora un tercer vector w no colineal con u ni con v.
Tenemos que {u, v, w} es L.D. si, y solo si, w es C.L. de {u, v}. Esto es equivalente
a decir que w pertenece al plano Π.
3.4. Dependencia e independencia lineal
87
z
w
v
Π
u
o
y
x
Ahora bien, si {u, v, w} es L.I. entonces w no puede ser C.L. de {u, v}. Esto significa
que w no pertenece al plano Π.
z
w
v
Π
u
o
y
x
Observación 3.4.6. Reducción y ampliación de un conjunto L.I.
Es bastante sencillo probar que si a un conjunto L.I. (con más de un vector) le quitamos uno de sus vectores, entonces el conjunto resultante también es L.I. En efecto,
sea U = {u1 , u2 , . . . , ur } ⊂ Rn un conjunto L.I. y V = U − {u1 } = {u2 , . . . , ur }. Si
V no fuese L.I. entonces alguno de sus vectores deberı́a ser C.L. de los restantes.
Supongamos (para fijar ideas) que u2 = α3 u3 + . . . + αr ur . Pero entonces también
tendrı́amos la igualdad u2 = 0u1 + α3 u3 + . . . + αr ur , de donde resultarı́a que U
no serı́a L.I.
Capı́tulo 3. El espacio vectorial Rn
88
Ahora bien, ¿qué ocurre si a un conjunto U L.I. le agregamos un vector? Es claro
que si ese vector es C.L. de U entonces el nuevo conjunto (ampliado con ese vector)
ya no será L.I. Sin embargo, si el vector que agregamos no es C.L. de U , el conjunto
ampliado seguirá siendo L.I. Esta importante propiedad es demostrada en el próximo
teorema.
Teorema 3.4.3. Ampliación de un conjunto L.I.
Sea U = {u1 , u2 , . . . , ur } ⊂ Rn un conjunto L.I. Si v ∈ Rn no es C.L. de U entonces
V = {u1 , u2 , . . . , ur , v} también es L.I.
Demostración. Para probar que V es L.I. podemos intentar probar que la única C.L. de
V que da o es la trivial. Supongamos entonces que
o = λ1 u1 + λ2 u2 + . . . + λr ur + βv
(3.1)
Queremos demostrar que necesariamente λ1 = λ2 = . . . = λr = β = 0. Ahora bien,
¿qué ocurre si β no fuese 0? Si β 6= 0 entonces de 3.1 podrı́amos despejar el vector v
obteniendo:
−λ2
−λr
−λ1
u1 +
u2 + . . . +
ur
v=
β
β
β
Pero esto es absurdo, ya que por hipótesis v no es C.L. de U . Hemos llegado a probar que
β = 0. Como β = 0 la igualdad 3.1 queda:
o = λ1 u1 + λ2 u2 + . . . + λr ur
Esta es una C.L. de U que da como resultado o. Como por hipótesis U es L.I. sabemos que
la única C.L. de U que da o es la trivial, de donde se deduce que λ1 = λ2 = . . . = λr = 0.
♠
El próximo resultado muestra que también se mantiene la independencia lineal de un
conjunto si cambiamos uno de sus vectores por una “adecuada” C.L. de todos los vectores
del conjunto.
Teorema 3.4.4. Modificación de un conjunto L.I.
Sea U = {u1 , u2 , . . . , ur } ⊂ Rn un conjunto L.I. Si u′1 = α1 u1 + α2 u2 + . . . + αr ur con
α1 6= 0 entonces el conjunto V = {u′1 , u2 , . . . , ur } también es L.I. (El conjunto V coincide
con U en todos los vectores salvo en el primero de ellos en donde se ha sustituido u1 por
u′1 ).
Demostración. Vamos a probar que la única C.L. de V que da o es la trivial. Supongamos
entonces que
λ1 u′1 + λ2 u2 + . . . + λr ur = o
(3.2)
Queremos demostrar que necesariamente λ1 = λ2 = . . . = λr = 0. En primer lugar
sustituimos en 3.2 la expresión u′1 = α1 u1 + α2 u2 + . . . + αr ur obteniendo:
λ1 (α1 u1 + α2 u2 + . . . + αr ur ) + λ2 u2 + . . . + λr ur = o
Ordenando resulta:
λ1 α1 u1 + (λ1 α2 + λ2 )u2 + . . . + (λ1 αr + λr )ur = o
(3.3)
3.4. Dependencia e independencia lineal
89
Como por hipótesis U es L.I. todos los coeficientes de esta última C.L. deben valer 0:

λ1 α1 = 0




λ1 α2 + λ2 = 0












..
.
λ1 αr + λr = 0
Como α1 6= 0, de la igualdad λ1 α1 = 0 resulta λ1 = 0. Luego, el resto de la igualdades
quedan:
λ2 = 0 , . . . . . . , λr = 0
y eso es lo que querı́amos demostrar.
♠
Ejemplo 3.4.4. Sea U = {u, v} ⊂ Rn un conjunto L.I. Vamos a probar de dos formas
diferentes que V = {2u − v, u + 3v} también es L.I.
(1) Para intentar probar que V es L.I. consideramos una C.L. de V igualada al vector
nulo:
λ1 (2u − v) + λ2 (u + 3v) = o
Tenemos que demostrar que necesariamente λ1 = λ2 = 0. Ordenando queda:
(2λ1 + λ2 )u + (−λ1 + 3λ2 )v = o
Como U = {u, v} es L.I. ambos coeficientes de la última C.L. deben ser nulos. Tenemos
entonces que: 2λ1 + λ2 = 0 y −λ1 + 3λ2 = 0. Resolviendo este sistema de dos ecuaciones
con dos incógnitas se obtiene λ1 = λ2 = 0 y eso prueba que V es L.I.
(2) Una manera alternativa de probar la afirmación consiste en utilizar (con cuidado) el
teorema anterior de “modificación”. Partimos de U = {u, v} L.I. En un primer paso modificamos el vector u por 2u−v. Como en esta C.L. el coeficiente de u (vector modificado) no
es 0, el teorema anterior nos permite asegurar que U ′ = {2u−v, v} es L.I.. Ahora volvemos
a aplicar el teorema, pero en este caso al conjunto U ′ . Ahora, en U ′ , vamos a modificar
el vector v por una C.L. de los dos vectores de U ′ . Como queremos llegar a u + 3v, en
lugar de v ponemos 12 (2u − v) + 72 v. De esta manera llegamos a que V = {2u − v, u + 3v}
también es L.I.
Ejercicio 3.4.1. En los siguientes casos investigue si el conjunto U es L.I. En el caso en
que no lo sea, exprese uno de sus vectores como combinación lineal de los restantes.
      

 
 

0
0 
1
1 
 1
 −1
(1) U =  2  ,  5  ,  0 
(2) U =  1  ,  −1  ,  1 




3
6
7
1
1
−1
      
1
2 
 1
(3) U =  2  ,  1  ,  3 


3
1
4
      
1
1 
 1
(4) U =  1  ,  2  ,  1 


1
1
3
Capı́tulo 3. El espacio vectorial Rn
90

1



0
(5) U = 

0



1
(7) U =

 
1
3
  2   2
 ,   , 
  1   1
1
3

a
2
8
,
a









   
1
2
2



  1   −1
−1
   
(6) U = 
 0  ,  1  ,  1



1
0
1

 
 

a
−1
0


(8) U =  a2  ,  a  ,  2a2 


1
a
a2 + 1








(En las dos últimas partes se deberá discutir según a ∈ R).

   

1
2
1 




  0   −3 
1
   

Ejercicio 3.4.2. Se considera el conjunto U = 
 −1  ,  1  ,  5 .





−1
3
9
1. Pruebe que U es L.D.
2. Encuentre todos los subconjuntos de U que son L.I.
3. ¿Es cierto que para todo conjunto L.D. en R4 todos sus subconjuntos, con excepción
del propio conjunto y del vacı́o, son L.I.?
Ejercicio 3.4.3. Investigue si las siguientes afirmaciones son verdaderas o falsas.
1. Si U es un conjunto de R4 con cinco o más vectores entonces U es L.D.
2. Si U es un conjunto L.D. de R4 entonces contiene cinco o más vectores.
3. Sea U un subconjunto L.I. de Rn que contiene cinco vectores. Entonces n ≥ 5.
4. Sea U un subconjunto L.D. de Rn que contiene cuatro vectores. Entonces n ≥ 4.
Ejercicio 3.4.4. Sean U = {u1 , u2 , . . . , up } ⊂ Rn , A una matriz n × n y V el conjunto
definido por: V = {A.u1 , A.u2 , . . . , A.up }. Investigue si la siguientes afirmaciones son
verdaderas o falsas. (En caso de ser verdaderas demuestre y, en caso contrario, encuentre
un contraejemplo).
1. Si U es L.D. entonces V es L.D.
2. Si V es L.D. entonces U es L.D.
3. Si U es L.I. entonces V es L.I.
4. Si V es L.I. entonces U es L.I.
¿Cambian las respuestas si se supone que A es invertible?
Ejercicio 3.4.5. Sea U = {u, v, w} ⊂ Rn un conjunto L.I.
Demuestre que V = {u + v, u − v, u + v + w} también es L.I.
Ejercicio 3.4.6. Sea {u, v, w} ⊂ Rn un conjunto L.I. Indique si los siguientes conjuntos
son L.I. o L.D. justificando la respuesta.
A = {u, u + v} , B = {u, u + v, u + v + w} , C = {u, v + w, u + v + w}
Ejercicio 3.4.7. Se consideran u, w ∈ R3 . Analice, justificando, si son verdaderas o falsas
las siguientes afirmaciones:
1. Si V = {u, w} es L.I. entonces T = {2u, u + w} es L.I.
2. Si T = {2u, u + w} es L.I. entonces V = {u, w} es L.I.
Capı́tulo 4
Subespacios vectoriales de Rn
En los capı́tulos anteriores se trabajó con operaciones y propiedades de los elementos de
R2 , R3 y más en general de Rn , elementos a los que llamamos vectores. El espacio Rn
con las operaciones definidas con anterioridad, forma una estructura que recibe el nombre
de espacio vectorial real y es el estudio de ésta el centro de este capı́tulo. Ahora, la
estructura de espacio vectorial real no es propia de Rn , sino que abarca también a otros
conjuntos sobre los cuales se hará una breve mención.
4.1.
Espacios vectoriales reales
Si bien nos enfocaremos en el estudio de Rn , comenzamos definiendo la estructura de
espacio vectorial real de una forma más general.
Definición 4.1.1. Espacio vectorial real.
Sea E un conjunto no vacı́o en el cual están definidas dos operaciones que llamaremos
suma y producto por un escalar1 respectivamente. Diremos que E es un espacio vectorial
real si estas operaciones cumplen las siguientes propiedades:
(S1) Asociativa: (u + v) + w = u + (v + w) , ∀ u, v, w ∈ E.
(S2) Conmutativa: u + v = v + u , ∀ u, v ∈ E.
(S3) Existencia de neutro: Existe o ∈ E tal que o + u = u , ∀ u ∈ E.
(S4) Existencia de opuesto: Para cada u ∈ E existe −u ∈ E tal que u + (−u) = o.
(P1)
(P2)
(P3)
(P4)
Asociativa: (λβ) u = λ (βu) , ∀ λ, β ∈ R, ∀ u ∈ E.
Existencia de neutro real: 1u = u , ∀ u ∈ E.
Distributiva respecto de la suma en R: (λ + β) u = λu + βu , ∀ λ, β ∈ R, ∀ u ∈ E.
Distributiva respecto de la suma en E: λ (u + v) = λu + λv , ∀ λ ∈ R, ∀u, v ∈ E.
Ejemplo 4.1.1. El espacio E = Rn , con las operaciones de suma de vectores y producto
de un escalar por un vector definidas con anterioridad, es un espacio vectorial real.
1
Recordemos que llamamos escalares a los números reales.
92
Capı́tulo 4. Subespacios vectoriales de Rn
Ejemplo 4.1.2. El conjunto E = Mm×n de todas las matrices de tamaño m × n, considerando las operaciones usuales de suma de matrices y producto de un escalar por una
matriz, es un espacio vectorial real.
Ejemplo 4.1.3. Si I ⊂ R es un intervalo (puede ser de la forma [a, b] o incluso el propio
R) se representa con F(I) al conjunto de todas las funciones definidas en I a valores
reales. Este conjunto es un espacio vectorial real si definimos las operaciones de suma
de funciones y producto de un número por una función de manera habitual, esto es:
(f + g)(x) = f (x) + g(x) y (λf )(x) = λf (x) , ∀ x ∈ R, ∀ λ ∈ R.
Si E es un espacio vectorial real, existen subconjuntos de E que son en sı́ mismos espacios vectoriales reales al considerar las mismas operaciones que las definidas en E. Estos
subconjuntos se llaman subespacios vectoriales de E.
Definición 4.1.2. Subespacio vectorial
Sean E un espacio vectorial real y S un subconjunto no vacı́o de E. Diremos que S es un
subespacio vectorial de E si se cumplen las siguientes condiciones
1. La suma de dos elementos cualesquiera de S es un elemento de S.
2. El producto de número real cualquiera por un elemento cualquiera de S es un elemento de S.
Cuando esto sucede se dice que las operaciones son cerradas en S, pues al operar con
elementos de S (sumándolos o multiplicándolos por números) no nos salimos del subconjunto S. Es claro que las mismas propiedades que cumplı́an las operaciones en E también
se seguirán cumpliendo en S y, por lo tanto, S es en sı́ mismo un espacio vectorial real al
restringir a S las mismas operaciones que las definidas en E.
Observación 4.1.1. Dos subespacios vectoriales particulares.
Dado un espacio vectorial E, es inmediato verificar que los siguientes subconjuntos de E
son subespacios vectoriales de E:
el propio espacio E.
el conjunto formado por solamente el elemento nulo: {o}
Proposición 4.1.1. Sean E un espacio vectorial real y S un subespacio vectorial de E.
Entonces
1. o es un elemento de S.
2. si S 6= {o} entonces S tiene una cantidad infinita de elementos.
Demostración.
1. S es no vacı́o, por lo que existe al menos un elemento u en S. Como S es un
subespacio vectorial, el producto de cualquier número real por u es un elemento
de S, en particular 0u = o pertenece a S.
2. Si S es no vacı́o y S 6= {o} entonces existe en S un elemento u tal que u 6= o.
Luego λu ∈ S para todo λ ∈ R. Si λ1 6= λ2 entonces λ1 u 6= λ2 u (como el lector podrá verificar fácilmente). Se deduce que S contiene una cantidad infinita de
elementos.
4.1. Espacios vectoriales reales
93
Observación 4.1.2. Una definición alternativa de subespacio vectorial.
En la definición de subespacio vectorial se exige que el conjunto S sea no vacı́o. Además,
en la proposición 4.1.1 se demostró que si S es un subespacio de un espacio vectorial
E entonces necesariamente debe contener al elemento nulo. Resulta entonces que en la
definición de subespacio vectorial podrı́amos haber sustituido la condición de ser S no
vacı́o por la de o ∈ S.
Ejemplo 4.1.4. Ver ejemplo 4.2.1
Ejemplo 4.1.5. El conjunto S de todas las matrices diagonales2 de tamaño 2 × 2 es un
subespacio vectorial de M2×2 . En efecto, verifiquemos las condiciones de la definición de
subespacio:
0 0
1. La matriz nula o =
es una matriz diagonal por lo que pertenece a S.
0 0
2. Si A y B son dos elementos de S, entonces
b11 0
a11 + b11
a11 0
0
A+B =
+
=
0 a22
0 b22
0
a22 + b22
es una matriz diagonal y por lo tanto pertenece a S.
3. Si A es un elemento de S, entonces
a11 0
λa11
0
λA = λ
=
0 a22
0
λa22
que es un elemento de S cualquiera sea λ ∈ R.
Ejemplo 4.1.6. El conjunto C(I), de las funciones continuas en un intervalo I, es un
subespacio vectorial de F(I), conjunto de todas las funciones definidas en I a valores
reales. En efecto, sabemos que:
1. La función nula o es continua en I.
2. Si f y g son dos funciones continuas en I entonces f + g es continua en I.
3. Si f es una función continua en I y λ ∈ R entonces λf es continua en I.
Ejemplo 4.1.7. El conjunto D(I), de las funciones derivables en I, es un subespacio
vectorial de C(I) (y, por lo tanto, también de F(I)) pues sabemos que:
1. La función nula o es derivable en I.
2. Si f y g son dos funciones derivables en I entonces f + g es derivable en I.
3. Si f es una función derivable en I y λ ∈ R entonces λf es derivable en I.
Ejemplo 4.1.8. El conjunto P, de todos los polinomios es un subespacio vectorial del
conjunto de todas las funciones definidas en R a valores reales. En efecto:
1. La función nula pertenece a P.
2. Si f y g son dos polinomios entonces f + g también lo es.
3. Si f es un polinomio entonces λf también lo es, ∀λ ∈ R.
2
Una matriz A = ((aij )) n × n es diagonal si aij = 0 ∀i 6= j, i, j = 1, . . . , n.
Capı́tulo 4. Subespacios vectoriales de Rn
94
Ejemplo 4.1.9. El conjunto Pn , de los polinomios de grado menor o igual que n (incluido
el polinomio nulo), es un subespacio vectorial de P (y, por lo tanto, también de F(R)).
En efecto:
1. La función nula pertenece a Pn .
2. Si f y g son dos polinomios de grado menor o igual que n entonces f + g también lo
es.
3. Si f es un polinomio de grado menor o igual que n entonces λf también lo es, ∀λ ∈ R.
Una condición equivalente para que un conjunto sea un subespacio vectorial es la que se
enuncia a continuación.
Proposición 4.1.2. Sean E es un espacio vectorial real y S un subconjunto no vacı́o de E.
Entonces S es subespacio vectorial de E si, y solo si, αu+ βv ∈ S , ∀ α, β ∈ R, ∀ u, v ∈ S.
Demostración.
(=⇒) Sean u, v ∈ S y α, β ∈ R. Como S es subespacio se tiene que αu ∈ S y βv ∈ S.
Utilizando nuevamente el hecho de que S es subespacio la suma αu + βv es un
elemento de S.
(⇐=) Por hipótesis αu + βv es un elemento de S , ∀α, β ∈ R, ∀u, v ∈ S.
1. Tomando α = 1 y β = 1 resulta que 1 u + 1 v = u + v ∈ S , ∀u, v ∈ S.
2. Si β = 0 se tiene que αu + 0 v = αu + o = αu ∈ S , ∀α ∈ R, ∀u ∈ S.
♠
Ejercicio 4.1.1. En cada uno de los siguientes casos investigue si la afirmación dada es
verdadera o falsa. En caso de ser verdadera deberá demostrarla y, en caso de ser falsa,
deberá encontrar un contraejemplo.
1. El conjunto S de todas las matrices n × n que tienen traza nula es un subespacio de
Mn×n .
2. El conjunto L∞ (I) = { f : I → R / f está acotada en I } es un subespacio de F(I).
3. El conjunto C([a, b]) es un subespacio de L∞ ([a, b]).
4. El conjunto C(R) es un subespacio de L∞ (R).
5. El conjunto S de todos los polinomios que se anulan en x = 1 y en x = 3 es un
subespacio de P.
6. El conjunto S de todos los polinomios de grado 2 es un subespacio de P.
Rb
7. El conjunto S = { f ∈C([a,b])/ a f = 0} es un subespacio de C([a, b]).
Ejercicio
4.1.2. Sean E un espacio vectorial y S1 , S2 subespacios de E. Demuestre que
T
S1 S2 también es un subespacio de E.
4.2. Subespacios vectoriales de Rn
4.2.
95
Subespacios vectoriales de Rn
Si bien puede desarrollarse la teorı́a de subespacios de espacios vectoriales reales en general,
nos centramos en los subespacios del espacio vectorial Rn . Es ası́ que, en lo que sigue,
cada vez que hagamos referencia a un espacio vectorial real se entenderá Rn . Redefinamos
entonces el concepto de subespacio para el este caso particular.
Definición 4.2.1. Subespacios de Rn .
Diremos que un subconjunto S de Rn es un subespacio de Rn si verifica:
1. o ∈ S.
2. Cualesquiera sean u, v ∈ S se cumple que u + v ∈ S.
3. Cualquiera sea u ∈ S y cualquiera sea el número λ ∈ R se cumple que λ u ∈ S.
Lo que exige esta definición es que al operar con vectores de S (sumándolos o multiplicándolos por números) obtengamos como resultado nuevos vectores de S (es decir que
no nos salgamos de S), esto es, las operaciones son cerradas en S.
Observación 4.2.1. Dos subespacios particulares.
Es inmediato verificar que Rn y {o} son subespacios vectoriales de Rn .
x
2
Ejemplo 4.2.1. Probaremos que S =
∈ R : −x + y = 0 es un subespacio de
y
R2 .
x
En primer lugar observemos que los elementos de S son aquellos vectores
∈ R2 que
y
satisfacen la condición −x + y = 0, es decir, S está formado por los vectores de R2 que
tienen ambas componentes iguales, por lo que puede escribirse
x
x
2
2
S=
∈ R : −x + y = 0 =
∈R :x∈R
y
x
Analizamos entonces el cumplimiento de las condiciones planteadas en la definición 4.2.1:
0
1. o =
∈ S ya que las componentes del vector nulo son iguales.
0
x2
x1
x2
x1
2. Si u =
yv=
pertenecen a S entonces u =
yv=
.
y1
y2
x1
x2
Luego el vector suma
x1
x2
x1 + x2
u+v =
+
=
x1
x2
x1 + x2
verifica la condición de pertenencia a S.
x
x
3. Si u =
es un vector de S, entonces u =
.
y
x
x
λx
Entonces el vector λu = λ
=
pertenece a S, ∀ λ ∈ R.
x
λx
Capı́tulo 4. Subespacios vectoriales de Rn
96
Por lo tanto S es un subespacio de R2 , que representa además a la recta
de ecuación y = x,
1
esto es, a la recta que pasa por el origen o y es paralela al vector
.
1
Ejemplo 4.2.2. T =
x
y
∈
R2
: −x + y = 1 no es un subespacio de R2 , pues T no
contiene al vector nulo o.
x
2
Ejemplo 4.2.3. R =
∈ R : x ≥ 0 no es subespacio de R2 pues, por ejemplo,
y
4
4
−12
si bien
es un elemento de R, el vector −3
=
no lo es.
−2
−2
6
x
y
∈
S
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxx
x2
:y=
no es un subespacio de R2 .
1
2
Basta considerar los vectores u =
y
en W y observar que el vector suma
1
4
1
2
3
u+v =
+
=
es tal que 5 6= 32 por lo que no satisface la condición
1
4
5
de pertenencia al conjunto W .
Ejemplo 4.2.4. W =
R2
T
R
W
Figura 4.1: S es un subespacio de R2 , T , R y W no son subespacios de R2 .
 

 x

Ejemplo 4.2.5. S =  y  ∈ R3 : x + 2y − z = 0 es un subespacio de R3 .


z
Comenzamos como en el ejemplo 4.2.1, observando que los elementos de S son aquellos
4.2. Subespacios vectoriales de Rn
97


x
vectores  y  ∈ R3 que satisfacen la condición x + 2y − z = 0, es decir
z
 

 

x
 

 x
 ∈ R3 : x, y ∈ R
y
S =  y  ∈ R3 : x + 2y − z = 0 = 

 

x + 2y
z


0
1. Resulta inmediato verificar que o =  0  ∈ S.
0




x1
x2



2. Si u =
y1
yv=
y2  son dos vectores en S, el vector suma
z1
z2

 
 

x2
x1 + x2
x1
+
=

u+v =
y1
y2
y 1 + x2
x1 + 2y1
x2 + 2y2
(x1 + x2 ) + 2(y1 + y2 )
verifica la condición de pertenencia a S.
 
x

y  es un vector de S, entonces
3. Si u =
z

 

x
λx
=

λu = λ 
y
λy
x + 2y
λ(x + 2y)
pertenece a S para todo λ ∈ R.
Probamos entonces que S es un subespacio R3 . Observemos además que el subespacio S
es el plano que pasa por el origen o y tiene a x + 2y − z = 0 como ecuación reducida.
Observación 4.2.2. En el ejemplo 4.2.1 se probó que la recta de ecuación y = x es un
subespacio de R2 , mientras que en el ejemplo 4.2.5 se demostró que el plano de ecuación
x + 2y − z = 0 es un subespacio de R3 . Ahora, estos resultados no son peculiaridades de
estos ejemplos sino que, se puede demostrar, que toda recta en R2 que pasa por el origen
es un subespacio de R2 , y que toda recta y todo plano en R3 que pasen por el origen son
subespacios de R3 (ejercicio 4.2.5). Es muy fácil visualizar estos resultados . Por ejemplo,
veamos que un plano Π en R3 que pasa por el origen es un subespacio de R3 :
1. o ∈ Π pues Π pasa por el origen o.
2. Si u y v son dos vectores en Π entonces u + v ∈ Π ya que u + v es la diagonal del
paralelogramo cuyos lados conforman u y v.
3. Si u es un vector en Π entonces λu ∈ Π para cualquier escalar λ pues λu está en
una recta que contiene a u.
Capı́tulo 4. Subespacios vectoriales de Rn
98
z
Π
u+v
v
λu
u
o
y
x
Con argumentos totalmente análogos se muestra que las rectas que pasan por el origen en
R2 y R3 son subespacios vectoriales de R2 y R3 respectivamente.
Es más, puede probarse que en realidad éstos, junto con todo el espacio y el conjunto
formado solo por el vector nulo, son los únicos subespacios de R2 y R3 respectivamente.
Definición 4.2.2. Núcleo de una matriz.
Sea A una matriz m × n. El núcleo de A es, por definición, el conjunto:
N (A) = { x ∈ Rn / Ax = o }
Observemos que el núcleo de A coincide con el conjunto solución del sistema lineal homogéneo Ax = o.
Proposición 4.2.1. El núcleo de una matriz es un subespacio.
Si A es una matriz m × n entonces N (A) es un subespacio de Rn .
Demostración.
En la demostración que sigue indicamos con om y on a los vectores nulos de Rm y Rn
respectivamente. Se tiene:
1. on pertenece a N (A) pues Aon = om .
2. Si u y v son vectores en N (A), el vector suma u + v satisface
A(u + v) = Au + Av = om + om = om
de donde resulta que u + v pertenece a N (A).
3. Si u es un vector de N (A), el vector λu pertenece a N (A) pues
A(λu) = λ(Au) = λom = om
El siguiente teorema indica que, si consideramos el conjunto formado por todas las combinaciones lineales de un cierto subconjunto U = {u1 , u2 , . . . , ur } de Rn , se obtiene un
subespacio que recibe el nombre de subespacio generado por U .
4.2. Subespacios vectoriales de Rn
99
Teorema 4.2.1. Subespacio de las combinaciones lineales.
Sean U = {u1 , u2 , . . . , ur } ⊂ Rn y S = { x ∈ Rn / x es combinación lineal de U }.
Entonces S es un subespacio vectorial de Rn .
Demostración.
1. o pertenece a S ya que o es combinación lineal de cualquier conjunto, basta escribir
o = 0u1 + 0u2 + . . . + 0un .
2. Si v y w son dos elementos de S entonces existen α1 , α2 , . . . , αr y β1 , β2 , . . . , βr en R
tales que v = α1 u1 +α2 u2 +. . . +αr ur y w = β1 u1 +β2 u2 +. . . +βr ur . Luego el vector
suma v+w puede ser escrito como v+w = (α1 +β1 )u1 +(α2 +β2 )u2 +. . .+(αr +βr )ur
por lo que resulta ser combinación lineal de U y, por lo tanto, un elemento de S.
3. Si v ∈ S existen α1 , α2 , . . . , αr ∈ R tales que v = α1 u1 + α2 u2 + . . . + αr ur . Luego
λv = (λα1 )u1 + (λα2 )u2 + . . . + (λαr )ur por lo que λv pertenece a S. ♠
Definición 4.2.3. Subespacio generado por un conjunto.
Si U = {u1 , u2 , . . . , ur } ⊂ Rn entonces el conjunto S = { x ∈ Rn / x es C.L. de U } (que
es subespacio por el teorema anterior), recibe el nombre de subespacio generado por U
y lo denotamos como S = L(U ).
Observación 4.2.3. Hasta ahora, cuando querı́amos demostrar que un conjunto S era un
subespacio de Rn , necesariamente debı́amos verificar el cumplimiento de las condiciones
1. o ∈ S
2. u + v ∈ S , ∀u, v ∈ S
3. λu ∈ S , ∀λ ∈ R, ∀u ∈ S
Ahora bien, el teorema anterior nos permite un camino alternativo (y en muchos casos más
económico). En efecto, para probar que un conjunto S es un subespacio de Rn , podemos
intentar encontrar un conjunto U de modo que S = L(U ). Si lo logramos, el problema
quedará resuelto, pues ya sabemos que L(U ) es un subespacio
de Rn .
 

x




 

y
4
 ∈ R /x + z = 0, y + t = 0
Supongamos, por ejemplo, que se quiere probar que S = 
 z 






t
es un subespacio de R4 . Basta observar que todos los vectores de S son de la forma



x
1
 y 
 0



 −x  = x  −1
−y
0



0



+y 1 

 0 
−1

1



0
esto es, todos los vectores de S son combinación lineal de U = 

−1



0
4
Entonces S = L(U ) por lo que S es un subespacio de R .

0 

  1 
,

  0 


−1
 
100
Capı́tulo 4. Subespacios vectoriales de Rn
     
2
4 
 1
Ejemplo 4.2.6. Si U =  2  ,  1  ,  5  , veamos cómo encontrar el subes

0
5
5
pacio L(U ). Para ello buscamos qué condición o condiciones debe cumplir un vector de R3
para pertenecer a L(U ):
 
 
 
   
1
2
4
x
x
 y  ∈ L(U ) ⇔ ∃ α1 , α2 , α3 ∈ R : α1  2  + α2  1  + α3  5  =  y 
0
5
5
z
z


  
1 2 4
α1
x
⇔ el sistema  2 1 5   α2  =  y  es compatible.
0 5 5
α3
z

 
 

1 2 4 x
1
2
4 x
1
2
4 x
 2 1 5 y  ∼  0 −3 −3 −2x + y  ∼  0 −3 −3 −2x + y

0 5 5 z
0
5
5 z
0
0
0 −10x + 5y + 3z
Luego el sistema es compatible ⇔ −10x + 5y + 3z = 0 por lo que
 

x


L(U ) =  y  ∈ R3 / − 10x + 5y + 3z = 0


z
Otra forma de hallar el subespacio L(U ) consiste en observar que
 
 
 
4
1
2
 5  = 2 2  + 2 1 
5
0
5
   
 
4
2 
 1
por lo que  5  es C.L. de  2  ,  1  (el conjunto U es L.D.). Ası́, este vector


5
0
5
pertenece al plano determinado por los otros
del plano que pasa
 dos.Calculando
  la ecuación
1
2
 x = α1 + 2α2




por el origen o y es paralelo a los vectores
2
y
1
se obtiene
y = 2α1 + α2

z =
5α2
0
5
como ecuaciones paramétricas y −10x + 5y + 3z = 0 como reducida, entonces
 

x


L(U ) =  y  ∈ R3 / − 10x + 5y + 3z = 0


z
Ejercicio 4.2.1. Determine cuáles de los siguientes conjuntos son subespacios de R2 e
interprete geométricamente el resultado:
x
x
2
2
(1) S =
∈ R : −3x + y = 0
, (2) S =
∈ R : 2x = 0
y
y
x
x
2
2
(3) S =
∈ R : x − 2y = 3
, (4) S =
∈ R : x ≥ 0, y ≥ 0
y
y
4.2. Subespacios vectoriales de Rn
(5) S =
x
y
101
[ x
∈ R2 : x ≥ 0, y ≥ 0
∈ R2 : x ≤ 0, y ≤ 0
y
Ejercicio 4.2.2. Determine cuáles de los siguientes conjuntos son subespacios de R3 e
interprete geométricamente el resultado:
 

 

 x

 x

(1) S =  y  ∈ R3 : y = x + z
, (2) S =  y  ∈ R3 : y = 0, z = 0




z
z
 

 

 x

 x

(3) S =  y  ∈ R3 : z = 0
, (4) S =  y  ∈ R3 : x − y + z − 1 = 0




z
z
 

 


 x

 x
(5) S =  y  ∈ R3 : x2 + y 2 − z = 0 , (6) S =  y  ∈ R3 : x2 + y 2 + z 2 = 0




z
z
Ejercicio 4.2.3. Halle el núcleo de las siguientes matrices:




−3
1
1
1 1 −1
0
2 1 4
1 
A=
B =  1 −1
C =  −1 2 −5 −3 
−1 1 1
0
2 −4
5 3 −1
2
Ejercicio 4.2.4. Sea S un subconjunto no vacı́o de Rn . Pruebe que S es subespacio si, y
solo si, αu + βv ∈ S , ∀ α, β ∈ R, ∀ u, v ∈ S.
Ejercicio 4.2.5. Demuestre:
x
2
1. S =
∈ R : ax + by = 0 es un subespacio de R2 cualesquiera sean a, b ∈ R.
y
 

 x

2. S =  y  ∈ R3 : ax + by + cz = 0 es un subespacio de R3 cualesquiera sean


z
a, b, c ∈ R.
 


 x
3. S =  y  ∈ R3 : ax + by + cz = 0, dx + ey + f z = 0 es un subespacio de R3


z
cualesquiera sean a, b, c, d, e, f ∈ R.
Observación: En este ejercicio se demuestra que toda recta en R2 que pasa por el origen
es un subespacio de R2 , y que todo plano y toda recta en R3 que pasan por el origen son
subespacios de R3 .
Ejercicio 4.2.6. Se consideran los conjuntos:
 

 

 x

 x

S =  y  ∈ R3 : −x + y = 0
y T =  y  ∈ R3 : x + y − z = 0




z
z
102
Capı́tulo 4. Subespacios vectoriales de Rn
1. Demuestre que S y T son dos subespacios de R3 .
(Sugerencia: utilice el ejercicio 4.2.5).
2. Calcule S ∩ T y determine si S ∩ T es también un subespacio R3 .
3. Calcule S ∪ T y determine si S ∪ T es también un subespacio R3 .
Ejercicio 4.2.7. Sean A y B dos matrices de dimensiones m × n y n × p respectivamente.
1. Pruebe que N (B) ⊂ N (A.B).
2. Encuentre un ejemplo de dos matrices A y B para las cuales N (B) = N (A.B).
3. Encuentre un ejemplo de dos matrices A y B para las cuales N (B) está incluido
estrictamente en N (A.B).
Ejercicio 4.2.8. Sean M y N dos matrices m × n y consideremos el conjunto
S = { x ∈ Rn / M.x = N.x }
1. Pruebe que S es un subespacio de Rn .
2. Si M = N ¿qué se puede decir de S?
3. Averigue si las siguientes afirmaciones son verdaderas o falsas justificando la respuesta:
(i) Si M 6= N entonces necesariamente S = {o}.
(ii) Si M 6= N entonces necesariamente S 6= Rn .
Ejercicio 4.2.9. En cada uno de los siguientes casos encuentre las condición (o condiciones) que deben verificar las componentes de un vector para que éste pertenezca al
subespacio generado por el conjunto U :
2
1
1
−3
1
(1) U =
,
(2) U =
,
(3) U =
3
5
0
0
−1
      
0
0 
 1
1
−2
3





(4) U =
,
,
(5) U =
1
, 1
, 0 
2
4
3


0
1
1


  
 
    
1 
4
−1
1
0 
 −1

(6) U =  1  ,  2 
(7) U =  −2  ,  1  ,  2  ,  0 




1
3
1
1
0
1
       
     
1
1
1
0 


2
2 
 1
       

0   1   0   1 
(8) U =  1  ,  2  ,  2 
(9) U = 
,
,
,
 0   1   1   0 





1
2
1


0
1
0
1
4.3.
Generador de un subespacio vectorial de Rn
Definición 4.3.1. Generador de un subespacio vectorial de Rn .
Sean S un subespacio de Rn y U = {u1 , u2 , . . . , ur } ⊂ S un conjunto de vectores de S.
Diremos que U es generador de S si todos los elementos de S pueden ser escritos como
combinación lineal de U .
Es decir, U es generador de S si, y solo si, para cada v ∈ S existen escalares α1 , α2 , . . . , αr
tales que v = α1 u1 + α2 u2 + . . . + αr ur .
4.3. Generador de un subespacio vectorial de Rn
103
g
Notación: Si U es generador de S indicamos U → S.
Observación 4.3.1. W es generador de L(W ).
g
Si W ⊂ Rn y L(W ) es el subespacio generado por W , entonces es claro que W → L(W ).
1
−1
,
es generador de R2 .
2
1
2
Veamos
que todo vector de R puede expresarse como combinación
lineal
del conjunto
U.
x
1
−1
x
es C.L. de U ⇔ existen α1 y α2 en R tales que α1
+ α2
=
y
2
1
y
α1 − α2 = x
es compatible. Al escalerizar el sistema
⇔ el sistema de ecuaciones
2α1 + α2 = y
1 −1 x
1 −1 x
se obtiene
∼
de donde resulta que el sistema es
2
1 y
0
3 −2x + y
x
g
compatible (determinado) para todos los vectores
∈ R2 , entonces U → R2 .
y
x+y
−2x + y
Además la solución del sistema es α1 =
, α2 =
por lo que
3
3
x+y
−2x + y
x
1
−1
=
+
2
1
y
3
3
 


 x
Ejemplo 4.3.2. S =  y  ∈ R3 : x + 2y − z = 0 es un subespacio vectorial de R3


z
(ejemplo 4.2.5).
Ejemplo 4.3.1. U =
1. ¿Cómo encontramos un generador 
de S?

 
 
x
1
0





Los vectores de S se escriben como
y
= x 0 +y
1  con x, y ∈ R,
x + 2y
1
2
   
0 
 1
g
por lo que resultan C.L. de U =  0  ,  1  , luego U → S.


1
2
    

0
3 
 1
2. ¿Es el conjunto V =  0  ,  1  ,  −1  generador de S?


1
2
1
En primer lugar observemos que los dos primeros vectores son los vectores de U
mientras que el tercer vector efectivamente es un vector de S. Es ası́ que U ⊂ V ⊂ S.
Esta observación nos permite responder afirmativamente la pregunta. En efecto,
como U ⊂ V , todo vector que sea C.L. de U también será C.L. de V . Por otra parte,
g
como U → S, todo vector de S es C.L. de U y, por lo tanto, también lo será de V .
  

1 
 1
3. ¿Es el conjunto W =  1  ,  −1  generador de S?


3
−1
104
Capı́tulo 4. Subespacios vectoriales de Rn
En primer lugar observamos que W ⊂ S pues ambos vectores pertenecen al subespacio 
por verificar la condición x + 2y − z = 0.

 


x
1
1
 y  es C.L. de W ⇔ existen α1 y α2 en R tales que α1  1  + α2  −1  =
z
3
−1

 
x
 α1 + α2 = x
 y  ⇔ el sistema de ecuaciones
α1 − α2 = y es compatible.

z
3α1 − α2 = z




1
1 x
1 1 x
 de donde el
Escalerizamos y obtenemos  1 −1 y  ∼  0 2 x − y
3 −1 z
0 0 x + 2y − z
sistema es compatible (determinado) si, y solo si x + 2y − z = 0, luego el conjunto
de vectores que pueden expresarse como combinación lineal de W coincide con S.
g
Entonces W → S.
    
2 
 1



4. ¿Es el conjunto G =
1
, 2  generador de S?


3
6


1
G no es generador de S pues, por ejemplo, el vector  −1  pertenece a S pe−1
ro
no
puede
expresarse
como
combinación
lineal
de
W
debido a que el sistema

=1
 α1 + 2α2
α1 + 2α2 = −1 resulta incompatible como se ve a partir de la escalerización

3α1 + 6α2 = −1
del sistema:

 

1 2 1
1 2
1
 1 2 −1  ∼  0 0
2 
3 6 −1
0 0 −4
Resumiendo
   
    
  


0 
0
3 
1 
 1
 1
 1
U =  0  ,  1  , V =  0  ,  1  ,  −1  , W =  1  ,  −1 






1
2
1
2
1
3
−1
    
2 
 1
son conjuntos generadores de S mientras que G =  1  ,  2  no genera S.


3
6
Observación 4.3.2. Un subespacio no está generado de manera única.
En el ejemplo 4.3.2 se demuestra que los conjuntos U, V y W son generadores de S de
donde se deduce que un subespacio no está generado de manera única.
Observación 4.3.3. Generador y sistemas de ecuaciones.
Sean S un subespacio de Rn y U = {u1 , u2 , . . . , ur } un subconjunto de S. De los ejemplos
4.3. Generador de un subespacio vectorial de Rn
105
anteriores se desprende que U es generador de S si, y solo si, para cualquier v ∈ S el sistema


λ1
 λ2 


MU  .  = v es compatible.
 .. 
λr
Ejemplo 4.3.3. El conjunto canónico.
El conjunto canónico C = {e1 , e2 , . . . , en } es generador de Rn pues (como habı́amos visto
en la observación 3.3.4) todo vector de Rn se puede escribir como C.L. de C.
Teorema 4.3.1. Dependencia lineal de conjuntos generadores.
Sean S un subespacio vectorial de Rn y U = {u1 , u2 , . . . , ur }, r ≥ 2, un generador de S.
Entonces
1. si U es L.D. existe por lo menos un conjunto W ⊂ U, W 6= U , tal que W es
generador de S.
2. si U es L.I. no existe W ⊂ U, W 6= U , tal que W es generador de S.
Demostración.
1. Por hipótesis U es L.D. por lo que al menos un vector de U es combinación lineal de
los restantes vectores de U . Supongamos, sin perder generalidad, que u1 es combinación lineal de {u2 , . . . , ur }. Podemos afirmar entonces existen α2 , . . . , αr ∈ R tales
que
u1 = α2 u2 + . . . + αr ur
g
Sea v ∈ S un vector cualquiera de S. Como U → S, v se puede escribir como C.L.
de U , esto es, existen β1 , β2 , . . . , βr ∈ R tales que
v = β1 u1 + β2 u2 + . . . + βr ur
Luego
v = β1 (α2 u2 + . . . + αr ur )+ β2 u2 + . . . + βr ur = (β1 α2 + β2 ) u2 + . . .+ (β1 αr + βr ) ur
de donde resulta que cualquier vector v de S es combinación lineal de W = {u2 , . . . , ur }.
g
Hemos encontrado entonces un subconjunto W ⊂ U, W 6= U , tal que W → S.
2. Si W ⊂ U pero W 6= U es porque existe algún vector uj de U que no pertenece a W .
Ahora, como U es L.I. resulta que uj no es combinación lineal de W . Esto implica
que uj , que es un elemento de S, no pertenece al subespacio generado por W y, por
lo tanto, W no es generador de S. Conclusión: no existe W ⊂ U, W 6= U , tal que W
es generador de S. ♠
Observación 4.3.4. Reducción de un generador.
De la demostración de la primera parte del teorema anterior surge que si U = {u1 , u2 , . . . , ur }
es un generador del subespacio S y uk ∈ U es C.L. de los restantes vectores de U entonces,
al “quitar” dicho vector, el nuevo conjunto U − {uk } continúa siendo generador de S.
También se concluye que si un generador de un subespacio S de Rn es L.D. entonces
podemos “achicar” ese generador para obtener otro generador de S que sea además L.I.
Capı́tulo 4. Subespacios vectoriales de Rn
106
Como forma de ilustrar este resultado volvamos el ejemplo 4.3.2 donde vimos que
    

0
3 
 1
g
V =  0  ,  1  ,  −1  → S


1
2
1


   
3
1
0
Ahora V es L.D. ya que claramente  −1  = 3  0  −  1 . Si quitamos el tercer
1
1
2
vector del conjunto V obtenemos U que se probó es generador de S. Como U está formado
por dos vectores no colineales, es además L.I. Luego éste no puede ser reducido de forma
de obtener otro conjunto generador de S.
Proposición 4.3.1. Modificación de un generador.
Sean S un subespacio vectorial de Rn y U = {u1 , u2 , . . . , ur } un generador de S.
Si u′1 = α1 u1 + α2 u2 + . . . + αr ur y α1 6= 0 entonces el conjunto V = {u′1 , u2 , . . . , ur }
también es generador de S.
Lo que afirma la proposición es que si uno de los vectores de un generador U es suplantado
por una C.L. de U , en la cual el vector sustituido no está multiplicado por 0, entonces
obtenemos un nuevo generador del mismo subespacio.
Demostración.
En primer lugar observemos que, como u′1 es C.L. de U , entonces u′1 ∈ S.
g
Ahora bien, para demostrar que V → S debemos probar que todo vector de S se puede
g
escribir como C.L. de V . Sea entonces v ∈ S. Como U → S, v se puede escribir como C.L.
de U :
∃ β1 , β2 , . . . , βr ∈ R / v = β1 u1 + β2 u2 + . . . + βr ur (1)
Por hipótsis sabemos que u′1 = α1 u1 + α2 u2 + . . . + αr ur . Como α1 6= 0, de la igualdad
anterior podemos despejar u1 obteniendo:
u1 =
1
u′1 − α2 u2 − . . . − αr ur (2)
α1
Sustituyendo (2) en (1) resulta:
1
′
v = β1
u − α2 u2 − . . . − αr ur + β2 u2 + . . . + βr ur
α1 1
Agrupando convenientemente obtenemos que v se pudo expresar como C.L. de V y eso es
lo que querı́amos demostrar. ♠.
     
0
0 
 1
g
Ejemplo 4.3.4. Sabemos que C = {e1 , e2 , e3 } =  0  ,  1  ,  0 
→ R3


0
0
1
Si cambiamos
el primer
por 5e

 vector
 e1 
1− 2e2 + 7e3 , la proposición anterior nos permite
5
0
0 

afirmar que  −2  ,  1  ,  0 
también es un generador de R3 .


7
0
1
4.3. Generador de un subespacio vectorial de Rn
107
El próximo resultado es fundamental en el desarrollo de esta teorı́a y su demostración se
puede encontrar en el apéndice de este capı́tulo. Recordemos que la cantidad de elementos
de un conjunto finito U se denomina cardinal de U y se simboliza #U .
Teorema 4.3.2. Teorema de Steinitz.
Sean S un subespacio de Rn , U y W dos subconjuntos de S tales que U es L.I. y W es un
generador de S. Entonces
#U ≤ #W
Observación 4.3.5. Cardinal de generadores y conjuntos L.I. en Rn .
El conjunto canónico C = {e1 , e2 , . . . , en } es generador de Rn y también L.I. Como #C = n
del teorema de Steinitz se deduce que cualquier conjunto generador de Rn tiene al menos
n vectores, y que cualquier conjunto L.I. tiene a lo sumo n vectores.
      
1
1 
 1
Ejercicio 4.3.1. Sea U =  1  ,  2  ,  1 


1
1
3
1. Demuestre que U es un generador de R3 .
2. Modifique uno de los vectores de U de modo de obtener un nuevo generador de R3 .
3. Pruebe que U es L.I. ¿Es posible reducir U de manera de obtener otro generador de
R3 ?
 

 x

Ejercicio 4.3.2. Si S =  y  ∈ R3 : −x + y + z = 0 , halle dos conjuntos U y V


z
diferentes pero que ambos sean generadores de S.
Ejercicio 4.3.3. Determine un generador de aquellos conjuntos que resultaron ser subespacios en los ejercicios 4.2.1, 4.2.2 y 4.2.3.
Ejercicio 4.3.4. Si U = {u1 , u2 } es un generador de R2 determine si los siguientes conjuntos son generadores de R2 :
(1) {u1 , u2 , o} , (2) {u1 , u2 , u1 − u2 } , (3) {u1 } , (4) {u1 , u1 + u2 }
Ejercicio 4.3.5. Investigue si las siguientes afirmaciones son verdaderas o falsas justificando la respuesta.
1.
2.
3.
4.
5.
Si
Si
Si
Si
Si
U
U
U
U
U
g
→ R3 entonces U tiene tres o más vectores.
g
es un subconjunto de R3 con tres o más vectores entonces U → R3 .
es un conjunto L.D. en R4 entonces U tiene cinco o más vectores.
es un conjunto en R4 con cinco o más vectores entonces U es L.D.
= {u1 , u2 , u3 } ⊂ R5 entonces existe algún vector de R5 que no es C.L. de U .
Capı́tulo 4. Subespacios vectoriales de Rn
108
4.4.
Base y dimensión de un subespacio vectorial de Rn
Si nos preguntan cuál es la dimensión de una recta seguramente responderemos que es
1, de igual forma que imaginamos un plano como un espacio de dimensión 2 y el espacio
R3 tridimensional. En esta sección definiremos el concepto de dimensión de un subespacio
vectorial cualquiera de Rn . Para ello será fundamental el papel que juegan los generadores
que, al mismo tiempo, son conjuntos L.I.
Definición 4.4.1. Base de un subespacio vectorial de Rn .
Sean S un subespacio de Rn y U un subconjunto de S. Diremos que U es una base de S
si es L.I. y generador de S.
b
Notación: Si U es base de un subespacio S escribiremos U → S.
Ejemplo 4.4.1. Base canónica de Rn .
El conjunto C = {e1 , e2 , . . . , en } es L.I. y además generador de Rn por lo que es base de
Rn y recibe el nombre de base canónica de Rn .
Ejemplo 4.4.2. En el ejemplo 4.3.2 el conjunto U es generador de S y es además L.I. por
lo que resulta una base de S. Razonando en forma análoga se concluye que W es también
una base de S, pero V no lo es pues si bien genera S es L.D.
En el ejemplo se muestra que para el subespacio S existen al menos dos conjuntos que
son base de S, ahora podrı́amos preguntarnos ¿todo subespacio S de Rn tiene base? La
respuesta a esta interrogante nos la da el teorema que planteamos a continuación.
Teorema 4.4.1. Existencia de bases de un subespacio.
Si S es un subespacio vectorial de Rn tal que S 6= {o}, entonces existe U base de S.
Demostración.
Como S 6= {o} existe u1 ∈ S tal que u1 6= o y, por lo tanto, el conjunto {u1 } resulta L.I.
Por otra parte, como S es un subespacio de Rn , se tiene que λu1 ∈ S cualquiera sea λ ∈ R,
es decir cualquier combinación lineal de {u1 } pertenece a S, con lo cual L({u1 }) ⊆ S.
g
b
Si fuese S = L({u1 }) tendrı́amos que {u1 } → S y es además L.I. entonces {u1 } → S.
Si por el contrario L({u1 }) ⊂ S, L({u1 }) 6= S, existe u2 ∈ S tal que u2 no pertenece a
L({u1 }). Esto implica que u2 no es combinación lineal de {u1 }, o lo que es lo mismo, el
conjunto {u1 , u2 } es L.I. Como antes, debido a que S es un subespacio de Rn , todas las
combinaciones lineales de {u1 , u2 } están en S, esto es L({u1 , u2 }) ⊆ S.
g
Entonces, si L({u1 , u2 }) = S se tiene que {u1 , u2 } → S y además es L.I. por lo que
b
{u1 , u2 } → S, en caso contrario se repite el procedimiento anterior, es decir existe u3 ∈ S
tal que u3 no pertenece a L({u1 , u2 }), etc.
Este proceso finaliza en a los sumo n pasos pues un subconjunto L.I. de Rn tiene como
mucho n vectores. ♠
Proposición 4.4.1. Igualdad en el cardinal de las bases de un subespacio.
Si S es un subespacio vectorial de Rn , U y V son ambas bases de S entonces #U = #V .
4.4. Base y dimensión de un subespacio vectorial de Rn
109
Demostración.
b
V →S
b
U →S
g
=⇒ V → S
=⇒ U es L.I.
)
=⇒ #U ≤ #V (por teorema 4.3.2).
)
=⇒ #V ≤ #U (por teorema 4.3.2).
Por otro lado, también es cierto que
b
=⇒ V es L.I.
b
=⇒ U → S
V →S
U →S
g
Se deduce entonces que #U = #V . ♠
Definición 4.4.2. Dimensión de un subespacio vectorial de Rn .
Sea S un subespacio vectorial de Rn .
Si S 6= {o}, llamamos dimensión de S al número de vectores de una base de S.
Si S = {o}, decimos que la dimensión de S es 0.
Notación: Denotamos la dimensión de un subespacio S como dim(S).
Ejemplo 4.4.3. Habı́amos visto que el conjunto canónico es una base de Rn y el cardinal
de este conjunto es n, luego dim(Rn ) = n.
Observación 4.4.1. Sobre la dimensión de un subespacio.
Si S es un subespacio vectorial de Rn entonces, como {o} ⊆ S ⊆ Rn , podemos afirmar
que
0 ≤ dim(S) ≤ n
 

 x

Ejemplo 4.4.4. La dimensión de S =  y  ∈ R3 : x + 2y − z = 0 es dos.


z
   
0 
 1
En el ejemplo 4.3.2 probamos que el conjunto U =  0  ,  1  es base del subes

1
2
pacio S. Como U tiene dos vectores se tiene que dim(S) = 2, lo cual concuerda con la
idea intuitiva de que un plano, que es lo que representa el conjunto S, es un espacio
bidimensional.
Proposición 4.4.2. Si se conoce la dimensión de un subespacio.
Si S es un subespacio vectorial de Rn de dimensión r y V es un subconjunto de S con r
vectores, entonces
b
1. Si V es LI =⇒ V → S.
g
b
2. Si V → S =⇒ V → S.
En particular si V es un subconjunto de Rn tal que #V = n entonces son equivalentes:
b
V →S
V es L.I.
g
V →S
Capı́tulo 4. Subespacios vectoriales de Rn
110
Demostración.
Observemos en primer lugar que, como dim(S) = r, el teorema de Steinitz nos permite
afirmar que todos los subconjuntos L.I. de S tienen a lo sumo r vectores, mientras que
todos los generadores de S tienen por lo menos r vectores.
g
1. Alcanza con demostrar que V → S. Supongamos, por reducción al absurdo, que V
no es generador
S de S. En dicho caso existe w ∈ S tal que w no es C.L. de V . Luego,
el conjunto V {w} también serı́a L.I. (teorema 3.4.3). Pero esto es absurdo ya que
en S no puede haber subconjuntos L.I. con más de r vectores.
2. Alcanza con demostrar que V es L.I. Si no lo fuera, serı́a L.D. y existirı́a un vector
v1 ∈ V que no es C.L. de los restantes vectores de V . Debido al teorema 4.3.1 al
quitar este vector, el nuevo conjunto V − {v1 } seguirı́a siendo generador de S. Pero
esto es absurdo ya que S no puede tener generadores con menos de r vectores.
Teorema 4.4.2. Otra caracterización de las bases.
b
Sean S un subespacio de Rn y U un subconjunto de S. Entonces U → S si, y solo si, cada
vector de S se puede expresar de una única forma como combinación lineal de U .
Demostración.
Supongamos que U = {u1 , u2 , . . . ur } es base de S. Esto quiere decir que U es L.I. y
g
generador de S. Sea v un vector cualquiera de S. Como U → S el vector v es C.L.
de U y, por lo tanto, existen α1 , α2 , . . . , αr tales que v = α1 u1 + α2 u2 + . . . + αr ur .
Supongamos que existen β1 , β2 , . . . , βr en R tales que v = β1 u1 + β2 u2 + . . . + βr ur .
Restando miembro a miembro ambas igualdades obtenemos
o = (α1 − β1 ) u1 + (α2 − β2 ) u2 + . . . + (αr − βr ) ur
Como U es L.I. resulta α1 − β1 = 0, α2 − β2 = 0, . . . , αr − βr = 0 y, por lo tanto,
αi = βi , ∀ i = 1, 2, . . . , r. Hemos demostrado entonces que existe una única forma
de escribir v como combinación lineal de U .
Supongamos ahora que cada vector de S se puede expresar de una única forma como
combinación lineal de U .
g
Lo anterior implica claramente que U → S.
Como S es subespacio, el vector nulo o pertenece a S. A partir de nuestra hipótesis
podemos afirmar que o se expresa de una única forma como combinación lineal de
U . Del corolario 3.4.2. deducimos que U es L.I. ♠
Proposición 4.4.3. Sea U ⊂ Rn tal que #U = n. Entonces U es base de Rn si, y solo
si, det (MU ) 6= 0.
Demostración.
n
n
Sabemos
 que
 U es base de R si, y solo si, para cualquier v ∈ R el sistema de ecuaciones
λ1
 λ2 


MU  .  = v es compatible determinado. En este caso el sistema es cuadrado, por lo
.
 . 
λn
que resulta compatible determinado si, y solo si, det (MU ) 6= 0 (recordar el teorema de
Cramer).
4.4. Base y dimensión de un subespacio vectorial de Rn
111
Definición 4.4.3. Coordenadas de un vector en una base.
Sean S 6= {o} un subespacio de Rn y U = {u1 , u2 , . . . , ur } una base de S. Sabemos que
para cada v ∈ S existen y son únicos los escalares λ1 , λ2 , . . . , λr de modo que
v = λ1 u1 + λ2 u2 + . . . + λr ur
A los escalares λ1 , λ2 , . . . , λr los llamaremos coordenadas de v en la base
 U. 
λ1
 λ2 


El vector de las coordenadas de v en la base U se simbolizará: coordU (v) =  . 
 .. 
λr
Observación 4.4.2. Cálculo de las coordenadas.
Si U = {u1 , u2 , . . . , ur } es una base del subespacio S y v es un vector cualquiera de S
entonces,
para

 hallar las coordenadas de v en la base U , debemos resolver el sistema
λ1
 λ2 


MU  .  = v (que ya sabemos resultará compatible determinado).
 .. 
λr
En el caso en que el subespacio considerado sea el propio Rn el cálculo de la coordenadas
de un vector v en una base U = {u1 , u2 , . . . , un } de Rn puede hacerse utilizando la matriz
b
inversa de MU . En efecto, como U → Rn , det(MU ) 6= 0 por lo que existe (MU )−1 . Se tiene:




λ1
λ1
 λ2 
 λ2 




MU  .  = v ⇐⇒  .  = (MU )−1 v
.
.
 . 
 . 
λn
λn
De todos modos debemos tener en cuenta que presenta igual (o mayor) dificultad hallar
(MU )−1 que resolver el sistema.

    
1
1 
 −1
Ejemplo 4.4.5. El conjunto U =  3  ,  1  ,  2  es base de R3 ya que


0
2
3


−1 1 1
det (MU ) = det  3 1 2  = −2 6= 0. Calculemos las coordenadas en esta base U de
0 2 3
 
a
un vector v =  b  cualquiera de R3 :
c




λ1
−1 1 1 a
En este caso la matriz ampliada del sistema MU .  λ2  = v es  3 1 2 b .
λ3
0 2 3 c
Escalerizando tenemos que la matriz es equivalente a las siguientes:




−1 1 1
a
−1 1
1
a
 0 4 5 3a + b  ←− F2 + 3F1 ∼  0 4
5
3a + b 
0 2 3
c
0 0 −1 3a + b − 2c
←− F2 − 2F3
Capı́tulo 4. Subespacios vectoriales de Rn
112
Por sustitución hacia atrás obtenemos la solución del sistema. Las coordenadas de v en la
base U resultan ser:
λ1 =
1
1
(a + b − c), λ2 = (9a + 3b − 5c), λ3 = −3a − b + 2c
2
2
lo cual es equivalente a decir que se cumple la siguiente igualdad:
 


 
 
−1
1
1
a
 b  = 1 (a + b − c)  3  + 1 (9a + 3b − 5c)  1  + (−3a − b + 2c)  2 
2
2
c
0
2
3
La otra manera de hallar las coordenadas hubiese consistido en hallar la inversa de la matriz
MU para luego realizar el producto (MU )−1 v. Dejamos como ejercicio la verificación del
mismo resultado final por este otro camino indicando como dato que


1
1 −1
1
(MU )−1 =  9
3 −5 
2
−6 −2
4
Observación 4.4.3. Las coordenadas de un vector dependen de la base.
1. Como se desprende de la definición, las coordenadas de un vector dependen de la base
que se haya fijado. Un mismo vector puede tener coordenadas
diferentes en bases
−2
diferentes. Por ejemplo, consideremos el vector z =
∈ R2 y las siguientes
2
bases de R2 :
1
3
1
0
U=
,
y C=
,
1
1
0
1
Es inmediato verificar que
−2
1
3
=4
−2
2
1
1
y
−2
2
= −2
1
0
+2
=
−2
2
0
1
de donde resulta:
coordU
−2
2
=
4
−2
y
coordC
−2
2
2. Si C = {e1 , e2 , . . . , en } es la base canónica de Rn entonces es claro que
coordC (v) = v , ∀ v ∈ Rn .
3. Si U = {u1 , u2 , . . . , ur } es una base de un subespacio S ¿cuáles son las coordenadas
de ui en la base U ? (i = 1, 2, . . . , r).
En la siguiente proposición se estudia la relación que existe entre las coordenadas de un
mismo vector en diferentes bases de Rn .
Proposición 4.4.4. Cambio de base.
Sean U = {u1 , u2 , . . . , un } y V = {v1 , v2 , . . . , vn } dos bases de Rn . Entonces existe una
única matriz A, de tamaño n × n, tal que:
4.4. Base y dimensión de un subespacio vectorial de Rn
113
1. coordV (z) = A.coordU (z) para todo vector z ∈ Rn .
2. Para cada j (entre 1 y n) la columna j-ésima de A coincide con coordV (uj ).
Demostración.
1. Sea z un vector cualquiera de Rn . Sabemos que:
MU . coordU (z) = z
y
MV . coordV (z) = z
Igualando obtenemos: MU .coordU (z) = MV .coordV (z). Como la matriz MV es invertible (por ser V base de Rn ) podemos multiplicar la igualdad anterior (a izquierda)
por (MV )−1 obtenidendo:
(MV )−1 . MU . coordU (z) = (MV )−1 . MV . coordV (z)
de donde resulta:
(MV )−1 . MU
. coordU (z) = coordV (z)
Una matriz A que cumple lo enunciado en la primera parte es entonces A = (MV )−1 .MU
2. Sustitutendo z por el vector uj obtenemos:
coordV (uj ) = A.coordU (uj ) = A.ej = Cj (A)
(columna j-ésima de A)
Definición 4.4.4. Matriz de cambio de base.
Manteniendo la misma notación que en la proposición anterior, la matriz A = (MV )−1 .MU
se denomina matriz de cambio de base de la base U a la base V .
La propiedad fundamental de esta matriz viene dada por la igualdad:
coordV (z) = A . coordU (z) , ∀ z ∈ Rn
que nos dice que si multiplicamos dicha matriz por el vector de las coordenadas de z en
la base U obtenemos el vector de las coordenadas de z en la base V .
La matriz de cambio de base de la base U a la base V se simbolizará M .
U →V
Tenemos entonces que
M
U →V
= (MV )−1 . MU
Ejercicio 4.4.1. Si S es un subespacio de Rn de dimensión p y U = {u1 , u2 , . . . , ur } ⊂ S,
determine si las siguientes afirmaciones son verdaderas o falsas:
1. si r < p entonces U es L.I.
g
2. si r ≥ p entonces U → S.
Ejercicio 4.4.2.   
 
 
1
−4
−2
1


  
  5   1
0
3
 
 
 
Investigue si U = 
 0 , 0 , 2 , 1



0
0
0
4




 es base de R4 .



114
Capı́tulo 4. Subespacios vectoriales de Rn
Ejercicio 4.4.3. En cada uno de los casos discuta, según a ∈ R, si el
de R3 :
  

  
 
−a
0 
1
 2

(1) U =  a  ,  2  ,  0 
(2) U =  a  , 



0
0
1
−2
conjunto U es base
 

a
4 
2 , 6 

3
−1
Ejercicio 4.4.4. En los siguientes casos se considera L(U ), el subespacio generado por
U . Encuentre una base de L(U ) y calcule su dimensión.
      
      
2
1 
2
1 
 1
 1
(1) U =  0  ,  1  ,  1 
(2) U =  0  ,  1  ,  1 




1
3
2
1
2
2
      
2
1 
 3
(3) U =  3  ,  2  ,  1 


6
4
2


(4) U = 

 
 

1
−1
3 
2 , 1 , 0 

−1
1
−3
Ejercicio 4.4.5. Demuestre que S es subespacio de R3 , encuentre una base de S y determine la dimensión de S en cada caso:
 

 


 x

 x
(1) S =  y  ∈ R3 / 3x + y − 2z = 0
, (2) S =  y  ∈ R3 / x − y = 0




z
z
 

 


 x

 x
3
3




(3) S =
y
∈ R / x − y = 0, z = 0
, (4) S =
y
∈R /z=0




z
z
Ejercicio 4.4.6. En cada uno de los siguientes casos:
(a) Pruebe que S es un subespacio de R4 .
(b) Halle una base U de S y calcule dim(S).
(c) Agregue, si es posible, vectores a la base U de forma de obtener una base de R4 .



x1







x
2 
4

∈
R
1. S = 
/
x
+
x
−
x
=
0
1
2
4
x3 






x4



x1







x
2
 / x1 + x2 + x3 + x4 = 0 y x2 + 2x3 − x4 = 0
2. S = 
 x3 






x4



x


1





x
2
 / x1 + 2x2 + x3 − x4 = 0 y x2 − x3 − x4 = 0
3. S = 
 x3 






x4
4.4. Base y dimensión de un subespacio vectorial de Rn


x1



x2 

4. S = 
 x3  / x1 + x2 − x3 + x4 = 0



x4
y
x1 + 2x2 − 3x3 − 4x4 = 0
115







Ejercicio 4.4.7. Encuentre una base (en caso que exista) y la dimensión del núcleo de
cada una de las siguientes matrices:






1 0 −1
−1 2
1
1
2
8
A= 0 2
4 
B =  2 0 −1 
C= 2
4 16 
1 3
3
0 4
1
−1 −2 −8
 

 x

Ejercicio 4.4.8. Sea S =  y  ∈ R3 : x + y + z = 0, x + ay + az = 0 .


z
(a) Demuestre que S es un subespacio vectorial de R3 para todo a ∈ R.
(b) Discuta según a ∈ R la dimensión de S y determine una base de S en cada caso.
Ejercicio 4.4.9. Si U = {u, v, w} es base de R3 demuestre que W = {u + v, u + w, v + w}
también lo es.
Ejercicio 4.4.10. Sean S1 y S2 dos subespacios de Rn tales que S1 ⊂ S2 . Demuestre que
dim(S1 ) ≤ dim(S2 ). (Sugerencia: si dim(S1 ) = r comienze considerando una base U de
S1 con r vectores).
Ejercicio 4.4.11. Sean S1 y S2 dos subespacios de Rn tales que dim(S1 ) = dim(S2 ).
¿Esto implica que necesariamente S1 = S2 ?
2
Ejercicio 4.4.12. En cada uno de los casos investigue
si U es base de R . En caso
a
afirmativo, encuentre las coordenadas del vector
en la base U .
b
−1
1
1
−2
0
1
(a) U =
,
(b) U =
,
(c) U =
,
4
−1
3
−6
1
0

   

3
−2 
 −1
Ejercicio 4.4.13. Sea U =  0  ,  2  ,  2  .


0
2
1
1. Demuestre que U es base de R3 .


 
 
−1
2
3





2. Calcule las coordenadas de u =
0
yv=
2
yw=
0  en la base U .
0
2
2
3
Ejercicio 4.4.14. En cada uno de los casos investigue
  si U es base de R . En caso
a

b  en la base U .
afirmativo, encuentre las coordenadas del vector
c
     

   

0
1 
2
1
1 
 1

(a) U =  2  ,  1  ,  0 
(b) U =  −3  ,  1  ,  −4 




1
0
0
1
1
0
Capı́tulo 4. Subespacios vectoriales de Rn
116
       
1
1
1 
 1
(c) U =  0  ,  1  ,  1  ,  2 


0
0
1
3
Ejercicio 4.4.15. Sea U una base de Rn . Pruebe que
coordU (αu + βv) = α coordU (u) + β coordU (v) , ∀u, v ∈ Rn , ∀ α, β ∈ R.
Ejercicio 4.4.16. Sean U = {u1 , u2 , u3 } y V = {v1 , v2 , v3 } dos bases de R3 tales que:


1
1
1
1 −1 
M = 1
U →V
1 −1
1
1. Para i = 1, 2, 3 encuentra coordV (ui ), y exprese u1 , u2 y u3 como combinaciones
lineales de V .
2. Halle las coordenadas del vector z = u1 − 2u2 + 3u3 en la base V .
3. Exprese v1 , v2 y v3 como combinaciones lineales de U .
Ejercicio 4.4.17. Consideremos el conjunto
1
5
−3
U=
,
,
⊂ R2
−2
1
−5
1. Encuentre una base de R2 contenida
en U .
a
2. Calcule las coordenadas de
en la base que encontró en la parte anterior.
b
Ejercicio 4.4.18. Sean U = {u1 , u2 , u3 } Y V = {v1 , v2 , v3 } dos bases de R3 tales que:
 
 
 
2
1
0
v1 =  1 
v2 =  0 
v3 =  0 
u1 = v1 − 2v2 + 2v3
0
2
2


a
0
1
M = b
1 −2 
U →V
c −1
5
1. Halle coordV (u1 ). Determine a, b y c.
2. Halle u1 , u2 y u3 .
4.5.
Rango de una matriz
En el Capı́tulo 2 habı́amos introducido el concepto de rango por filas de una matriz.
Se trata simplemente del número de escalones (número de filas no nulas) de cualquiera
de las formas escalerizadas de la matriz. Para calcular el rgf (A) de una matriz A la
escalerizábamos y luego contábamos el número de filas no nulas de la forma escalerizada
4.5. Rango de una matriz
117
obtenida.


1
1 −2 3
A modo de repaso calculemos el rgf (A) para la matriz A =  1 −2
3 1 
2 −1
1 4


1
1 −2
3
A ∼  0 −3
5 −2  ←− F2 − F1
0 −3
5 −2
←− F3 − 2F1


1
1 −2
3
∼  0 −3
5 −2 
←− F3 − F2
0
0
0
0
Resulta entonces que rgf (A) = 2.
Ahora bien, esta matriz tiene tamaño 3 × 4, es decir, es una matriz de 3 filas y 4 columnas.
Observemos que cada una de las filas puede ser considerada como un vector de R4 :






1
1
2
 1 
 −2 
 −1 





F1 (A) = 
 −2  , F2 (A) =  3  , F3 (A) =  1 
3
1
4
Estas filas generan un subespacio S de R4 . Si queremos calcular su dimensión podemos
tener en cuenta que ya disponemos de un generador (el conjunto de las tres filas) y luego
proceder como en los ejemplos y ejercicios previos, esto es, reducir el generador (si fuese
necesario) hasta encontrar otro generador que también sea L.I. En esta sección introduciremos otra forma de hacerlo que está basada en la proposición 4.3.1 de “modificación” de
un generador. En lugar de reducirlo la idea es modificarlo de manera que el nuevo generador esté compuesto por vectores más sencillos. Para ello se puede sustituir una fila por
una C.L. de todas, siempre que la sustituida no la multipliquemos por 0. Pero justamente
eso fue lo que hicimos en el proceso de escalerización al comenzar este ejemplo. Es ası́ que:


1
1 −2 3
el subespacio generado por las filas de A =  1 −2
3 1 
2 −1
1 4
coincide con


1
1 −2
3
el subespacio generado por las filas de C =  0 −3
5 −2 
0
0
0
0
La dimensión de este último subespacio es inmediata de calcular. En efecto, las dos primeras filas constituyen un generador del mismo pues la tercera fila es C.L. de ellas, y además
son L.I. Luego, la dimensión es 2, que coincide con la cantidad de escalones de C o sea
con el rgf (A).
El razonamiento es general y no depende de este caso particular. Si tenemos una matriz
A de tamaño m × n, sus m filas generan un subespacio S de Rn . Si C es una forma
escalerizada de A entonces sus filas generan el mismo subespacio S (modificación de un
generador). Por la ubicación de los ceros en la matriz C, sus filas no nulas constituirán
Capı́tulo 4. Subespacios vectoriales de Rn
118
un conjunto L.I. y, por lo tanto, una base de S. Resulta entonces que la dimensión de S
coincide con el número de escalones de C, o sea con el rgf (A). En conclusión:
La dimensión del subespacio generado por las filas de una matriz coincide con
el rango por filas de dicha matriz.
Si A es una matriz de tamaño m×n al conjunto de sus filas lo simbolizaremos FA . El subespacio generado por FA es un subespacio de Rn , que se simboliza (con la notación habitual)
L (FA ). El resultado anterior se puede escribir en sı́mbolos de la siguientes manera:
dim [L (FA )] = rgf (A)
De modo análogo podrı́a interesarnos calcular la dimensión del subespacio generado por
las columnas de una matriz. Volviendo al ejemplo de arriba, cada una de las columnas de
A es un vector de R3 :






 
1
1
−2
3
C1 (A) =  1  , C2 (A) =  −2  , C3 (A) =  3  , C4 (A) =  1 
2
−1
1
4
El subespacio L (CA ) generado por las columnas de A es entonces un subespacio de R3
que, en principio, parecerı́a tener poco que ver con L (FA ), que es un subespacio de R4 .
Sin embargo, es posible demostrar (lo admitiremos) el siguiente resultado notable:
Teorema 4.5.1. Igualdad del rango por filas con el rango por columnas.
Si A es una matriz entonces se cumple que dim [L (FA )] = dim [L (CA )]
Definición 4.5.1. Rango de una matriz.
Llamaremos rango de una matriz A, y lo simbolizaremos rg(A), a la dimensión del subespacio generado por sus filas o por sus columnas (que, según el teorema anterior, coinciden).
Observación 4.5.1. Sobre el rango de una matriz. Sea A una matriz m × n.
1. El subespacio L (FA ) generado por las filas de A es un subespacio de Rn .
El subespacio L (CA ) generado por las columnas de A es un subespacio de Rm .
Estos dos subespacios no tienen por qué coincidir (de hecho, esto es imposible si m 6=
n). Sin embargo, el teorema anterior afirma que sus dimensiones siempre coinciden.
2. El rango de A coincide con lo que antes llamábamos rgf (A), es decir, con el número
de escalones de cualquier forma escalerizada de A.
3. Como L (FA ) es un subespacio de Rn , su dimensión no puede superar a n.
Como L (CA ) es un subespacio de Rm , su dimensión no puede superar a m.
Se deduce que rg(A) ≤ min{m, n}.
4. La única matriz que tiene rango 0 es la matriz nula.
5. Como las columnas de una matriz son las filas de su traspuesta se deduce que
rg(A) = rg(At )
4.5. Rango de una matriz
119
6. Supongamos que m = n (matriz cuadrada). El rango de A vale n si, y solo si, las n
columnas (o filas) constituyen un conjunto L.I. de Rn o, lo que es lo mismo en este
caso, si y solo si, éstas constituyen una base de Rn . Se deduce que rg(A) = n ⇐⇒
det(A) 6= 0.
Observación 4.5.2. El caso de una matriz cuadrada 3 × 3.
Para calcular el rango de una matriz cuadrada A ∈ M3×3 alcanza casi con mirar la matriz.
En efecto, como 0 ≤ rg(A) ≤ 3, veamos los casos posibles:
1. rg(A) = 0. La única forma de que esto ocurra es que A sea la matriz nula.
2. rg(A) = 1. La única forma de que esto ocurra es que las tres filas de A sean
proporcionales y esto se ve directamente.
3. Si miramos la matriz y encontramos dos filas no proporcionales entonces su rango
puede valer 2 o 3. Como no siempre es sencillo concluir a simple vista si la fila
restante es, o no, C.L. de las dos mencionadas, podemos calcular el determinante de
la matriz (lo cual, al ser 3 × 3 no ofrece mayores dificultades). Si det(A) 6= 0 entonces
rg(A) = 3, mientras que si det(A) = 0 entonces rg(A) = 2.
4. Para una matriz cuadrada de tamaño mayor a 3 × 3, el método de escalerización es
el más eficiente y económico para calcular su rango y no es aconsejable trabajar con
determinantes.
Ejemplo
4.5.1. Calculemos,
discutiendo según el parámetro a ∈ R, el rango de la matriz


1 a −2
A= 2 1
a .
3 4
1
Como es una matriz cuadrada 3 × 3 comenzamos calculando su determinante. Se tiene:
det(A) = 3(a2 − 2a − 3). Las raı́ces de este polinomio son 3 y −1. Esto nos genera la
siguiente discusión:
Caso 1: Si a 6= 3 y a 6= −1 entonces det(A) 6= 0 y, por lo tanto, rg(A) = 3.
Caso 2: Si a = 3 entonces det(A) = 0 y, porlo tanto, rg(A)
 < 3. Sustituimos este valor
1 3 −2
de a en la matriz original obteniendo: A =  2 1
3 . Como las dos primeras filas
3 4
1
no son proporcionales resulta rg(A) ≥ 2. Como el rango era menor que 3 deducimos que
rg(A) = 2. (De hecho, se observa fácilmente que la tercera fila es la suma de las dos
primeras).
Caso 2: Si a = −1 entonces det(A) = 0 y, por
 lo tanto, rg(A)
 < 3. Sustituimos este valor
1 −1 −2
de a en la matriz original obteniendo: A =  2
1 −1 . El mismo razonamiento que
3
4
1
en el caso anterior nos permite afirmar que rg(A) = 2.
Capı́tulo 4. Subespacios vectoriales de Rn
120
Definición 4.5.2. Nulidad de una matriz.
Llamaremos nulidad de una matriz A a la dimensión de N (A) (núcleo de A). La nulidad
se simbolirazá nu(A).
El siguiente teorema establece la relación clave que existe entre la nulidad de una matriz
y su rango.
Teorema 4.5.2. Relación entre el rango y la nulidad de una matriz.
Si A es una matriz de n columnas entonces nu(A) + rg(A) = n.
Demostración.Observemos en primer lugar que, como N (A) es un subespacio de Rn , su
dimensión está comprendida entre 0 y n, es decir: 0 ≤ nu(A) ≤ n. Realizaremos la prueba
distinguiendo tres casos.
Caso 1: nu(A) = n. Tenemos que probar que rg(A) = 0.
Si nu(A) = n entonces la dimensión del núcleo de A vale n, de donde resulta que N (A) =
Rn . Esto implica que A tiene que ser la matriz nula y, por lo tanto, rg(A) = 0.
Caso 2: nu(A) = 0. Como nu(A) = 0 alcanza con demostrar que rg(A) = n. Observemos
que nu(A) = 0 significa que la dimensión del núcleo de A es 0 y, por lo tanto, dicho núcleo
está formado exclusivamente por el vector nulo: N (A) = {o}.
Demostrar que rg(A) = n equivale a probar que la dimensión de L (CA ) (subespacio
generado por las columnas de A) es n y, para ello, debemos encontrar una base de dicho
subespacio con n vectores.
Sabemos que el conjunto CA = {C1 , C2 , . . . , Cn } de las n columnas de A es un generador
de L (CA ). Si probamos que también es L.I. habremos encontrado una base de L (CA ) con
n vectores.
Consideremos entonces una C.L. de CA que de como resultado el vector nulo:
λ1 C1 + λ2 C2 + . . . + λn Cn = o
La igualdad anterior se puede escribir:
A.λ = o
en donde λ es el vector de Rn cuyas componentes son λ1 , λ2 , . . . , λn . Pero si A.λ = o
entonces λ ∈ N (A). Como N (A) está formado exclusivamente por el vector nulo, resulta
λ = o, de donde se deduce que λ1 = λ2 = . . . = λn = 0. Hemos probado entonces que
CA = {C1 , C2 , . . . , Cn } es L.I. y, por lo tanto, base de L (CA ).
Caso 3: 0 < nu(A) < n.
Sea p = nu(A). Tenemos que demostrar que rg(A) = n − p. Como dim(N (A)) = p existe
una base U = {u1 , u2 , . . . , up } de N (A) formada por p vectores. Completamos U hasta
obtener una base B de Rn :
B = {u1 , u2 , . . . , up , v1 , . . . , vq } base de Rn .
Demostraremos que rg(A) = q, con lo cual habremos finalizado, ya que p + q = n. Para
ello vamos a probar que el conjunto (de q vectores) W = {A.v1 , A.v2 , . . . , A.vq } es una
base de L (CA ).
4.5. Rango de una matriz
121
1. Por la forma en que definimos W resulta claro que W ⊂ L (CA ).
2. Sea y ∈ L (CA ). Existe x ∈ Rn tal que y = A.x. Como B es base de Rn existen
escalares α1 , . . . , αp , β1 , . . . , βq ∈ R tales que
x = α1 u1 + . . . + αp up + β1 v1 + . . . + βq vq
Multiplicando (a izquierda) ambos miembros por la matriz A y recordando que los
vectores ui pertenecen al núcleo de A resulta:
y = A.x = β1 A.v1 + . . . + βq A.vq
lo cual prueba que y es C.L. de W . Como todo vector de L (CA ) se puede escribir
como C.L. de W podemos concluir que W es un generador de dicho subespacio.
3. Veamos ahora que W es L.I. Supongamos entonces que
λ1 A.v1 + . . . + λq A.vq = o
Lo anterior es equivalente a A. (λ1 v1 + . . . + λq vq ) = o y esto implica que el vector
λ1 v1 + . . . + λq vq pertenece al núcleo de A. Como U es base de dicho núcleo existen
escalares γ1 , . . . , γp ∈ R tales que:
λ1 v1 + . . . + λq vq = γ1 u1 + . . . + γp up
de donde
γ1 u1 + . . . + γp up − λ1 v1 − . . . − λq vq = o
Como B es base de Rn , lo anterior implica que todos los coeficientes tienen que ser
0 y, por lo tanto, λ1 = . . . = λq = 0.
♠


1 −2
3 −1
Ejercicio 4.5.1. Se considera la matriz A =  −1
0 −2
1 .
−1 −4
0
1
1. Halle el rango y la nulidad de A.
2. Halle la dimensión del subespacio
R3 generado por las columnas de A y encuentre
 de
11
α ∈ R de modo que el vector  α  pertenezca a dicho subespacio.
13
3. Halle la dimensión del subespacio
de R4 generado por las filas de A y encuentre


0
 β 

β ∈ R de modo que el vector 
 8  pertenezca a dicho subespacio.
0
a
0
Ejercicio 4.5.2. Se considera la matriz A =
.
a a2 + a
1. Discuta, según a ∈ R, el valor del rango de la matriz A.
122
Capı́tulo 4. Subespacios vectoriales de Rn
2. Sean S1 el subespacio de R2 generado por las columnas de A y S2 el subespacio de
R2 generado por las filas de A. Investigue si cada uno de los siguientes enunciados
es verdadero o falso justificando la respuesta:
a) Si rg(A) = 2 entonces S1 = S2 .
b) Si rg(A) = 1 entonces S1 = S2 .
c) Si rg(A) = 0 entonces S1 = S2 .
Ejercicio 4.5.3. En cada uno de los siguientes casos discuta, según a ∈ R, el valor del
rango y de la nulidad de las siguientes matrices.






1 a a−1
1 2 −1
1
a
−2
A= 1 2
1  , B =  2 1 4  , C =  −2 4a a + 1 
a 4
0
1 1 a
1 7a a − 5




1
a
−2
1
1
1
1
D =  2 3a − 1 a2 − a − 4  , E =  1
2
1
2 
2
2
2
a
a
a − 2a − 1
a a+1 a a+1




1
1
1
1 −a2 −1
 4

α
α

F = 1
a
−1  , G = 
 1 α−3 α−3 
a −a −1
1
1
α2 − 15
Ejercicio 4.5.4. Sean A una matriz y k un real. ¿Qué relación existe entre rg(A) y
rg(kA)? ¿Qué relación existe entre nu(A) y nu(kA)?
Ejercicio 4.5.5. En cada uno de los siguientes casos encuentre un ejemplo de dos matrices
A y B tales que:
1. rg(A + B) = rg(A) + rg(B)
2. rg(A + B) < rg(A) + rg(B)
3. rg(A + B) > rg(A) > rg(B)
Ejercicio 4.5.6. Sean A una matriz m × n y B una matriz n × p.
1. Utilizando la primera parte del ejercicio 4.2.7 deduzca que que nu(B) ≤ nu(A.B).
2. Demuestre que rg(A.B) ≤ rg(B) (use la parte anterior).
3. Teniendo en cuenta que el rango de una matriz coincide con el de su traspuesta
demuestre que rg(A.B) ≤ rg(A).
4. En cada uno de los siguientes casos encuentre un ejemplo de dos matrices A y B
tales que:
(a) rg(A.B) = rg(A) = rg(B)
(b) rg(A.B) = rg(A) < rg(B)
(c) rg(A.B) < rg(A) < rg(B)
Ejercicio 4.5.7. Demuestre que no existe ninguna matriz n × n, con n impar, n 6= 1, para
la cual el subespacio generador por sus columnas coincida con el núcleo de la matriz.
Ejercicio 4.5.8. Sea A un matriz 2 × 2 tal que el subespacio generador por sus columnas
coincide con el núcleo de la matriz.
Demuestre que rg(A) = 1 y encuentre la forma de la matriz A.
4.6. Apéndice de este capı́tulo
4.6.
123
Apéndice de este capı́tulo
Demostración del Teorema de Steinitz.
Sean S un subespacio de Rn , U y W dos subconjuntos de S tales que U es L.I. y W es un
generador de S. Entonces #U ≤ #W .
Supongamos que U = {u1 , u2 , . . . , ur } y W = {w1 , w2 , . . . , wm }. Queremos demostrar que
r ≤ m. Consideramos u1 ∈ U , como U es L.I. entonces necesariamente u1 6= o, además
g
dado que W → S, sabemos que existen escalares α11 , α12 , . . . , α1m no todos nulos tales
que u1 = α11 w1 + α12 w2 + . . . + α1m wm . Supongamos α11 6= 0, luego
w1 =
1
α12
α1m
u1 −
w2 − . . . −
wm
α11
α11
α11
g
Como W → S, si z es un vector en S existen β1 , β2 , . . . , βm ∈ R tales que
z = β1 w1 + β2 w2 + . . . + βm wm
1
α12
α1m
= β1
u1 −
w2 − . . . −
wm + β2 w2 + . . . + βm wm
α11
α11
α11
1
α12
α1m
= β1
u1 + −β1
+ β2 w2 + . . . + −β1
+ βm wm
α11
α11
α11
Ası́ se concluye que z es combinación lineal de {u1 , w2 , . . . , wm } cualquiera sea z ∈ S, por
g
lo que {u1 , w2 , . . . , wm } → S. Consideremos ahora u2 , existen α21 , α22 , . . . , α2m ∈ R no
todos nulos tales que u2 = α21 u1 + α22 w2 + . . . + α2m wm . Supongamos α22 6= 0, luego
w2 = −
α21
1
α2m
u1 +
u2 − . . . −
wm
α22
α22
α22
g
y, debido a que {u1 , w2 , . . . , wm } → S, existen β1 , β2 , . . . , βm ∈ R tales que
z = β1 u1 + β2 w2 + . . . + βm um
cualquiera sea z ∈ S. Operando se llega a que cualquier vector z ∈ S puede expresarse
como combinación lineal de {u1 , u2 , . . . , wm }:
α21
1
α23
α2m
z = β1 − β2
u1 + β2
u2 + −β2
+ β3 w3 + . . . + −β2
+ βm wm
α22
α22
α22
α22
Luego
g
{u1 , u2 , w3 , . . . , wm } → S
Podrı́amos continuar reemplazando los vectores de W por vectores U de forma tal de
obtener nuevos conjuntos generadores de S, pero ¿hasta cuándo? ¿cuántos vectores de W
pueden ser suplantados por vectores de U ? Supongamos por absurdo que r > m, dado que
la cantidad de vectores de U es mayor que la de W , si continuamos con el procedimiento
anterior podremos reemplazar todos los vectores de W y por lo tanto tendremos que
W = {u1 , u2 , . . . , um } ⊂ U = {u1 , u2 , . . . , um , um+1 , . . . , ur }
Capı́tulo 4. Subespacios vectoriales de Rn
124
g
es tal que W → S y los vectores um+1 , . . . , ur que pertenecen a S son entonces combinación
lineal de W , lo que contradice el hecho que U es L.I.
Como el absurdo parte de suponer r > m, se deduce entonces que r ≤ m. ♠
Demostración del Teorema 4.5.1
Para cualquier matriz A = (aij ) (m × n) se cumple que dim [L (FA )] = dim [L (CA )].
Sean p = dim [L (FA )] y q = dim [L (CA )]. Si p = 0 entonces A es la matriz nula y, por lo
tanto, q = 0. Supongamos entonces que p > 0.
Vamos a probar en primer lugar que q ≤ p. Como p = dim [L (FA )] la matriz A tiene p filas
L.I. (podemos suponer que son las p primeras: F1 , F2 , . . . , Fp , mientras que las restantes
m−p filas dependen linealmente de éstas. Tenemos entonces que para cada i = p+1, . . . , m
existen escalares αij tales que:
Fi = αi1 F1 + αi2 F2 + . . . + αip Fp
,
i = p + 1, . . . , m
Expresando la igualdad anterior en componentes tenemos:
(ai1 , . . . , ain ) = αi1 (a11 , . . . , a1n ) + . . . + αip (ap1 , . . . , apn )
Por lo tanto, una columna cualquiera de A, como la j-ésima, puede expresarse mediante:

 

a1j
a1j

 a2j  
a2j

 

 


..
..

 

.
.

 

=
 apj  = 
apj
 


 ap+1,j   αp+1,1 a1j + . . . + αp+1,p apj 
 



 

..
..




.
.
amj

1
0
0
..
.





a1j 

 αp+1,1


..

.
αm,1
αm,1 a1j + . . . + αm,p apj


0
1
0
..
.










 + a2j 



 αp+1,2




..


.
αm,2


0
0
1
..
.










 + . . . + apj 



 αp+1,p




..


.
αm,p












Esto muestra que cualquier columna de A se puede expresar como C.L. de un conjunto
de p vectores fijos. Luego, el subespacio generado por las columnas de A tiene dimensión
menor o igual que p, o sea q ≤ p.
Para probar que p ≤ q alcanza con utilizar el resultado que acabamos de demostrar y el
hecho de que las filas de A son las columnas de At :
dim [L (FA )] = dim [L (CAt )] ≤ dim [L (FAt )] = dim [L (CAt )] ♠
Capı́tulo 5
Rn como espacio euclidiano
En este capı́tulo veremos cómo es posible extender a Rn los conceptos métricos que el lector
conoce de R2 . En este contexto más general también será posible hablar (por ejemplo) de
ángulo formado por dos vectores, de vectores perpendiculares, proyecciones ortogonales,
teorema de Pitágoras; ası́ como realizar cálculo de distancias y áreas. Estas ideas, resultados y técnicas, no solamente poseen una riqueza geométrica intrı́nseca, sino que también
permitirán abordar y resolver relevantes problemas de aplicación a diversas áreas cientı́ficas. En ese sentido desarrollaremos el “método de mı́nimos cuadrados”, el cual (entre otras
aplicaciones) permite establecer un modelo matemático de función de demanda a partir
de datos obtenidos por una encuesta.
5.1.
Producto interno, norma y ángulos
Definición 5.1.1. Producto interno en Rn .




u1
v1
 u2 
 v2 




Sean u =  .  y v =  .  dos vectores de Rn . El producto interno de u por v
 .. 
 .. 
un
vn
se simboliza hu, vi y es, por definición, el número:
hu, vi = u1 v1 + u2 v2 + . . . + un vn
Observemos que este número coincide con el producto de la matriz fila ut con la matriz
columna v: hu, vi = ut v.






2
1
−3
Ejemplo 5.1.1. Si u =  −1 , v =  −1  y w =  1  entonces:
3
2
2
hu, vi = 2 · 1 + (−1) · (−1) + 3 · 2 = 9
hu, wi = 2 · (−3) + (−1) · 1 + 3 · 2 = −1
hv, wi = 1 · (−3) + (−1) · 1 + 2 · 2 = 0
Capı́tulo 5. Rn como espacio euclidiano
126
Proposición 5.1.1. Propiedades básicas del producto interno.
El producto interno de vectores de Rn tiene las siguientes propiedades:
(Pi1) No negatividad: hu, ui ≥ 0 , ∀ u ∈ Rn . Además, hu, ui = 0 ⇐⇒ u = o.
(Pi2) Conmutativa: hu, vi = hv, ui , ∀ u, v ∈ Rn .
(Pi3) Homogénea: hα u, vi = α hu, vi , ∀ u, v ∈ Rn , ∀ α ∈ R.
(Pi4) Distributiva: hu + w, vi = hu, vi + hw, vi , ∀ u, v, w ∈ Rn .
Demostración. La demostración es simple (alcanza con aplicar la definición y las propiedades de las operaciones en R) y queda a cargo
 dellector. Observemos, de todos modos,
u1
 u2 


la primera de ellas (no negatividad). Si u =  .  entonces
 .. 
un
hu, ui = u1 u1 + u2 u2 + . . . + un un = (u1 )2 + (u2 )2 + . . . + (un )2
Cada sumando de la suma anterior es no negativo, por lo que la suma también lo es.
Además, esa suma vale 0 si, y solo si, todos lo sumandos son nulos, y esto ocurre solamente
cuando u1 = u2 = . . . = un = 0, es decir, cuando u es el vector nulo.
Observación 5.1.1. El producto interno de un vector por sı́ mismo.
Como observamos recién, el producto interno de un vector por sı́ mismo coincide con la
suma de los cuadrados de sus componentes:
hu, ui = (u1 )2 + (u2 )2 + . . . + (un )2
Esto nosrecuerda
al teorema de Pitágoras (al menos, cuando estamos en R2 ). En efecto,
a
sea u =
∈ R2 . El producto interno hu, ui vale a2 + b2 .
b
Según el teorema de Pitágoras, a2 + b2 (suma de los cuadrados de las medidas de los
catetos del triángulo rectángulo de la figura) coincide con el cuadrado de la medida de
la hipotenusa. La medida
hipotenusa, que no es otra cosa que la “longitud” del
√ de dicha p
vector u, vale entonces a2 + b2 = hu, ui.
√
b
a
a2 + b2
5.1. Producto interno, norma y ángulos
Es ası́ que, en R2 , la longitud de un vector u coincide con
siguiente definición.
127
p
hu, ui. Esto nos lleva a dar la
Definición
Norma de un vector.

 5.1.2.
u1
 u2 


Si u =  .  ∈ Rn entonces su norma es, por definición, el número:
 .. 
un
p
hu, ui =
(u1 )2 + (u2 )2 +




2
1
Ejemplo 5.1.2. Si u =  −1 , v =  2  y w = 
3
−2
p
√
2
2
2
k u k = 2 + (−1) + 3 = 14
p
√
k v k = 12 + 22 + (−2)2 = 9 = 3
√
√
k w k = 12 + 02 + 12 = 2
kuk =

p
. . . + (un )2

1
0  entonces:
1
Proposición 5.1.2. Dos propiedades de la norma.
De la definición de norma y de las propiedades del producto interno resultan inmediatas
las siguientes propiedades:
(N1) No negatividad: kuk ≥ 0, ∀ u ∈ Rn . Más aún, kuk = 0 ⇐⇒ u = o.
(N2) Homogeneidad: kλ uk = |λ| kuk, ∀ u ∈ Rn , ∀ λ ∈ R.
Vale la pena observar que k − xk = kxk, ∀ x ∈ Rn .
Proposición 5.1.3. Una suerte de “cuadrado de un binomio”.
Si u y v son dos vectores de Rn entonces se cumple:
1. ku + vk2 = kuk2 + 2hu, vi + kvk2
2. ku − vk2 = kuk2 − 2hu, vi + kvk2
Demostración. Demostraremos la primera parte solamente ya que la segunda es totalmente análoga. Utilizando la definición de norma y las propiedades del producto interno
obtenemos:
ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = kuk2 + 2hu, vi + kvk2
♠
Observación 5.1.2. Las medidas de los lados de un triángulo.
Dados u y v no colineales en R2 , las medidas de los lados del triángulo de la próxima
figura (izquierda) valen kuk, kvk y ku − vk. Según la proposición anterior, estas medidas
están relacionadas por
ku − vk2 = kuk2 − 2hu, vi + kvk2
Ahora bien, en el caso particular en que el triángulo es rectángulo (figura derecha), el
teorema de Pitágoras asegura que
ku − vk2 = kuk2 + kvk2
(el cuadrado de la medida de la hipotenusa coincide con la suma de los cuadrados de las
medidas de los catetos).
Capı́tulo 5. Rn como espacio euclidiano
128
v
v
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
ku − vk
kvk
kvk
α
o
kuk
u
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
o
ku − vk
kuk
u
Resulta entonces que, al menos en R2 , se cumple que u y v son perpendiculares si, y solo
si, hu, vi = 0. Esto motiva la siguiente definición.
Definición 5.1.3. Vectores ortogonales.
Sean u, v ∈ Rn . Diremos que u y v son ortogonales (o perpendiculares) cuando hu, vi = 0.
En este caso escribiremos: u ⊥ v.
Proposición 5.1.4. Pitágoras en Rn .
Si u y v son vectores ortogonales en Rn entonces:
ku + vk2 = ku − vk2 = kuk2 + kvk2
Ejemplo 5.1.3.
(a)
(b)
(c)
(d)




1
3
 3 
 −2 
4



Los vectores u = 
 1  y v =  2  ∈ R son ortogonales pues hu, vi = 0.
1
1
n
Los vectores canónicos de R son ortogonales entre sı́. En efecto, es inmediato verificar que hei , ej i = 0, ∀ i 6= j.
Como ho, vi = 0, ∀ v ∈ Rn , deducimos que el vector nulo es ortogonal a todos los
vectores del espacio.
Supongamos que z ∈ Rn es ortogonal a todos los vectores del espacio Rn . En particular se cumplirá hz, zi = 0. Luego kzk = 0 y, por lo tanto, z = o. Resulta entonces
que el único vector ortogonal a todos los vectores del espacio es el vector nulo.
Proposición 5.1.5. Proyección ortogonal sobre un vector.
Sea u ∈ Rn un vector no nulo. Entonces para cada vector x ∈ Rn existe un único vector z
colineal con u tal que x − z ⊥ u.
hx, ui
hx, ui
Este vector viene dado por z =
u=
u, se denomina proyección ortogonal de x
hu, ui
kuk2
sobre u y se simboliza Pu (x).
5.1. Producto interno, norma y ángulos
129
x
x−z
o
u
z
Demostración. Un vector colineal con u es de la forma z = λu, con λ ∈ R.
Impongamos que x − z ⊥ u:
x − z ⊥ u ⇐⇒ hx − z, ui = 0 ⇐⇒ hx − λu, ui = 0 ⇐⇒ hx, ui − λhu, ui = 0
⇐⇒ hx, ui = λhu, ui ⇐⇒ λ =
hx, ui
hu, ui
En el último paso se tuvo en cuenta que hu, ui =
6 0 debido a que u no es el vector nulo.
♠
Observación 5.1.3. Relación entre la norma de un vector y su proyección ortogonal sobre otro.
Si Pu (x) es la proyección ortogonal de x sobre el vector no nulo u entonces el teorema de
Pitágoras nos permite afirmar que:
kxk2 = kx − Pu (x)k2 + kPu (x)k2
De la igualdad anterior se deduce que kPu (x)k2 ≤ kxk2 y, por lo tanto:
kPu (x)k ≤ kxk
Más aún, se cumple la igualdad si, y solo si, Pu (x) = x, lo cual quiere decir que x es
colineal con u.
Teorema 5.1.1. Desigualdad de Cauchy-Schwarz.
Si u y v son dos vectores de Rn entonces se cumple:
1. | hu, vi | ≤ k u k k v k
2. | hu, vi | = k u k k v k si, y solo si, {u, v} es L.D.
Demostración.
1. Si u = o entonces es claro que se cumple la igualdad. Supongamos que u no es el
vector nulo. Si Pu (v) es la proyección ortogonal de v sobre u sabemos que kPu (v)k ≤
hv, ui
kvk. Como Pu (v) =
u obtenemos:
kuk2
hv, ui
|hv, ui|
|hv, ui|
u ≤ kvk ⇐⇒
kuk ≤ kvk ⇐⇒
≤ kvk
kuk2
kuk2
kuk
lo cual es equivalente a lo que querı́amos demostrar.
♠
Capı́tulo 5. Rn como espacio euclidiano
130
2. Tenemos que |hu, vi| = kuk kvk si, y solo si, kPu (v)k = kvk lo cual, como ya sabemos,
es equivalente a que u y v sean colineales. ♠


 
2
1
 −1 
 2 
4

 
Ejemplo 5.1.4. Consideremos los vectores u = 
 1  y v =  0  ∈ R . Como
−1
1
{u, v} es L.I. la desigualdad de Cauchy-Schwarz debe ser estricta en este caso. Simplemente
verifiquémoslo
calculando:
√
√ √
42
kuk kvk = 7 6 = √
|hu, vi| = | − 1| = 1 < 42 = kuk kvk
Proposición 5.1.6. Desigualdad triangular para la norma.
Si u y v son dos vectores de Rn entonces se cumple:
1. ku + vk ≤ kuk + kvk.
2. ku + vk = kuk + kvk si, y solo si, u y v son colineales con coeficiente de proporcionalidad mayor o igual que 0, es decir, si existe α ≥ 0 tal que u = αv o existe β ≥ 0
tal que v = βu.
Antes de realizar la demostración veamos que la “desigualdad triangular” para la norma
tiene una interpretación geométrica simple.
v
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
kvk
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
ku + vk
o
kuk
u+v
u
Las medidas de los lados del triángulo sombreado valen kuk, kvk y ku + vk. Lo que establece la desigualdad triangular es la conocida propiedad geométrica que establece que un
lado de un triángulo siempre es menor que la suma de los otros dos.
Demostración.
1. Sabemos que ku + vk2 = kuk2 + 2hu, vi + kvk2 . Por otra parte hu, vi ≤ |hu, vi| ≤
kuk kvk (se usó la desigualdad de Cauchy-Schwarz). Tenemos entonces que:
ku + vk2 = kuk2 + 2hu, vi + kvk2 ≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2
de donde se deduce que ku + vk2 ≤ (kuk + kvk)2 . Como las bases de las potencias
anteriores son no negativas podemos concluir que ku + vk ≤ kuk + kvk. ♠
5.1. Producto interno, norma y ángulos
131
2. Si observamos el razonamiento recién realizado podemos afirmar que se cumple la
igualdad ku + vk = kuk + kvk si, y solo si, se cumple la igualdad hu, vi = kukkvk.
A su vez, esta igualdad es verdadera si, y solo si, {u, v} es L.D. (parte (2) del
teorema 5.1.1) y hu, vi ≥ 0. Que {u, v} sea L.D. significa que ambos vectores son
colineales. Supongamos, para fijar ideas que existe α ∈ R tal que u = αv. Tenemos
que hu, vi = hαv, vi = αhv, vi. Luego, hu, vi ≥ 0 si, y solo si, α ≥ 0. ♠
Definición 5.1.4. Distancia entre dos puntos.
Sean p y q dos puntos de Rn . Llamaremos distancia (euclidiana) entre p y q al número
d(p, q) = kq − pk.
Proposición 5.1.7. Propiedades de la distancia.
La distancia definida en Rn tiene las siguientes propiedades básicas:
(D1) No negatividad: d(p, q) ≥ 0 , ∀ p, q ∈ Rn . Además, d(p, q) = 0 ⇐⇒ p = q.
(D2) Conmutativa: d(p, q) = d(q, p) , ∀ p, q ∈ Rn .
(D3) Desigualdad triangular: d(p, r) ≤ d(p, q) + d(q, r) , ∀ p, q, r ∈ Rn .
Observación 5.1.4. Recordando el teorema del coseno.
Sean u y v no colineales en R2 . Pongamos: b = kuk, c = kvk y a = ku − vk. Con esta notación, el “teorema del coseno” de la geometrı́a euclidiana plana (que establece la relación
que existe entre las medidas de los lados de dicho triángulo) afirma que:
a2 = b2 + c2 − 2 b c cos(α)
o sea
ku − vk2 = kuk2 + kvk2 − 2 kuk kvk cos(α)
(∗)
v
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
ku − vk
kvk
α
o
kuk
u
Por otra parte, sabemos que para toda pareja de vectores en Rn vale la igualdad:
ku − vk2 = kuk2 + kvk2 − 2 hu, vi
Si observamos las igualdades (∗) y (∗∗) deducimos que
hu, vi = kuk kvk cos(α)
(∗∗)
Capı́tulo 5. Rn como espacio euclidiano
132
lo cual nos dice que el producto interno de dos vectores coincide con el producto de la
norma de ambos por el coseno del ángulo que forman. En el caso particular en que el
ángulo es recto, su coseno vale 0 y por lo tanto el producto interno también. En este caso
el triángulo es rectángulo y el teorema del coseno se reduce al teorema de Pitágoras.
Recordemos que si u y v son dos vectores de Rn , la desigualdad de Cauchy-Schwarz afirma
|hu,vi|
que |hu, vi| ≤ kukkvk. Si ninguno de los vectores es el nulo obtenemos kukkvk
≤ 1, lo cual es
equivalente a −1 ≤
hu,vi
kuk kvk
≤ 1. Es posible concluir entonces que existe un único número
α ∈ [0, π] que verifica cos(α) =
hu,vi
kuk kvk .
Definición 5.1.5. Ángulo entre dos vectores.
Sean u y v dos vectores no nulos de Rn . Llamaremos ángulo formado por u y v al número
α ∈ [0, π] que verifica:
hu, vi
cos(α) =
kuk kvk


1
Ejemplo 5.1.5. Calculemos el ángulo que forman los vectores u =  √1  y
2
 
1
√
v =  1  ∈ R3 . Tenemos que hu, vi = 2, kuk = 2 y kvk = 2. Luego:
0
2
1
1
cos(α) = √ = √ =⇒ α = Arccos √
= π/4
2 2
2
2




1
0
 0 
 −2 
4



Ejercicio 5.1.1. Consideremos los vectores u = 
 −1  y v =  2  ∈ R . Calcule
0
1
hu, vi, kuk, kvk y ku + vk. Verifique la desigualdad de Cauchy-Schwarz y la desigualdad
triangular.
 


1
−2
Ejercicio 5.1.2. Sean u =  2  y v =  −1  ∈ R3 .
2
2
1. Calcule hu, vi, kuk, kvk y ku + vk. Verifique la desigualdad de Cauchy-Schwarz y la
desigualdad triangular.
2. Compruebe que los ángulos formados por los vectores u y u + v y por los vectores v
y u + v valen π/4. Interprete geométricamente este resultado.
Ejercicio 5.1.3. Sean u, v ∈ Rn .
1. Demuestre e interprete geométricamente en R2 :
(a) (u + v) ⊥ (u − v) ⇐⇒ kuk = kvk. (b) ku + vk2 + ku − vk2 = 2 kuk2 + kvk2 .
2. Halle la condición que deben cumplir u y v para que ku + vk = ku − vk.
5.1. Producto interno, norma y ángulos
133
Ejercicio 5.1.4. Encuentre todos los valores de λ ∈ R para los que se cumpla:
||u + v||2 + ||2u − v||2 = 5||u||2 − λhu, vi + 2||v||2 , ∀ u, v ∈ Rn .
2
Ejercicio 5.1.5. Encuentre dos vectores
u,v ∈ R que cumplan: hu, vi = 100, ||u|| =
3
5, ||v|| = 20, siendo u de la forma u =
.
a
Ejercicio 5.1.6. Calcule el área del triángulo cuyos vértices son los puntos:
 


 
0
1
2





o=
0
, p=
−2
, q=
1 
0
0
2
Ejercicio 5.1.7. Teorema de Pitágoras revisitado.
1. Sean p, q, r tres puntos en Rn tales que r−p ⊥ q −p (esto quiere decir que el triángulo
de vértices p, q, r es rectángulo en p). Demuestre que d2 (q, r) = d2 (p, q) + d2 (p, r).
2. Calcule el área del triángulo cuyos vértices son los puntos:
 
 
 
2
3
6
x= 3  , y= 5  , z= 2 
4
2
5
Ejercicio 5.1.8. Si A es una matriz de tamaño m × n demuestre que:
1. hAx, yi = hx, At yi, ∀ x ∈ Rn , ∀ y ∈ Rm . (Observe que el producto interno de la
izquierda es entre vectores de Rm mientras que el de la derecha es el producto interno
en Rn . Para la prueba recuerde que si u, v ∈ Rn entonces hu, vi = ut v).
2. hAt Av, vi = kA.vk2 , ∀ v ∈ Rn .
3. N At A = N (A).
4. rg At A = rg(A).
5. Si rg(A) = n entonces At A es invertible.
Ejercicio 5.1.9. Una fábrica produce cuatro artı́culos y en esa producción se necesita
una materia prima y mano de obra de acuerdo con lo que se indica a continuación:
Artı́culo 1: Cada unidad requiere 5 kilos de materia prima y 2 horas hombre.
Artı́culo 2: Cada unidad requiere 3 kilos de materia prima y 4 horas hombre.
Artı́culo 3: Cada unidad requiere 4 kilos de materia prima y 7 horas hombre.
Artı́culo 4: Cada unidad requiere 2 kilos de materia prima y 3 horas hombre.
1. Sean p1 el precio por kilo de la materia prima y p2 la remuneración por hora de
trabajo. Defina dos vectores u y v de modo que su producto interno sea el costo
variable por producir x unidades del artı́culo 1, y unidades del artı́culo 2, z unidades
del artı́culo 3 y w unidades del artı́culo 4.
2. Sea k el costo fijo de producción y a, b, c y d los precios de venta de cada unidad
de los artı́culos 1, 2, 3 y 4 respectivamente. Exprese mediante productos internos la
utilidad que obtiene la fábrica al vender x unidades del artı́culo 1, y unidades del
artı́culo 2, z unidades del artı́culo 3 y w unidades del artı́culo 4.
Ejercicio 5.1.10. Demuestre que
| kuk − kvk | ≤ ku − vk, ∀ u, v ∈ Rn .
Capı́tulo 5. Rn como espacio euclidiano
134
Ejercicio 5.1.11.
1. Demuestre las propiedades de la distancia.
2. Demuestre que d(λu, λv) = |λ|d(u, v), ∀ u, v ∈ Rn , ∀ λ ∈ R, e interprete geométricamente esta propiedad.
3. Demuestre que d(p + z, q + z) = d(p, q), ∀ p, q, z ∈ Rn , e interprete geométricamente
esta propiedad.
Ejercicio 5.1.12. Si p y q son dos puntos distintos en Rn entonces el punto medio del
p+q
segmento por ellos determinado es el punto m =
. Verifique que d(p.m) = d(q, m).
2
5.2.
Conjuntos ortogonales y proyecciones ortogonales
Definición 5.2.1. Conjuntos ortogonales y ortonormales.
Sea U = {u1 , u2 , . . . , ur } ⊂ Rn con r ≥ 2.
Diremos que U es un conjunto ortogonal cuando sus vectores son ortogonales dos a dos,
es decir, cuando ui ⊥ uj , ∀ i 6= j.
Diremos que U es un conjunto ortonormal si, además de ser ortogonal, todos sus vectores
tienen norma 1. (De aquı́ en adelante a los vectores de norma 1 los llamaremos unitarios).
Ejemplo 5.2.1.
1. La base canónica de Rn es un conjunto ortonormal.
1
−2
2. El conjunto U =
,
⊂ R2 es ortogonal pero no ortonormal pues la
1
2
√
√
norma del primer vector vale 2 y la norma del segundo 8.
(
!
!)
1
−2
3. El conjunto V =
√
2
√1
2
,
√
8
√2
8
⊂ R2 es ortonormal.
4. Lo que ocurrió en el ejemplo recién mencionado es general. En efecto, si U =
{u1 , un2 , . . . , ur } ⊂ Rn es ortogonal
y no contiene al vector nulo entonces el conjunto
o
u1
u2
ur
U = ku1 k , ku2 k , . . . , kur k es ortonormal. Esto se debe a que si u 6= o entonces la
u
norma de kuk
vale 1.
Teorema 5.2.1. Independencia lineal de los conjuntos ortogonales.
Sea U = {u1 , u2 , . . . , ur } ⊂ Rn un conjunto ortogonal que no contiene al vector nulo.
Entonces U es L.I.
Demostración. Consideremos una C.L. de U que de como resultado el vector nulo:
α1 u1 + α2 u2 + . . . + αr ur = o (∗)
Queremos demostrar que, necesariamente, todos los coeficientes αi deben valer 0. Si hacemos el producto interno de ambos miembros de (∗) por u1 obtenemos la siguiente igualdad:
hu1 , α1 u1 + α2 u2 + . . . + αr ur i = hu1 , oi = 0
Aplicando las propiedades del producto interno obtenemos:
α1 hu1 , u1 i + α2 hu1 , u2 i + . . . + αr hu1 , ur i = 0
5.2. Conjuntos ortogonales y proyecciones ortogonales
135
Como U es un conjunto ortogonal, el vector u1 es ortogonal a los restantes vectores de U
y, por lo tanto, hu1 , uj i = 0, ∀ j 6= 1. Es ası́ que la igualdad anterior se reduce a:
α1 hu1 , u1 i = 0
Como hu1 , u1 i =
6 0 (pues ninguno de los vectores de U es el vector nulo) resulta que necesariamente α1 = 0.
Si en lugar de haber realizado el producto interno de ambos miembros de (∗) por u1 , lo
hubiésemos hecho por u2 , habrı́amos obtenido α2 = 0. Es decir, razonando de manera
análoga se demuestra que todos los coeficientes αi valen 0 y ello prueba que U es L.I. ♠
Observación 5.2.1. Coordenadas de un vector en una base ortogonal.
Sean S un subespacio de Rn y U = {u1 , u2 , . . . , ur } una base ortogonal de S (con esto
queremos decir que U es un conjunto ortogonal que además es base de S). Como sabemos,
para cada vector v ∈ S existen, y son únicos, escalares λ1 , λ2 , . . . , λr ∈ R de modo que
v = λ1 u1 + λ2 u2 + . . . + λr ur . Estos escalares son las coordenadas de v en la base U .
Veamos que, en este caso (U ortogonal) estas coordenadas admiten una expresión muy
simple. En efecto, al realizar el producto interno hv, u1 i obtenemos:
hv, u1 i = hλ1 u1 + λ2 u2 + . . . + λr ur , u1 i = λ1 hu1 , u1 i + λ2 hu2 , u1 i + . . . + λr hur , u1 i
Como U es un conjunto ortogonal, el vector u1 es ortogonal a los restantes vectores de U
y, por lo tanto, huj , u1 i = 0, ∀ j 6= 1. Es ası́ que la igualdad anterior se reduce a:
hv, u1 i = λ1 hu1 , u1 i
Como hu1 , u1 i =
6 0 (pues ninguno de los vectores de U es el vector nulo, por ser U base de
hv, u1 i
S), resulta que la primera coordenada vale λ1 =
.
hu1 , u1 i
Si en lugar de haber realizado el producto interno de v por u1 , lo hubiésemos hecho por u2 ,
hv, u2 i
habrı́amos obtenido λ2 =
. (Obsérvese la analogı́a con la demostración del teorema
hu2 , u2 i
anterior).
Luego, razonando de manera análoga, se demuestra que la coordenada λi vale
hv, ui i
.
hui , ui i
Es ası́ que la expresión del vector v en la base ortogonal U es:
v=
hv, u1 i
hv, u2 i
hv, ur i
u1 +
u2 + . . . +
ur
hu1 , u1 i
hu2 , u2 i
hur , ur i
Como los vectores de la suma son ortogonales dos a dos, aplicando el teorema de Pitágoras
para r sumandos obtenemos:
kvk2 =
|hv, u1 i|2 |hv, u2 i|2
|hv, ur i|2
+
+ ... +
hu1 , u1 i
hu2 , u2 i
hur , ur i
Capı́tulo 5. Rn como espacio euclidiano
136
Si además, la base U es ortonormal, la expresión de v en dicha base queda:
v = hv, u1 iu1 + hv, u2 iu2 + . . . + hv, ur iur
y, por lo tanto:
kvk2 = |hv, u1 i|2 + |hv, u2 i|2 + . . . + |hv, ur i|2
1
−2
Ejemplo 5.2.2. U =
,
es una base ortogonal de R2 . Calculemos las
1
2
a
coordenadas de un vector genérico v =
en la base U . Para ello alcanza con aplicar
b
directamente las fórmulas:
λ1 =
hv, u1 i
hu1 , u1 i
Se tiene:
λ1 =
,
λ2 =
hv, u2 i
hu2 , u2 i
hv, u1 i
a+b
=
hu1 , u1 i
2
hv, u2 i
−2a + 2b
=
hu2 , u2 i
8
En otras palabras, la expresión de v en la base U es:
a+b
−2a + 2b
a
1
−2
=
+
b
1
2
2
8
λ2 =
Definición 5.2.2. Vector ortogonal a un conjunto.
Sean H un subconjunto cualquiera de Rn y v ∈ Rn . Diremos que v es ortogonal al conjunto
H, y escribiremos v ⊥ H, si y solo si, v es ortogonal a todos los vectores de H, esto es:
v ⊥ h, ∀ h ∈ H.
Teorema 5.2.2. Condición necesaria y suficiente para que un vector sea ortogonal a un subespacio.
Sean S un subespacio de Rn y v ∈ Rn . Entonces v es ortogonal a S si, y solo si, v es
ortogonal a un generador de S.
Demostración. Tenemos que probar directo y recı́proco.
( =⇒ ) Esta parte es trivial. En efecto, como todo generador de S está contenido en S, si
v es ortogonal a todos los vectores de S también será ortogonal a los vectores de un
generador de S.
( ⇐= ) Esta es la parte interesante. Sea U = {u1 , u2 , . . . , ur } ⊂ S un generador de S de
modo que v sea ortogonal a los vectores de U : v ⊥ ui , ∀ i = 1, . . . , r. Recordemos
que esto quiere decir que hv, ui i = 0, ∀ i = 1, . . . , r. Tenemos que demostrar que v es
ortogonal a todos los vectores de S. Sea entonces s un vector cualquiera de S. Como
g
U → S existen escalares α1 , α2 , . . . , αr ∈ R tales que s = α1 u1 + α2 u2 + . . . + αr ur .
Se tiene:
hv, si = hv, α1 u1 + α2 u2 + . . . + αr ur i = α1 hv, u1 i + α2 hv, u2 i + . . . + α1 hv, ur i = 0
Resulta entonces que hv, si = 0 y, por lo tanto, v ⊥ s.
♠
5.2. Conjuntos ortogonales y proyecciones ortogonales
137
Observación 5.2.2. Proyección ortogonal sobre un subespacio cualquiera.
Las ideas iniciales introducidas en la proposición 5.1.5 referidas a la proyección ortogonal
de un vector sobre otro pueden extenderse a la proyección ortogonal sobre un subespacio
cualquiera. A los efectos de visualizarlo geométricamente, consideremos un subespacio S
de dimensión 2 en R3 . En este caso, S es un plano que pasa por el origen. Dado un vector
p ∈ R3 (lo podemos pensar como vector o como punto), esperamos que el lector posea una
imagen conceptual de su proyección ortogonal sobre S.
p
S
o
z
La idea consiste en considerar la recta que pasa por el punto p y es perpendicular al plano
S y luego intersectarla con dicho plano. El punto z obtenido es la proyección ortogonal de
p sobre S. Este punto (o vector) z tiene las siguientes propiedades:
z ∈ S.
El vector p − z es ortogonal a S.
z es el punto de S más próximo a p. En efecto (ver próxima figura) si s es otro punto
de S diferente de z entonces el teorema de Pitágoras permite afirmar que d(p, z) <
d(p, s), ya que d(p, s) es la medida de la hipotenusa de un triángulo rectángulo del
cual d(p, z) es la medida de uno de los catetos.
p
S
s
o
z
El siguiente teorema establece que la situación que acabamos de describir también es válida
para cualquier subespacio de Rn .
Capı́tulo 5. Rn como espacio euclidiano
138
Teorema 5.2.3. Proyección ortogonal sobre un subespacio.
Sean S un subespacio de Rn y p ∈ Rn . Entonces existe un único vector z ∈ S que cumple:
(a) p − z ⊥ S.
(b) Si U = {u1 , u2 , . . . , ur } es una base ortogonal de S entonces
z=
hp, u1 i
hp, u2 i
hp, ur i
u1 +
u2 + . . . +
ur
hu1 , u1 i
hu2 , u2 i
hur , ur i
(c) ∀ s ∈ S, s 6= z, se cumple que d(p, z) < d(p, s).
Demostración. Como z ∈ S y U es una base de S, z se puede escribir de manera única
como combinación lineal de U . Existen entonces escalares λ1 , λ2 , . . . , λr únicos tales que
z = λ1 u1 + λ2 u2 + . . . + λr ur . Queremos imponer que p − z sea ortogonal a S, para lo
cual alcanza (teorema 5.2.2) con que p − z sea ortogonal a todos los vectores de una base
de S. Impongamos entonces que p − z sea ortogonal a uk para k = 1, 2, . . . , r.
0 = hp − z, uk i = hp − (λ1 u1 + λ2 u2 + . . . + λr ur ), uk i =
= hp, uk i − h(λ1 u1 + λ2 u2 + . . . + λr ur ), uk i = hp, uk i − λk huk , uk i
en la última igualdad hemos usado que hui , uk i = 0 para i 6= k, debido a que U es
un conjunto ortogonal. Como huk , uk i =
6 0 (ya que al ser base U no contiene al vector
hp,uk i
nulo), podemos despejar λk obteniendo λk = hu
. Hemos demostrado que existe un
k ,uk i
único vector z que cumple (a) y (b). Para probar que este vector también cumple (c)
consideramos un vector cualquiera s ∈ S, s 6= z. Tenemos:
p − s = (p − z) + (z − s)
Como z − s ∈ S y p − z ⊥ S resulta (p − z) ⊥ (z − s). Aplicando el teorema de Pitágoras
obtenemos
kp − sk2 = kp − zk2 + kz − sk2
La igualdad anterior y el hecho de que kz−sk > 0 (pues z 6= s) implican kp−sk2 > kp−zk2 ,
lo cual es equivalente a d(p, s) > d(p, z). ♠
Definición 5.2.3. Proyección ortogonal sobre un subespacio.
Si S es un subespacio de Rn y p ∈ Rn , entonces el vector z que cumple las propiedades
demostradas en el teorema anterior se denomina proyección ortogonal de p sobre S
y se simboliza PS (p).
Observación 5.2.3. Desigualdad de Bessel.
Sean S un subespacio de Rn y x ∈ Rn . Si PS (x) es la proyección ortogonal de x sobre S
entonces del teorema de Pitágoras resulta:
kxk2 = kx − PS (x)k2 + kPS (x)k2
De la igualdad anterior se deduce que kPS (x)k2 ≤ kxk2 y, por lo tanto:
kPS (x)k ≤ kxk
5.2. Conjuntos ortogonales y proyecciones ortogonales
139
Más aún, se cumple la igualdad si, y solo si, PS (x) = x, lo cual quiere decir que x ∈ S.
Si U = {u1 , u2 , . . . , ur } es una base ortogonal de S entonces tenemos la siguiente fórmula
que permite hallar PS (x):
PS (x) =
hx, u1 i
hx, u2 i
hx, ur i
u1 +
u2 + . . . +
ur
hu1 , u1 i
hu2 , u2 i
hur , ur i
Si observamos con atención esta expresión y recordamos la proposición 5.1.5 podemos
concluir que la proyección ortogonal de x sobre S coincide con la suma de las proyecciones
ortogonales de p sobre cada uno de los vectores de U . Como los vectores de cada sumando
son ortogonales 2 a 2 el teorema de Pitágoras nos permite afirmar que:
kPS (x)k2 =
|hx, u1 i|2 |hx, u2 i|2
|hx, ur i|2
+
+ ... +
hu1 , u1 i
hu2 , u2 i
hur , ur i
Como kPS (x)k2 ≤ kxk2 , deducimos que, cualquiera sea x ∈ Rn , se cumple
|hx, u1 i|2 |hx, u2 i|2
|hx, ur i|2
+
+ ... +
≤ kxk2
hu1 , u1 i
hu2 , u2 i
hur , ur i
que suele denominarse Desigualdad de Bessel.
Si además la base U es ortonormal entonces se tiene:
PS (p) = hp, u1 iu1 + hp, u2 iu2 + . . . + hp, ur iur
y, por lo tanto, la desigualdad de Bessel queda:
|hx, u1 i|2 + |hx, u2 i|2 + . . . + |hx, ur i|2 ≤ kxk2
En resumen, si {u1 , u2 , . . . , ur } es un conjunto ortonormal en Rn entonces, cualquiera
sea el vector x ∈ Rn se cumple:
r
X
k=1
|hx, uk i|2 ≤ kxk2
La igualdad se cumple si, y solo si, x pertenece al subespacio generado por {u1 , u2 , . . . , ur },
lo cual siempre ocurrirá si este conjunto es base de Rn .
Definición 5.2.4. Distancia de un punto a un conjunto.
Sean H un subconjunto cualquiera de Rn y p ∈ Rn . Llamaremos distancia de p a H a
la menor de las distancias (en caso que exista) entre p y los puntos de H. Este número lo
simbolizaremos d(p, H). En sı́mbolos:
d(p, H) = min { d(p, h) / h ∈ H }
Observación 5.2.4. Sobre la distancia de un punto a un subespacio.
Si S es un subespacio de Rn y p ∈ Rn entonces del teorema 5.2.3 sabemos que el punto de
S más próximo a p es PS (p). Luego, la distancia de p a S vale:
d(p, S) = kp − PS (p)k
Resulta claro entonces que d(p, S) = 0 ⇐⇒ kp−PS (p)k = 0 ⇐⇒ PS (p) = p ⇐⇒ p ∈ S.
Capı́tulo 5. Rn como espacio euclidiano
140
4
Ejemplo 5.2.3. Sea S el subespacio

de R generado por {e1 , e3 }. Queremos hallar la
−3
 3 

proyección ortogonal de p = 
 1  sobre S y calcular la distancia de p a S. Como
4
{e1 , e3 } es una base ortonormal de S tenemos:


−3
 0 

PS (p) = hp, e1 ie1 + hp, e3 ie3 = −3e1 + e3 = 
 1 
0
Luego:

 


−3
−3
0
 3   0 
 3
 


d(p, S) = 
 1 − 1  =  0
4
4
0

√

 = 25 = 5

Definición 5.2.5. Complemento ortogonal de un subespacio.
Sea S un subespacio de Rn . Llamaremos complemento ortogonal de S al conjunto de
todos los vectores de Rn que son ortogonales a S. Este conjunto se simbolizará S ⊥ . En
sı́mbolos:
S ⊥ = { x ∈ Rn / x ⊥ S }
Ejemplo 5.2.4. Sea S un subespacio de R3 de dimensión 2, es decir un plano que pasa
por el origen. Argumentos geométricos simples permiten concluir que, en este caso, S ⊥ es
una recta que pasa por el origen y es perpendicular a dicho plano.
S⊥
o
S
¿Cuál es el complemento ortogonal en R3 de un subespacio de dimensión 1?
⊥
Encuentre R3 y ({o})⊥ .
5.2. Conjuntos ortogonales y proyecciones ortogonales
141
Proposición 5.2.1. Una caracterización del complemento ortogonal.
Sean S un subespacio de Rn y U = {u1 , u2 , . . . , uk } un generador de S. Entonces S ⊥
coincide con el núcleo de la matriz (MU )t . En otros palabras, se cumple que:
S ⊥ = N (MU )t
Demostración. Como S es el subespacio generado por U , todo vector de S se puede
expresar como C.L. de U . Recordemos también que cada C.L. de U es de la forma MU λ
en donde λ es un vector cualquiera de Rk (el vector de los coeficientes de la C.L.). Tenemos
entonces que
x ∈ S ⊥ ⇐⇒ x ⊥ S ⇐⇒ x ⊥ L(U ) ⇐⇒ x ⊥ MU λ , ∀ λ ∈ Rk ⇐⇒
hMU λ, xi = 0 , ∀ λ ∈ Rk ⇐⇒ hλ, (MU )t xi = 0 , ∀ λ ∈ Rk ⇐⇒ (MU )t x = o
⇐⇒ x ∈ N (MU )t
♠
Observación 5.2.5. Complemento ortogonal del subespacio generado por las
columnas de una matriz.
Sea A una matriz de tamaño n × k, U = C(A) el conjunto de sus columnas y S = L(U )
el subespacio generado por las columnas de A. En este caso la matriz MU coincide con la
matriz A. Según la proposición anterior podemos afirmar que
( L (C(A)) )⊥ = N At
O sea, lo que está diciendo la proposición anterior es que el complemento ortogonal del
subespacio generado por las columnas de una matriz A coincide con el núcleo de la traspuesta de A.
Proposición 5.2.2. Propiedades del complemento ortogonal.
Sean S un subespacio de Rn y S ⊥ su complemento ortogonal. Entonces:
1. S ⊥ es un subespacio de Rn .
2. dim(S) + dim S ⊥ = n.
3. Para cada vector v ∈ Rn existen y son únicos vectores z ∈ S y w ∈ S ⊥ tales que
v = z + w.
Demostración.
1. Según la proposición anterior, S ⊥ es el núcleo de una matriz con n columnas y, por
lo tanto, es un subespacio de Rn .
2. Si S = {o} entonces ({o})⊥ = Rn y la igualdad dim(S)+dim S ⊥ = n es inmediata.
Supongamos entonces S 6= {o} y consideremos una base U = {u1 , u2 , . . . , ur } de
S. A partir de la relación entre el rango y el núcleo de una matriz obtenemos:
rg (MU )t + nu (MU )t = n
Como S ⊥ = N (MU )t (proposición anterior), tenemos que nu (MU )t = dim S ⊥ .
Por otra parte,
como el rango de una matriz y de su traspuesta coinciden, tenemos:
t
rg (MU ) = rg [(MU )] = dim(S).
Se deduce entonces que:
dim(S) + dim S ⊥ = n
142
Capı́tulo 5. Rn como espacio euclidiano
3. Sea v ∈ Rn . Si PS (v) es la proyección ortogonal de v sobre S, del teorema 5.2.3
sabemos que PS (v) ∈ S, v − PS (v) ∈ S ⊥ , y es claro que se cumple la igualdad
v = PS (v) + (v − PS (v)). Es ası́ que se cumple la igualdad enunciada tomando
z = PS (v) y w = v − PS (v). Falta demostrar que dicha descomposición es única.
Supongamos que existan z ′ ∈ S y w′ ∈ S ⊥ tales que v = z ′ +w′ . Restando obtenemos
o = (z − z ′ ) + (w − w′ ) con z − z ′ ∈ S y w − w′ ∈ S ⊥ . Aplicando Pitágoras obtenemos
kz − z ′ k2 + kw − w′ k2 = 0, lo cual implica que z = z ′ y w = w′ . ♠
Ejemplo
Sea Sel subespacio
de R4 generado por U = {u1 , u2 } en donde
 5.2.5.


1
2
 0 
 −1 
⊥



u1 = 
 1  y u2 =  1 . Vamos a hallar S . Para ello consideramos un vector
0
1
 
a
 b 

genérico v = 
 c  e imponemos que v ⊥ S. Según el teorema 5.2.2 es suficiente con que
d
v ⊥ u1 y v ⊥ u2 . Se tiene:
v ⊥ u1 ⇐⇒ hv, u1 i = 0 ⇐⇒ a + c = 0.
v ⊥ u2 ⇐⇒ hv, u2 i = 0 ⇐⇒ 2a − b + c + d = 0.
Resolviendo el sistema obtenemos:

  



 
a
1
0









  





b
0
1
⊥






S = 
/
a,
b
∈
R
=
a
+
b
/
a,
b
∈
R
 0 
−a 


  −1 





 


−a + b
−1
1


 
1
0




0 
 1 . Más aún,
Resulta entonces que S ⊥ = L({v1 , v2 }) siendo v1 = 
y
v
=
2
 −1 
 0 
−1
1
{v1 , v2 } es una base de S ⊥ .
Observemos que, efectivamente, dim(S) + dim S ⊥ = 4. También vale la pena observar
lo siguiente. Sabemos que todo vector de R4 se expresa de manera única como la suma de
un vector de S más uno de S ⊥ . Como {u1 , u2 } es base de S y {v1 , v2 } es una base de S ⊥ ,
entonces todo vector de R4 se expresa de manera única como C.L. de {u1 , u2 , v1 , v2 }. Se
deduce que este conjunto es base de R4 .
En el teorema 5.2.3 consideramos una base ortogonal de un subespacio S. El siguiente
resultado muestra que eso siempre es posible, es decir, que todo subespacio tiene una base
ortogonal (y, por lo tanto, una base ortonormal).
Teorema 5.2.4. Proceso de ortogonalización de Gram-Schmidt.
Sea V = {v1 , v2 , . . . , vr } un conjunto L.I. en Rn . Entonces existe un conjunto
U = {u1 , u2 , . . . , ur } L.I. y ortogonal tal que L(U ) = L(V ). Más aún, para cada k con
1 ≤ k ≤ r, el subespacio generado por {u1 , . . . , uk } coincide con el subespacio generado
por {v1 , . . . , vk }.
5.2. Conjuntos ortogonales y proyecciones ortogonales
143
Demostración. El proceso es constructivo.
Paso 1: Comenzamos tomando u1 = v1 . Es claro que u1 6= o (pues V era L.I.) y que
L({u1 }) = L({v1 }).
Paso 2: Queremos encontrar un vector u2 tal que u2 ⊥ u1 y de modo que L({u1 , u2 }) =
L({v1 , v2 }). Para ello consideramos la proyección ortogonal z2 de v2 sobre u1
v2
u2 = v2 − z2
o
u1 = v1
z2
De esa forma tomamos
u2 = v2 − z2 = v2 −
hv2 , u1 i
u1
hu1 , u1 i
Sabemos que, de esta manera, u2 ⊥ u1 . Además, u2 6= o (pues, como V es L.I. , z2 6= v2 )
y además L({u1 , u2 }) = L({v1 , v2 }) pues se modificó un generador de manera adecuada
según la proposición 4.3.1.
Paso 3: Queremos encontrar ahora un vector u3 tal que u3 ⊥ u1 , u3 ⊥ u2 y de modo que
L({u1 , u2 , u3 }) = L({v1 , v2 , v3 }). Para ello consideramos la proyección ortogonal z3 de v3
sobre L({u1 , u2 }) y tomamos
u3 = v3 − z3 = v3 −
hv3 , u1 i
hv3 , u2 i
u1 +
u2
hu1 , u1 i
hu2 , u2 i
u3
v3
u1
u2
z3
144
Capı́tulo 5. Rn como espacio euclidiano
Nuevamente, el teorema 5.2.3 asegura que u3 ⊥ u1 y u3 ⊥ u2 . Con argumentos similares
a los del paso 2 se deduce que u3 6= o y que L({u1 , u2 , u3 }) = L({v1 , v2 , v3 }).
El proceso se continúa de manera análoga obteniendo que los vectores uk (k = 2, . . . , r)
vienen dados por la expresión:
hvk , u1 i
hvk , u2 i
hvk , uk−1 i
uk = vk − zk = vk −
u1 +
u2 + . . .
uk−1
hu1 , u1 i
hu2 , u2 i
huk−1 , uk−1 i
Ejemplo 5.2.6. Sea S el subespacio de R4 generado por V = {v1 , v2 , v3 } en donde
 
 


1
2
5
 0 
 


 , v2 =  1  , v3 =  0 
v1 = 
 1 
 0 
 −1 
0
0
3
V es L.I. (no deje de verificarlo) y, por lo tanto, es una base de S, pero no es un conjunto ortogonal pues hv1 , v2 i = 2 6= 0. Vamos a aplicar el proceso de Gram-Schmidt para
construir una base ortogonal U de S a partir de la base V . Se tiene:
 
1
 0 

u1 = v1 = 
 1 
0
  

 
1
2
1
 1  2 0   1 
hv2 , u1 i
  


u1 = 
u2 = v2 −
 0  − 2  1  =  −1 
hu1 , u1 i
0
0
0
 

 



5
1
1
1
 0  4  0  6  1   −2 
hv3 , u1 i
hv3 , u2 i
 

 


v3 −
u1 +
u2 = 
 −1  − 2  1  − 3  −1  =  −1 
hu1 , u1 i
hu2 , u2 i
3
0
0
3
Resulta entonces que una base ortogonal de S es:
  
 
1
1
1


  


0   1   −2
U= 
 1  ,  −1  ,  −1



0
0
3








Definición 5.2.6. Matrices ortogonales.
Sea A una matriz n×n. Diremos que A es una matriz ortogonal si, y solo si, sus columnas
constituyen una base ortonormal de Rn .
Ejemplo 5.2.7. Las siguientes matrices son ortogonales pues sus columnas constituyen
bases ortonormales de R2 y R3 respectivamente:


!
0 0 1
−1
√1
√
2
2
A=
, B= 1 0 0 
√1
√1
2
2
0 1 0
5.2. Conjuntos ortogonales y proyecciones ortogonales
Observemos lo que ocurre al multiplicar At A y B t B:
!
!
1
1
1
−1
√
t
2
−1
√
2
AA=
√
2
√1
2
√
2
√1
2
√
2
√1
2
145
=
1 0
0 1


 

0 1 0
0 0 1
1 0 0
B tB =  0 0 1   1 0 0  =  0 1 0 
1 0 0
0 1 0
0 0 1
La siguiente proposición muestra que lo que ocurrió en este ejemplo es, de hecho, un
resultado general.
Proposición 5.2.3. Sea A una matriz n × n. Entonces A es ortogonal si, y solo si,
At A = I (en donde I es la matriz identidad n × n).
Demostración. Designemos con C1 (A), C2 (A), . . . , Cn (A) a las columnas de A y con
cij a la entrada de la matriz At A correspondiente a la fila i y columna j. Recordando la
definición de producto de matrices observamos que cij coincide con el producto interno de
la fila i de At por la columna j de A. Pero la fila i de At coincide con la columna i de A.
Es ası́ que cij = hCi (A), Cj (A)i. Se tiene:
t
A A = I ⇐⇒ cij =
1, si i = j
0, si i 6= j
⇐⇒ hCi (A), Cj (A)i =
1, si i = j
0, si i 6= j
y esto ocurre si, y solo si, las columnas de A constituyen una base ortonormal de Rn , o
sea, si y solo si, A es una matriz ortogonal.
♠
Proposición 5.2.4. Caracterización de las matrices ortogonales.
Sea A una matriz n × n. Entonces las siguientes afirmaciones son equivalentes:
1. A es ortogonal.
2. kA.xk = kxk, ∀ x ∈ Rn (la matriz A preserva la norma).
3. hA.u, A.vi = hu, vi, ∀ u, v ∈ Rn (la matriz A preserva los productos internos).
Demostración.
((1) =⇒ (2)) Como A es ortogonal sabemos que At A = I. Si x es un vector cualquiera
de Rn se tiene:
kA.xk2 = hA.x, A.xi = hAt A.x, xi = hx, xi = kxk2
Como kA.xk2 = kxk2 y las bases son no negativas se deduce que kA.xk = kxk.
((2) =⇒ (3)) Para esta parte utilizaremos la (ya conocida) igualdad vista en la proposición 5.1.3 según la cual
2hx, yi = kx + yk2 − kxk2 − kyk2 , ∀ x, y ∈ Rn
Capı́tulo 5. Rn como espacio euclidiano
146
Tomando x = A.u, y = A.v tenemos:
2hA.u, A.vi = kA.u + A.vk2 − kA.uk2 − kA.vk2 = kA.(u + v)k2 − kA.uk2 − kA.vk2
Como, por hipótesis, A preserva las normas de los vectores, lo anterior coincide con
ku + vk2 − kuk2 − kvk2
que, a su vez, es igual a 2hu, vi. Hemos probado que 2hA.u, A.vi = 2hu, vi y, por lo
tanto, hA.u, A.vi = hu, vi.
((3) =⇒ (1)) Si Ci (A) es la columna i-ésima de A sabemos que Ci (A) = A.ei (siendo ei
en i-ésimo vector de la base canónica). Luego:
hCi (A), Cj (A)i = hA.ei , A.ej i = hei , ej i = 0 si i 6= j.
Lo anterior prueba que dos columnas diferentes de A son ortogonales. Por otra parte:
kCi (A)k2 = hCi (A), Ci (A)i = hA.ei , A.ei i = hei , ei i = 1
de donde queda probado que cada columna de A tiene norma 1.
♠
Ejercicio 5.2.1. En cada uno de los siguientes casos investigue si U es un conjunto
ortogonal y si U es base de R3 .


   

    
1
3
2 
2
3
0 













(a) U =
2
,
1 ,
−1
(b) U =
2
, 1
, 0 




−1
5
0
−2
4
0


   
   

3
4
1
2
2




(c) U =  −2  ,  3  ,
(d) U =  2  ,  0  ,  −5 




3
2
−2
1
−4
  

  2
0
a + b2 
 1
(e) U =  b  ,  −a  ,  −b 


a
b
−a
  
 

0
13 
 1
Ejercicio 5.2.2. Demuestre que U =  2  ,  −3  ,  −2  es una base ortogo

3
2
−3
nal de R3 . Encuentre las coordenadas de un vector genérico de R3 en la base U . (Recuerde
la observación 5.2.1).

  
1
0 

Ejercicio 5.2.3. Se considera el subespacio S de R3 generado por  −2  ,  1  .


2
1
En cada uno de los siguientes casos encuentre la proyección ortogonal de p sobre S y
calcule la distancia de p a S.
 
 


 
1
0
1
0







(a) p =
0
(b) p =
2
(c) p =
−1
(d) p =
0 
0
2
3
1
5.2. Conjuntos ortogonales y proyecciones ortogonales
Ejercicio 5.2.4. Si S es un subespacio de Rn demuestre que S ⊥
147
⊥
= S.
Ejercicio 5.2.5. Sean S1 y S2 subespacios de Rn . Diremos que S1 ⊥ S2 si, y solo si,
u ⊥ v, ∀ u ∈ S1 , ∀ v ∈ S2 (es decir, cuando todo vector de S1 es ortogonal a todo vector
de S2 ). Demuestre que S1 ⊥ S2 si, y solo si algún generador de S1 es ortogonal a algún
generador de S2 .
Ejercicio 5.2.6. Consideremos el conjunto
  
 

1
0
2




  
  1 
0
1






U=   , 
,
⊂ R4
1
0   −2  





−1
1
0
 
2
 0 

1. Sean S = L(U ) y p = 
 3 . Encuentre la proyección ortogonal de p sobre S y
0
calcule d(p, S).
2. Encuentre S ⊥ . Halle una base de S ⊥ .
3. Encuentre una base de R4 formada por vectores de S y de S ⊥ .
Ejercicio 5.2.7. Consideremos el conjunto

 
2
1



  2
−1
 
U= 
 0  ,  1



1
0

1


  0 
4
 , 

  α  ⊂R


β


1. Determine α y β para que U sea un conjunto ortogonal. Se continúa trabajando con
los valores de α y β hallados.


2
 −1 

2. Sean S = L(U ) y p = 
 0 . Encuentre la proyección ortogonal de p sobre S y
1
calcule d(p, S).
3. Encuentre la forma de los vectores de S ⊥ (es decir, los vectores de R4 que son
perpendiculares a S). Halle una base de S ⊥ .
S
4. Sea w un vector no nulo de S ⊥ . Pruebe que U {w} es base de R4 .
5. Pruebe que ku + wk2 = kuk2 + kwk2 , ∀ u ∈ S, ∀ w ∈ S ⊥ .


1 1
1
Ejercicio 5.2.8. Se considera la matriz A =  a 0
−a 
−1 1 a + 1
1. Discuta, según a ∈ R, el valor del rango y la nulidad de A.
2. Se continúa trabajando con a = 2. Sea S el subespacio generado por las columnas de
A. Demuestre que las dos primeras columnas de Aconstituyen
una base ortogonal

2
de S. Encuentre el punto de S más próximo a p =  −1 
0
148
Capı́tulo 5. Rn como espacio euclidiano
3. Encuentre S ⊥ .
4. Encuentre N At y verifique que S ⊥ = N At . (observación 5.2.5).
Ejercicio 5.2.9. Si B es una matriz demuestre que (N (B))⊥ coincide con el subespacio
generado por las columnas de B t . Se sugiere recordar la observación 5.2.5.


1
0
1 1
 0
1 −1 1 

Ejercicio 5.2.10. Consideremos la matriz: A = 
 2
1
1 3 
1 −1
2 0
1. Halle una base de N (A).
2. Verifique que nu(A) = 2 y halle rg(A).
3. Encuentre una base U = {u1 , u2 } de N (A) que sea ortonormal.


−2
 0 

4. Verifique que v = 
 1  ∈ N (A) y halle las coordenadas de v en la base U .
1
Ejercicio 5.2.11. Sea H un subconjunto de Rn (no necesariamente subespacio). Se llama
complemento ortogonal de H al conjunto H ⊥ = { x ∈ Rn / x ⊥ H }. Demuestre que
H ⊥ es un subespacio de Rn (aunque H no lo sea). Se sugiere probar las condiciones de la
definición de subespacio.
Ejercicio 5.2.12. Sean A una matriz n × n y u un vector fijo de Rn . Se considera el
conjunto S definido por
S = {x ∈ Rn / Ax = hx, ui u}
1. Demuestre que S es un subespacio de Rn .


 
1 −1 1
1
2. Para A =  2
1 2  y u =  1  obtenga una base de S y halle todos lo
1
0 1
1
vectores ortogonales a S.
    
1 
 1
Ejercicio 5.2.13. Se consideran el conjunto V =  1  ,  1 
y el subespacio


0
3
S = L(V ).
1. Halle un conjunto ortogonal U tal que L(U ) = S.
 
1
2. Calcule la distancia de v =  1  a S.
0
3. Halle un vector h1 de S tal que el águlo formado por e1 y h1 sea π3 .
      
1
1
0 


      

1
0
 ,   ,  1  y el subesEjercicio 5.2.14. Se consideran el conjunto V = 
 0   1   1 





0
0
0
pacio S = L(V ).
5.2. Conjuntos ortogonales y proyecciones ortogonales
149
1. Pruebe que V es L.I. pero no ortogonal.
2. Utilice el proceso de Gram-Schdmidt para construir a partir de V un conjunto ortogonal U que sea base de S.


0
 0 

3. Calcule la distancia de p = 
 0  a S. (Se sugiere reflexionar un poco y no realizar
cuenta alguna).
e
π
Ejercicio 5.2.15. Se consideran los puntos
 
 


1
2
2
p1 =  0  , p2 =  2  , p3 =  −1 
1
2
2
y el plano H de R3 determinado por esos tres puntos.
1. Encuentre la ecuación de H.
2. Demuestre que H es un subespacio de R3 .
  

1 
 1
 2  ,  −1 
3. Demuestre que
es una base ortogonal de H.


1
1
 
4

4. Sea p =
1 . Calcule la distancia de p a H y encuentre dos vectores z ∈ H y
0
⊥
w ∈ H tales que p = z + w.
 
1
 2 
 
5

Ejercicio 5.2.16. Verifique que la distancia de p = 
 3  al subespacio de R generado
 4 
5
por {e1 + e2 , e3 + e4 , e5 } vale 1.
Ejercicio 5.2.17.
1. Encuentre un ejemplo de dos matrices A y B ortogonales tales que A + B no sea
ortogonal.
2. Si A y B son dos matrices n × n ortogonales demuestre que AB es ortogonal.
Ejercicio 5.2.18. Investigue si la siguiente proposición es verdadera o falsa justificando
la respuesta:
Si A es una matriz n × n tal que kAvk = kvk ∀ v ∈ Rn entonces Av = v, ∀ v ∈ Rn .
Capı́tulo 5. Rn como espacio euclidiano
150
5.3.
5.3.1.
Cálculo de distancias
Vector perpendicular a un plano.
En el capı́tulo 3 habı́amos observado que la ecuación de un plano Π en R3 es de la forma:
ax + by + cz = d
(∗)
en donde a, b, c y dson constantes,
con a, b y c no simultáneamente nulos. Esto quiere

x
decir que los puntos  y  que pertenecen a Π son aquellos cuyas componentes verifican
z
la ecuación (∗). El primer miembro de dicha ecuación
 puede
 expresarse
 utilizando un
x
a
producto interno entre dos vectores. En efecto, si x =  y  y u =  b  entonces (∗)
z
c
se puede escribir ası́:
hx, ui = d , con u 6= o.
Veamos que el vector u tiene una interpretación geométrica simple y útil. Consideremos
entonces un plano Π cuya ecuación es hx, ui = d, en donde u es un vector no nulo. Si q1
y q2 son dos puntos distintos pertenecientes a Π se cumple:
hq1 , ui = d
y
hq2 , ui = d
Restando miembro a miembro y utilizando las propiedades del producto interno obtenemos:
hq1 − q2 , ui = 0
lo cual nos dice que el vector u es ortogonal a todos los vectores cuyos extremos son puntos
pertenecientes al plano.
u
o
Π
q2
q1
Debido a lo anterior, diremos que u es un vector perpendicular (u ortogonal) al plano
Π. De hecho, todos los vectores colineales con u también lo serán.
Las observaciones previas nos permiten encontrar con suma facilidad la ecuación de un
plano que pasa por un punto p y es perpendicular a un vector no nulo u. En efecto, un
punto x pertenece a dicho plano si, y solo si, el vector x − p es ortogonal a u. Resulta
5.3. Cálculo de distancias
151
entonces que la ecuación del plano que pasa por p y es perpendicular a un vector no nulo
u es:
hx − p, ui = 0


 
1
2



Ejemplo 5.3.1. Sean p =
2
yu=
4 . Entonces la ecuación del plano Π que
−1
3
pasa por p y es perpendicular a u es:
* x   1   2 +
 y  −  2 , 4  = 0
z
−1
3
o sea: 2x + 4y + 3z = 7.
5.3.2.
Distancia de un punto a un plano.
Proposición 5.3.1. Distancia de un punto a un plano.
Sean p ∈ R3 y Π el plano de ecuación hx, ui = d. Entonces el punto p′ de Π más próximo
a p y la distancia de p al plano Π se pueden calcular mediante las siguientes expresiones:
p′ = p +
d − hp, ui
u
hu, ui
,
d(p, Π) =
|hp, ui − d|
kuk
p
u
Π
o
p′
Demostración. El punto p′ de Π más próximo a p se obtiene intersectando el plano Π
con la recta L que pasa por p y es perpendicular a Π. La ecuación paramétrica de L es
x = p + λu. Tenemos:
x = p + λu
x = p + λu
⇐⇒
hx, ui = d
hp + λu, ui = d
La segunda ecuación es una ecuación lineal de primer grado en la incógnita λ:
hp, ui + λhu, ui = d
Capı́tulo 5. Rn como espacio euclidiano
152
Como hu, ui =
6 0 (por ser u 6= o), la ecuación resulta compatible determinada con única
solución dada por:
d − hp, ui
λ =
hu, ui
Sustituyendo este valor de λ en la primera ecuación del sistema se obtiene
p′ = p +
d − hp, ui
u
hu, ui
Ahora bien, la distancia de p al plano Π vale kp′ − pk. Finalmente, sustituyendo aquı́ la
|d − hp, ui|
expresión obtenida para p′ resulta la fórmula d(p, Π) =
. ♠
kuk


a
Observación 5.3.1. Observemos en primer lugar que si u =  b  entonces la ecuación
c
hx, ui = d del 
plano 
Π de la proposición anterior puede escribirse ax + by + cz − d = 0. Si
x0
el punto p es  y0  entonces la distancia de p al plano Π queda:
z0
d(p, Π) =
|hp, ui − d|
|ax0 + by0 + cz0 − d|
√
=
kuk
a2 + b2 + c2
Ejemplo

 5.3.2. Consideremos el plano Π de ecuación x + 2y − 2z = 2 y el punto p =
2
 −5 . Entonces:
1
d(p, Π) =
|1 · 2 + 2 · (−5) + (−2) · 1 − 2|
12
p
=
=4
3
12 + 22 + (−2)2
El punto p′ de Π más próximo a p es:



 

2
1
10/3
d
−
hp,
ui
12
 2  =  −7/3 
p′ = p +
u =  −5  +
hu, ui
9
1
−2
−5/3
5.3.3.
Distancia de un punto a una recta.
Proposición 5.3.2. Distancia de un punto a una recta.
Sean p ∈ R3 y L la recta en R3 de ecuación paramétrica x = a + λv , con v 6= o (recta que
pasa por el punto a y es paralela al vector v). Entonces el punto p′ de L más próximo a
p y la distancia de p a la recta L se pueden calcular mediante las siguientes expresiones:
p′ = a + λ1 v
,
d(p, L) = kp − p′ k = kp − (a + λ1 v)k
en donde
λ1 =
hp − a, vi
hv, vi
5.3. Cálculo de distancias
153
Demostración. El punto p′ de L más próximo a p se obtiene intersectando la recta L
con el plano Π que pasa por p y es perpendicular a L (y por lo tanto a v). La ecuación de
Π es hx − p, vi = 0. La demostración consiste en hallar el dicho punto p′ y queda como
ejercicio. ♠
v
a
o
Π
p′
p
L


2
Ejemplo 5.3.3. Consideremos el punto p =  1  y la recta L de ecuaciones paramétri2

 x =1+λ
cas
y = 1 − λ . Queremos hallar el punto de L más próximo a p y la distancia de p a L.

z =2+λ
 
1

Comenzamos observando que un punto que pertenece a la recta es a =
1  y que un
2


1
vector paralelo a la recta es v =  −1 . Apliquemos las fórmulas de la proposición
1
anterior:
hp − a, vi
1
λ1 =
=
hv, vi
3
Luego, el punto p′ de L más próximo a p es:
 

 

1
1
4/3
1
p′ =  1  +  −1  =  2/3 
3
2
1
7/3
La distancia de p a L vale:


√
2/3
6
′


d(p, L) = kp − p k =
1/3
=
3
−1/3
Capı́tulo 5. Rn como espacio euclidiano
154


3
Ejercicio 5.3.1. Sea H el plano que pasa por el punto  1  y es perpendicular al
1


1
vector  −2 . Calcule la distancia de los siguientes puntos al plano H:
4


1
p1 =  0 
1
,


1
p2 =  1 
−1


 
 
2
2
1
Ejercicio 5.3.2. Sea U = {u1 , u2 , u3 } siendo u1 =  1 , u2 =  1  y u3 =  2 
3
2
4
1. Calcule la distancia del punto u1 a la recta L que pasa por los puntos u2 y u3 .
2. Sea H el subespacio generado por {u1 , u2 }. Compruebe que H es un plano y calcule
la distancia del punto u3 a H.
 
1

Ejercicio 5.3.3. Se consideran el punto p =
1 , el plano Π de ecuación x+2y −z = 3
1

 x=1+λ
y la recta L de ecuaciones paramétricas
y = −1 − λ .

z = −4 − λ
1. Pruebe que L ⊂ Π.
2. Calcule d(p, Π) y encuentre el punto de Π más próximo a p.
3. Calcule d(p, L) y encuentre el punto de L más próximo a p.
4. Verifique que d(p, Π) < d(p, L) y explique este resultado.
5. ¿Existe alguna recta L′ ⊂ Π tal que d(p, Π) = d(p, L′ )? Justifique la respuesta.
 
1

Ejercicio 5.3.4. Halle la ecuación paramétrica de la recta r que pasa por el punto
2 
3
x−y =3
y corta perpendicularmente a la recta s)
¿Qué da r ∩ s?
2x + z = 3
Ejercicio 5.3.5. Dados p y q puntos diferentes de R3 , se considera el conjunto H definido por: H = {x ∈ R3 / d(x, p) = d(x, q)}. Demuestre que H es un plano e interprete
geométricamente.


 
1
2
Encuentre H en el caso en que p =  −1  y q =  0 .
1
1
5.4. Aproximación por el método de mı́nimos cuadrados
5.4.
155
Aproximación por el método de mı́nimos cuadrados
En esta sección vamos a discutir un ejemplo interesante, donde casi todas la ideas que
se han desarrollado en el curso pueden aplicarse. Imaginemos que se desea construir un
modelo de demanda de un cierto producto. Existen fuertes indicios para suponer que
la cantidad d de personas dispuestas a comprar un cierto bien es una función lineal del
precio p del mismo. Es decir, d(p) = αp + β. Para ajustar el modelo se realiza una encuesta
consultando a las personas si estarı́an dispuestas a comprar el bien en cuestión a distintos
precios. La encuesta proporciona la siguiente tabla de datos:
precio demanda
p1
d1
p2
d2
..
..
.
.
pn
dn
Como es natural suponer, los datos no resultarán (en general) estar alineados y se tratará entonces de determinar α y β para que el modelo ajuste lo “mejor posible” a los
mismos. Primero que nada, claro está, debemos darle significado a la expresión lo “mejor
posible” porque, como veremos, puede haber muchos criterios razonables para hacerlo. La
solución que propondremos para este problema se conoce como método de mı́nimos
cuadrados.
5.4.1.
Descripción del método.
Como dijimos anteriormente, no es razonable suponer que los datos empı́ricos estén alineados y, por lo tanto, no existirá ninguna recta que pase por todos los puntos (pi , di ).
Intentaremos buscar entonces la recta que pase “mas cerca” de ellos. En el precio pi el
modelo lineal predice que αpi + β personas compraran el bien. Sin embargo, la encuesta
registró que a ese precio serı́an di las personas que comprarı́an. Una primera idea podrı́a
ser considerar la suma de las diferencias ri = di − (αpi + β), como una medida del error
global entre los datos empı́ricos y los dados por la recta. Se puede rápidamente objetar a
este procedimiento que los errores se compensarı́an y un error positivo muy grande y otro
negativo se anuları́an. Esta objeción podrı́a levantarse considerando la suma de valores
absolutos de la diferencias |ri |. Esta solución es razonable, pero conduce a un problema
muy complejo. El problema resulta mucho mas sencillo de resolver si se considera como
medida del error global la suma de los cuadrados de las diferencias ri2 . La idea es intentar
elegir α y β reales de modo que esta suma de errores cuadráticos sea los más pequeña
posible. En otras palabras deseamos encontrar α y β reales de modo que sea mı́nimo
R(α, β) =
n
X
i=1
ri2 =
n
X
i=1
[di − (αpi + β)]2
Capı́tulo 5. Rn como espacio euclidiano
156
Recordando que la norma de un vector es la raı́z cuadrada de la suma de los cuadrados
de sus coordenadas podemos escribir la función R en estos términos. Llamando



 

p1
1
d1
 p2 
 1 
 d2 



 

d =  . , p =  . , 1 =  . 
.
.
 . 
 .. 
 . 
dn
1
pn
Se tiene que



R(α, β) = 

d1
d2
..
.
dn






−α


p1
p2
..
.
pn






−β


1
1
..
.
1
 2




= kd − (αp + β1)k2
En consecuencia, se trata de calcular, en caso de existir, α y β reales que minimicen el
valor de R(α, β). Veamos ahora cómo podemos reducir el problema al de proyectar un
vector sobre cierto subespacio.


p1 1
 p2 1 


Para esto observemos primero que, llamando A =  . .  podemos escribir
.
.
 . . 
pn 1



αp + β1 = 


p1 1
p2 1 
α
 α
=
A
.. ..  β
β
. . 
pn 1
Entonces, variar α y β en R es equivalente a hacer combinaciones lineales de los vectores
p y 1 que son las columnas de la matriz A. En consecuencia, encontrar α0 y β0 reales que
minimicen R(α, β) es equivalente a determinar un vector v0 = α0 p + β0 1 en el subespacio
S = L ({p, 1}) que minimice la norma de la diferencia d − v. Como ya hemos visto anteriormente en el teorema 5.2.3, este problema tiene solución: debemos elegir v0 = α0 p + β0 1
como la proyección ortogonal de d sobre el subespacio S = L ({p, 1}). Ahora bien, si v0
es la proyección de d sobre S entonces d − v0 ∈ S ⊥ . Por otra parte, según la proposición
5.2.1 se cumple que S ⊥ = N (At ). Por lo tanto, el problema se reduce a calcular v0 tal que
d − v0 ∈ N (At ), es decir, necesitamos determinar v0 tal que At (d − v0 ) = o o, lo que es lo
mismo, tal queAt v0 = At d.
α0
Como v0 = A
, sustituyendo arriba se observa que hallar v0 resulta equivalente a
β0
encontrar α0 y β0 solución del sistema
x
At A
= At d
y
Este sistema se denomina ecuación normal del problema de mı́nimos cuadrados. Finalmente, una observación clave es la siguiente: como las columnas de A forman un conjunto
5.4. Aproximación por el método de mı́nimos cuadrados
157
linealmente independiente, se tiene que At A es una matriz 2 × 2 invertible (ver ejercicio
5.1.8), de donde resulta:
α0
= (At A)−1 At d
β0
Ejemplo 5.4.1. Veamos un ejemplo concreto para entender cómo funciona el método.
Supongamos que los datos empı́ricos registrados por la empresa encuestadora son los
indicados en la siguiente tabla, donde los precios se expresan en cientos de pesos y la
cantidad de compradores en miles de personas.
P recio
1
2
3
4
Demanda
7
5
2
1
Se supone que la demanda resulta ser función lineal de precio, es decir d(p) = αp + β.
Como los datos no están alineados buscamos, aplicando el método de mı́nimos cuadrados,
α y β de mondo
lo mejor posible los datos. Definimos el
 que la recta αp +
β aproxime

1
7
 2 
 5 

 
vector p = 
 3  y el vector d =  2 .
4
1


1 1
 2 1 
 y su traspuesta es At = 1 2 3 4 .
Resulta entonces la matriz A = 
 3 1 
1 1 1 1
4 1
Por lo tanto


1
1

1 2 3 4 
 2 1  = 30 10
At A =
1 1 1 1  3 1 
10 4
4 1
Observamos que ni A ni At son invertibles (ni siquiera son cuadradas), pero el producto
de ambas At A sı́ es invertible. Las ecuaciones normales son entonces
 
7
30 10
α
1 2 3 4 
5 
27


=
=
10 4
β
1 1 1 1  2 
15
1
Invirtiendo la matriz del sistema (o escalerizando, como guste el lector) se tiene que
−1 1
30 10
− 12
t
−1
5
(A A) =
=
3
10 4
− 12
2
y por lo tanto los valores de α y β son
1
21 α
− 12
27
− 10
5
=
=
1
3
β
−2
15
9
2
Capı́tulo 5. Rn como espacio euclidiano
158
La función lineal para la demanda en función del precio que ha estimado el método de
mı́nimos cuadrados es entonces:
−21
p+9
d(p) =
10
La gráfica de esta recta, ası́ como los cuatro puntos de la tabla de datos se indican en la
siguiente figura:
y 10
9
8
7
6
5
4
3
2
1
-1
1
2
3
4
-1
5
v2
El error cuadrático global R(α, β) resulta ser en este caso:
2
X
4
4 X
−21
−21
2
ri =
= 0, 7
R
,9 =
di −
pi + 5
10
10
i=1
5.4.2.
i=1
Una fórmula para la proyección ortogonal
Terminemos la sección observando que podemos obtener una fórmula explı́cita para la
proyección ortogonal que no requiere obtener previamente una base ortogonal. Con un razonamiento similar al que hicimos para el método de mı́nimos cuadrados, supongamos que
queremos proyectar un vector v cualquiera sobre un subespacio S y que B = {v1 , v2 , . . . , vr }
es una base cualquiera (no necesariamente ortogonal) de S. Como ya sabemos, el vector
proyección PS (v) ∈ S y, por lo tanto, es una combinación lineal de los vectores de la base
B. Existen entonces números x1 , x2 , . . . , xr tales que


x1


PS (v) = x1 v1 + . . . + xr vr = MB  ... 
xr
siendo MB la matriz cuyas columnas son los vectores de la base B. También sabemos que
S coincide con el subespacio generado
por las columnas de MB de donde, por el teorema
⊥
t
5.2.1, se cumple que S = N (MB ) . Por otra parte se sabe que


x1


v − PS (v) ∈ S ⊥ ⇒ v − MB  ...  ∈ S ⊥ = N (MB )t
xr
5.4. Aproximación por el método de mı́nimos cuadrados
por lo tanto x1 , . . . , xr son números

x1
 ..
t
t
(MB ) v − (MB ) MB  .
xr
tales que


=o
159


x1


(MB )t MB  ...  = (MB )t v
xr
⇒
Por ser B una base de S, y por lo tanto un conjunto L.I., el rango de MB es r, de donde
resulta (ver ejercicio 5.1.8) que (MB )t MB es una matriz r×r invertible. Consecuentemente
el vector


x1
−1
 .. 
t
(MB )t v
 .  = (MB ) MB
xr


x1


y como PS (v) = MB  ...  se deduce que
xr
PS (v) = MB (MB )t MB
−1
(MB )t v

 

−1
1
 0   1 

 

Ejemplo 5.4.2. Se consideran en R4 el subespacio S = L 
  1  ,  −1  . Se
−1
2
 
2
 1 

quiere calcular el vector de S mas próximo a v = 
 1 . Sabemos que tal vector es la
2
proyección ortogonal de v sobre S.
Aplicamos entonces lo anterior. Definimos


−1
1
 0
1 

MB = 
 1 −1 
−1
2
⇒
t
(MB ) =
−1 0
1 −1
1 1 −1
2
Multiplicando se obtiene
(MB )t MB =
−1 0
1 −1
1 1 −1
2


−1
1
 0

1
3
−4


 1 −1  = −4
7
−1
2
Calculando la inversa se tiene
t
(MB ) MB
−1
=
7
5
4
5
4
5
3
5
Capı́tulo 5. Rn como espacio euclidiano
160
Calculando ahora la proyección obtenemos
   3


−1
1
5
2
7 4  1   6
 0

−1
0
1
−1
1
 = 5
 5 5
PS (v) = 
 1 −1  4 3
1 1 −1
2  1   − 35
5
5
9
2
−1
2
5




Calcule el lector la distancia de v a S y verifique que efectivamente el vector que obtuvimos
es la proyección, ¿cómo se puede hacer esto?.
Ejercicio 5.4.1. En un experimento se midió, según el tiempo, una cierta magnitud y,
obteniéndose los siguientes valores
t
y
0
0
1
1
3
2
4
5
1. Grafique y contra t .
2. Aplicando el método de mı́nimos cuadrados halle la “mejor” recta que ajuste los
datos anteriores (y = αt + β). Grafique la solución.
3. Aplicando el método de mı́nimos cuadrados halle la “mejor” parábola que ajuste los
datos anteriores (y = αt2 + βt + γ). Grafique la solución.
Ejercicio 5.4.2. (Tomado de [Moretti] pág. 264). Los datos de la tabla corresponden a
los precios y a las cantidades de naranja vendidas en un supermercado durante doce dı́as
consecutivos (precios en pesos por kilo y cantidades en kilos).
Precio p
Cantidad y
10,0
55
9,0
70
8,0
90
7,0
100
7,0
90
7,0
105
7,0
80
6,5
110
6,0
125
6,0
115
5,5
130
5,0
130
Aplicando el método de mı́nimos cuadrados halle la “mejor” recta que ajuste los datos
anteriores (y = αp + β). Calcule el error cuadrático global.
 

x




 

y
4


Ejercicio 5.4.3. Sea S =   ∈ R : x + y − z + t = 0 , −x − y + t = 0
z






t


−1
 1 

1. Halle el vector w de S mas próximo a v = 
 0 
1
2. Verifique que v − w es perpendicular a S.
3. Calcule la distancia de v a S.
Ejercicio 5.4.4. Se supone que la magnitud y depende de t según una ley del tipo y =
f (t) = a + bt2 . Determine, usando el método de mı́nimos cuadrados, la función f (t) que
mejor se ajusta a los siguientes datos experimentales:
t
y
-1
-1
0
2
1
-1
2
8
Capı́tulo 6
Diagonalización
6.1.
Introducción
La utilización de matrices de dimensiones grandes en el planteo y resolución de problemas
prácticos concretos (como el desarrollado en la última sección del capı́tulo anterior), motivaron el desarrollo de un área cientı́fica denominada “Cálculo Numérico” que tiene, entre
otros objetivos, la creación e implementación de algoritmos computacionales eficientes que
permiten resolver sistemas de ecuaciones y realizar todo tipo de operaciones con matrices. Si bien el estudio de dichos algoritmos está fuera de nuestros objetivos, intentaremos
aquı́ presentar algunas ideas que sirvan de motivación para comprender la relevancia de
los contenidos de este capı́tulo.
Supongamos que tenemos una matriz A de tamaño n × n (n puede ser “grande”) y que
necesitamos calcular alguna de sus potencias, digamos, por ejemplo, A20 . Aún disponiendo de una calculadora (no programable), dicho cálculo se torna enormemente tedioso e
ineficiente si no contamos con una computadora que contenga programas adecuados para
tales efectos. Sin embargo, hay un caso particular en donde dicha tarea se torna trivial.
Nos estamos refiriendo al caso en que la matriz A sea una matriz diagonal.


d1 0 0
Por ejemplo, si A =  0 d2 0  al calcular sus potencias obtenemos:
0 0 d3


(d1 )2
0
0
A2 =  0
(d2 )2
0 
0
0
(d3 )2
A20

,


(d1 )3
0
0
A3 =  0
(d2 )3
0 
0
0
(d3 )3

(d1 )20
0
0
(d2 )20
0 
= 0
0
0
(d3 )20
,
...
162
Capı́tulo 6. Diagonalización
En general, si A es n × n y k

d1 0 · · ·
 0 d2 · · ·

A= .
.. . .
 ..
.
.
0
0
un natural cualquiera se cumple:


0
(d1 )k
0
···
0
k ···


0
(d
0 
)
0
2

k
..  =⇒ A =  ..
..
..
..
 .

.
.
.
.
· · · dn
0
0
· · · (dn )k





Es decir, si A es una matriz diagonal entonces Ak también lo es y tiene en su diagonal
principal las k-ésimas potencias de las correspondientes entradas de la diagonal de A.
El lector podrá pensar (con total razón) que esta observación, si bien correcta, es extremadamente restrictiva pues solo vale para matrices diagonales. Sin embargo, veremos a
continuación que es posible simplificar el cálculo de las potencias para una clase de matrices mucho más amplia que las diagonales.
Supongamos ahora que A es una matriz cualquiera n × n no necesariamente diagonal.
Supongamos también que existen matrices n × n, B invertible y D diagonal, tales que
A = BDB −1 . Calculemos A2 :
2
A2 = BDB −1 = BDB −1 BDB −1 = BD B −1 B DB −1 =
= BDIDB −1 = BDDB −1 = BD 2 B −1
Hemos obtenido que A2 = BD 2 B −1 y, realizando un razonamiento inductivo llegamos a
que, cualquiera que sea k natural se cumple:
A = BDB −1 =⇒ Ak = BD k B −1
Como D es una matriz diagonal, la potencia D k es inmediata de calcular. Luego, para
obtener Ak solamente es necesario conocer
B −1 y realizar un par de producto de matrices:
primero BD k y, a continuación, BD k B −1 .
Las matrices A que cumplen la condición que acabamos de mencionar (existen B invertible y D diagonal tales que A = BDB −1 ) se denominan matrices diagonalizables y
constituyen en el principal objeto de estudio de este capı́tulo. Hay que reconocer que, al
menos en principio, la condición de “matriz diagonalizable” aparece como complicada o, al
menos, nada fácil de verificar. En el siguiente ejemplo mostraremos un camino alternativo
(de hecho, será uno de los principales resultados de este capı́tulo) para verificar si una
matriz es diagonalizable.
−1 −2
Consideremos la matriz A dada por A =
. Es inmediato verificar que
3
4
2
2
1
1
A
=2
y A
=1
−3
−3
−1
−1
2
1
Poniendo u1 =
y u2 =
el cálculo anterior nos dice que Au1 = 2u1 y
−3
−1
Au2 = u2 . Es decir, los vectores u1 y u2 tienen la peculiaridad de que, al multiplicarlos
6.2. Valores y vectores propios de una matriz
163
por A, se obtienen vectores colineales con ellos, con coeficientes
de
proporcionalidad 2
2 −3
y 1 respectivamente. Sean U = {u1 , u2 } y B = MU =
. Observemos que el
1 −1
producto AB lo podemos efectuar sin necesidad de realizar operaciones. En efecto, la
primera columna de AB se obtiene multiplicando A por la primera columna de B o sea
por u1 y, por lo tanto:
Primera columna de AB es Au1 = 2u1
De modo análogo:
Segunda columna de AB es Au2 = u2
Luego, la matriz AB coincide con la matriz cuya primera columna es 2u1 y cuya segunda
es
2 0
.
u2 . A su vez, esta matriz coincide con el producto de B = MU por la matriz D =
0 1
Hemos comprobado que AB = BD siendo D una matriz diagonal. Multiplicando ambos
miembros a derecha por B −1 (que existe pues claramente U es base de R2 ) obtenemos
A = BDB −1 y, por lo tanto, A es diagonalizable.
Si repasamos con cuidado el razonamiento observamos que es de carácter general y no
depende de los números involucrados. Solamente se necesitó una matriz A 2 × 2 con la
particularidad de la existencia de dos vectores u1 y u2 (con U = {u1 , u2 } base de R2 ) y
de dos números λ1 y λ2 tales que Au1 = λ1 u1 y Au2 = λ2 u2 . Si B es la matriz MU se
cumple:
Primera columna de AB es Au1 = λ1 u1
Segunda columna de AB es Au2 = λ2 u2
λ1 0
Pero, por otra parte, el producto de B por la matriz diagonal D =
también
0 λ2
tiene por columnas a λ1 u1 y λ2 u2 . Es decir: AB = BD. Como B es invertible (por ser U
base de R2 ) se deduce que A = BDB −1 y, por lo tanto, A resulta ser diagonalizable.
Este ejemplo muestra entonces que el hecho de encontrar vectores u tales que Au sea
colineal con u puede ser de utilidad para investigar si la matriz A es diagonalizable.
6.2.
Valores y vectores propios de una matriz
Definición 6.2.1. Valores y vectores propios de una matriz.
Sea A una matriz n × n. Diremos que el número λ es valor propio (o autovalor) de A
si, y solo si, existe algún vector v ∈ Rn , con v 6= o, tal que A.v = λv.
Si λ es valor propio de A, entonces a cada vector x ∈ Rn que verifique la igualdad
A.x = λx lo llamaremos vector propio (o autovector) asociado al valor propio λ.
Observación 6.2.1. Sobre la definición de valor propio.
1. Como A.o = λo cualquiera que sea el número λ, para que la definición de valor
propio tenga relevancia se exige que exista algún vector v no nulo tal que A.v = λv.
164
Capı́tulo 6. Diagonalización
2. Si x ∈ Rn es vector propio asociado al valor propio λ entonces cualquier vector
colineal con x también lo es. En efecto, sea w = αx con α ∈ R. Se tiene:
A.w = A.(αx) = αA.x = αλx = λαx = λw =⇒ A.w = λw
−1 −2
Ejemplo 6.2.1. En la sección anterior habı́amos observado que si A =
3
4
entonces se cumplı́a:
2
2
1
1
A
=2
y A
=1
−3
−3
−1
−1
De acuerdo a la definición
dadapodemos decir que
2
2 es valor propio de A y
es un vector propio asociado a dicho valor propio.
−3
1
1 es valor propio de A y
es un vector propio asociado a dicho valor propio.
−1
Para hallar
alvalor
2tenemos
que buscar los
todos
los vectores propios asociados
propio
x
−1 −2
x
x
vectores
∈ R2 que verifiquen:
= 2
. Eso nos lleva al
y
3
4
y
y
siguiente sistema de ecuaciones:
−x − 2y = 2x
−3x − 2y = 0
3x + 2y = 0
∼
∼
3x + 4y = 2y
3x + 2y = 0
0=0
El conjunto solución de dicho sistema es:
x
/y∈R =L
−3x
2
2
−3
Hemos obtenido que el conjunto de todos los vectores propios asociados al valor propio 2
constituye un subespacio de R2 (en este caso, de dimensión 1).
Busquemos ahora todos los vectores propios asociados al valor propio 1. Se tiene:
−x − 2y = x
−2x − 2y = 0
x+y =0
∼
∼
3x + 4y = y
3x + 3y = 0
0=0
El conjunto solución de dicho sistema es:
x
1
/x∈R =L
−x
−1
Hemos obtenido que el conjunto de todos los vectores propios asociados al valor propio 1
constituye un subespacio de R2 (en este caso, también de dimensión 1).
Acabamos de observar entonces que, una vez que conocemos un valor propio para A,
la búsqueda de sus correspondientes vectores propios se reduce a resolver un sistema
(cuadrado) de ecuaciones lineales. Sin embargo, el lector se podrá preguntar con total razón
¿cómo se descubrieron los valores propios 1 y 2? Más aún, la matriz A ¿no tendrá además
otros valores propios? El siguiente teorema va en camino de responder estas preguntas.
6.2. Valores y vectores propios de una matriz
165
Teorema 6.2.1. Cálculo de valores y vectores propios.
Sea A una matriz n × n. Se tiene:
1. λ es valor propio de A si, y solo si, det(A − λI) = 0.
2. Si λ es valor propio de A entonces el conjunto {x ∈ Rn / A.x = λx} (de todos los
vectores propios asociados al valor propio λ) es un subespacio no trivial de Rn .
Demostración. En primer lugar, vale la pena observar la equivalencia entre las siguientes
igualdades:
A.x = λx ⇐⇒ A.x − λx = o ⇐⇒ (A − λI).x = o
en donde I es la matriz identidad n × n.
1. Por definición, λ es valor propio de A si, y solo si, existe algún vector v ∈ Rn , con
v 6= o, tal
que (A− λI).v = o. Esto es equivalente a decir que el sistema homogéneo
x1
 x2 


(A − λI)  .  = o admite al menos una solución distinta de la trivial. Como
 .. 
xn
el sistema es n × n, el teorema de Cramer nos permite afirmar que lo anterior es
equivalente a que el determinante del sistema sea nulo, es decir, det(A − λI) = 0.
2. Supongamos ahora que λ es valor propio de A. Un vector x ∈ Rn es vector propio
de A asociado a λ si, y solo si, (A − λI).x = o. Pero esto es equivalente a decir que x
pertenece al núcleo de la matriz A − λI. Resulta entonces que el conjunto de todos
los vectores propios asociados al valor propio λ coincide con el núcleo de A − λI y,
por lo tanto, es un subespacio de Rn . Este subespacio no puede ser el trivial pues,
por la propia definición de valor propio, existe v 6= o tal que (A − λI).v = o. ♠
Ejemplo 6.2.2. Volvamosal ejemplo anterior e intentemos calcular todos los valores
−1 −2
propios de A =
. Según la proposición anterior tenemos que hallar las raı́ces
3
4
de det(A − λI). Se tiene:
det(A − λI) =
−1 − λ −2
3
4−λ
= λ2 − 3λ + 2
Las únicas raı́ces de este polinomios son 1 y 2. Resulta entonces que esta matriz no tiene
otros valores propios.
Observación 6.2.2. Polinomio caracterı́stico de un matriz 2 × 2.
Si A es una matriz n × n entonces al polinomio det(A − λI) lo llamaremos polinomio
caracterı́stico de la matriz. En el caso 2 ×2 podemos hallar una fórmula explı́cita para
a b
dicho polinomio. En efecto, si A =
entonces:
c d
det(A − λI) =
a−λ
b
c
d−λ
= λ2 − (a + d)λ + (ad − bc) = λ2 − tr(A)λ + det(A)
Definición 6.2.2. Subespacio propio asociado a un valor propio.
Sea λ un valor propio de la matriz A n × n. Según el teorema 6.2.1 el conjunto de todos
166
Capı́tulo 6. Diagonalización
los vectores propios asociados al valor propio λ es un subespacio no trivial de Rn . A dicho
subespacio lo llamaremos subespacio propio asociado al valor propio λ y lo simbolizaremos Sλ . Recordemos además que este subespacio coincide con el núcleo de la matriz
A − λI, es decir:
Sλ = N (A − λI)
Ejemplo 6.2.3. Queremos hallar los valores y vectores propios de la matriz A =
6 8
2 6
.
Valores propios: Tenemos que hallar las raı́ces de det(A − λI). Se tiene:
det(A − λI) =
6−λ
8
2
6−λ
= λ2 − 12λ + 20
Las raı́ces de este polinomio de segundo grado son 2 y 10 y, por lo tanto, los valores
propios de A son 2 y 10.
Vectores propios asociados al valor propio 2: Tenemos que hallar el núcleo de la ma
4 8
triz A − 2I =
, lo cual nos lleva al siguiente sistema de ecuaciones:
2 4
4x + 8y = 0
2x + 4y = 0
∼
x + 2y = 0
0=0
El conjunto solución de dicho sistema, es decir, el subespacio propio asociado al valor
propio λ = 2 es entonces:
S2 =
−2y
y
/y∈R
=L
−2
1
Vectores propios asociados al valor propio 10: Tenemos que hallar el núcleo de la
−4
8
matriz A − 10I =
, lo cual nos lleva al siguiente sistema de ecuaciones:
2 −4
−4x + 8y = 0
2x − 4y = 0
∼
−x + 2y = 0
0=0
El conjunto solución de dicho sistema, es decir, el subespacio propio asociado al valor
propio λ = 10 es entonces:
S10 =
2y
y
/y∈R
=L
2
1


5
0 −6
Ejemplo 6.2.4. Queremos hallar los valores y vectores propios de la matriz A =  9 −1 −9 .
3
0 −4
6.2. Valores y vectores propios de una matriz
167
Valores propios: Tenemos que hallar las raı́ces de det(A − λI). Se tiene:
det(A − λI) =
5−λ
0
−6
9
−1 − λ
−9
3
0
−4 − λ
= (−1 − λ)(λ2 − λ − 2)
El resultado se obtuvo desarrollando el determinante por la segunda columna. Las
raı́ces de este polinomio de tercer grado son −1 (doble) y 2 (simple) y, por lo tanto,
esos son los valores propios de A.
Vectores propios asociados al valor propio 2: Tenemos que hallar el núcleo de la ma

3
0 −6
triz A − 2I =  9 −3 −9 , lo cual nos lleva al siguiente sistema de ecuaciones:
3
0 −6


x − 2z = 0
 3x + 0y − 6z = 0

9x − 3y − 9z = 0 ∼
3x − y − 3z = 0


3x + 0y − 6z = 0
0=0
El sistema es compatible indeterminado con un grado de libertad y, el conjunto
solución de dicho sistema, es decir, el subespacio propio asociado al valor propio
λ = 2 es entonces:



 
2z


 2 
S2 =  3z  / z ∈ R = L   3  




z
1
Vectores propios asociados al valor propio −1: Tenemos que hallar el núcleo de la


6 0 −6
matriz A + I =  9 0 −9 , lo cual nos lleva al siguiente sistema de ecuaciones:
3 0 −3


 6x − 6z = 0
 x−z =0
9x − 9z = 0 ∼
0=0


3x − 3z = 0
0=0
El sistema es compatible indeterminado con dos grados de libertad y, el conjunto
solución de dicho sistema, es decir, el subespacio propio asociado al valor propio
λ = −1 es entonces:
 

   
x
0 


 1






y
/ x, y ∈ R = L
0
, 1  
S−1 =




x
1
0
Teorema 6.2.2. Independencia lineal de vectores propios asociados a valores
propios diferentes.
Sean A una matriz n × n y u1 , u2 , . . . , ur vectores propios no nulos de A asociados respectivamente a los valores propios λ1 , λ2 , . . . , λr diferentes entre sı́. Entonces el conjunto
{u1 , u2 , . . . , ur } es L.I.
168
Capı́tulo 6. Diagonalización
Demostración. Lo demostraremos solamente para dos vectores (para el caso general se
puede proceder por inducción). Queremos probar entonces que {u1 , u2 } es L.I. Supongamos, razonando por reducción al absurdo, que no lo fuera. En este caso uno de los vectores
serı́a colineal con el otro. Digamos que existe α ∈ R tal que u2 = αu1 . Multiplicando ambos
miembros por A obtenemos:
A.u2 = A.(αu1 ) =⇒ A.u2 = αA.(u1 ) =⇒ λ2 u2 = αλ1 u1
Sustituyendo la expresión u2 = αu1 en la última igualdad obtenemos λ2 αu1 = αλ1 u1 , de
donde resulta:
α(λ2 − λ1 )u1 = o (∗)
Por hipótesis u1 6= o y λ2 − λ1 6= 0 (pues los valores propios eran diferentes entre sı́). Para
que se cumpla (∗) la única posibilidad que queda es que α = 0. Pero esto implicarı́a u2 = o
lo cual es absurdo. ♠
Resulta claro del teorema anterior que dos subespacios propios de A asociados a valores
propios diferentes solamente tienen en común al vector nulo.
Ejercicio 6.2.1. Si A es una matriz cuadrada pruebe que A es invertible si, y solo si, 0
no es valor propio de A.
Ejercicio 6.2.2. Supongamos que λ es valor propio de la matriz A. Demuestre que:
1. αλ es valor propio de αA.
2. Si A es invertible entonces λ no puede ser 0 y se cumple que 1/λ es valor propio de
A−1 .
Ejercicio 6.2.3. Sean A y B dos matrices n × n tales que u es vector propio de A y de
B. Demuestre que:
1. αu es vector propio de A para α ∈ R.
2. u es vector propio de A + B y obtenga el valor propio correspondiente.
3. u es vector propio de A.B y obtenga el valor propio correspondiente.
Ejercicio 6.2.4. Encuentre los valores propios y los subespacios propios de las siguientes
matrices:


1 −1
4
4 2
6 8
1 3
A=
, B=
, C=
, D= 3
2 −1 
3 3
−2 6
2 6
2
1 −1
Ejercicio 6.2.5.
1. Demuestre que los únicos valores propios posibles de una matriz ortogonal A son 1
y −1. (Recuerde que si A es ortogonal entonces kA.vk2 = kvk2 , ∀ v ∈ Rn ).
√
√ !
2
2
−
√2
√2
2. Verifique que la matriz
es ortogonal pero que no tiene valores propios.
2
2
2
2
6.3. Matrices diagonalizables
169
Ejercicio 6.2.6.


5
3 −6
Consideremos la matriz A =  −4 −2
8 . Verifique (aplicando la definición) que
−1 −1
4
los siguientes vectores son vectores propios de A y encuentra sus correspondientes valores
propios:






−4
1
−3
u1 =  6  , u2 =  −1  , u3 =  4 
1
0
1
6.3.
Matrices diagonalizables
Definición 6.3.1. Matrices diagonalizables.
Sea A una matriz n × n. Diremos que A es diagonalizable si, y solo si, existen matrices
n × n, B invertible y D diagonal, tales que B −1 AB = D.
En este caso diremos que B diagonaliza a la matriz A.
Observación 6.3.1. Sobre matrices diagonalizables.
1. Toda matriz diagonal es diagonalizable. En efecto, alcanza con tomar la matriz B
de la definición como la matriz identidad.
2. Siendo B invertible, las siguientes igualdades son equivalentes:
B −1 AB = D ⇐⇒ AB = BD ⇐⇒ A = BDB −1
3. Vale la pena tener presente lo discutido en la introducción al capı́tulo en cuanto a
las potencias de A en el sentido de que si A = BDB −1 entonces Ak = BD k B −1 para
todo número natural k.
El siguiente teorema (cuya demostración se encuentra en el apéndice de esta sección)
establece de forma precisa lo observado en la introducción al capı́tulo.
Teorema 6.3.1. Condiciones necesarias y suficientes para que una matriz sea
diagonalizable.
Si A es una matriz n × n entonces las siguientes afirmaciones son equivalentes:
1. A es diagonalizable (es decir, existen matrices n × n, B invertible y D diagonal, tales
que B −1 AB = D).
2. Existe una base de Rn formada por vectores propios de A. Si U = {u1 , u2 , . . . , un }
es una base de Rn formada por vectores propios de A y λ1 , λ2 , . . . , λn son los
correspondientes valores propios (esto es: A.ui = λi ui , i = 1, 2, . . . , n), entonces
una matriz
 B que diagonaliza
 a A es B = MU y la correspondiente matriz diagonal
λ1 0 · · · 0
 0 λ2 · · · 0 


es D =  .
.. . .
.. 
 ..
. . 
.
0
0
· · · λn
3. La suma de las dimensiones de los subespacios propios es n.
170
Capı́tulo 6. Diagonalización
Veamos varios ejemplos que muestran cómo podemos aplicar el teorema anterior para
decidir si una matriz es diagonalizable o no.
6 8
Ejemplo 6.3.1. Consideremos la matriz A =
del ejemplo 6.2.3. Sus únicos
2 6
valores propios son λ1 = 2 y λ2 = 10. Se habı́an encontrado los respectivos subespacios
propios obteniendo: dim(Sλ1 ) = dimN (A − 2I) = 1 y dim(Sλ2 ) = dimN (A − 10I) = 1.
Como la suma de las dimensiones de los subespacios propios es 1 + 1 = 2, y A es 2 × 2, la
tercera parte del teorema anterior nos permite afirmar que A es diagonalizable.
¿Cómo encontramos una matriz B que la diagonalice? Para ello usamos la parte (2) del
teorema. En
6.2.3se habı́an
calculado también los vectores propios. Por ejem el ejemplo
−2
2
plo, u1 =
y u2 =
son vectores propios asociados a λ1 = 2 y λ2 = 10
1
1
respectivamente. Es claro que U = {u1 , u2 } es base de R2 . Luego, unamatriz Bque diago2 0
naliza a A es B = MU y la correspondiente matriz diagonal es D =
, es decir,
0 10
se cumple la igualdad:
B −1 AB =
−2 2
1 1
−1 6 8
2 6
−2 2
1 1
−2 2
1 1
2 0
0 10
=
2 0
0 10
=D
o, de manera equivalente:
A=
6 8
2 6
=
−2 2
1 1
−1
= BDB −1
Si quisiéramos calcular A100 podemos proceder de la siguiente manera:
A100 =
−2 2
1 1
2100
0
0
10100
−2 2
1 1
−1


5
0 −6
Ejemplo 6.3.2. Consideremos ahora la matriz A =  9 −1 −9  del ejemplo 6.2.4.
3
0 −4
Sus únicos valores propios son λ1 = −1 (raı́z doble del polinomio caracterı́stico) y λ2 = 2
(raı́z simple del polinomio caracterı́stico). Con respecto a los subespacios propios se habı́a
obtenido: dim(Sλ1 ) = dimN (A + I) = 2 y dim(Sλ2 ) = dimN (A − 2I) = 1. Como la suma
de las dimensiones de los subespacios propios es 2+1 = 3 (dimensión del espacio) podemos
afirmar que A es diagonalizable.
Para completar el ejemplo encuentre una matriz B que diagonalice a A y la correspondiente
matriz diagonal D.
Observación 6.3.2. Cálculo de las dimensiones de los subespacios propios.
Según el teorema 6.3.1 es suficiente con calcular la suma de las dimensiones de los subespacios propios de una matriz para decidir si es diagonalizable o no. Vale la pena tener en
cuenta que, para dicho cálculo, no es necesario hallar explı́citamente dichos subespacios (o
sea, los vectores propios). En efecto, si λ es valor propio de A entonces la dim(Sλ ) es la
6.3. Matrices diagonalizables
171
dimensión del núcleo de A − λI, o sea, la nulidad de dicha matriz. A su vez, esta nulidad
se puede calcular a partir del rango de la siguiente manera:
nu(A − λI) = n − rg(A − λI)
Ejemplo 6.3.3. Se quiere investigar si las siguientes matrices son diagonalizables:


8 −7 π
W = 0
5 0 
0
0 5
,


8 −7 π
Z= 0
5 1 
0
0 5
Un cálculo muy simple muestra que ambas tienen los mismos valores propios que son
λ1 = 8 (raı́z simple del polinomio caracterı́stico de ambas) y λ2 = 5 (raı́z doble del
polinomio caracterı́stico de ambas). Estudiemos ahora las dimensiones de sus subespacios
propios:
1. Para la matriz W :




0 −7
π
0 −7
π
dim(Sλ1 =8 ) = nu  0 −3
0  = 3 − rg  0 −3
0  = 3−2 = 1
0
0 −3
0
0 −3




3 −7 π
3 −7 π
dim(Sλ2 =5 ) = nu  0
0 0  = 3 − rg  0
0 0  =3−1 =2
0
0 0
0
0 0
Como dim(Sλ1 ) + dim(Sλ2 ) = 3 podemos concluir que W es diagonalizable.
2. Para la matriz Z:




0 −7
π
0 −7
π
1  = 3 − rg  0 −3
1  = 3−2 = 1
dim(Sλ1 =8 ) = nu  0 −3
0
0 −3
0
0 −3




3 −7 π
3 −7 π
dim(Sλ2 =5 ) = nu  0
0 1  = 3 − rg  0
0 1  =3−2 =1
0
0 0
0
0 0
Como dim(Sλ1 ) + dim(Sλ2 ) = 2 6= 3 podemos concluir que Z no es diagonalizable.
Proposición 6.3.1. Una condición suficiente para que una matriz sea diagonalizable.
Sea A una matriz n × n. Si A tiene n valores propios diferentes entre sı́ entonces es
diagonalizable.
Demostración. Sean λ1 , λ2 , . . . , λn los n valores propios de A diferentes entre sı́. Para
cada λi elegimos un vector ui que sea vector propio no nulo asociado a λi . Por el teorema
6.2.2 el conjunto U = {u1 , u2 , . . . , un } es L.I. y, por lo tanto, es base de Rn . Hemos
encontrado una base de Rn formada por vectores propios de A, de donde resulta (teorema
6.3.1) que A es diagonalizable. ♠
172
Capı́tulo 6. Diagonalización
√ 
2 −5
2
Ejemplo 6.3.4. Se considera la matriz A =  0
1
2 . Para hallar sus valores
0
1
1
propios debemos hallar las raı́ces del polinomio det(A − λI):
√
2 − λ −5
2
1−λ
2
det(A − λI) =
= (2 − λ)
= (2 − λ)(λ2 − 2λ − 1)
0 1−λ
2
1
1−λ
0
1
1−λ

√
√
Los valores propios de A son entonces: 2, 1+ 2 y 1− 2. Como A es 3×3 y tiene 3 valores
propios diferentes, la proposición anterior nos permite concluir que A es diagonalizable,
sin necesidad de tener que estudiar la dimensión de los subespacios propios.
Observación 6.3.3. La condición anterior no es necesaria para que una matriz
sea diagonalizable.
Ya nos hemos encontrado con varios ejemplos de matrices 3 × 3 diagonalizables que tenı́an
solamente dos valores propios. Es ası́ que la condición suficiente establecida en la proposición anterior no es necesaria para que una matriz sea diagonalizable. Dicho de otra manera,
si una matriz n × n no tiene n valores propios diferentes entonces puede ser diagonalizable,
o no.
Una clase importante de matrices diagonalizables la constituye la familia de las matrices
simétricas.
Teorema 6.3.2. Diagonalización de matrices simétricas.
Sea A una matriz simétrica n × n. Entonces se cumple:
1. Vectores propios de A asociados a valores propios diferentes son ortogonales.
2. A es diagonalizable. Más aún, existe una matriz ortogonal que la diagonaliza.
Demostración.
1. Sean u1 y u2 vectores propios de A correspondientes a valores propios distintos λ1 y
λ2 . Esto implica que Au1 = λ1 u1 y Au2 = λ2 u2 . Se tiene:
hAu1 , u2 i = hλ1 u1 , u2 i = λ1 hu1 , u2 i
Por otra parte, utilizando el hecho de que A es simétrica, tenemos:
hAu1 , u2 i = hu1 , At u2 i = hu1 , Au2 i = hu1 , λ2 u2 i = λ2 hu1 , u2 i
Luego, λ1 hu1 , u2 i = λ2 hu1 , u2 i de donde resulta (λ1 − λ2 )hu1 , u2 i = 0.
Como λ1 6= λ2 , debe ser hu1 , u2 i = 0 y, por lo tanto, u1 ⊥ u2 .
2. Esta parte delteorema la demostraremos solamente para el caso de una matriz 2 × 2:
a b
A=
. Comencemos hallando su polinomio caracterı́stico:
b c
det(A − λI) =
a−λ
b
b
c−λ
= λ2 − (a + c)λ + (ac − b2 )
6.3. Matrices diagonalizables
173
El discriminante de ese polinomio de segundo grado vale ∆ = (a + c)2 − 4(ac − b2 ) =
a2 + c2 − 2ac + 4b2 = (a − c)2 + 4b2 . Es claro que ∆ ≥ 0 cualesquiera que sean a, b y
c. Si ∆ > 0 entonces el polinomio caracterı́stico tiene dos raı́ces reales y diferentes y
entonces (proposición 6.3.1) A es diagonalizable. Sean entonces λ1 y λ2 los valores
propios diferentes y u1 y u2 vectores propios asociados. Por la parte (1) u1 ⊥ u2 .
Dividiendo cada uno de esos vectores entre su norma obtenemos dos vectores u′1 y u′2
tales que U = {u′1 , u′2 } es una base ortonormal de R2 formada por vectores propios
de A. La matriz MU resulta entonces ser ortogonal y, como sabemos, dicha matriz
diagonaliza a A.
Queda por estudiar el caso en que ∆ = 0, en donde no hay dos raı́ces reales y
diferentes.
Pero ∆ = 0 solamente cuando a = c y b = 0, o sea cuando A es de la forma
a 0
que es una matriz diagonal (y, por lo tanto, trivialmente diagonalizable).
0 a
♠
Proposición 6.3.2. Propiedades de At A.
Si A es una matriz m × n entonces la matriz cuadrada (n × n) At A tiene las siguientes
propiedades:
1. At A es simétrica.
2. At A es no negativa (o semidefinida positiva), esto es: hAt A.x, xi ≥ 0, ∀ x ∈ Rn .
3. Los valores propios de At A son no negativos.
4. At A tiene el mismo rango que A.
5. Si rg(A) = n entonces At A no tiene valor propio 0.
Si rg(A) = r < n entonces 0 es valor propio de At A y el subespacio propio correspondiente tiene dimensión n − r.
Demostración.
t
1. Utilizando las propiedad de la traspuesta de un producto obtenemos At A =
t
At At = At A de donde resulta que At A es simétrica.
2. Para todo x ∈ Rn se tiene: hAt A.x, xi = hA.x, A.xi = kA.xk2 ≥ 0.
3. Sea λ un valor propio de At A. Existe v 6= o tal que At A.v = λv. Luego, utilizando
que At A es no negativa se obtiene: 0 ≤ hAt A.v, vi = hλv, vi = λhv, vi de donde se
deduce que λ ≥ 0.
(Observe que solamente se utilizó que At A es no negativa y, por lo tanto, la misma
demostración prueba que los valores propios de cualquier matriz no negativa son no
negativos).
4. Ver ejercicio 5.1.8.
5. Si rg(A) = n entonces rg(At A) = n y, por lo tanto, At A es invertible. Se deduce que
0 no es valor propio de At A (todos sus valores propios son estrictamente positivos).
Si rg(A) = r < n entonces rg(At A) = r < n, de donde At A no es invertible y
0 es valor propio de At A. Recordemos también que N (At A) = N (A), de donde
resulta nu(At A) = nu(A) = n − r. Se deduce que el subespacio propio de At A
correspondiente al valor propio 0 tiene dimensión n − r.
Una interesante aplicación de las propiedades de puede encontrarse en el apéndice en donde
se demuestra la llamada “descomposición en valores singulares” de una matriz cualquiera.
174
Capı́tulo 6. Diagonalización
Definición 6.3.2. Multiplidad algebraica y multiplicidad geométrica de un valor
propio. Sea λ un valor propio de la matriz A n × n.
Llamaremos multiplicidad algebraica de λ, y la simbolizaremos ma(λ), a su orden de
multiplicidad como raı́z del polinomio caracterı́stico det(A − λI).
Llamaremos multiplicidad geométrica de λ, y la simbolizaremos mg(λ), a la dimensión
de su correspondiente subespacio propio Sλ .
Ejemplo 6.3.5. En el ejemplo 6.3.3 se consideraron las matrices




8 −7 π
8 −7 π
W = 0
5 0  , Z = 0
5 1 
0
0 5
0
0 5
que tienen los mismos valores propios λ1 = 8 (raı́z simple del polinomio caracterı́stico de
ambas) y λ2 = 5 (raı́z doble del polinomio caracterı́stico de ambas). Según la definición
anterior ¿cuáles son las multiplicidades algebraica y geométrica de estos valores propios?
Para la matriz W :
ma(λ1 ) = 1 y mg(λ1 ) = 1. ma(λ2 ) = 2 y mg(λ2 ) = 2.
Para la matriz Z:
ma(λ1 ) = 1 y mg(λ1 ) = 1. ma(λ2 ) = 2 y mg(λ2 ) = 1.
Observemos que en la matriz Z el valor propio λ2 = 5 tiene multiplicidad algebraica 2 (es
raı́z doble del polinomio caracterı́stico) mientras que su multiplicidad geométrica es 1.
Admitiremos sin demostración el siguiente resultado.
Teorema 6.3.3. Relación entre las multiplicidades algebraica y geométrica de
un valor propio.
Sea λ un valor propio de la matriz A n × n. Entonces se cumple que:
1. 1 ≤ mg(λ) ≤ ma(λ) ≤ n.
2. Si ma(λ) = 1 entonces mg(λ) = 1.
Ejercicio 6.3.1. Si A n × n es diagonalizable demuestre que α A es diagonalizable para
todo α ∈ R.
Ejercicio 6.3.2. Encuentre un ejemplo de dos matrices A y B ambas diagonalizables
tales que A.B no sea diagonalizable. (Puede buscar matrices de tamaño 2 × 2).
Ejercicio 6.3.3. En cada uno de los siguientes casos verifique que la matriz A es diagonalizable y halle una matriz B y una matriz diagonal D tales que B −1 AB = D.




2 −1 2
1 −1
4
2 3
1 0  , (3) A =  3
2 −1 
(1) A =
, (2) A =  0
4 6
0
0 1
2
1 −1

1
2 1 1
 −2
(4) A =  1 2 1  , (5) A = 
 0
0 0 1
0





0
0 0
3 2 4
3
0 0 
 , (6) A =  2 0 2 
0 −1 2 
4 2 3
0
1 0
6.3. Matrices diagonalizables
175
Ejercicio 6.3.4. Investigue si las siguientes matrices son diagonalizables (no es necesario
hallar los subespacios propios):


2 −1 0
1 0
4 1
3 −5
A=
, B=
, C=
, D= 0
0 1 
1 0
0 4
1 −1
0
0 0


−5 −5 −9
E= 8
9 18 
−2 −3 −7




−1 −3 −9
0
1 0
, F = 0
5 18  , G =  0
0 1 
0 −2 −7
1 −3 3


1 3
0
0
 2 2
0
0 
.
Ejercicio 6.3.5. Se considera la matriz: A = 
 0 0 −1
0 
0 0
0 −1
1. Halle los valores y vectores propios de A.
2. Investigue si A es diagonalizable. Justifique.
3. Si λ no es ningunode los
propios obtenidos en (a), ¿cuál es la solución del
 
 valores
x
0
 y   0 
  
sistema (A − λI) . 
 z  =  0 ? Justifique.
0
t


 
1 1 1 1
1
 1 1 1 1 
 1 

 
Ejercicio 6.3.6. Se consideran A = 
 1 1 1 1  y v =  1 .
1 1 1 1
1
1. Halle N (A) y encuentre una base del mismo. ¿Es 0 valor propio de A?
2. Pruebe que v es vector propio de A. ¿Cuál es el valor propio correspondiente?
3. Halle una matriz invetible B 4× 4 y una matriz diagonal D 4× 4 tales que B −1 AB =
D.
2 1
Ejercicio 6.3.7. Sea A =
siendo k un número real.
2k k
1. Encuentre los valores propios de la matriz A.
2. Investigue si A es diagonalizable discutiendo según k.


1 0
0
Ejercicio 6.3.8. Pruebe que la matriz A =  a 1 −a  es diagonalizable solo para
a 0
a
dos valores de a.


1 a a
Ejercicio 6.3.9. Pruebe que la matriz A =  a 1 a  es diagonalizable para cualquier
a a 1
valor de a y encuentre una matriz que la diagonalice.
176
Capı́tulo 6. Diagonalización
Ejercicio 6.3.10.
1. Demuestre que si D es una matriz diagonal que tiene todas sus entradas no negativas
entonces existe otra matriz diagonal J tal que J 2 = D.
2. Sea A una matriz diagonalizable tal que todos sus valores propios son no negativos.
Demuestre que existe una matriz S tal que S 2 = A.


1 3 1
3. Halle una matriz S tal que S 2 = A en el caso en que A =  0 4 5 
0 0 9
Ejercicio 6.3.11. Una matriz cuadrada A se dice idempotente cuando A2 = A. Si A es
idempotente pruebe que:
1. Los únicos valores propios posibles de A son los números 0 y 1.
2. A es diagonalizable.


3 2 4
Ejercicio 6.3.12. Calcule A100 siendo A =  2 0 2 .
4 2 3


1 + α −α
α
Ejercicio 6.3.13. Se considera A =  2 + α −α α − 1  en donde α ∈ R.
2
−1
0
1. Obtenga los valores propios de A (estos no dependen del parámetro α).
2. Discuta, según α, cuando la matriz A es diagonalizable.
Ejercicio 6.3.14. Verifique que, para cada una de las siguientes matrices, λ = 2 es valor
propio con multiplicidad algebraica 3. En cada uno de los casos calcule su multiplicidad
geométrica. ¿Cuáles son diagonalizables?






2 0 0
2 1 0
2 1 0
A1 =  0 2 0  , A2 =  0 2 0  , A3 =  0 2 1 
0 0 2
0 0 2
0 0 2
Ejercicio 6.3.15. Encuentre matrices ortogonales que diagonalicen a las siguientes matrices simétricas:


a b b
a b
 b a b 
,
b a
b b a
6.4.
Apéndice
Demostración de la equivalencia de las partes (1) y (2) del Teorema 6.3.1
b
Supongamos que existe U = {u1 , u2 , . . . , uk } −→ Rn tal que A (ui ) = λi ui para i =
1, 2, . . . , n. Definimos la matriz D mediante D = (MU )−1 AMU . Vamos a probar que D es
una matriz diagonal, más precisamente, que la columna i-ésima de D vale λi ei . Se tiene:
Ci (D) = D.ei = D.coordU (ui ) = (MU )−1 AMU .coordU (ui ) =
6.4. Apéndice
177
(MU )−1 A (MU .coordU (ui )) = (MU )−1 A.ui = (MU )−1 λi ui = λi (MU )−1 ui
= λi coordU (ui ) = λi ei
Recı́procamente,
 supongamos queA es diagonalizable. Entonces existen matrices P inverd1 0 · · · 0
 0 d2 · · · 0 


−1
tible y D =  .
.. . .
..  diagonal (ambas n × n) tales que: P AP = D. La
 ..
. . 
.
0 0 · · · dn
igualdad anterior es equivalente a AP = P D. Estudiemos la columna i-ésima de ambos
miembros.
La columna i-ésima de AP coincide con el producto de A por la columna i-ésima de P :
Ci (AP ) = A Ci (P )
La columna i-ésima de P D coincide con el producto de P por la columna i-ésima de D
(que se puede escribir como di ei ):
Ci (P D) = P Ci (D) = P (di ei ) = di P.ei = di Ci (P )
Tenemos entonces que
A Ci (P ) = di Ci (P ) , ∀ i = 1, 2, . . . , n.
Como Ci (P ) 6= o (por ser P invertible), la igualdad anterior implica que, para cada i =
1, 2, . . . , n, el vector Ci (P ) es un vector propio de A asociado al valor propio di . Por otra
parte, y utilizando nuevamente que P es invertible, podemos asegurar que estos vectores
constituyen una base de Rn . Hemos demostrado que {C1 (P ), C2 (P ), . . . , Cn (P )} (conjunto
de las columnas de P ) es una base de Rn formada por vectores propios de A.
♠
Teorema 6.4.1. Descomposición en valores singulares de una matriz (DVS).
Sea A una matriz m × n tal que rg(A) = r > 0. Entonces existen matrices ortogonales P
(m × m) y Q (n × n) tales que P.A.Q = D en donde D = (dij ) (m × n) es una matriz
diagonal no necesariamente cuadrada, esto es, dij = 0 si i 6= j. Más aún, dii = σi para
1 ≤ i ≤ r siendo σi2 valor propio de At A, y dii = 0 para r < i ≤ n (en caso que r < n).
Demostración. Supondremos que 0 < r < n. De hecho, el caso r = n es más sencillo y
el lector no tendrá inconveniente en acomodar la demostración para dicha situación.
(a) La idea es considerar la matriz At A. De la proposición 6.3.2 sabemos que rg(At A) =
rg(A) = r > 0, que At A es simétrica (y por lo tanto diagonalizable), y que sus
valores propios son no negativos. Más aún (recordar el Teorema 6.3.2) existe una
base ortonormal U = {u1 , u2 , . . . , un } de Rn tal que:
At A.ui = σi2 ui , i = 1, 2, . . . , n.
en donde los σi2 son los valores propios de At A y σi ≥ 0.
178
Capı́tulo 6. Diagonalización
Como rg(At A) = r < n, tenemos que 0 es valor propio de At A y que el subespacio
propio de At A correspondiente al valor propio 0 tiene dimensión n − r. Resulta
entonces que:
σ12 ≥ σ22 ≥ . . . ≥ σr2 > 0
y σi2 = 0, si r < i ≤ n.
(Aquı́ hemos supuesto que los vectores de la base U los hemos ordenados de modo
que sus valores propios correspondientes quedan en orden decreciente).
Tomamos como matriz Q a la matriz MU . Como U es una base ortonormal de Rn ,
la matriz Q (n × n) es ortogonal. Observemos que la columna k del producto A.Q
coincide con A.uk .
Trataremos de encontrar una matriz ortogonal Z (m × m) y una matriz diagonal D
(m × n) de modo que A.Q = Z.D. Para ello alcanzará con que la columna k de Z.D
coincida con la columna k de A.Q, o sea con A.uk (para todo k = 1, 2, . . . , n).
(b) Ahora bien, observemos que
hA.ui , A.uj i = hAt A.ui , uj i = σi2 hui , uj i
De lo anterior resulta que:
• El conjunto {A.u1 , A.u2 , . . . , A.un } es ortogonal.
• kA.uk k = σk , para todo k = 1, 2, . . . , n.
• A.uk 6= o, si 1 ≤ k ≤ r, y A.uk = o si r < k ≤ n.
Si para 1 ≤ k ≤ r definimos vk =
1
A.uk obtenemos que el conjunto
σk
{v1 , v2 , . . . , vr } es ortonormal en Rm
Completamos este conjunto hasta obtener una base ortonormal de Rm de la forma:
V = {v1 , v2 , . . . , vr , vr+1 , . . . , vm }. Si Z es la matriz MV entonces Z es una matriz
ortogonal y al efectuar su producto con el vector σk ek obtenemos:

1

A.uk = A.uk , si 1 ≤ k ≤ r.
σk
Z.(σk ek ) = σk vk =
σk
 o, si r < k ≤ n.
Resulta entonces que si D = (dij ) (m × n) es la matriz diagonal tal que dij = 0 si i 6= j, y
dkk = σk para 1 ≤ k ≤ r, se cumple que A.Q = Z.D.
Como Z es una matriz ortogonal entonces es invertible, de donde resulta Z −1 .A.Q = D y
queda demostrado el teorema. ♠
Capı́tulo 7
Transformaciones lineales
Al estudiar muchos fenómenos de la realidad se hacen supuestos que conducen a pensar
en los llamados modelos lineales. Por ejemplo, suele suponerse que la oferta de un cierto
producto es una función del precio. Al estudiar empı́ricamente cómo funciona este modelo,
se observa que a un cierto precio p la oferta del bien es o, que si el precio se duplica la oferta
también y que si el precio se triplica la oferta también. Es decir, la oferta varı́a linealmente
con el precio. Este capı́tulo se dedica al estudio de las llamadas transformaciones lineales,
funciones que sirven para representar este tipo de modelos. Aún en el caso en que los
fenómenos estudiados no presenten una conducta lineal, es posible aproximarlos de una
manera muy razonable de forma lineal. Y estos últimos son los modelos más sencillos
posibles. Por esto, por su sencillez y por su proximidad a modelos mucho mas complicados,
las transformaciones lineales son objetos matemáticos de gran importancia. Por otra parte,
las transformaciones lineales están ı́ntimamente relacionadas con las matrices, por lo cual
dedicaremos una parte importante del capı́tulo a mostrar esta relación y a sacar provecho
de la misma.
7.1.
Definición, propiedades básicas y ejemplos
Definición 7.1.1. Diremos que una función T : Rn → Rm es una transformación
lineal de Rn en Rm si, y solo si, verifica que
(i) T (u + v) = T (u) + T (v) , ∀ u, v ∈ Rn .
(ii) T (αu) = αT (u) , ∀ α ∈ R , ∀ u ∈ Rn .
Observación 7.1.1. El transformado del vector nulo.
1. Sea T : Rn → Rm una transformación lineal y designemos con on y om a los vectores
nulos de Rn y Rm respectivamente. Dado un vector cualquiera u ∈ Rn , la condición
(ii) de la definición nos permite escribir:
T (on ) = T (0.u) = 0.T (u) = om
Tenemos entonces que la imagen del vector nulo por una transformación lineal siempre es el vector nulo. Esta propiedad permite verificar que una función NO es lineal.
Por ejemplo, f : R → R tal que f (x) = x + 2 no es una transformación lineal pues
180
Capı́tulo 7. Transformaciones lineales
f (0) = 2. Pero el recı́proco es falso, es decir, existen funciones que transforman el
vector nulo en el nulo que no son lineales. Por ejemplo f : f (x) = x2 cumple que
f (0) = 0. Sin embargo no es lineal pues, por ejemplo, f (1 + 1) = f (2) = 4 pero
f (1) + f (1) = 1 + 1 = 2.
2. Observemos que una transformación lineal T : Rn → Rm tiene dominio Rn y codominio Rm . Ası́, a cada vector de Rn le hace corresponder un único vector de Rm . Esa
es la razón por la cual tuvimos que distinguir los vectores nulos de ambos espacios.
De todos modos, cuando no haya lugar a confusión, tanto el vector nulo de Rn como
el de Rm serán simbolizados de igual modo por la letra o.
Como las combinaciones lineales combinan (valga la redundancia) las operaciones de suma
de vectores y de producto por un número, las dos condiciones de la definición pueden
expresarse mediante una sola condición, como lo establece la siguiente proposición.
Proposición 7.1.1. La imagen de una combinación lineal.
Sea T : Rn → Rm una función. Entonces T es una transformación lineal si, y solo si:
T (αu + βv) = αT (u) + βT (v) , ∀ α, β ∈ R ; ∀ u, v ∈ Rn .
(7.1)
Demostración.
En efecto, si T es lineal entonces usando primero la propiedad (i) de la definición y luego
la (ii) se tiene que
T (αu + βv) = T (αu) + T (βv) = αT (u) + βT (v)
Recı́procamente, si se cumple (7.1) entonces poniendo α = β = 1 se deduce (i) y poniendo
β = 0 se deduce (ii). ♠
Ejemplo 7.1.1.
1. La función identidad I : Rn → Rn definida por I(v) = v , ∀ v ∈ Rn es una
transformación lineal.
2. Dado k ∈ R la transformación T : Rn → Rn dada por T (v) = kv , ∀ v ∈ Rn es
lineal. En particular, la transformación nula (k = 0) es lineal.
3. Dado w ∈ Rn , w 6= o, la transformación S : Rn → Rn dada por S(v) = v + w , ∀ v ∈
Rn no es lineal pues T (o) = w 6= o.
Ejemplo 7.1.2. Linealidad del producto interno.
Sea w ∈ Rn un vector fijo. De las propiedades del producto interno resulta inmediato
verificar que la transformación Tw : Rn → R dada por Tw (v) = hv, wi , ∀ v ∈ Rn es lineal.
Ejemplo 7.1.3. Proyección ortogonal sobre un vector.
Sea u ∈ Rn un vector fijo con u 6= o. Consideremos la función que a cada vector v ∈ Rn le
asocia su proyección ortogonal sobre u (recordar proposición 5.1.5):
Pu : Rn → Rn
/ Pu (v) =
hv, ui
u , ∀ v ∈ Rn .
hu, ui
Queda como ejercicio la verificación de que Pu es lineal.
7.1. Definición, propiedades básicas y ejemplos
181
v
v − Pu (v)
o
u
Pu (v)
Ejemplo 7.1.4. Proyección ortogonal sobre un subespacio.
Sea S 6= {o} un subespacio de Rn y consideremos la función que a cada vector de Rn le
asocia su proyección ortogonal sobre S (recordar teorema 5.2.3):
PS : Rn → Rn / v 7→ PS (v) , ∀ v ∈ Rn
Recordemos que PS (v) está caracterizado por ser el único vector de S con la propiedad de
que v − PS (v) ⊥ S
v
S
o
PS (v)
Además, si U = {u1 , u2 , . . . , ur } es una base ortonormal de S entonces
PS (v) = hv, u1 iu1 + hv, u2 iu2 + . . . + hv, ur iur
Es decir, PS (v) es la suma de las proyecciones ortogonales de v sobre cada vector ui .
Según el ejemplo anterior, cada uno de los sumandos es lineal y, por lo tanto, PS también
será lineal por ser una suma de transformaciones lineales (como se verá en la proposición
7.3.1).
Ejemplo 7.1.5. La transformación “coordenadas”.
Sea U una base de Rn y T : Rn → Rn definida por T (v) = coordU (v). A cada vector v
de Rn esta transformación le asocia el vector de las coordenadas de v en la base U . Si
recordamos que
coordU ( αu + βv ) = α coordU (u) + β coordU (v) , ∀ u, v ∈ Rn , ∀ α, β ∈ R.
queda probado que T es lineal.
182
Capı́tulo 7. Transformaciones lineales
Ejemplo 7.1.6. Sea A =
2 1
1 1
T
. Definimos T : R2 → R2 mediante
x
y
T es lineal pues en virtud de la propiedad
que
′ x
x
T α
+β
=
y
y′
2 1
x
2 1
α
+β
1 1
y
1 1
= A.
x
y
distributiva del producto de matrices se tiene
′ 2 1
x
x
α
+β
=
1 1
y
y′
′ x
x
x′
= αT
+ βT
′
y
y
y′
Como se observa fácilmente, si se tomara otra matriz A cualquiera, se podrı́a argumentar
igual que en el ejemplo, por lo que en general tenemos la siguiente proposición:
Proposición 7.1.2. Transformación lineal asociada a una matriz. Sea A una matriz
cualquiera de tamaño m × n. Entonces la función T : Rn → Rm definida por T (v) =
A.v , ∀ v ∈ Rn , es una transformación lineal.
Demostración.
Para toda pareja de reales α, β y para toda pareja de vectores u, v ∈ Rn se tiene:
T (αu + βv) = A.(αu + βv) = αA.u + βA.v = αT (u) + βT (v)
♠
Ejemplo 7.1.7. En cada uno de los siguientes casos tomaremos una matriz A de tamaño
m × n y consideraremos la función T : Rn → Rm definida por T (v) = A.v , ∀ v ∈ Rn . Por
el teorema anterior dicha
función será una transformación lineal.
1
0
1. A =
da lugar a la transformación T : R2 → R2 tal que:
0 −1
x
1
0
x
x
T
=
=
y
0 −1
y
−y
Como el lector podrá visualizar fácilmente, se trata de una simetrı́a axial de eje Ox.
−1
0
2. A =
da lugar a la transformación T : R2 → R2 tal que:
0 −1
x
−1
0
x
−x
T
=
=
y
0 −1
y
−y
Se trata
de una
simetrı́a central de centro O.
3 0
3. A =
da lugar a la transformación T : R2 → R2 tal que:
0 3
x
3 0
x
3x
T
=
=
y
0 3
y
3y
Se trata de una homotecia de centro O y razón 3.
7.1. Definición, propiedades básicas y ejemplos
183


1 0
0
4. A =  0 1
0  da lugar a la transformación T : R3 → R3 tal que:
0 0 −1

 
  

x
1 0
0
x
x
T  y  =  0 1
0  y  =  y 
z
0 0 −1
z
−z
Se trata de una simetrı́a respecto del plano 0xy.
5. A = In (matriz identidad n × n) da lugar a la transformación T : Rn → Rn tal que
T (v) = v, ∀ v ∈ Rn . Se trata de la función identidad, que a cada vector le asocia el
mismo.
1 −1 2
6. A =
da lugar a la transformación T : R3 → R2 tal que:
−3
1 5


 
x
x
1
−1
2
x − y + 2z






T
y
=
y
=
−3
1 5
−3x + y + 5z
z
z
En este caso no es tan simple vizualizar el significado geométrico de esta transformación.
Ejemplo 7.1.8. Consideremos la función T : R2 → R3 definida por la siguiente fórmula:


4x − 2y
x
x
T
=  2x + y  , ∀
∈ R2
y
y
x+y
Queremos probar que es lineal. Para ello, en lugar de verificar las condiciones de la definición de transformación lineal, podemos observar que

 

4x − 2y
4 −2
x
x




T
=
2x + y
=
2
1
.
y
y
x+y
1
1


4 −2
Luego, si llamamos A a la matriz A =  2
1  hemos obtenido que:
1
1
T
x
y


4 −2
x


=
2
1
.
y
1
1
,
∀
x
y
∈ R2
La proposición anterior nos permite concluir que T es lineal. Observemos también que las
columnas de A coinciden con las imágenes por T de los vectores de la base canónica de
R2 :
 


4
−2
1
0
T
= 2  , T
= 1 
0
1
1
1
184
7.2.
Capı́tulo 7. Transformaciones lineales
Matriz asociada a una transformación lineal
Todos los ejemplos anteriores son del mismo tipo que el ejemplo 7.1.2, es decir, en todos
los casos la transformación se definió como la multiplicación por una matriz. Veamos
que esto no es casual y que en realidad el ejemplo 7.1.2 es paradigmático, ya que toda
transformación lineal puede escribirse como la multiplicación por una matriz.
Teorema 7.2.1. Caracterización de las transformaciones lineales.
Sea T : Rn → Rm una transformación lineal. Entonces
1. Existe una única matriz A de tamaño m × n tal que T (v) = A.v , ∀ v ∈ Rn .
2. Las columnas de A son los transformados por T de los vectores de la base canónica
de Rn , es decir, Cj (A) = T (ej ), para j = 1, 2, . . . n.
Demostración.


x1


Existencia: Sea v =  ...  un vector cualquiera de Rn . El vector v se expresa en la base
xn
canónica de la siguiente manera:
v = x1 e1 + x2 e2 + . . . + xn en
Si aplicamos T a ambos miembros y utilizamos la linealidad de T obtenemos:
T (v) = x1 T (e1 ) + x2 T (e2 ) + . . . + xn T (en )
de donde resulta entonces que



T (v) = A. 

x1
x2
..
.
xn



 = A.v

en donde A es la matriz que tiene por columnas a los vectores T (e1 ), T (e2 ), . . . , T (en ).
Unicidad: Supongamos que B es una matriz de tamaño m × n tal que T (v) = B.v , ∀ v ∈
Rn . Para v = ej obtenemos: T (ej ) = B.ej = Cj (B). Es decir, necesariamente las columnas
de B son los transformados por T de los vectores de la base canónica de Rn y, por lo tanto,
B = A.
♠
El teorema anterior motiva la siguiente definición:
Definición 7.2.1. Matriz asociada a una transformación lineal.
Sea T : Rn → Rm una transformación lineal, llamaremos matriz asociada a T a la
matriz m × n, que representaremos por [T ] cuyas columnas son los transformados de los
vectores de la base canónica, es decir: Cj ([T ]) = T (ej ), para j = 1, 2, . . . n.
7.2. Matriz asociada a una transformación lineal
185
A partir de esta definición y del teorema anterior tenemos que si T : Rn → Rm es una
transformación lineal y [T ] es una matriz asociada entonces:






x1
x1
x1






T (v) = T  ...  = [T ].  ...  , ∀ v =  ...  ∈ Rn
xn
xn
xn
Ejemplo 7.2.1. Consideremos la función T : R2 → R3 definida por la siguiente fórmula:


4x − 2y
x
x


T
=
2x + y
, ∀
∈ R2
y
y
xy
¿Es T una transformación lineal? Si lo fuera, deberı́a cumplirse T (v) = [T ].v , ∀ v ∈ R2 ,
en donde las columnas de [T ] son las imágenes de los vectores de la base canónica. Se
tiene:
 




4
−2
4 −2
1
0
T
= 2 
y
T
= 1 
y
[T ] =  2
1 
0
1
0
0
0
0




4 −2
4x − 2y
x
x
Como  2
1 .
=  x + y  6= T
podemos concluir que T no es
y
y
0
0
0
lineal.
Ejemplo 7.2.2. Sea T : R3 → R3 una transformación lineal de la cual se sabe que:
  

   
  

1
−2
0
1
0
4
T  0  =  1  , T  1  =  0  , T  0  =  −1 
0
3
0
1
1
π
La matriz asociada a T es entonces:


−2 1
4
[T ] =  1 0 −1 
3 1
π
 
x

Para hallar el transformado de un vector
y  cualquiera de R3 procedemos de la
z
siguiente manera:
  
   

x
−2 1
4
x
−2x + y + 4z

T  y  =  1 0 −1  .  y  = 
x−z
z
3 1
π
z
3x + y + πz
Otra conclusión que se saca del teorema 7.2.1 es que una transformación lineal queda
determinada si se conocen los transformados de los vectores de la base canónica. Este
resultado puede extenderse a una base cualquiera como se prueba en el siguiente teorema.
186
Capı́tulo 7. Transformaciones lineales
Teorema 7.2.2. Determinación de una transformación lineal.
Sean V = {v1 , . . . , vn } una base de Rn y W = {w1 , w2 , . . . , wn } ⊂ Rm , un conjunto de n
vectores arbitrarios (eventualmente repetidos). Entonces, existe una única transformación
lineal T : Rn → Rm tal que T (vi ) = wi , ∀ i = 1, . . . , n.
Demostración.
Existencia: Sea B la matriz de tamaño m × n que tiene por columnas los vectores de W ,
es decir: B = MW . Definimos entonces T : Rn → Rm mediante:
T (x) = B . coordV (x)
,
∀ x ∈ Rn .
(7.2)
Observemos que si x = x1 v1 + x2 v2 + . . .+ xn vn (o sea, si x1 , x2 , . . . , xn son las coordenadas
de x en la base V ) entonces la definición dada pata T (x) coincide con:
T (x) = x1 w1 + x2 w2 + . . . + xn wn
Veamos, en primer lugar, que T (vi ) = wi , ∀ i = 1, . . . , n. En efecto:
T (vi ) = B.coordV (vi ) = B.ei = wi
Nos falta probar que T es lineal. Sean entonces x e y vectores de Rn y λ, µ números reales.
Se tiene:
T (λx + µy) = B.coordV (λx + µy) = B. ( λcoordV (x) + µcoordV (y) )
= λB.coordV (x) + µB.coordV (y) = λT (x) + µT (y)
Unicidad: Supongamos que existan T : Rn → Rm y S : Rn → Rm lineales tales que
T (vi ) = wi y S (vi ) = wi , para i = 1, 2, . . . , n. Entonces T y S coinciden en una base de
Rn ; y por consiguiente coinciden en todo el espacio. En efecto, sea v ∈ Rn . Como B es
base de Rn , existen α1 , . . . , αn ∈ R tales que v = α1 v1 + . . . + αn vn . Luego, por ser T y S
lineales:
T (v) = T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn )
= α1 S (v1 ) + · · · + αn S (vn ) = S (α1 v1 + · · · + αn vn ) = S (v) .
♠
Hemos probado, pues, que una transformación lineal queda determinada por los valores
que toma sobre una base. En otras palabras, si se conocen los transformados de una base
(obsérvese que se trata de una cantidad finita de valores) entonces se conocen los valores
que toma la transformación lineal en cualquier punto. Piense el lector que en general conocer una cantidad finita de valores de una función no es suficiente para determinarla, incluso
por ejemplo si uno considera una función continua real, el conocer una cantidad finita de
imágenes no permite determinar que ocurre en otros puntos. Ocurre que la hipótesis de
linealidad es muy fuerte e implica una gran rigidez.
Veamos cómo es que se puede determinar una transformación lineal a partir de conocer
los valores que toma en una base en un par de ejemplos.
7.2. Matriz asociada a una transformación lineal
187
Ejemplo 7.2.3. Sea T : R2 → R2 lineal tal que
1
0
2
T
=T
=
0
1
3
Como
Luego
T
1
0
0
,
es la base canónica de R2 , T queda determinada.
1
x
y
1
0
1
0
=T x
+y
= xT
+yT
=
0
1
0
1
2
2
2 2
x
2x + 2y
=x
+y
=
=
3
3
3 3
y
3x + 3y
Ejemplo 7.2.4. Sea T : R2 → R3 lineal tal que




3
2
1
0
T
=  −1 
y T
= 1 
2
1
5
−1
Como B =
1
2
0
,
es una base de R2 , T está bien definida.
1
x
x
con
∈ R2 . Para esto escribamos primero un vector cualy
y
Calculemos T
x
quiera
como combinación lineal de la base B.
y
x
y
=x
1
2
+ (−2x + y)
0
1
Entonces
1
0
=T x
+ (−2x + y)
=
2
1
1
0
xT
+ (−2x + y) T
=
2
1



 

3
2
−x + 2y
x  −1  + (−2x + y)  1  =  −3x + y  .
5
−1
7x − y
T
Entonces
T
x
y
x
y

 

−1
2
−x + 2y
x




=
−3
1
=
−3x + y
y
7 −1
7x − y
Observación 7.2.1. Sobre la determinación de una trasformación lineal.
Si V = {v1 , v2 , . . . , vn } es una base de Rn y w1 , w2 , . . . , wn son n vectores arbitrarios de
188
Capı́tulo 7. Transformaciones lineales
Rm , el teorema 7.2.2 afirma que existe una única transformación lineal T : Rn → Rm tal
que T (vi ) = wi , ∀ i = 1, . . . , n. Dicha transformación lineal viene dada por la fórmula 7.2:
T (x) = B . coordV (x)
,
∀ x ∈ Rn .
Si recordamos que coordV (x) = (MV )−1 x entonces la única transformación que cumple
con las condiciones establecidas se puede escribir:
T (x) = B . (MV )−1 . x
,
∀ x ∈ Rn .
Resulta entonces que si conociéramos la matriz (MV )−1 podrı́amos hallar T (x) aplicando
esta última fórmula. Apliquemos esto en el ejemplo previo. Tenemos:


3
2
1 0
1 0
−1


−1
1
B=
, MV =
, (MV ) =
2 1
−2 1
5 −1
Luego: B. (MV )−1
T
7.3.




3
2
−1
2
1 0
=  −1
1 .
=  −3
1  y, por lo tanto:
−2 1
5 −1
7 −1
x
y




−1
2
−x + 2y
x
1 
=  −3
=  −3x + y 
y
7 −1
7x − y
Operaciones con transformaciones lineales
Al igual que con otras funciones, con las transformaciones lineales se puede operar algebraicamente, sumándolas, multiplicándolas por números o componiéndolas. Ahora bien,
cuando se opera con funciones que tienen alguna propiedad particular, es de interés preguntarse si la nueva función que se obtiene hereda esa misma propiedad. Por ejemplo, al
sumar funciones continuas se obtiene una nueva función continua. Veremos entonces que
ocurre lo mismo con la linealidad: al sumar dos transformaciones lineales se obtendrá una
nueva transformación lineal, del mismo modo que al multiplicar una transformación lineal
por un número. No solo eso, sino que la matriz asociada a la suma resultará ser la suma
de las matrices asociadas. Más aún, la composición de trasformaciones lineales también
resultará lineal y la matriz asociada a la compuesta será el producto de las matrices asociadas a cada componente. Este notable hecho ayuda a generar un paralelismos entre las
matrices y las transformaciones lineales. Veamos con detalle todos estos hechos.
Proposición 7.3.1. Sean T, S : Rn → Rm dos transformaciones lineales y α un número
real. Entonces
(i) T + S es una transformación lineal y su matriz asociada es [T + S] = [T ] + [S]
(ii) αT es una transformación lineal y su matriz asociada es [αT ] = α[T ]
7.3. Operaciones con transformaciones lineales
189
Demostración.
Probaremos (i) y dejamos (ii) como ejercicio.
Sean, con la notación habitual, [T ] y [S] las matrices asociadas a T y S respectivamente.
Para todo x ∈ Rn se tiene:
(T + S)(x) = T (x) + S(x) = [T ].x + [S].x = ( [T ] + [S] ) .x
De la proposición 7.1.2 se deduce que T + S es lineal (pues viene dada como el producto
de una matriz) y, del teorema 7.2.1, se deduce que la matriz asociada a T + S es [T ] + [S].
♠
Definición 7.3.1. Composición de transformaciones lineales.
Sean T : Rn → Rm y S : Rm → Rp dos transformaciones lineales. Se define la composición
de S y T como la transformación S ◦ T : Rn → Rp tal que (S ◦ T ) (u) = S (T (u)) , ∀ u ∈
Rn .
 
x
2x
3
2
y S : R2 → R2 tal
Ejemplo 7.3.1. Sean T : R → R tal que T  y  =
y+z
z
u
v
que S
=
. Luego S ◦ T : R3 → R2 es tal que
v
u


  
x
x
(S ◦ T )  y  = S T  y  =
z
z
=S
2x
y+z
=
y+z
2x
Proposición 7.3.2. Composición de transformaciones lineales. Sean T : Rn → Rm
y S : Rm → Rp dos transformaciones lineales. Entonces S ◦ T es lineal y además
[S ◦ T ] = [S].[T ]
Demostración.
Para todo x ∈ Rn se tiene:
(S ◦ T )(x) = S(T (x)) = [S] . T (x) = [S] . ([T ].x) = ([S].[T ]) .x
De la proposición 7.1.2 se deduce que S ◦ T es lineal (pues viene dada como el producto
de una matriz) y, del teorema 7.2.1, se deduce que la matriz asociada a S ◦ T es [S].[T ].
♠
Ejemplo 7.3.2. Sean T : R2 → R3 y S : R3 → R2 determinadas por las siguientes
condiciones (recordar el teorema 7.2):
 
 
 
2
1
1
1
0
1
T
= 1  , T
=  1  , S  0  =
0
1
3
1
0
0
190
Capı́tulo 7. Transformaciones lineales


0
2




S
1
=
2
1


0
2




y S
1
=
−4
−1
x
x
2
2
Consideramos R = S ◦ T : R → R y queremos calcular R
, ∀
∈ R2 .
y
y
x
x
Como ya hemos observado antes, R
= [R].
y, por el teorema previo,
y
y
[R] = [S].[T ]. Calculemos entonces
[T] y [S].

2 1
Es inmediato ver que [T ] =  1 1 . Para hallar [S] debemos conocer las imágenes por
1 0
3
S de los vectores de la base canónica
Para 
elloexpresamos
de R
. 
 dichos vectores como
0
0 
 1
combinación lineal de la base V =  0  ,  1  ,  1  . Se tiene:


0
1
−1


 


 
 


0
0
0
0
0
0
1
1
1
1
 1 =  1 +  1  y  0 =  1 −  1 
2
2
2
2
0
1
−1
1
1
−1
Por lo tanto:
 
 


0
0
0
1
1
1
1
2
2
2
S 1  = S 1 + S 1  =
+
=
−1
2
2
2 2
2 −4
0
1
−1


 


0
0
0
1 2
1
1   1 
2
0



1
− S
1
=
−
=
S
0
= S
3
2
2
2 2
2 −4
1
1
−1
En consecuencia:
[S] =
Por lo tanto
[R] =
x
y
R
7.4.
1
2 0
3 −1 3
=
1
2 0
3 −1 3

2 1
4
3
 1 1 =
⇒
8 2
1 0

4 3
8 2
x
y
=
4x + 3y
8x + 2y
Inversa de una transformación lineal
Al igual que lo que ocurre con funciones de R en R, es posible estudiar el concepto de
función inversa para transformaciones lineales.
7.4. Inversa de una transformación lineal
191
Definición 7.4.1. Transformación lineal invertible.
Consideremos una transformación lineal T : Rn → Rn . Diremos que T es invertible si,
y solo si, existe S : Rn → Rn tal que
S◦T =T ◦S =I
donde I es la transformación lineal identidad (es decir I(v) = v ∀ v ∈ Rn ).
Si T es invertible entonces hay una única S : Rn → Rn tal que S ◦ T = T ◦ S = I. Por
tal motivo se le llama inversa de T y se utiliza la notación S = T −1 . En efecto, para ver
la unicidad supongamos que S1 y S2 son transformaciones lineales de Rn en Rn tales que
S1 ◦ T = T ◦ S1 = I y S2 ◦ T = T ◦ S2 = I. Se tiene:
S1 = S1 ◦ I = S1 ◦ (T ◦ S2 ) = (S1 ◦ T ) ◦ S2 = I ◦ S2 = S2
♠
Nuevamente, la propiedad que estamos estudiando para una transformación lineal puede
reducirse al estudio de la misma propiedad para su matriz asociada como lo muestra la
siguiente proposición.
Proposición 7.4.1. Condición necesaria y suficiente para que una transformación sea invertible.
Sea T : Rn → Rn una transformación lineal. Entonces se cumple que T invertible si, y
solo si, su matriz asociada [T ] es una matriz invertible. En caso afirmativo se tiene que
T −1 es lineal y además [T −1 ] = [T ]−1 (la matriz asociada a T −1 es la inversa de la matriz
asociada a T ).
Demostración.
Supongamos T invertible. Veamos primero que T −1 es lineal. Para esto consideremos w1
y w2 ∈ Rn y λ y µ ∈ R. Observando que T ◦ T −1 (w) = w y que T es lineal, tenemos:
λ w1 + µ w2 = λ T ◦ T −1 (w1 ) + µ T ◦ T −1 (w2 ) =
= λT T −1 (w1 ) + µT T −1 (w2 ) = T
λT −1 (w1 ) + µT −1 (w2 )
hemos llegado entonces a que:
λ w1 + µ w2 = T
λT −1 (w1 ) + µT −1 (w2 )
Aplicando T −1 a ambos miembros resulta
T −1 (λw1 + µ w2 ) = λT −1 (w1 ) + µT −1 (w2 ) .
lo cual prueba la linealidad de T −1 .
Como T ◦ T −1 = I, en virtud de la proposición 7.3.2 se cumple que
[T ].[T −1 ] = [T ◦ T −1 ] = [I] = In
(matriz identidad n × n)
192
Capı́tulo 7. Transformaciones lineales
Tenemos entonces que [T ] es invertible y que su inversa es [T ]−1 .
Recı́procamente, supongamos ahora que [T ] es una matriz invertible, con lo cual se cumple
[T ].[T ]−1 = In . Definimos S : Rn → Rn mediante S(x) = [T ]−1 .x , ∀ x ∈ Rn . La
proposición 7.1.2 nos permite asegurar que S es lineal y además tenemos:
(S ◦ T )(x) = S[T (x)] = [T ]−1 .T (x) = [T ]−1 .[T ].x = x , ∀ x ∈ Rn .
(T ◦ S)(x) = T [S(x)] = [T ].S(x) = [T ].[T ]−1 .x = x , ∀ x ∈ Rn .
de donde S ◦ T = T ◦ S = I.
2
♠
2
Ejemplo 7.4.1. Sea T : R → R tal que T
x
y
=
2x + y
x+y
. Queremos probar
que T es invertible y calcular T −1
Según el teorema anterior, para probar que T es invertible es suficiente con ver que la
matriz asociada [T ] es invertible. Para esto último podemos verificar que det[T ] 6= 0.
Observemos que
2 1
2 1
[T ] =
⇒ det
= 1 6= 0
1 1
1 1
Para calcular T −1 calculemos su matriz asociada. Para ello alcanza con invertir [T ]. Tenemos:
1 −1
−1
[T ] =
⇒
−1
2
x
1 −1
x
x−y
−1
=
=
T
y
−1
2
y
−x + 2y
7.5.
Núcleo e imagen de una transformación lineal
En esta sección veremos dos subespacios vinculados a una transformación lineal cuya
estructura es fundamental para comprender como actúa la misma.
Definición 7.5.1. Núcleo e imagen de una transformación lineal
Sea T : Rn → Rm una transformación lineal.
(i) Llamaremos núcleo de T al subconjunto del dominio cuya imagen por T es el vector
nulo, es decir
N (T ) = {v ∈ Rn / T (v) = o}
(ii) Llamaremos imagen de T al recorrido de la función T :
Im(T ) = {w ∈ Rm / ∃ v ∈ Rn con w = T (v)}
Ejemplo 7.5.1. Sean S 6= {o} un subespacio de Rn y PS : Rn → Rn la transformación
“proyección ortogonal” sobre S. En este caso resulta claro que Im(PS ) = S y que N (PS ) =
S⊥.
7.5. Núcleo e imagen de una transformación lineal
193
Observación 7.5.1. Relación del núcleo e imagen con la matriz asociada.
Si T : Rn → Rm es una transformación lineal entonces su matriz asociada [T ] es una
matriz de tamaño m × n. Para hallar el transformado por T de cualquier vector v ∈ Rn
alcanza con multiplicar [T ] por dicho vector:
T (v) = [T ] . v , ∀ v ∈ Rn .
1. Tenemos entonces que T (v) = o si, y solo si, [T ].v = o. Resulta entonces que el
núcleo de T coincide con el núcleo de su matriz asociada. En particular, es claro que
N (T ) es un subespacio de Rn .
2. Consideremos ahora el conjunto Im(T ). Tenemos que un vector w ∈ Rm pertenece
a Im(T ) si, y solo si, existe algún vector v ∈ Rn tal que T (v) = w, que es lo mismo
que [T ].v = w. Esta última igualdad equivale a decir que w es combinación lineal
de las columnas de [T ]. Este hecho ya lo hemos utilizado en diversas ocasiones. De
todos modos volvamos a repasarlo:




a11 . . . a1n
x1

..  y v =  ..  tenemos :
..
Si [T ] =  ...
 . 
.
. 
am1 . . . amn
xn






x1
a11
a1n
a11 . . . a1n

..   ..  = x  ..  + . . . + x  .. 
..
[T ].v =  ...
1
n
.
.  . 
. 
. 
am1 . . . amn
xn
am1
amn

Podemos concluir entonces que Im(T ) está formado por todos aquellos vectores de
Rm que son C.L. de las columnas de [T ], Dicho de otra forma, Im(T ) coincide con el
subespacio generado por las columnas de la matriz asociada a T : Im(T ) = L [C[T ]].
En particular, Im(T ) es un subespacio de Rm .
3. De las observaciones anteriores podemos sacar además las siguientes conclusiones
acerca de las dimensiones del núcleo y la imagen de la transformación T :
dimN (T ) = dimN [T ] = nu[T ] y
dimIm(T ) = dimL [C[T ]] = rg[T ]
La dimensión de N (T ) coincide con la nulidad de su matriz asociada y la dimensión
de Im(T ) coincide con el rango de su matriz asociada.
La consideraciones que se acaban de realizar en la observación previa son la demostración
de las siguientes dos proposiciones.
Proposición 7.5.1. Estructura del núcleo y de la imagen.
Sea T : Rn → Rm una transformación lineal. Entonces
1. N (T ) es un subespacio vectorial de Rn que coincide con el núcleo de la matriz
asociada a T .
2. Im(T ) es un subespacio vectorial de Rm que coincide con el subespacio generado por
las columnas de la matriz asociada a T .
194
Capı́tulo 7. Transformaciones lineales
Teorema 7.5.1. Teorema de las dimensiones.
Sea T : Rn → Rm una transformación lineal. Entonces
dim N (T ) + dim Im(T ) = n
Ejemplo 7.5.2. Se considera la transformación lineal T : R3 → R2 tal que


x
x
+
y
+
z
T  y  =
2x + 2y + 2z
z
1) Hallemos el núcleo de T .


 
x
x
x+y+z
0
 y  ∈ N (T ) ⇔ T  y  = 0 ⇔
=
0
2x + 2y + 2z
0
z
z
⇔
x+y+z =0
2x + 2y + 2z = 0
⇔ x+y+z =0
 


 
 
1
1 


 x
Ası́ el N (T ) =  y  ∈ R3 : x + y + z = 0
= L   −1  ,  0  .




z
0
−1
2) Hallemos la imagen de T .
a
b


,

x0
x0
a
3
y0  =
∈ Im (T ) ⇔ existe  y0  ∈ R T 
b
z0
z0


x0
x0 + y0 + z0
a
3


⇔ existe
y0
∈ R tal que
=
2x0 + 2y0 + 2z0
b
z0


x0
x0 + y0 + z0 = a
3


⇔ existe
y0
∈ R tal que
2x0 + 2y0 + 2z0 = b
z0
x+y+z =a
⇔ el sistema
es compatible
2x + 2y + 2z = b
x+y+z =a
⇔ el sistema
es compatible
0 = b − 2a
Luego: Im (T ) =
a
b
⇔ b = 2a
1
2
∈ R : b = 2a = L
.
2
Observemos que se verifica: dimN (T ) + dimIm(T ) = 2 + 1 = 3.
7.6. Transformaciones lineales inyectivas, sobreyectivas y biyectivas
195
Ejemplo 7.5.3. Se considera la transformación lineal T : R3 → R2 tal que
 
x
x
+
y
T  y  =
y+z
z
Calculemos en primer lugar la matriz asociada a T :
1 1 0
[T ] =
0 1 1
Para hallar el núcleo de T calculamos el núcleo de su matriz asociada [T ]. Como [T ] ya
esta escalerizada se obtiene inmediatamente
 




 −1 
 x
N (T ) =  y  ∈ R3 / x = −y, z = −y, y ∈ R = L   1  




−1
z
Para hallar Im(T ), hallamos el subespacio generado por las columnas de su matriz asociada [T ]. Como esta matriz tiene rango 2 deducimos que dimIm(T ) = 2 y, por lo tanto,
Im(T ) = R2 .
Observemos que se verifica: dimN (T ) + dimIm(T ) = 1 + 2 = 3.
7.6.
Transformaciones lineales inyectivas, sobreyectivas y biyectivas
Como ya se comentó anteriormente, el núcleo y la imagen permiten caracterizar propiedades importantes de una transformación lineal. Recordemos las siguientes definiciones
Definición 7.6.1. Transformaciones lineales inyectivas, sobreyectivas y biyectivas.
Sea T : Rn → Rm una transformación lineal.
T es inyectiva si, y solo si, T (v1 ) = T (v2 ) implica v1 = v2 . O, de manera equivalente, si ∀ v1 , v2 ∈ Rn con v1 6= v2 se cumple que T (v1 ) 6= T (v2 ).
T es sobreyectiva si, y solo si, ∀ w ∈ Rm existe v ∈ Rn tal que T (v) = w.
O, de manera equivalente, si Im (T ) = Rm .
T es biyectiva si es inyectiva y sobreyectiva.
Proposición 7.6.1. Caracterización de las transformaciones lineales inyectivas.
Sea T : Rn → Rm una transformación lineal. Entonces son equivalentes las siguientes
afirmaciones:
1. T es inyectiva.
2. Para todo conjunto U linealmente independiente de Rn se cumple que T (U ) es linealmente independiente en Rm .
3. N (T ) = {o}.
Demostración.
196
Capı́tulo 7. Transformaciones lineales
(1) ⇒ (2) Sabemos que T es inyectiva. Sea U = {v1 , v2 , . . . , vn } un conjunto L.I. de Rn .
Probemos que T (U ) = {T (v1 ) , T (v2 ), . . . , T (vn )} es L.I. en Rm . Sean entonces
α1 , α2 , . . . , αn ∈ R tales que
α1 T (v1 ) + α2 T (v2 ) + . . . + αn T (vn ) = o
Debemos probar que α1 = α2 = . . . = αn = 0. Como T es lineal:
T (α1 v1 + . . . + αn vn ) = o = T (o.
Luego, al ser T inyectiva se tiene que
α1 v1 + . . . + αn vn = o
Como U = {v1 , v2 , . . . , vn } es L.I., se cumple que α1 = α2 = . . . = αn = 0.
(2) ⇒ (3) Supongamos, por absurdo, que N (T ) 6= {o}. Entonces existe v ∈ N (T ) con
v 6= o. Luego, el conjunto U = {v} es L.I. en Rn pero el conjunto T (U ) = {T (v)} =
{o} es L.D. en Rm lo cual contradice la hipótesis.
(3) ⇒ (1) Si T (v1 ) = T (v2 ) =⇒ T (v1 ) − T (v2 ) = o. Luego T (v1 − v2 ) = o =⇒
♠
v1 − v2 ∈ N (T ). Por hipótesis debe ser v1 − v2 = o, de donde resulta v1 = v2 .
Proposición 7.6.2. Caracterización de las transformaciones lineales sobreyectivas.
Sea T : Rn → Rm una transformación lineal. Entonces son equivalentes las siguientes
afirmaciones:
1. T es sobreyectiva.
2. Para todo conjunto U = {v1 , v2 , . . . , vp } generador de Rn se cumple que T (U ) =
{T (v1 ), T (v2 ), . . . , T (vp )} es un generador de Rm .
Demostración.
(1) ⇒ (2) Consideremos w ∈ Rm cualquiera. Como T es sobreyectiva entonces w ∈
Im(T ) = Rm y, por lo tanto, existe v ∈ Rn tal que T (v) = w. Como U es generador de Rn entonces existen escalares, λ1 , . . . , λp tales que v = λ1 v1 + . . . + λp vp .
Aplicando T y usando la linealidad se tiene que
w = T (v) = T (λ1 v1 + . . . + λp vp ) = λ1 T (v1 ) + . . . + λp (T (vp )
de donde se deduce que w es combinación lineal de T (U ) y por lo tanto este último
genera Rm .
(1) ⇒ (2) Ahora tenemos que probar que Im(T ) = Rm . Sea w ∈ Rm un vector cualquiera y
veamos que pertenece a la imagen. Como T (U ) genera Rm entonces existen α1 , . . . , αp
escalares tales w = α1 T (v1 ) + . . . + αp vp , usando que T es lineal se deduce que
w = T (α1 v1 + . . . + αp vp ) y por lo tanto w ∈ Im(T ).
♠
Proposición 7.6.3. Sobre las dimensiones del dominio y el codominio.
Sea T : Rn → Rm una transformación lineal. Entonces:
1. Si T es inyectiva entonces n ≤ m.
7.6. Transformaciones lineales inyectivas, sobreyectivas y biyectivas
197
2. Si T es sobreyectiva entonces n ≥ m.
3. Si T es biyectiva entonces n = m.
Demostración.
Todo surge del Teorema de las dimensiones (teorema 7.5.1) que establece que:
dim N (T ) + dim Im(T ) = n
En efecto:
1. Si T es inyectiva entonces N (T ) = {o} y, por lo tanto, la relación anterior implica
que dim Im(T ) = n. Por otra parte, dim Im(T ) es el rango de la matriz [T ], que
como tiene m filas, debe ser menor o igual que m. Se deduce que n ≤ m.
2. Si T es sobreyectiva entonces sabemos que Im(T ) = Rm de donde dim Im(T ) = m.
De la igualdad dim N (T ) + dim Im(T ) = n se deduce entonces que n ≥ m.
3. Es inmediato debido a las dos partes anteriores.
♠
Observación 7.6.1. Vale la pena observar que si T : Rn → Rm es lineal e invertible
entonces debe ser m = n. En efecto, si es invertible es biyectiva y, por lo tanto, inyectiva
y sobreyectiva, lo cual implica implica (según el teorema anterior) que m = n.
Otra consecuencia del teorema anterior se establece en la siguiente proposición cuyos
detalles quedan a cargo del lector.
Corolario 7.6.1. Sea T : Rn → Rn una transformación lineal de Rn en sı́ mismo. Entonces:
1. Si T es inyectiva entonces T es biyectiva.
2. Si T es sobreyectiva entonces T es biyectiva.
En los próximos dos ejemplos mostraremos cómo el estudio de las transformaciones lineales
permite obtener un panorama más geométrico y conceptual de algunos resultados (para
nada intuitivos a priori) vinculados con operaciones con matrices.
Ejemplo 7.6.1. Queremos probar la siguiente afirmación:
Si A es una matriz de tamaño 5 × 8 y B otra matriz de tamaño 8 × 5 entonces el producto
B.A (que es una matriz cuadrada 8 × 8) NO es invertible. Si pensamos exclusivamente
en la operatoria con matrices, la proposición considerada no parece ni intuitiva ni fácil
de manejar. Consideremos entonces las transformaciones lineales definidas a partir de las
matrices dadas:
T : R8 → R5 / T (x) = A.x , ∀ x ∈ R8
S : R5 → R8 / B(v) = B.v , ∀ v ∈ R5
De esta manera la matriz B.A es la matriz asociada a la composición S ◦ T :
S ◦ T : R8 → R8 / (S ◦ T )(x) = (B.A).x , ∀ x ∈ R8
Ahora bien, como 8 > 5 la transformación T no puede ser inyectiva, con lo cual podemos
afirmar que existe x1 ∈ R8 con x1 6= o tal que T (x1 ) = o. Pero entonces tenemos que:
(S ◦ T )(x1 ) = S (T (x1 )) = S(o) = o
198
Capı́tulo 7. Transformaciones lineales
Resulta entonces que (S ◦T ) tampoco es inyectiva y por lo tanto no invertible (al igual que
su matriz asociada). La proposición ha quedado demostrada de una forma extremadamente
simple.
Como el lector comprenderá fácilmente, los números 8 y 5 no jugaron ningún papel decisivo.
La proposición general (que se prueba igual) es entonces:
Si A es una matriz de tamaño m × n (con m < n) y B otra matriz de tamaño n × m
entonces el producto B.A (que es una matriz cuadrada n × n) NO es invertible.
Ejemplo 7.6.2. Dada una matriz no nula D de tamaño q × r ¿cómo podemos encontrar
una matriz no nula C de tamaño p × q tal que C.D = O (matriz nula)?
Las transformaciones lineales asociadas a estas matrices son:
T : Rr → Rq / T (x) = D.x , ∀ x ∈ Rr , S : Rq → Rp / S(y) = C.y , ∀ y ∈ Rq
(S ◦ T ) : Rr → Rp / (S ◦ T )(x) = (C.D).x , ∀ x ∈ Rr
T
S
x 7−→ T (x) 7−→ S (T (x))
Que C.D = O equivale a decir que la transformación (S ◦ T ) es la nula (esto es, a cualquier
x le hace corresponder el vector nulo). Para que esto ocurra el conjunto imagen de T debe
estar contenido en el núcleo de S: Im(T ) ⊂ N (S).
T
R
S
Rq
Rp
r
N (S)
o
Dada la transformación T , conocemos su imagen (es el subespacio generado por las columnas de D) y debemos encontrar otra transformación S de modo que Im(T ) ⊂ N (S),
o incluso, Im(T ) = N (S). Ahora que lo visualizamos de este modo podemos afirmar que
alcanzará con encontrar una matriz de tamaño p×q cuyonúcleo coincida
 con el subespacio
3 2 1
generado por las columnas de D. Por ejemplo, si D =  3 2 1  entonces claramen6 4 2
 
 1 
te una base del subespacio generado por las columnas de D es:  1  . Un vector


2
 
 a 
 b  pertenece al subespacio generado por las columnas de D si, y solo si, a − b = 0


c
7.7. Valores y vectores propios de una transformación lineal
199
y 2a − c = 0. Para encontrar una matriz cuyo núcleo esté formado por los vectores (a, b, c)
tales que a − b = 0 y y 2a − c = 0 utilizamos
de esta útimas ecuacio los coeficientes
1 −1
0
nes y ponemos (también por ejemplo): C =
. Es inmediato verificar que
2
0 −1
C.D = O. Obsérvese
que también

 podrı́amos haber tomado la matriz C con más filas, por
1 −1
0
 2
0 −1 



ejemplo: C =  1 −1
0 
.
 2
0 −1 
3 −1 −1
7.7.
Valores y vectores propios de una transformación lineal
Definición 7.7.1. Valores y vectores propios de una transformación lineal.
Sea T : Rn → Rn una transformación lineal. Diremos que el número λ es valor propio
(o autovalor) de T si, y solo si, existe algún vector v ∈ Rn , con v 6= o, tal que T (v) = λv.
Si λ es valor propio de T , entonces a cada vector x ∈ Rn que verifique la igualdad
T (x) = λx lo llamaremos vector propio (o autovector) asociado al valor propio λ.
Observación 7.7.1. Valores y vectores propios de una transformación y de su
matriz asociada.
Con la misma notación que en la definición anterior, si [T ] es la matriz asociada a T ,
entonces se cumple que:
T (v) = λv ⇐⇒ [T ].v = λv
Es ası́ que (al igual que todos los conceptos estudiados en las secciones anteriores), el estudio de las propiedades y resultados para valores y vectores propios de una transformación
lineal se reducen al estudio de los mismos para su matriz asociada. Tendremos entonces
las siguientes equivalencias:
λ es valor propio de T ⇐⇒ λ es valor propio de [T ].
v es vector propio de T ⇐⇒ v es vector propio de [T ].
Sλ es un subespacio propio de T ⇐⇒ Sλ es un subespacio propio de [T ].
T es diagonalizable ⇐⇒ [T ] es una matriz diagonalizable.
T es diagonalizable ⇐⇒ existe una base de Rn formada por vectores propios de [T ]
(o cualquiera de las otras condiciones equivalentes estudiadas en el capı́tulo 6).
La diferencia es que, en el caso de transformaciones lineales, podemos interpretar geométricamente lo que está sucediendo. Por ejemplo, si Sλ = {x ∈ Rn / T (x) = λx} es el
subespacio propio de T asociados al valor propio λ, entonces la restricción de T a dicho
subespacio es una homotecia (dilatación o contracción) de constante λ. El correspondiente
por la transformación T de cada vector x perteneciente a Sλ se obtiene multiplicando al
vector x por el número λ.
Ejemplo 7.7.1. Sea T : R3 → R3 tal que
  

x
4x + y + z
T  y  =  3y − z 
z
−y + 3z
200
Capı́tulo 7. Transformaciones lineales
Queremos investigar si T es diagonalizable y, en caso de serlo, hallar una base de R3 formada por vectores propios de T .
La matriz asociada a T es:


4
1
1
[T ] =  0
3 −1 
0 −1
3
Para obtener los valores propios de T calculamos el polinomio caracterı́stico


4−λ
1
1
det  0
3 − λ −1  = (4 − λ)(λ2 − 6λ + 8) = (4 − λ)2 (2 − λ)
0
−1 3 − λ
Los valores propios son entonces λ1 = 4 (doble) y λ2 = 2 (simple). Para determinar si T
es diagonalizable debemos decidir si existe una base de vectores propios. Recordemos que,
en general se cumple 0 < mg(λ) = dim(Sλ ) ≤ ma(λ) donde ma(λ) es la multiplicidad de
λ como raı́z del polinomio caracterı́stico. Además, para que T sea diagonalizable deben
coincidir la multiplicidad geométrica y algebraica de todos los valores propios.
Volviendo a nuestro ejemplo, como 2 es raı́z simple del polinomio caracterı́stico, es decir
tiene ma(2) = 1, entonces dim(S2 ) = mg(2) = 1. De aquı́ surge que si existiera una base
de vectores propios el subespacio propio S2 aportarı́a un vector. Los otros dos deberı́an
provenir del otro subespacio S4 . Al ser 4 raı́z doble, es decir ma(4) = 2 entonces mg(4)
puede ser 1 o 2. En el primer caso T no serı́a diagonalizable y en el segundo sı́. Usando el
teorema de las dimensiones tenemos que dim(S4 ) = dimN [T − 4I] = 3 − rg[T − 4I]


0
1
1
[T − 4I] =  0 −1 −1 
0 −1 −1
De donde es inmediato observar que rg[T − 4I] = 1 y, por lo tanto, mg(4) = 2 = ma(4),
por lo que T es diagonalizable. Para determinar la base de vectores propios calculamos
N (T − 4I) y N (T − 2I):
 
x
 y  ∈ N (T − 4I) ⇔ y = −z, x ∈ R ⇒
z
  
 
0 
 1
N (T − 4I) = L   0  ,  1  


0
−1
Por otra parte



2
1
1
[T − 2I] =  0
1 −1  ⇒
0 −1
1

x
 y  ∈ N (T − 2I) ⇔ y = z, x = 0 ⇒
z
7.7. Valores y vectores propios de una transformación lineal
201
 
 0 
N (T − 2I) = L   1  


1
Por lo tanto, una base de vectores propios es
  
  
0
0 
 1
 0 , 1 , 1 


0
−1
1
Todo vector v ∈ R3 se escribe como C.L. única de U = {u1 , u2 , u3 } (siendo U la base de
vectores propios recién indicada). Por otra parte, la restricción de T a S4 es una homotecia
de razón 4 mientras que la restricción de T a S2 es una homotecia de razón 2. Luego, si
v = α1 u1 + α2 u2 + α3 u3 entonces T (v) = 4α1 u1 + 4α2 u2 + 2α3 u3 .
Interacción entre transformaciones lineales y matrices.
Lo estudiado en este capı́tulo con referencia a la relación existente entre transformaciones
lineales y matrices puede resumirse de la siguiente manera.
1. Matriz asociada. A cada transformación lineal T : Rn → Rm le corresponde una
única matriz A de tamaño m × n de modo que T (v) = A.v, ∀ v ∈ Rn . Dicha matriz
A se denomina matriz asociada a T y se simboliza [T ].
Las columnas de la matriz asociada [T ] son las imágenes por T de los vectores de la
base canónica de Rn .
2. Determinación de una trasformación lineal. Si V = {v1 , v2 , . . . , vn } es una
base de Rn y w1 , w2 , . . . , wn son n vectores arbitrarios de Rm , entonces existe una
única transformación lineal T : Rn → Rm tal que T (vi ) = wi , ∀ i = 1, . . . , n. Dicha
transformación lineal viene dada por la fórmula:
T (x) = B . coordV (x) = B . (MV )−1 . x , ∀ x ∈ Rn .
3. Operaciones con transformaciones lineales.
Suma Si T, S : Rn → Rm son dos transformaciones lineales entonces T + S es una
transformación lineal y su matriz asociada es [T + S] = [T ] + [S].
Producto por un número Si T : Rn → Rm es una transformación lineal y α ∈ R
un número real entonces αT es una transformación lineal y su matriz asociada
es [αT ] = α[T ].
Composición Si T : Rn → Rm y S : Rm → Rp son dos transformaciones lineales
entonces S ◦ T es lineal y además
[S ◦ T ] = [S].[T ]
202
Capı́tulo 7. Transformaciones lineales
4. Transformación lineal invertible y transformación inversa.
Sea T : Rn → Rn una transformación lineal. Entonces se cumple que T es invertible
(biyectiva) si, y solo si, su matriz asociada [T ] es una matriz invertible. En caso
afirmativo se tiene que T −1 es lineal y además [T −1 ] = [T ]−1 (la matriz asociada a
T −1 es la inversa de la matriz asociada a T ).
5. Núcleo e imagen de una transformación lineal.
Sea T : Rn → Rm una transformación lineal.
El núcleo de T se simboliza N (T ) y es el núcleo de su matriz asociada.
El conjunto imagen de T se simboliza Im(T ), es el recorrido de T y coincide
con el subespacio generado por las columnas de su matriz asociada.
El teorema de las dimensiones afirma que: dim N (T ) + dim Im(T ) = n.
T es inyectiva si, y solo si, N (T ) = {o}.
T es sobreyectiva si, y solo si, el rango de su matriz asociada es n.
T es biyectiva si, y solo si, m = n y es inyectiva (o sobreyectiva).
6. Vectores propios y diagonalización.
Los valores propios de T son los valores propios de su matriz asociada.
Los vectores propios de T son los vectores propios de su matriz asociada.
T es diagonalizable si, y solo si, lo es su matriz asociada.
7.8.
Ejercicios
Ejercicio 7.8.1. En cada uno de los siguientes casos demuestre que la función T dada es
una transformación lineal y encuentre su matriz asociada. (Sugerencia: recuerde que para
probar que T es lineal alcanza con encontrar una matriz A tal que T (x) = A.x , ∀ x ∈
D(T ). Más aún, dicha matriz A es la matriz asociada a T ).
x
2x − 5y
2
2
1. T : R −→ R / T
=
. Encuentre la imagen por T del vector
y
x+y
2
.
−1


x − 3y
x
2. T : R2 −→ R3 / T
=  x − y . Encuentre la imagen por T del vector
y
4x + y
2
.
−1
 
x
x−y+z
3
2




y
3. T : R −→ R / T
=
. Encuentre la imagen por T del
x + 9y + z
z


1
vector  0 .
−1
7.8. Ejercicios
203


x−y
x

x
+
y+z
4. T : R3 −→ R4 / T  y  = 
 2x − z
z
0


3
vector  3 .
−6



. Encuentre la imagen por T del

Ejercicio 7.8.2. Encuentre el núcleo y la imagen de las transformaciones lineales del
ejercicio anterior. Verifique la relación que hay entre dim(N (T )) y dim(Im(T )) en cada
uno de los casos.
Ejercicio 7.8.3. Se considera la transformación lineal T : R2 −→ R2 determinada por:
1
2
−1
1
T
=
,
T
=
0
1
2
1
1. Justifique que, con estos datos, efectivamente queda determinada una transformación
lineal.
2. Demuestre que T es invertible y halle la matriz asociada a T −1 .
Ejercicio 7.8.4. Se considera la transformación lineal T : R2 −→ R3 determinada por:
 
 
3
0
1
2
T
= 2 
,
T
= 1 
1
−1
1
2
1. Justifique que, con estos datos, efectivamente queda determinada una transformación
lineal.
2. Halle T (v), ∀ v ∈ R2 .
Ejercicio 7.8.5. Se considera la transformación lineal T : R3 −→ R3 definida por
  
 
x
1 0
1
x







T
y
=
0 1
0
y 
z
−1 0 −1
z


1
1. Pruebe que el vector  0  está en el N (T ) y también está en la Im(T ).
−1
2. ¿Es T biyectiva? Justifique.
3. Halle los valores y vectores propios de T e investigue si T es diagonalizable.
Ejercicio 7.8.6. Sea T : R4 → R4 tal que

 
x
x+y+z+w
 y   y + z + w

 
T
 z  = 
z + 2w
w
−w




204
Capı́tulo 7. Transformaciones lineales
1. Investigue si T es invertible.
2. Halle Im(T ) y N (T ).
Ejercicio 7.8.7. Se consideran lassiguientes transformaciones
lineales:

x + 2y
x
=  2x − 3y 
T1 : R2 −→ R3 / T1
y
0
 
x
x−y
3
2




T2 : R −→ R / T2
y
=
, T1 ◦ T2 y T2 ◦ T1 . Investigue cuáles
−x + 3y + z
z
de esas transformaciones son invertibles y determine la inversa cuando corresponda.
3
3
7.8.8. Sea
 T : R −→ R la transformación lineal cuya matriz asociada es
0
0
7 −2 
0
3


−4
1. Encuentre la imagen por T del vector u =  1 
0
2. ¿Es T biyectiva? Justifique la respuesta.
3. Demuestre que T es diagonalizable.
Ejercicio

3
M = 1
0
Ejercicio 7.8.9. Se considera una transformación lineal T : Rn −→ Rm . Indique si la
siguiente afirmación es verdadera o falsa. Justifique.
“Si kT (x)k = 0 entonces x ∈ N (T )”.
Ejercicio 7.8.10. Sea U = {u1 , u2 , . . . , un } una base de Rn y T : Rn −→ Rn la transformación lineal tal que T (e1 ) = u1 , T (e2 ) = u2 , . . . , T (en ) = un . ¿Es T invertible?
Justifique la respuesta.
Ejercicio 7.8.11. Se considera la transformación
  

  
1
0
2
T 2 = 1  , T 1 =
0
−1
0
lineal T : R3 −→ R3 determinada por:

   
3
0
1
2  , T 0 = 1 
1
1
2
1. Justifique que, con estos datos, efectivamente queda determinada una transformación
lineal.
2. Halle la matriz asociada a T .
3. Demuestre que T es invertible y halle T −1 .
4. Halle los vectores propios de T e investigue si T es diagonalizable.
5. Halle los vectores propios de T −1 e investigue si T −1 es diagonalizable.
Ejercicio 7.8.12. Sea T : Rn → Rn una transformación lineal. Demuestre que son equivalentes las siguientes afirmaciones
(i) T es biyectiva
(ii) Para cualquier base A de Rn se cumple que T (A) es base de Rn .
7.9. Ejercicios variados de opción múltiple
205
Ejercicio 7.8.13. Sean T : Rn → Rm una transformación lineal y A su matriz asociada.
Se define la transformación
T ∗ : Rm → Rn / T ∗ (y) = At y , ∀ y ∈ Rm .
Esta
1.
2.
3.
transformación se denomina adjunta de T . Demuestre que:
hT (x), yi = hx, T ∗ (y)i , ∀ x ∈ Rn , ∀ y ∈ Rm .
N (T )⊥ = Im(T ∗ ).
T = T ∗ si, y solo si, A es una matriz simétrica.
Ejercicio 7.8.14. Una transformación lineal T : Rn → Rm se dice isométrica si conserva
las normas, esto es: kT (v)k = kvk, ∀ v ∈ Rn . Demuestre que T es una transformación
lineal isométrica si, y solo si, su matriz asociada es una matriz ortogonal.
Ejercicio
7.8.15. Se considera
la transformación lineal T : R2 → R2 cuya matriz asociada
cos(α) −sen(α)
es
en donde α ∈ [0, π).
sen(α)
cos(α)
1. Verifique que T es una isometrı́a.
2. Calcule hT (v), vi , ∀ v ∈ R2 . Deduzca que el ángulo formado por T (v) y v no depende
de v.
3. ¿Qué interpretación geométrica tiene la isometrı́a T ?
Ejercicio 7.8.16. Teorema de representación de Riesz.
1. Sea w ∈ Rn y Tw : Rn → R dada por Tw (v) = hv, wi, ∀ v ∈ Rn . Demuestre que Tw
es lineal y encuentre su matriz asociada.
2. Sea T : Rn → R una transformación lineal. Demuestre que existe un único w ∈ Rn
tal que T (v) = hv, wi, ∀ v ∈ Rn .
Ejercicio 7.8.17. Sea T : Rn → R una transformación lineal. Demuestre que
kT (x)k ≤ M kxk , ∀ x ∈ Rn siendo:
M = max {kT (e1 )k, kT (e2 )k, . . . , kT (en )k}
Ejercicio 7.8.18. El espacio vectorial de las transformaciones lineales.
Sea L (Rn , Rm ) el conjunto de todas las transformaciones lineales de Rn en Rm , es decir:
L (Rn , Rm ) = { T : Rn → Rm / T es lineal }
Compruebe que, con las operaciones de suma de transformaciones y producto de un número
por una transformación, se cumple que L (Rn , Rm ) es un espacio vectorial real (recordar
la primera sección del capı́tulo 4).
7.9.
Ejercicios variados de opción múltiple

 x+y+z =1
2x − y + z = 0
Ejercicio 7.9.1. El sistema:

−4x + 2y − 2z = 1
(1) Es compatible determinado. (2) Es incompatible. (3) Es compatible indeterminado
con un grado de libertad. (4) Es compatible indeterminado con dos grados de libertad.
206
Capı́tulo 7. Transformaciones lineales


 


1
2
−a
Ejercicio 7.9.2. Sean u =  1  , v =  2  , w =  a  Entonces w es combi0
3
a
nación lineal de {u, v}
(1) Para infinitos valores de a.
(2) Para ningún valor de a.
(3) Sólo para tres valores de a.
(4) Sólo para a = 0.
Ejercicio 7.9.3. Sea U = {u1 , u2 , u3 } ⊂ R5 . Entonces se cumple necesariamente que:
(1) Si U es L.D. entonces todo subconjunto de U también lo es.
(2) Si o ∈ U , entonces U es L.I.
(3) Todo vector de R5 es combinación lineal de U .
(4) Ninguna de las anteriores.

 



1
√2
√1
Ejercicio 7.9.4. Sean: u =  5  , v =  0  , w =  5 , y consideremos las
3
1
4
siguientes afirmaciones:
(A) {u, v, w} es L.I.
(B) u es C.L. de {v, w}. Entonces:
(1) (A) es verdadera y (B) es verdadera.
(2) (A) es verdadera y (B) NO es verdadera.
(3) (A) NO es verdadera y (B) es verdadera.
(4) (A) NO es verdadera y (B) NO es verdadera.
Ejercicio 7.9.5. Sea U = {v1 , v2 , v3 , v4 } una base de R4 . Entonces:
(1) Existe v ∈ R4 tal que {v1 , v2 , v3 , v4 , v} es L.I.
(2) {v2 , v3 , v4 } es un generador de R4 .
(3) {v + v1 , v2 , v3 , v4 } es base de R4 , para todo vector v ∈ R4 .
(4) Si v = v1 + v2 entonces, v4 es combinación lineal de {v, v1 , v2 , v3 }.
(5) Ninguna de las opciones anteriores es correcta.
  
 

a
−5
−1








Ejercicio 7.9.6. Si U =
0
,
a
,
2
⊂ R3 , entonces


0
3
a
3
(1) U es base de R para cualquier valor de a.
(2) U es base de R3 excepto para a = 0.
3
(3) U es base de R excepto para tres valores de a. (4) U es L.D. para cualquier valor
de a.
Ejercicio 7.9.7. Consideremos las siguientes afirmaciones:
(A) Si U es una base de Rn y H ⊂ U , (H 6= φ), entonces H es L.I.
(B) En R3 hay sólo tres conjuntos que son al mismo tiempo L.I. y generador.
Entonces:
(1) (A) es verdadera y (B) es verdadera.
(2) (A) es verdadera y (B) NO es verdadera.
(3) (A) NO es verdadera y (B) es verdadera.
(4) (A) NO es verdadera y (B) NO es verdadera.
Ejercicio 7.9.8. Sea U = {u1 , u2 , u3 } ⊂ R4 . Entonces se cumple necesariamente que:
(1) Si U es L.I. entonces U = {u1 , u2 , u3 , v} es base de R4 , cualquiera que sea v ∈ R4 .
7.9. Ejercicios variados de opción múltiple
207
(2) Si U es L.D. entonces existe v ∈ R4 tal que U = {u1 , u2 , u3 , v} es generador de R4 .
(3) Algún vector de R4 no es combinación lineal de U .
(4) Ninguna de las anteriores.
Ejercicio 7.9.9.
Sea U = {u1 , u2 , u3 } ⊂ R5 un conjunto L.I. Entonces se cumple necesariamente que:
(1) {u1 , u2 , u3 , v} es L.I., cualquiera que sea v ∈ R5 .
(2) {u1 , u2 , u3 , v} es L.D., cualquiera que sea v ∈ R5 .
(3) Existe w ∈ R5 tal que w es combinación lineal NO única de U .
(4) Ninguna de las anteriores.


4
Ejercicio 7.9.10. Sea U = {u1 , u2 , u3 } una base de R3 y el vector z =  −2 
5
Si se sabe que z = u1 − 2u2 + 3u3 entonces






4
5
1
(3) coordU (z) =  −2 
(1) coordU (z) =  −2  (2) coordU (z) =  −2 
5
4
3
(4)
z también puede expresarse como z = 4u1 − 2u2 + 5u3 .
Ejercicio 7.9.11. Sea U = {u, v, w} una base de R3 . Entonces se cumple necesariamente
que:
(1) {u, v, u + v} es L.I.
(2) {u − v, v + w, u − w, u + v + w} es generador de R3 .
(3) {u + v, u − w} es generador de R3 .
(4) Ninguna de las anteriores.


1
2 a
Ejercicio 7.9.12. Consideremos la matriz: A =  2 −2 0 
1
1 2
Entonces:
(1) rg(A) = 3, ∀ a ∈ R.
(2) nu(A) = 1 para algún a ∈ R.
(3) nu(A) = 1 para infinitos valores de a ∈ R.
(4) Ninguna de las anteriores.
Ejercicio 7.9.13. Sea A una matriz m × n. Entonces se cumple necesariamente que:
(1) El subespacio generado por las columnas de A coincide con el subespacio generado por
sus filas.
(2) La dimensión del subespacio generado por las columnas de A es mayor que m.
(3) Si n es impar entonces rg(A) 6= nu(A).
(4) Ninguna de las anteriores.
 

x


Ejercicio 7.9.14. Sea S ⊂ R3 definido por: S =  y  / x − 2y + 5z = 0
Enton

z
ces
(1) S es un subespacio de R3 de dimensión 2. (2) S es un subespacio de R3 de dimensión
1. (3) S es un subespacio de R3 de dimensión 3. (4) S no es un subespacio de R3 .
208
Capı́tulo 7. Transformaciones lineales
Ejercicio 7.9.15. Dado U ⊂ Rn (U 6= φ) consideremos el conjunto
S = {v ∈ Rn / v es C.L. de U }. Entonces:
(1) Puede ocurrir que S = φ. (2) Si U es generador de Rn entonces S = Rn .
(3) Si U es L.D. entonces necesariamente S 6= Rn . (4) S contiene a lo sumo n vectores.
Ejercicio 7.9.16. Se sabe que S es un subespacio de R5 de dimensión 2. Entonces:
(1) Existen u1 y u2 , vectores de S tales que S = L ({u1 , u2 }).
(2) La base canónica de R5 es un generador de S ya que todo vector de S se puede escribir
como combinación lineal de la misma.
(3) S tiene exactamente dos vectores.
(4) Existe un subconjunto de S, que es L. I. y que tiene tres vectores.
Ejercicio 7.9.17. Sea U = {v1 , v2 , . . . , vp } un subconjunto L.D. de Rn . Entonces:
(1) L ({v1 , v2 , . . . , vp−1 }) = L ({v1 , v2 , . . . , vp }).
(2) Necesariamente n < p.
(3) Existe algún vi ∈ U tal que U − {vi } es base de Rn .
(3) Existe algún vk ∈ U tal que vk ∈ L (U − {vk }).
(4) Ninguna de las opciones anteriores es correcta.


 
1 2
1
a



Ejercicio 7.9.18. Consideremos la matriz A =
2 1 −1
y el vector v =
b 
1 1
λ
1
Si se sabe que nu(A) = 1 y que v ∈ N (A) entonces: λ = , a = , b =


1
2 −1
Ejercicio 7.9.19. Consideremos la matriz: A =  3 −1
4 . Entonces:
5
3
2
(1) El subespacio generado por sus columnas contiene un conjunto L.I. de tres vectores
(distintos).
(2) El subespacio generado por sus filas contiene un conjunto L.I. de tres vectores (distintos).
(3) El subespacio generado por sus columnas contiene un conjunto L.I. de dos vectores
(distintos).
(4) El subespacio generado por sus columnas contiene sólo dos vectores (distintos).




1
2 1
3
Ejercicio 7.9.20. Consideremos la matriz A =  2 −1 7  y el vector v =  −1 .
1
1 λ
a
Si se sabe que rg(A) = 2 y que v ∈ N (A) entonces:
(1) λ = 5 y a = −1
(2) λ = 5 y a cualquiera
(3) λ = 2 y a = −1
(4) λ = 2 y a cualquiera.
Ejercicio 7.9.21. Sean u y v vectores de Rn tales que√ kuk = 2, kvk = 5, hu, vi = 7/2.
Entonces ku + vk =
(1) 7
(2) 36
(3) 6
(4) 7.
Ejercicio 7.9.22. Sean u y v vectores de Rn . Se consideran las siguientes afirmaciones:
(A) Si |hu, vi| = kukkvk entonces {u, v} es L.D.
(B) Si u 6= o y Pu (v) es la proyección ortogonal de v sobre u entonces necesariamente
kPu (v)k = kvk.
7.9. Ejercicios variados de opción múltiple
209
Entonces
(1) Ambas son verdaderas.
(2) Ambas son falsas.
(3) (A) es verdadera y (B) es falsa.
(4) (B) es verdadera y (A) es falsa.
Ejercicio 7.9.23. Si u y v son dos vectores de Rn entonces el número ||u−2v||2 +||u+v||2
coincide necesariamente con
(1) 2||u||2 − 2||u||.||v|| + 5||v||2
(2) 2||u||2 + 5||v||2
(3) 2||u||2 − 2hu, vi + 5||v||2
(4) 2||u|| + 3||v||
 


1
2
Ejercicio 7.9.24. Sean: u =  1  , v =  −1 . La igualdad k u − λ.v k=k u k se
1
0
cumple:
(1) Solo para λ = 0.
(2) Solo para dos valores de λ.
(3) Para infinitos valores de λ.
(4) Solo para tres valores de λ.
 
 
x
2



Ejercicio 7.9.25. Consideremos los puntos p =
y
y q=
1 
z
0
Si se sabe que k p − q k= 2 entonces se cumple necesariamente que:
(1) x + y + z = 7
(2) x2 + y 2 + z 2 + 1 = 0
(3) x2 + y 2 + z 2 − 4x − 2y + 1 = 0
2
2
2
(4) x + y + z − 9 = 0


4
6  es perpendicular al plano
Ejercicio 7.9.26. Si se sabe que el vector 
−10
de ecuación ax + 3y − 5z = k entonces necesariamente:
(1) a = 2 y k cualquiera.
(2) a = 4 y k cualquiera.
(3) a = 2 y k = 1.
(4) a = 4 y k = 1.
 
 
1
5



Ejercicio 7.9.27. Sean: p =
1
, q=
3  , L la recta determinada por p y q,
1
1
y H el plano de ecuación: x − 2y + 3z = 2. Entonces la intersección de L con H es:
(1) L ∩ H = φ
(2) L ∩ H = {p}
(3) L ∩ H = L
(4) L ∩ H = {q}




1
3
Ejercicio 7.9.28. Sean: p =  −2  , q =  1  , L la recta determinada por
3
−2
p y q, y H el plano de ecuación: x + y + z = 2.
Entonces la intersección de L con H es:
(1) L ∩ H = φ
(2) L ∩ H = {p}
(3) L ∩ H = L
(4) L ∩ H = {q}
Ejercicio 7.9.29. Consideremos las siguientes afirmaciones:
(A) Sea S un subespacio de Rn y U = {u1 , u2 , . . . . , ur } un generador de S.
Si v ⊥ uk , ∀k = 1, 2, . . . , r entonces v ⊥ S.
(B) Todo subespacio de R3 es un plano.
(C) Toda matriz de 3 filas y 7 columnas tiene rango menor o igual que 3.
210
Capı́tulo 7. Transformaciones lineales
Entonces se cumple que:
1) Solo (C) es verdadera.
2) Solo
3) Solo (A) y (C) son verdaderas.
 
1


Ejercicio 7.9.30. Sean U =
0 

0
 
2
Entonces la distancia de  1  a S es:
3
(A) es verdadera.
4) Solo (B) y (C) son verdaderas.
 
0


,
1 
y S el subespacio generado por U .

1
(1) 0
(2)
√
3
(3)
√
5
(4)
√
2.
Ejercicio 7.9.31. Sea A una matriz n × n. Entonces se cumple necesariamente que:
(1) Si A es diagonalizable entonces A tiene n valores propios diferentes entre sı́.
(2) Si A no es invertible entonces no puede ser diagonalizable.
(3) Si det(A − λI) no tiene raı́ces entonces A no es diagonalizable.
(4) At .A.At = I
Ejercicio 7.9.32. Sean A una matriz n × n; {u, v, w, z} ⊂ Rn L.I. tales que A.u =
2u, A.v = 2v, A.w = w, A.z = o. Consideremos las afirmaciones:
(A) 2 es valor propio de A. (B) necesariamente n ≥ 4. Entonces:
(1) Ambas afirmaciones son verdaderas. (2) Ambas afirmaciones son falsas.
(3) Sólo (A) es verdadera. (4) Sólo (B) es verdadera.
Ejercicio 7.9.33. U = {u1 , u2 , u3 , u4 } es una base de R4 y A es una matriz 4 × 4 que
cumple: A.u1 = 2u1 , A.u2 = 2u2 , A.u3 = −u3 , A.u4 = u4 . Entonces
(1) A es diagonalizable y nu(A − 2I) = 1
(2) A es diagonalizable y nu(A − 2I) = 2
(3) A no es diagonalizable.
(4) Ninguna de las anteriores.
Ejercicio
7.9.34.
Sea T : R3 −→ R3 una transformación lineal de la cual se sabe que


1

u=
2  ∈ N (T ). Entonces se cumple necesariamente que:
−1
(1) T no es inyectiva.
(2) u debe pertenecer a Im(T ).
(3) N (T ) es un subespacio de dimensión 1.
(4) T es biyectiva.
Ejercicio
7.9.35.
Sea T
1
1
T
=T
=
0
1
0
1
(1)
∈ N (T ) y
1
2
0
1
(3)
∈ N (T ) y
1
2
2
2
: R
−→ R una transformación lineal de la cual se sabe que
2
. Entonces:
4
0
1
∈ Im(T ) (2)
6∈ N (T ) y
∈ Im(T )
1
2
0
1
6∈ Im(T ) (4)
6∈ N (T ) y
6∈ Im(T )
1
2
Capı́tulo 8
Respuestas a los ejercicios
Ejercicios del Capı́tulo 1


1 0
Ejercicio 1.1.1. A =  3 2 
5 4
Ejercicio 1.1.2. a = 3, b = −1.
t
10 −1
=
−1
0

−2
−6  ,
−7

Ejercicio 1.1.3. 1) A + A
,

−5
0
2C − 7I3 =  0 −3
4
2

5
4
3
13 −13  ,
B t .B =  4
3 −13 26
14 −9
t
B.B =
. 2) Los productos
−9 30
posibles son
A.B, B.C,
B.D y C.D.
9 −7
1
3) X = 4
0 −1
Ejercicio 1.1.4. Las partes 1), 2) y 4) son
válidas solamente cuando A.B = B.A. La parte
3) es válida siempre.
Ejercicio 1.1.5. (c)a = −2 o a = −1.
±1
b
Ejercicio 1.1.6. 1)
, (b ∈ R)
0 ∓1
±1
0
o
, (c ∈ R)
c ∓1
a
c
o
, (c 6= 0).
1−a2
−a
c
a
c
2)
, (c 6= 0)
−1−a2
−a
c 0 b
3)
, (b ∈ R)
0 0
0 0
o
, (c ∈ R)
c 0
b
, (b 6= 0).
−a
−a
b
Ejercicio 1.1.9. 1) SF = S + C − V ,
Piva = 1, 22 P ; 2) I 
= V t .P .

3p1 + 4p2
Ejercicio 1.1.10. u =  2p1 + 5p2  ,
4p1 + 6p2


x
v= y ,
z

t
a
U tilidad =  b  .v − ut .v − k.
c
Ejercicio 1.1.11. Hay que multiplicar P t .M y
luego sumar los elementos de dicha matriz.
Ejercicio 1.1.12.


2
 3 

(500 1000 400) . R . 
 1,5 .
5
1 −1
−1
Ejercicio 1.2.1. A =
,
2
−1
1/2 −1/2
B −1 =
.
−1
2
Ejercicio 1.2.2. La únicás falsas son 4) y 5). Un
contraejemplo para 4) es A = I, B = −I. Un
contraejemplo para 5) es A = I, B = I. (I es la
matriz identidad).
Ejercicio 1.2.3. Se utiliza la parte 1) para
probar que:
2) (In − A)−1 = In + A
3) (In − A)−1 = In + A + A2
4) (In − A)−1 = In + A + A2 + . . . + Ak−1
o
a
2
212
Capı́tulo 8. Respuestas a los ejercicios
Ejercicios del Capı́tulo 2
Ejercicio 2.4.1. (a) Sistema compatible
indeterminado
un grado de
3 con
libertad.
7
1
9
Sol(S) =
4 + 4 z, 4 + 4 z, z / z ∈ R .
(b) Sistema incompatible. Sol(S) = ∅.
(c) Sistema incompatible. Sol(S) = ∅.
(d) Sistema compatible indeterminado con dos
grados de libertad
Sol(S) = { (−x3 − 3x4 + 2, −2x3 + x4 −
3, x3 , x4 ) / x3 , x4 ∈ R }.
(e) Sistema incompatible. Sol(S) = ∅.
Ejercicio 2.4.2. (a) rgf (A) = 1 < 3 = n de
donde resulta que el sistema es compatible
indeterminado con dos grados de libertad.
(b) rgf (A) = 3 = n de donde resulta que el
sistema es compatible determinado
(Sol(S) = {(0, 0, 0)}).
(c) rgf (A) = 3 = n de donde resulta que el
sistema es compatible determinado
(Sol(S) = {(0, 0, 0)}).
Ejercicio 2.4.3. (a) Si n
m 6= 1 y m 6= −2 entonces
o
−2
1
1
S.C.D. con Sol(S) =
. Si
m−1 , m−1 , m−1
m = 1 entonces el sistema es incompatible. Si
m = −2 entonces el sistema es compatible
indeterminado con un grado de libertad y
Sol(S) = {(1 + z, z, z) / z ∈ R}.
(b) Si m 6=
6= −1
entonces S.C.D. con
0 y m
1
, −m . Si m = 0 entonces el
Sol(S) = m, m
sistema es incompatible. Si m = −1 entonces el
sistema es compatible indeterminado con un
grado de libertad y
Sol(S) = {(−1, −z, z) / z ∈ R}.
(c) Si m 6=n
0 y m 6= −1 entonces
o S.C.D. con
m
−3
2m
,
,
. Si m = −1
Sol(S) =
m+1 m+1 m+1
entonces el sistema es incompatible. Si m = 0
entonces el sistema es compatible
indeterminado con un grado de libertad y
Sol(S) = {(−z, z − 3, z) / z ∈ R}.
Ejercicio 2.4.4. (a) Sistema incompatible.
Sol(S) = ∅. (b) Sistema compatible
indeterminado con un grado de libertad
Sol(S) = { (3 − x3 , −1, x3 , 1) / x3 ∈ R }.
Ejercicio 2.5.1. Los determinantes valen (a) −
23, (b) 0, (c) − 155, (d) 0, (e) − 4, (f ) 31.
Ejercicio 2.5.2. 1, −1 y 0.
Ejercicio 2.5.3. det(B) = 23 det(A) = 40.
Ejercicio 2.5.6. (a) El determinante de la matriz
asociada al sistema vale 0 de donde resulta que
el sistema es compatible indeterminado.
(b) El determinante de la matriz asociada al
sistema vale −k 2 . Luego, el sistema es
compatible indeterminado si k = 0 y
compatible determinado si k 6= 0.
(c) El determinante de la matriz asociada al
sistema vale k 3 + k − 2 (cuya única raı́z real es
k = 1). Luego, el sistema es compatible
indeterminado si k = 1 y compatible
determinado si k 6= 1. 

0
1/2
1/2
0 −1/2 
Ejercicio 2.6.1. A−1 =  1/2
1/2
−1/2
0


0 0
1
C −1 =  0 1 −2 
 1 0 −1

1
−1 −1
1 1/2 
D−1 =  −1/2
1/6 −1/3 1/6


1/2 −1/4 1/2 −1/4

0
1 −1
0 

E −1 = 
 1/2 −3/4 1/2
1/4 
0 −1/2
1
1/2
B no es invertible pues su determinante vale 0.
Ejercicios del Capı́tulo 3
Ejercicio
3.1.1.
x=1−λ
L1
Ecuación reducida: y = 3 − x.
y =2+λ
x = −2 + 3λ
L2
Ecuación reducida:
y = 2 − 3λ
y =−x.
x=2−λ
L3
Ecuación reducida:
y = 1 − 4λ
y = −7 + 4x.
T
T
L
L2
= ∅ , L1 L3 =
1
T
2
7/5
, L2 L3 =
1
−7/5
Ejercicio 3.2.1.
Ecuaciones
paramétricas de L1

 x = 1 + 2λ
y =2−λ

z = −1 + 3λ
213
x + 2y − 5 = 0
3y + z − 5 = 0
Ecuaciones
paramétricas
de
L2

 x = −1 + 4λ
y=1

z = 3 − 2λ
x + 2z − 5 = 0
Ecuaciones reducidas:
y=1 
 x = 3 + 2λ
y =1−λ
Ecuaciones paramétricas de L3

z = 1 + 3λ
x + 2y − 5 = 0
Ecuaciones reducidas:
3y + z − 4 = 0
T
L1 T L2 = ∅ y se cruzan.
L1 L3 = ∅yL1 kL3 .
 3 
T
L2 L3 =  1  . Las rectas son secantes.


1
Ejercicio 3.2.2.
El sistema con las cuatro T
ecuaciones resulta
incompatible de donde L S = ∅. Para decidir
si se cruzan o son paralelas hallamos los
vectores que dan la dirección de cada una de
ellas.
T
Ejercicio 3.2.3. a = 3, b = 2. L S = L = S.
Ejercicio 3.2.4. 2x − y + z = 0.
Ejercicio 3.2.5.


 9/5 
T
1) L Π1 =  3/5  .


1/5
T
2) L Π2 = ∅. La recta y el plano son
paralelos
T y no tienen puntos en común.
3) L Π3 = L. La recta está contenida en el
plano.
Ejercicio 3.2.6. 1) x + 2y + z = 3. 2) k = 4.
Ejercicio 3.2.7. 1) Π1 −x + 2y + 3z = −1.
2) Π
2 3x + y + z = 0.
 x = 0, 1 − 0, 1λ
y=λ
3)

z = −0, 3 − 0, 7λ
Ejercicio 3.2.8. Π es 2y + z = 4.
Ejercicio 3.2.9. Del (1) al (7) son planos
(¿cuáles?).
Del (8) al (12) son semiespacios (¿cuáles?).
Del (13) al (15) son rectas (¿cuáles?).
(16) es un semiplano.
Ecuaciones reducidas:
Ejercicios del Capı́tulo 4
(18) es un punto (el origen).
(19) es un plano.
Ejercicio
T 3.2.10. (1) (Π1 ) x + y − 2z = 0.
(2) L S = {(2, 2, 2)}
(3) (Π2 ) − x + 2y + 3z =
T 8.
Un vector paralelo a Π1 Π2 es (−7, 1, −3).
Ejercicio 3.2.11. (1) (Π1 ) x + y + z = 1.
(3) (Π2 ) x − 2y = 0.
T
Un vector paralelo aTΠ1 TΠ2 es (2, 1, −3).
Ejercicio 3.2.12. Π1 Π2 Π3 = {(−3, 3 − 2)}
Ejercicio 3.3.2. a = 3.
Ejercicio 3.3.3. Los vectores que son C.L. de U
son
(1) (a, b, c) tales que 4a + 3b − 2c = 0
(2) Todos. (3) Todos.
(4) (a, b, c, d) tales que −a + 3b + 2c = 0 y
−3a + 5b + 2d = 0.
z1 no y z2 sı́.
(5) Todos los de R2 .
Ejercicio 3.3.4. Solo es falsa la (3).
Ejercicio 3.3.5. (1) No.
(2) (a, b, c, d) tales que −a + b + c + 2d = 0.
Ejercicio 3.3.6. Si a 6= −1, z es C.L. única de U
cualquiera sea b. Si a = −1 y b = 1, z es C.L.
no única de U . Si a = −1 y b 6= 1, z no es C.L.
de U .
Ejercicio 3.3.7. (1) x1 = 1 + 2λ , x2 =
−1 + 3λ , x3 = 1 + 2λ , x4 = 2 − λ
Ejercicio 3.3.8. (3) No necesariamente.
Ejercicio 3.4.1. Son L.I. los conjuntos de las
partes 1, 2, 4 y 6. Parte 7: U es L.I. si, y solo
si, a 6= 4 y a 6= −4. Parte 8: U es L.D.
independientemente del valor de a (observar
que la tercera columna es la suma de la
primera más la segunda multiplicada por a).
Ejercicio 3.4.2. (2) Todos con excepción del
propio conjunto y del vacı́o. (3) No, no es
cierto.
Ejercicio 3.4.3. Son verdaderas solamente las
partes (1) y (3).
Ejercicio 3.4.4. Son verdaderas solamente las
partes (1) y (4). Si A es invertible son todas
verdaderas.
Ejercicio 3.4.6. A y B son L.I. mientras que C
es L.D.
Ejercicio 3.4.7. Ambas verdaderas.
214
Ejercicio 4.2.1. Son subespacios solamente (1) y
(2).
Ejercicio 4.2.2. No son subespacios solamente el
(4) y el (5).
Ejercicio 4.2.3.
N (A) = {(x, y, z) / x = −z, y = −2z}
N (B) = {(x, y, z) / x = −z, y = 2z}
N (C) = {(a, b, c, d) / T
a+b−c = 0, b−2c−d = 0}
Ejercicio 4.2.6. (2) S T es la recta de
ecuaciones paramétricas:
x = λ , y = λ , z = 2λ. (3) No.
Ejercicio 4.2.8. Observar que S coincide con el
núcleo de M − N .
Ejercicio 4.2.9. Ninguna condición en (1), (4),
(5) y (7).
(2) (a, b) / b = 0.
(3) (a, b) / b = −a.
(6) (a, b, c) / a + 4b − 3c = 0.
(8) (a, b, c) / a = b.
(9) (a, b, c, d) / b = d.
Ejercicios 4.3.2. y 4.3.3.
Hay infinitas respuestas posibles.
Ejercicio 4.3.4. Solo (3) no es.
Ejercicio 4.3.5. Solo (2) y (3) son falsas.
Ejercicio 4.4.1. Ambas falsas.
Ejercicio 4.4.2. det(MU ) = 24 6= 0 entonces U
es base de R4 .
Ejercicio 4.4.3. (a) Es base cualquiera que sea
a. (b) Es base solamente
a
6= −2.
 sia 6=
2 y 
1 
 1
Ejercicio 4.4.4. (a)  0  ,  1 


1
2
3
(b) 
U
es base
de L(U ) = R .
 1 
(c)  1 


 2  

1
−1 

(d)  2  ,  1 


−1
1
Ejercicio
son:
 4.4.5.

 Bases
 
1
0 

(1)  −3  ,  2 


 0  1
0 
 1
(2)  1  ,  0 


 0  1
 1 
(3)  1 


 0   
0 
 1
(4)  0  ,  1 


0
0
Capı́tulo 8. Respuestas a los ejercicios
Ejercicio
 4.4.6.
 Basesson:
 
1
0
0 


     

0
1
, , 0 
(1) 






0
0
1 





1
1
0

 

−2
−3 




  0 
1




(2) 
,
0   1 





 1   2 
−3
−1 




  1 
1




,
(3) 
1   0 





 0  1
1
0 



   
0
, 1 
(4) 
 1   0 





0
1
Ejercicio
4.4.7.

 dimN (A) = 0

−2


 1  es base de N (B)


 −4  

−8 
 −2
 1  ,  0  es base de N (C)


0
1
Ejercicio 4.4.11. No.
4a+b
Ejercicio 4.4.12. (a) a+b
3 , 3
(b) U no es base. (c) (b, a)
Ejercicio 4.4.13. coordU (u) = (1, 0, 0)
coordU (v) = (1, 1, 0) , coordU (w) = (7, 2, −2)
Ejercicio 4.4.14. En (b) y (c) U no es base.
(a) (c, b − 2c, a − c)
Ejercicio 4.4.16. (1) u1 = v1 + v2 + v3
u2 = v1 + v2 − v3 , u3 = v1 − v2 + v3
(2) coordU (z) = (2, −4, 6)
3
3
2
(3) v1 = u2 +u
, v2 = u1 −u
, v3 = u1 −u
2
2
2
Ejercicio
4.4.17.
(1)
Tomamos,
por
ejemplo:
1
5
2a+b
,
. (2) a−5b
11 , 11
−2
1
Ejercicio 4.4.18. coordV (u1 ) = (1, −2, 2)
a = 1, b = −2, c = 2.
u1 = (0, 1, 0), u2 = (1, 0, 0), u3 = (0, 1, 6)
Ejercicio 4.5.1. (1) rg(A) = nu(A) = 2.
(2) α = −3. (3) β = −16.
Ejercicio 4.5.2. Si a = 0, rg(A) = 0.
Si a = −1, rg(A) = 1.
Si a 6= 0 y a 6= −1, rg(A) = 2.
(2) Solo es falsa (b).
Ejercicio 4.5.3.
Si a = 4 o a = 2, rg(A) = 2.
En otro caso rg(A) = 3.
Si a = 1, rg(B) = 2.
Si a 6= 1, rg(B) = 3.
215
rg(C) = 2, ∀ a.
Si a = 1, rg(D) = 1.
Si a = −1, rg(D) = 2.
En otro caso rg(D) = 3.
Si a = 0 o a = 1, rg(E) = 2.
En otro caso rg(E) = 3.
Si a = 0 o a = 1 o a = −1, rg(F ) = 2.
En otro caso rg(F ) = 3.
Si α = 4, rg(G) = 1.
Si α = −4, rg(G) = 2.
En otro caso rg(G) = 3.
0 1
Ejercicio 4.5.8. A = β
0 0 −k −k 2
con β 6= 0 o A = α
con α 6= 0.
1
k
Ejercicios del Capı́tulo 5
√
Ejercicio 5.1.1. hu, vi√= −2 , kuk = 2
kvk = 3 , ku + vk = 7.
Ejercicio 5.1.2.
√ hu, vi = 0 , kuk = kvk = 3 ,
ku + vk = 18.
Ejercicio 5.1.3. (2) u ⊥ v.
Ejercicio 5.1.4. (2) λ = 2.
Ejercicio 5.1.5. u = (3, 4) y v = (12, 16) o
u = (3, −4) y v =√(12, −16)
Ejercicio 5.1.6. 3 5/2.
√
Ejercicio 5.1.7. (2) 3 18/2.
Ejercicio
 5.1.9. (1)


5p1 + 2p2
x
 3p1 + 4p2 
 y 



u=
 4p1 + 7p2  , u =  z 
2p1 + 3p2
w




x +
* a
 b 
 y 



(2) U = 
 c  − u,  z  − k
d
w
Ejercicio 5.2.1. (a) Es base no ortogonal.
(b) Es ortogonal, no base.
(c) No es ortogonal ni base.
(d) Es ortogonal y es base.
(e) Es ortogonal. Es base si, y solo si, a y b no
son simultáneamente nulos.
Ejercicio
5.2.2.
  a+2b+3c 
a
14

coordU  b  =  −3b+2c
13
13a−2b−3c
c
182
Ejercicio 5.2.3.
(1) PS (p) = (1/9, −2/9, 2/9)
√
d(p, S) = 72/9
(2) PS (p) = p, d(p, S) = 0
(3) PS (p) = p, d(p, S) = 0
(4) PS (p) √
= (2/9, 1/18, 17/18)
d(p, S) = 18/18
Ejercicio 5.2.6. (1)
PS (p) = (21/10,
−1/5, 29/10, −1/5)
√
d(p, S) = 10/10
(2) S ⊥ = {(a, −2a, −a, −2a) / a ∈ R}. Una
base de S ⊥ es {(1, −2, −1, −2)}
Ejercicio 5.2.7. (1) α = −1 , β = −2.
(2) PS (p) = p , d(p, S) = 0.
(3) S ⊥ = {(0, d, −2d, d) / d ∈ R}. Una base
de S ⊥ es {(0, 1, −2, 1)}
Ejercicio 5.2.8. (1) Si a = 0 o a = 2 entonces
rg(A) = 2 y nu(A) = 1. En otro caso,
rg(A) = 3.
(2) PS (p) = (1, 0, 1).
(3) S ⊥ = {(−c, c, c) / c ∈ R}.
Ejercicio 5.2.10. (1) Una base de N (A) es
{(−1, 1, 1, 0), (−1, −1, 0,1)}
(3) La base hallada es ortogonal. Alcanza con
dividir
vectores entre sus normas.
√ ambos
√
(4) ( 3, 3).
Ejercicio 5.2.12. (2) Una base de S es
{(−1, 0, 1)}. S ⊥ = {(a, b, a) / a, b ∈ R}.
Ejercicio 5.2.13. (1) U = {(1, 1, √
0), (0, 0, 3)}
(2) d(v, S) = 0. (3) h1 = (3, 3, 3 2).
Ejercicio 5.2.14. (2) U = {(1, 1, 0, 0),
(1/2, −1/2, 1, 0), (−2/3, 2/3, 2/3, 0)}
(3) d(p, S) = e/π.
Ejercicio 5.2.15.
√ (1) x − z = 0.
(4) d(p, H) = 8.
z = (2, 1, 2), w = (2, 0, −2).
Ejercicio
5.2.18.Falsa. Un contraejemplo es
1
0
A=
0 −1
Ejercicio 5.3.1.√
d(p1 , H) = 0.
d(p2 , H) = 10/ 21.
p
Ejercicio 5.3.2. (1)√d(u1 , L) = 1/3.
(2) d(u3 , H) = 3/ 5.
√
Ejercicio 5.3.3. (2) d(p, Π) = 6/6.
El punto más próximo es 67 , 86 , 56
√
(3) d(p, L) = 114/3.
4 −5
El punto más próximo es −4
3 , 63 , 3
Ejercicio 5.3.4. x = 1 , y = 2 − 4α
z = 3 − 2α.
Ejercicio 5.3.5. x + y = 1
11
Ejercicio 5.4.1 (2) α = 10
; β = − 51 .
1 2
7
3
(3) y = 3 x − 30 x + 10
216
Capı́tulo 8. Respuestas a los ejercicios
Ejercicio 5.4.2 α = 15, 78; β = 210, 44.
R = 698, 9.
12 4
2
Ejercicio 5.4.3 (1) w = − 10
11 , 11 , 11 , 11
(3) dist(v, S) = √311
Ejercicio 5.4.4 y = −1 + 2t2
Ejercicio 6.2.4. A: valores propios: 1 y 6.
S1 = {(2a, −3a) / a ∈ R};
S6 = {(x, x) / x ∈ R}.
B no tiene.
C: valores propios: 0 y 7.
S0 = {(−3y, y) / y ∈ R};
S7 = {(x, 2x) / x ∈ R}.
D: valores propios: 1, −2 y 3.
S1 = {(−z, 4z, z) / z ∈ R};
S−2 = {(−z, z, z) / z ∈ R};
S3 = {(z, 2z, z) / z ∈ R}.
Ejercicio 6.2.6. Respectivamente 2,
1 y 3. −2 0
Ejercicio 6.3.2. Por ejemplo A =
,
0 1
1 1
B=
1 0
−3 1
Ejercicio 6.3.3. (a) B =
y
2 2
0 0
D=
0 8



1 1 −2
2 0 0
0 , D =  0 1 0 
(b) B =  0 1
0
0
1 
0 0 1

−1 −1 1
1 2 ,
(c) B =  4
1
1 1


1
0 0
D =  0 −2 0 
0
0 3




1 −1 −1
3 0 0
1
0 , D =  0 1 0 
(d) B =  1
0
0
1
0 0 1


1 0 0
0
 1 0 1
0 

(e) B = 
 0 1 0 −2 
0 1 1
1


1 0 0
0
 0 1 0
0 

yD=
 0 0 3
0 
0 0 0 −2


2
1
0
(f) B =  1 −2 −2 ,
1
0
1


8
0
0
0 
D =  0 −1
0
0 −1
Ejercicio 6.3.4. Solamente es diagonalizable la
A.
Ejercicio 6.3.5. (1) Valores propios: 4 y −1
(triple).
S4 = {(x
1 , x1 , 0, 0) /x1 ∈ R};
S−1 = a, −2a
3 , c, d / a, b, c ∈ R .
(2) Es diagonalizable. (3) únicamente la
solución trivial.
Ejercicio 6.3.6. (1) Una base de N (A) es:
{ (-1,1,0,0), (-1,0,1,0), (-1,0,0,1) }
Sı́, 0 es valor propio de A pues N (A) 6= {o}.
(2) El valor
es 4.
 propio correspondiente

1 −1 −1 −1
 1
1
0
0 

(3) B = 
 1
0
1
0 
0
0 1
 1
4 0 0 0
 0 0 0 0 

yD=
 0 0 0 0 
0 0 0 0
Ejercicio 6.3.7. (1) Valores propios: 0 y 2 + k.
(2) Es diagonalizable solamente para k 6= −2.
Ejercicio 6.3.8. a = 0 o a = 1/2.
Ejercicio 6.3.9. Si a = 0 cualquier matriz 3 × 3
invertible la diagonaliza.
 Si a 6= 0 unamatriz
1
0 1
que la diagonaliza es  0
1 1 .
−1 −1 1


1 0 0
Ejercicio 6.3.10. S = B  0 2 0  B −1
0 0 3


1 1 1
siendo B =  0 1 2 .
0 0 2
Ejercicio 6.3.12. Utilice ejercicio 6.3.3. parte (f).
Ejercicio 6.3.13. (1) Valores propios: −1 y 1
(doble).
(2) Es diagonalizable solo para α = 0.
Ejercicio 6.3.14. mg(A1 ) = 3, mg(A2 ) = 2 y
mg(A3 ) = 1.
1
1
Ejercicio 6.3.15. √12
y
1 −1
√
 √

3 −1
√2
√1 
2
2 
6
√
√0
2 − 3 −1
Ejercicios del Capı́tulo 6
217
Ejercicios del Capı́tulo 7
Ejercicio7.8.1.
2 5
(1) A =
1 1

1 3
(2) A =  1 1
4 1
1 1
(3) A =
1 9

1 1
 1 1
(4) A = 
 2 0
0 
0


3

T 3 =

−6
2
9
;T
=
−1
1



0
3
; T
= 2 
1

 13
1
1
0


0
;T
=
1
0
−1

0
1 
;
−1 
0
0
6 

12 
0
Ejercicio 7.8.2.
(1)
;
N(A)
= {o}
2
−5
Im(A) = L
;
1
1
(2) N (A) =
{o}
;
  

−3 
 1
Im(A) = L   1  ;  1  


4

1
 −1 
(3) N (A) = L   0   ;


1
1
−1
Im(A) = L
;
1
9
(4)N
(A)
=
{o}
;
Im(A)
=

 
 

−1
0 
 1


 1   1   1 








L 
;
;

2   0   −1 





0
0
0
Ejercicio 7.8.3. (1) Utiliceel teorema 7.2.2.
2 3
(2) T −1 =
.
−2 4
Ejercicio 7.8.4. (1) Utilice el teorema 7.2.2.
(2) T (x, y) = (x + 2y, x + y, x).
Ejercicio 7.8.5. (1)
T (1, 0, −1) = (0, 0, 0) ⇒ (1, 0, −1) ∈ N (T ).
T (1, 0, 0) = (1, 0, −1) ⇒ (1, 0, −1) ∈ Im(T ).
(2) No, pues N (T ) 6= {o}.
(3) Valores propios: 0 y 1 (doble).
S1 = {(0, y, 0) / y ∈ R};
S0 = {(x, 0, −x) / x ∈ R}. No es diagonalizable.
Ejercicio 7.8.6. det[T ] 6= {o} ⇒ T es invertible
⇒ N (T ) = {o} y Im(T ) = R4 . Ejercicio 7.8.7.
Solo T2 oT1 es invertible
1
y (T2 oT1 )(a, b) = 14
(11a + 5b, 5a + b).
Ejercicio 7.8.8. (1) T (−4, 1, 0) = (−12, 3, 0).
(2) det(M ) 6= 0 de donde T es biyectiva.
Ejercicio 7.8.9.
kT (x)k = 0 ⇒ T (x) = o ⇒ x ∈ N (T ).
Ejercicio 7.8.10. [T ] = MU y det (MU ) 6= 0 por
ser U base. Luego T es invertible.
Ejercicio 7.8.11.
(1) Utilice

 el teorema 7.2.2.
2
1 0
0 1 
(2) [T ] =  1
1 −1 1
(3) det[T ] 
6= {o} ⇒ T es 
invertible.
1 1 −1
[T −1 ] = 12  −1 3 −1 
−1 1
1
(4) Valores propios de T : 2 y 1 (doble).
S1 = {(x, x + y, y) / x, y ∈ R};
S2 = {(z, z, z) / x ∈ R}. Es diagonalizable.
(5) Valores propios de T −1 : 1/2 y 1 (doble).
S1 = {(x, x + y, y) / x, y ∈ R};
S1/2 = {(z, z, z) / x ∈ R}. Es diagonalizable.
Ejercicio 7.8.12. Recuerde las proposiciones
7.6.1 y 7.6.2.
Ejercicio 7.8.13. Recuerde el ejercicio 5.1.8 y la
proposición 5.2.1.
Ejercicio 7.8.14. Recuerde la proposición 5.2.4.
Ejercicio 7.8.15. (2) hT (v), vi = kvk2 cos(α)
hT (v),vi
de donde kT
(v)kkvk = cos(α).
(3) Se trata de una rotación con centro en el
origen y ángulo de giro α (radianes) en sentido
antihorario.
Ejercicio 7.9.1 (2)
Ejercicio 7.9.2 (4)
Ejercicio 7.9.3 (4)
Ejercicio 7.9.4 (3)
Ejercicio 7.9.5 (5)
Ejercicio 7.9.6 (3)
Ejercicio 7.9.7 (2)
Ejercicio 7.9.8 (3)
Ejercicio 7.9.9 (4)
Ejercicio 7.9.10 (3)
Ejercicio 7.9.11 (2)
Ejercicio 7.9.12 (2)
Ejercicio 7.9.13 (3)
Ejercicio 7.9.14 (1)
Ejercicio 7.9.15 (2)
Ejercicio 7.9.16 (1)
Ejercicio 7.9.17 (3)
Ejercicio 7.9.18 λ = 0, a = 1, b = −1.
218
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Capı́tulo 8. Respuestas a los ejercicios
7.9.19
7.9.20
7.9.21
7.9.22
7.9.23
7.9.24
7.9.25
7.9.26
7.9.27
(3)
(3)
(3)
(3)
(3)
(2)
(3)
(1)
(3)
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
Ejercicio
7.9.28
7.9.29
7.9.30
7.9.31
7.9.32
7.9.33
7.9.34
7.9.35
(3)
(3)
(4)
(3)
(1)
(2)
(1)
(1)
Referencias bibliográficas y lecturas complementarias.
Anton, Howard. Introducción al álgebra lineal. Limusa, 3 Ed. 1994.
Barbolla, Rosa. - Sanz, Paloma Álgebra lineal y teorı́a de matrices. Prentice Hall,
1998.
Moretti, Jorge. Álgebra lineal. Ediciones del CECEA, 2000 a 2009.
Lages Lima, Elon. Álgebra Linear. IMPA.
Strang, Gilbert. Algebra lineal y sus aplicaciones. Cengage Learning Editores, 2007.
Grossman, Stanley. Algebra lineal. McGraw-Hill, 2008.
Hill, Richard. Álgebra lineal elemental con aplicaciones. Prentice Hall, 1997.
Halmos, Paul. Espacios vectoriales de dimensión finita. CECSA, 1971.
Hernández, Eugenio. Álgebra y Geometrı́a. Addison-Wesley, 1998.
Koffman, A. - Kunze, R. Álgebra lineal. Prentice Hall, 1997.
Nakos, G. - Joiner, D. Algebra lineal con aplicaciones. Thomson, 1999.
Índice alfabético
Angulo entre dos vectores, 132
Base
cambio de, 112
canónica, 108
definición, 108
Conjuntos convexos, 82
Coordenadas
de un vector, 111
en base ortogonal, 135
definición, 91
subespacios, 92
Generador
definición, 102
modificación, 106
reducción, 105
y sistemas de ecuaciones, 104
Mı́nimos cuadrados
aproximación por, 155
método de, 155
Dependencia lineal
Matrices
ampliación de un L.I., 88
antisimétricas, 13
conjuntos L.D., 83, 84
cálculo de la inversa, 38
conjuntos L.I., 83, 84
Descomposición en valores singulares, 177
interpretación geométrica, 86
diagonales, 161
modificación de un L.I., 88
diagonalizables, 162, 169
reducción de un L.I., 87
igualdad de, 7
y sistemas de ecuaciones, 84, 85
invertibles, 15
Determinantes, 32, 33, 37
núcleo, 98
Diagonalización
nulidad, 120
condiciones, 171
ortogonales, 144
de matrices simétricas, 172
producto de, 8, 11
Descomposición en valores singulares, 177
producto por un número, 8
matrices diagonalizables, 169
que conservan el producto interno, 145
multiplicidad algebraica, 174
que conservan la norma, 145
multiplicidad geométrica, 174
resta de, 8
subespacios propios, 165
simétricas, 13
valores propios, 163, 165, 199
suma de, 7
vectores propios, 163, 165, 199
Matriz
Distancia
de cambio de base, 113
de un punto a un conjunto, 139
escalerizada, 24, 44
de un punto a un plano, 151
escalerizada reducida, 24
de un punto a un subespacio, 139
forma escalerizada, 24
de un punto a una recta, 152
identidad, 11
entre dos puntos, 131
número de escalones, 28
Espacios vectoriales
rango, 117, 118
219
220
ÍNDICE ALFABÉTICO
rango por columnas, 117, 118
rango por filas, 29, 117, 118
traspuesta, 12
Norma de un vector, 127
por un punto y paralela a un vector, 54
Rectas en R3
ecuación paramétrica vectorial, 61
ecuaciones paramétricas, 61
ecuaciones reducidas, 61
intersección, 62
paralelas, 64
por dos puntos, 61
por un punto y paralela a un vector, 60
que se cruzan, 63
Ortogonalidad
conjuntos ortogonales, 134
conjuntos ortonormales, 134
matrices ortogonales, 144
omplemento ortogonal de un subespacio, 140
Segmentos, 56
proceso de Gram-Schmidt, 142
Semirrectas, 56
proyección ortogonal, 128, 137, 138
Sistemas de ecuaciones lineales
proyección ortogonal sobre un subespacompatible determinado, 20
cio, 138
compatible indeterminado, 20
vector ortogonal a un conjunto, 136
conjunto solución, 20
vectores ortogonales, 128
escalerizados, 24, 44
3
grados de libertad, 47
Planos en R , 65
homogéneos, 30, 31
ecuación reducida, 67, 68
incompatible, 20
ecuaciones paramétricas, 66
matriz ampliada asociada, 22
intersección con una recta, 68
matriz asociada, 22
por tres puntos no alineados, 67
notación matricial, 23
por un punto y paralelo a dos vectores,
transformaciones elementales, 21
66
Subespacios
vector normal, 150
bases de, 108
Producto interno, 125, 126
de las combinaciones lineales, 99
Proyección ortogonal
definición, 95
en una base cualquiera, 158
dimensión, 109
sobre un subespacio, 137, 138
generado por un conjunto, 99
sobre un vector, 128
núcleo de una matriz, 98
Punto medio de un segmento, 57, 134
reducción de un generador, 105
Rango
Subespacios vectoriales, 92, 93
de una matriz, 117, 118
Teorema
por columnas de una matriz, 117, 118
caracterización de las transformaciones
por filas de una matriz, 29, 117, 118
lineales, 184
Rectas
caracterización de transformaciones lien R2 , 54
neales inyectivas, 195
en R3 , 60
caracterización de transformaciones lien Rn , 82
neales sobreyectivas, 196
Rectas en R2
ecuación paramétrica vectorial, 54
condición suficiente de diagonalización,
ecuaciones paramétricas, 55
171
intersección, 58
condición suficiente para que un vector
por dos puntos, 55
sea ortogonal a un subespacio, 136
ÍNDICE ALFABÉTICO
condiciones de diagonalización, 169
de Cramer, 35, 36
de Gram-Schmidt, 142
de la proyección ortogonal, 138
de las dimensiones, 194
de Pitágoras, 126, 128, 133
de Rouche-Frobenius, 29, 46
de Steinitz, 107, 123
del coseno, 131
descomposición en valores singulares de
una matriz, 177
desigualdad de Bessel, 138
desigualdad de Cauchy-Schwarz, 129
determinación de una transformación lineal, 186
existencia de bases, 108
independencia lineal de conjuntos ortogonales, 134
independencia lineal de vectores propios,
167
sobre rango y nulidad de una matriz,
120
Transformaciones lineales
biyectivas, 195, 196
composición, 189
definición, 179, 180
determinación, 186
imagen, 192
invertibles, 191
inyectivas, 195
matriz asociada, 184
núcleo, 192
producto interno, 180
producto por un número, 188
propiedades básicas, 180
proyección ortogonal, 181
Proyección ortogonal sobre un vector,
180
sobreyectivas, 195
suma de, 188
teorema de las dimensiones, 194
transformación coordenadas, 181
transformación inversa, 191
valores y vectores propios, 199
Valores propios, 163, 165, 199
221
Vectores
ángolo entre, 132
canónicos, 80
colineales, 52, 74
combinación lineal, 74, 78, 79
combinación lineal única, 79
coordenadas en una base, 111
norma, 127
producto interno, 125
producto por un número, 51, 52, 73
resta de, 51, 53, 73
suma de, 51, 53, 60, 72
Vectores en R2 , 50
Vectores en R3 , 59
Vectores en Rn , 72
Vectores propios, 163, 165, 199
Download