UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
FACULTAD DE INGENIERÍA
APUNTES DE ÁLGEBRA LINEAL
SEMESTRE 2015-2
PROF. ING. ALICIA PINEDA RAMÍREZ
Apuntes de Álgebra Lineal
2
ÁLGEBRA LÍNEAL
MÉTODO DE EVALUACIÓN
La exención se otorgará a los alumnos que acrediten el curso con calificación aprobatoria mínima de seis (6).
Para poder presentar los exámenes correspondientes a cada parte del curso, el alumno deberá entregar las series correspondientes a los capítulos que comprenda cada examen. Esta serie tiene un valor del 10% + la calificación del examen.
Se dejarán tareas por clase, su promedio tendrá un valor del 25%, NO SE ACEPTAN TAREAS ATRASADAS.
Lectura de dos libros en el semestre, para evaluarlos se necesita calificación APROBATORIA. En caso de no quedar exentos se tendrá la posibilidad de presentar los dos exámenes finales,
siempre y cuando su asistencia a clases sea del 70%. El primer final será promediado con parciales y con el promedio de las calificaciones de las tareas que se dejen a lo largo del curso. Para este promedio se considerarán los siguientes porcentajes.
Examen final 50%
Exámenes parciales 40%
Tareas 10%
ESCALA DE CALIFICACIONES 0.0 – 5.9 --- 5
6.0 – 6.4 --- 6
6.5
6.6 – 7.4 --- 7
7.5
7.6 – 8.4 --- 8
8.5
8.6 – 9.4 --- 9
9.5
9.6 – 10 --- 10
Apuntes de Álgebra Lineal
3
En caso de no aprobar el primer examen final, la calificación correspondiente será la obtenida en el segundo examen final. Los oyentes serán evaluados exclusivamente con el segundo examen final colegiado.
FECHAS DE EXAMENES PARCIALES Y FINALES:
1er. Parcial: 25 al 26 de febrero de 2015
2do. Parcial: 6 al 10 de abril de 2015
3er. Parcial: 28 al 30 de abril de 2015
4to. Parcial: 22 de mayo de 2015
FINALES
1er. Final: 25 de Mayo 2015, 15:30 hrs.
2do. Final: 1 de Junio 2015, 10:30 hrs.
Apuntes de Álgebra Lineal
4
BIBLIOGRAFÍA
1. Lay, David C. Álgebra Lineal y sus Aplicaciones, 2da. Edición, Prentice Hall, 2001
2. Nakos. George y Joyner, David Álgebra Lineal con Aplicaciones, Thomson Editores, 1999
3. Solar G., Eduardo y Speziale, Leda Apuntes de Álgebra Lineal, Editorial Limusa, 1996
4. Bell, E.T. Historia de la Matemáticas, 2da. Edición, Fondo de Cultura Económica, 1995
5. Anton H. Introducción al Álgebra Lineal, Edit. Limusa, 2003
6. Godínez C, Héctor y Herrera C., Abel Álgebra Lineal, teoría y ejercicios, Facultad de Ingeniería 1987
CAPÍTULOS: I. Introducción al álgebra lineal
II. Espacios Vectoriales
III. Transformaciones lineales
IV. Espacios con Producto Interno
V. Operadores lineales en espacios con producto interno
Álgebra Lineal: es la parte de la matemática que estudia los espacios vectoriales y los conceptos relacionados con ellos (matrices, espacios y formas algebraicas), así como las aplicaciones a la teoría de sistemas de ecuaciones lineales y al comportamiento algebraico de las funciones.
Apuntes de Álgebra Lineal
5
CAPITULO 2
“ESPACIOS VECTORIALES”
2.1 Definición de espacio vectorial. Propiedades elementales de los espacios vectoriales. Subespacios. Isomorfismos entre espacios vectoriales. ESPACIO VECTORIAL. En este capítulo se analizaran conjuntos en los cuales exista una relación entre sus elementos, de manera que se establezca el concepto de dependencia lineal.
En forma genérica, a los elementos de un espacio vectorial se les llama “vectores”, por lo que, en
este contexto, la palabra vector adquiere un significado más amplio.
DEFINICIÓN
En primera instancia se definirá lo que es un espacio vectorial, para tal efecto se considerará un
conjunto U y un campo K, cuyos elementos se conocen como vectores y escalares
respectivamente.
Para poder llegar a definir la estructura de espacio vectorial se requiere, además de las siguientes
operaciones:
1) Suma de vectores
2) Multiplicación de un vector por un escalar.
Regla de correspondencia (criterio)
(a, b) + (c, d) = (a+d, b+c)
(a, b) = (a,b)
Si estas operaciones cumplen con las siguientes propiedades, entonces se tendrá un espacio vectorial.
I. La suma forma un grupo abeliano con el conjunto U II. Se debe cumplir la cerradura de la multiplicación de un vector por un escalar. III. Existe la distributividad tanto para la suma de vectores por un escalar, como para la suma de
escalares por un vector. IV. Se cumple la homogeneidad para el producto de escalares por un vector. V. Existe el escalar idéntico.
Apuntes de Álgebra Lineal
6
Si V es un espacio vectorial sobre K, entonces
El vector es único y es tal que:
El vector es único y es tal que:
La ecuación t iene solución única en V
i u v w V u v u w v w
ii e v v v V
iii i v i
iv u x v
v v V v v
vi u v V u v u v
) , , :
) ;
)
)
) : ( )
) , : ( ) ( )
0 0
0
EJEMPLO:
EJEMPLO:
EJEMPLO:
Espacio Nulo:
Contiene al vector nulo, ejemplo en polinomios: P= (0x2+0x+0)=
EJEMPLO:
PROPIEDADES ELEMENTALES DE LOS ESPACIOS VECTORIALES.
De los diez postulados que integran la definición de espacio vectorial, los primeros cinco se refiere
únicamente a la adición, y establecen que el sistema (V, +) es un grupo abeliano; por lo tanto, se
pueden enunciar las siguientes propiedades, las cuales son comunes a todos los espacios
vectoriales.
TEOREMA.
Continuando con los postulados de la multiplicación por un escalar se establecen otras
propiedades que, junto con las anteriores, rigen los procedimientos algebraicos en un espacio
vectorial.
0
Apuntes de Álgebra Lineal
7
TEOREMA:
Sea V un espacio vectorial sobre K.
𝑖) ∀ ∝ 𝜖 𝐾: ∝ 0̅ = 0̅
𝑖𝑖) ∀ �̅� 𝜖 𝑉: 0�̅� = 0̅, 𝑑𝑜𝑛𝑑𝑒 0 𝑒𝑠 𝑒𝑙 𝑐𝑒𝑟𝑜 𝑑𝑒 𝐾
𝑖𝑖𝑖) ∀ ∝ 𝜖 𝐾, �̅� 𝜖 𝑉: (−∝)�̅� = −∝ �̅� =∝ (−�̅�)
𝑖𝑣) ∀ ∝ 𝜖 𝐾, �̅� 𝜖 𝑉: ∝ �̅� = 0̅ → 𝛼 = 0 𝑜 �̅� = 0̅
𝑣) ∀ ∝ 𝜖 𝐾, �̅�, �̅� 𝜖 𝑉: ∝ �̅� =∝ �̅� 𝑦 ∝≠ 0 → �̅� = �̅�
𝑣𝑖) ∀∝, 𝛽 ∈ 𝐾, �̅� ∈ 𝑉: 𝛼�̅� = 𝛽�̅� 𝑦 �̅� ≠ 0̅ → 𝛼 = 𝛽
SUBESPACIO.
Es posible que un espacio vectorial tenga subconjuntos que sean, por sí mismos, espacios
vectoriales.
Subespacio vectorial.
Dado un espacio vectorial A y un subconjunto B de A, si B es también un espacio vectorial respecto
a las operaciones definidas en A, decimos entonces que B es un subespacio vectorial de A.
Todo espacio vectorial es subespacio del mismo.
Para facilitar la verificación de que un conjunto es subespacio vectorial o no, se dispone del
siguiente teorema.
Teorema: Dado un subconjunto B de un espacio vectorial A, se tiene que si:
1) El conjunto B es cerrado para la suma de dos elementos cualesquiera del conjunto y
2) El conjunto B es cerrado para la multiplicación de uno de sus elementos por un escalar.
Entonces B es un subespacio vectorial de A.
Es decir que bastará con verificar la “cerradura” de B con respecto a la adición y a la multiplicación
por un escalar definidas en A para concluir que B es subespacio de A.
Apuntes de Álgebra Lineal
8
EJEMPLO:
NOTA: Condición necesaria que un conjunto contenga el vector cero para que sea subespacio,
pero dicha condición no es suficiente.
EJEMPLOS:
ISORMORFISMOS ENTRE ESPACIOS VECTORIALES.
El concepto de isomorfismo es de relevante importancia en las matemáticas, especialmente desde
el punto de vista de sus aplicaciones. El término “isomorfo”, etimológicamente significa “de igual
forma”, se emplea en el álgebra para denotar la idea de que dos sistemas son tan parecidos que
pueden considerarse, en esencia, como el mismo.
EJEMPLO.
Los espacios vectoriales del tipo Rn tienen una gran aplicación en el estudio mismo de los espacios
vectoriales. Es probablemente que la aplicación más útil resulte el teorema que estable que los
espacios vectoriales de la misma dimensión, son isomorfos. Es decir, todos los espacios vectoriales
de la misma dimensión son algebraicamente hablando, iguales. De esta manera al estudiar un
espacio vectorial V, de dimensión n, emplearemos el isomorfismo para trabajar con vectores del
espacio vectorial Rn y el resultado lo aplicaremos al espacio V.
𝑅𝑛 ↔ 𝑀𝑛𝑥𝑛
𝑀 = {[𝑎 𝑏𝑐 𝑑
] |𝑎, 𝑏, 𝑐, 𝑑 ∈ 𝑅}
𝑅4 = {(𝑎, 𝑏, 𝑐, 𝑑)|𝑎, 𝑏, 𝑐, 𝑑 ∈ 𝑅}
[−1 02 3
] → (−1,0,2,3)
(1,4,4,2) → [1 44 2
]
Apuntes de Álgebra Lineal
9
DEFINICIÓN.
Sean U y V dos espacios vectoriales. Se dice que la función I:UV es un isomorfismo de U a V, si I
es biyectiva (inyectiva y suprayectiva) y además cumple con las siguientes condiciones.
1) 𝐼(�̅�1 + �̅�2) = 𝐼(�̅�1) + 𝐼(�̅�2)
2) 𝐼(∝ �̅� ) =∝ 𝐼(�̅�)
Los espacios vectoriales isomorfos sólo difieren en la naturaleza de sus elementos, sus
propiedades algebraicas son idénticas.
Si U y V son espacios vectoriales isomorfos bajo el isomorfismo I, entonces para el vector a del
espacio U, existe un único vector v en el espacio V, tal que I(u)=v y recíprocamente, para cada
vector de V del espacio V, existe un único vector u del espacio U tal que I(v)=u
De acuerdo con lo anterior podemos establecer los siguientes teoremas:
Teorema 1: Si V es un espacio vectorial real de dimensión n, entonces V es isomorfo a Rn.
Teorema 2: Todo espacio vectorial V es isomorfo a si mismo
Teorema 3: Si un espacio vectorial V es isomorfo a otro espacio W, entonces W es isomorfo a V
Teorema 4: Dos espacios vectoriales de igual dimensión son isomorfos.
EJEMPLO.
2.2 Combinación Lineal. Dependencia Lineal. Conjunto generador. Base y dimensión de un espacio
vectorial. Coordenadas de un vector respecto a una base ordenada. Matriz de transición.
COMBINACIÓN LINEAL.
Dado un espacio vectorial: 𝑉 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
Se define como combinación lineal de ellos a la expresión:
Donde i K (campo del espacio vectorial (V)).
1 1 2 2 3 3v v v vn n ...
Apuntes de Álgebra Lineal
10
EJEMPLO:
EJEMPLO:
DEPENDENCIA LINEAL.
Sea el conjunto de vectores: {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
Decimos que el conjunto V es linealmente dependiente, si existen escalares no todos nulos, que
satisfagan la ecuación:
Si la única solución a dicha ecuación es 1=2=3=...=n=0, entonces decimos que el conjunto V es
linealmente independiente.
Ejemplo: (1,0,0), (0,1,0), (0,0,1)
De acuerdo con lo anterior se tienen los siguientes dos teoremas:
Teorema 1: Todo conjunto de vectores que contenga al vector cero es linealmente dependiente.
(1,0), (0,1), (0,0)
Teorema 2: Todo subconjunto de un conjunto de vectores linealmente independientes es a su vez
linealmente independiente.
(1,0), (0,1)
NOTA: Un conjunto formado por dos o más vectores es linealmente dependiente cuando al menos
uno de ellos es una combinación lineal de los otros vectores del conjunto.
En caso contrario; cuando ninguno de los vectores es combinación lineal de los restantes, el
conjunto es linealmente independiente.
EJEMPLO:
EJEMPLO:
CONJUNTO GENERADOR DE UN ESPACIO VECTORIAL.
Cuando todos los vectores de un espacio vectorial pueden obtenerse mediante combinaciones
lineales de un conjunto finito de vectores de dicho espacio, se dice que dicho conjunto es
generador del espacio vectorial.
1 1 2 2 3 3 0v v v vn n ...
Ecuación de dependencia lineal
0
Apuntes de Álgebra Lineal
11
De acuerdo con lo anterior, el concepto de conjunto generador se puede definir formalmente de
la siguiente manera:
Definición: Sea V un espacio vectorial sobre un campo K y sea 𝐺 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
Un conjunto de vectores de V. Se dice que G es generador del espacio vectorial V, si para todo
vector existen escalares 1, 2, 3,..., n tal que:
Todo conjunto de vectores no vacío genera un espacio vectorial y para un espacio vectorial el
conjunto generador no es único.
El conjunto de todas las combinaciones lineales de un conjunto de vectores de un espacio vectorial
V es un subespacio de V.
EJEMPLO:
BASE Y DIMENSIÓN DE UN ESPACIO VECTORIAL:
Se define como base de un espacio vectorial V, a cualquier conjunto B de vectores de V tal que:
1) Los elementos de B son linealmente independientes
2) Cualquier vector de V puede expresarse como una combinación lineal de los elementos
B.
De acuerdo con las condiciones establecidas, existen varias bases en un espacio vectorial, la
relación que existe entre bases, consiste en el número de elementos que las constituyen, ya que
dicho número es el mismo para cualquier base.
Base canónica:
La base canónica de Rn es el conjunto {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
Donde 𝑒𝑖𝑗 = {1 𝑝𝑎𝑟𝑎 𝑖 = 𝑗0 𝑝𝑎𝑟𝑎 𝑖 ≠ 𝑗
Todas las bases de un espacio vectorial de n elementos tienen el mismo número de elementos o
menor.
EJEMPLO:
x V
x v v v vn n 1 1 2 2 3 3 ...
Apuntes de Álgebra Lineal
12
Dimensión:
La dimensión de un espacio vectorial se define como la cantidad de vectores de cualquiera de sus
bases.
Teoremas:
- Sea V un espacio vectorial sobre K. Si 𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛} se dice que V es de
Dimensión n. Dim V = n, en particular si 𝑉 = {0̅} entonces dim V = 0.
- Sea V un espacio vectorial sobre K. Si 𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛} es una base de V, entonces
cualquier conjunto de vectores de V con más de n elementos es linealmente dependiente.
- Si V es un subespacio vectorial de dimensión n, cualquier conjunto linealmente independiente formado por n vectores de V es una base de dicho espacio.
- Si V es un espacio vectorial de dimensión n y W es un subespacio de V entonces . Si dim W = n entonces W=V
EJEMPLOS.
COORDENADAS DE UN VECTOR RESPECTO A UNA BASE:
Dada la base: 𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛} de un espacio vectorial, en donde un vector
cualquiera de dicho espacio está dado por:
A los escalares 1, 2, 3,..., n, les llamaremos las coordenadas de en la base B, y al arreglo
(𝑎)̅̅ ̅𝐵 = (∝1, ∝2, ∝3, … , ∝𝑛) le llamaremos vector de coordenadas de respecto a la base B.
Tratándose de bases, el orden de sus elementos es importante.
- El vector de coordenadas respecto a una base dada es único para cada vector del espacio. - El vector de coordenadas de un vector perteneciente a un espacio, cambia al cambiar la base
de referencia.
EJEMPLO:
EJEMPLO:
dimW n
a
a b b b bn n 1 1 2 2 3 3 ...
a
a
Apuntes de Álgebra Lineal
13
MATRIZ DE TRANSICIÓN:
El cambio de coordenadas de una base a otra puede efectuarse multiplicando una matriz por un
vector. Esta matriz se conoce como matriz de transición o matriz de cambio de base.
Para obtener esta matriz se procede de la siguiente forma:
𝑆𝑒𝑎𝑛 𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
𝑊 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
Dos bases de un espacio vectorial, la matriz de transición está formada por la
disposición en columnas de los vectores de coordenadas de los elementos de la base B con
respecto a la base W, esto es:
𝑀𝑊𝐵 = [(𝑣1̅̅ ̅)𝑊
𝑇 (𝑣2̅̅ ̅)𝑊𝑇 (𝑣3̅̅ ̅)𝑊
𝑇 … (𝑣𝑛̅̅ ̅)𝑊𝑇 ]
(�̅�1)𝑊 = �̅�1 =∝1 �̅�1 +∝2 �̅�2 + ⋯
De tal forma que, si conocemos el vector (𝑣)̅̅ ̅𝐵 𝑑𝑜𝑛𝑑𝑒 �̅� ∈ 𝑉 y deseamos obtener el vector de
coordenadas de (�̅�)𝑊 , entonces será suficiente con desarrollar el siguiente producto
𝑀𝑊𝐵 (�̅�)𝐵 = (�̅�)𝑊
EJEMPLO:
Toda matriz de transición de una base A a otra B, es no singular y su inversa es la matriz de B a A.
Conviene hacer notar que toda matriz de transición tiene inversa y además que:
Si se conoce la matriz de transición de una base V, a una base W, entonces la inversa de esa matriz
resulta ser:
𝑀𝑽𝑾 𝑒𝑠𝑡𝑜 𝑒𝑠
(𝑀𝑊𝑉 )−1 = 𝑀𝑉
𝑊
EJEMPLO:
WB
M
Apuntes de Álgebra Lineal
14
2.3 Espacio renglón, espacio columna y rango de una matriz.
Espacios vectoriales generados por los renglones y las columnas de una matriz.
Dada una matriz A de orden nxn, se tiene que tanto sus renglones como sus columnas pueden
definir un espacio vectorial, por ejemplo:
𝐴 = [1 −21 0
]
Con los renglones de A tenemos:
𝐵(𝐴)𝑅 = {(1, −2), (1,0)}
Con las columnas de A tenemos:
𝐴𝑇 = [1 1
−2 0]
𝐵(𝐴)𝐶 = {(1,1), (−2,0)}
Se pueden formar espacios vectoriales con los renglones y las columnas de la matriz A, además, se
puede presentar el hecho de aplicar transformaciones elementales a la matriz original y así
obtener matrices equivalentes.
𝑖) Cambio de dos lineas:
𝐴′ = [1 01 −2
]
𝑖𝑖) Multiplicación por una constante diferente de cero:
𝐴′′ = (−2) [1 −21 0
] = [−2 4−2 0
]
𝑖𝑖𝑖) Multiplicación de una línea por una constante sumada a otra línea.
𝐴′′′ = [1 −21 0
](−1)
+
= [0 −21 0
]
Lo que se hace con renglones se puede hacer con columnas y hacer operaciones simultáneas.
De la misma forma en que se obtienen espacios vectoriales iguales con los renglones de una
matriz (aplicando transformaciones elementales), se pueden obtener espacios vectoriales iguales
considerando las columnas de dicha matriz.
Por lo tanto la aplicación de transformaciones elementales sobre las líneas de una matriz conduce
a espacios vectoriales iguales a los espacios de las líneas originales. De esta manera es factible
obtener la base y dimensión de un espacio vectorial, reduciendo una matriz determinada, a la
forma escalonada.
Apuntes de Álgebra Lineal
15
Forma canónica escalonada.
La aplicación sucesiva de transformaciones elementales se efectúa hasta obtener una “forma
canónica escalonada”.
Se dice que una matriz es una forma canónica escalonada, cuando además de ser una matriz
escalonada, el primer elemento distinto de cero de cada renglón es uno y dicho elemento es el
único diferente de cero en la columna en que se encuentra.
Ejemplo:
Para una matriz dada a existe una y sólo una forma canónica escalonada que es equivalente a la matriz A.
Los renglones no nulos de una forma canónica escalonada constituyen una base de su espacio renglón.
La última propiedad es válida también para una matriz escalonada cualquiera, pero en el caso de
una forma canónica aún más evidente.
EJEMPLO:
Teorema:
La relación que guardan los espacios renglón y columna de una matriz es que la dimensión de
estos es la misma.
Para cualquier matriz A se tiene que: L (AR) L(AC), dim L(AR)=dim L(AC)
EJEMPLO:
RANGO:
Se llama rango de una matriz A, y se denota con R(A) al número:
R(A)=dim L(AR) = dim L(AC)
El rango de una matriz representa el número máximo de renglones (y de columnas) linealmente
independientes que contiene la matriz.
Apuntes de Álgebra Lineal
16
EJEMPLO.
2.4 El espacio vectorial de las funciones continuas de variable real. Subespacios de dimensión
finita. La dependencia lineal de funciones. Criterio del Wronskiano.
ESPACIO VECTORIAL DE FUNCIONES:
El conjunto de las funciones reales de variable real constituyen un espacio vectorial con las
operaciones de adición y multiplicación por un escalar definidas en el curso de Cálculo Diferencial
integral.
(f+g) (x) = f(x) + g(x)
(f) (x) = f(x)
SUBESPACIOS DE FUNCIONES:
El espacio F de las funciones continuas de variable real, no puede ser generado por un conjunto
infinito de vectores, y se dice por ello que es de dimensión finita.
Subespacios de dimensión finita son:
- Polinomios de grado menor o igual que n, funciones definidas en un intervalo, funciones continúas en un intervalo.
- Conjunto de las soluciones de la ecuación diferencial y”+ay’+by=0
Si tenemos f1, f2, f3,...,fn 1f1+2f2+3f3+ ... + nfn = 0
1f1(x)+2f2(x)+3f3(x)+ ... + nfn(x) = 0
Esta expresión representa un número finito de ecuaciones una para cada número real x. Cómo no
es posible generar a todas las funciones continuas de variable real con un conjunto de un número
finito de elementos, se considera que la dimensión del espacio es finita.
DEPENDENCIA LINEAL DE FUNCIONES:
Si representamos con F al conjunto de todas las funciones continuas de variable real, dado que F
es un espacio vectorial sobre R, es claro entonces que los conceptos de combinación lineal son
aplicables tanto a los elementos de F, como a cualquiera de sus subespacios.
EJEMPLO:
Apuntes de Álgebra Lineal
17
WRONSKIANO.
Dado el conjunto de funciones:
f1, f2, f3, ..., fn se define como Wronskiano al determinante:
𝑊 =|
|
𝑓1 𝑓2 𝑓3 ⋯ 𝑓𝑛
𝑓1´ 𝑓2
´ 𝑓3´ ⋯ 𝑓𝑛
´
𝑓1´´
⋮
𝑓1(𝑛−1)
𝑓2´´
⋮
𝑓2(𝑛−1)
𝑓3´´ ⋯ 𝑓𝑛
´´
⋮ ⋮ ⋮
𝑓3(𝑛−1)
⋯ 𝑓𝑛(𝑛−1=
|
|
Se tiene que el conjunto de funciones f1, f2, f3, ..., fn será linealmente independiente si existe al
menos un valor de la variable para el cual W0.
En caso de que el determinante W=0 se tiene incertidumbre sobre la dependencia o
independencia del conjunto, por lo que se tendrá que recurrir, en este caso a la ecuación de
dependencia lineal.
EJEMPLO:
EJEMPLO:
EJEMPLO:
Apuntes de Álgebra Lineal
18
u
CAPITULO 3
“TRANSFORMACIONES LINEALES”
3.1 Definición de transformación. Dominio, codominio, núcleo y recorrido de una transformación.
DEFINICIÓN DE TRANSFORMACIÓN:
Como sabemos una función f de A en B (donde A y B son conjuntos no vacíos cualesquiera) es una
regla o criterio que asocia a cada elemento de A, uno y solo un, elemento de B, lo cual denotamos
mediante f: AB; existen también funciones entre espacios vectoriales que en forma similar
denotamos por: T:UV, donde U y V son espacios vectoriales sobre el mismo campo K y T es la
regla de correspondencia que asigna a cada vector de U uno y solo un vector de V, al que
llamaremos “imagen de u” y representamos como T(u).
A este tipo de funciones le daremos el nombre de transformaciones:
T
Dominio Codominio
Y a los espacios U y V se llaman, respectivamente, dominio y codominio de la transformación.
Al conjunto formado por todos los vectores que son imagen de algún vector del dominio, se le
conoce como el recorrido de la transformación.
Lo representamos con T (U), esto es:
𝑇: 𝑈 → 𝑉
𝑇(𝑈) = {�̅� ∈ 𝑉|�̅� = 𝑇(�̅�); ∀ �̅� ∈ 𝑈}
T(u)
Apuntes de Álgebra Lineal
19
U V
T
El núcleo de una transformación es el conjunto de vectores cuya imagen es el vector cero. Dicho
conjunto lo representamos con: N (T), esto es:
𝑁(𝑇) = {�̅�|�̅� ∈ 𝑈; 𝑇(�̅�) = 0̅}
U V
Sea T:UV una transformación tenemos que:
Dominio: Es el conjunto U de vectores sobre los cuales actúa la transformación:
U V
T
T(x,y,z) = (x,y)
Los espacios vectoriales U= R3 y V= R2 son el dominio y codominio de la transformación.
Como se puede observar, el recorrido de una transformación es un subconjunto del codominio y el
núcleo es un subconjunto del dominio.
EJEMPLO.
( x,y,z)
(x,y)
v=T(u)
u
N(T)
u1
u2
0
Apuntes de Álgebra Lineal
20
3.2 Definición de transformación lineal. Los subespacios núcleo y recorrido de una transformación
lineal. Caso de dimensión finita: relación entre las dimensiones del dominio, recorrido y núcleo de
una transformación lineal.
TRANSFORMACIÓN LINEAL:
Antes de continuar con la descripción de conjuntos que caracteriza a una transformación se dará
la definición correspondiente a transformación lineal.
Una transformación T:UV donde U y V son espacios vectoriales, es lineal, si y solo si, satisface las
siguientes propiedades:
1) Superposición: La transformación de una suma es igual a la suma de las transformaciones:
𝑇(�̅�1 + �̅�2) = 𝑇(�̅�1) + 𝑇(�̅�2) ∀ �̅�1, �̅�2 ∈ 𝑈
2) Homogeneidad: La transformación de un vector multiplicado por un escalar es igual al producto
del escalar por la transformación del vector.
𝑇(∝ �̅�) =∝ 𝑇(�̅�) ∀ �̅� ∈ 𝑈, ∝ ∈ 𝐾
EJEMPLO:
LOS SUBESPACIOS NÚCLEO Y RECORRIDO DE UNA TRANSFORMACIÓN LINEAL.
Como ya hemos visto, el recorrido de una transformación es un subconjunto del codominio y el
núcleo es un subconjunto del dominio. Si la transformación es lineal dichos subconjuntos son
además subespacios.
TEOREMA:
𝑆𝑖 𝑇: 𝑉 → 𝑊 𝑒𝑠 𝑢𝑛𝑎 𝑡𝑟𝑎𝑛𝑠𝑓𝑜𝑟𝑚𝑎𝑐𝑖𝑜𝑛 𝑙𝑖𝑛𝑒𝑎𝑙, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:
𝑖) 𝑇(𝑉)𝑒𝑠 𝑢𝑛 𝑠𝑢𝑏𝑒𝑠𝑝𝑎𝑐𝑖𝑜 𝑑𝑒 𝑊
𝑖𝑖) 𝑁(𝑇) 𝑒𝑠 𝑢𝑛 𝑠𝑢𝑏𝑒𝑠𝑝𝑎𝑐𝑖𝑜 𝑑𝑒 𝑉
Si T: MV es una transformación lineal entonces: T (M) es un subespacio de V y N (T) es un
subespacio de M.
Como T (M) es un subcojunto de V, se prueba que T (M) es cerrado para la adición y multiplicación
por un escalar.
Apuntes de Álgebra Lineal
21
Sea �̅�1 𝑦 �̅�2 vectores de T (M), existen dos vectores �̅�1 𝑦 �̅�2 M tales que:
�̅�1 = 𝑇(�̅�1) 𝑦 �̅�2 = 𝑇(�̅�2)
Se tiene que: �̅�1 + �̅�2 = 𝑇(�̅�1) + 𝑇(�̅�2) como T es lineal entonces:
�̅�1 + �̅�2 = 𝑇(�̅�1 + �̅�2)
�̅�1 + �̅�2 ∈ 𝑇(𝑀) ∴ 𝑐𝑢𝑚𝑝𝑙𝑒
Multiplicación por un escalar.
∝ �̅�1 =∝ 𝑇(�̅�1) como T es lineal, ∝ �̅�1 = 𝑇(∝ �̅�1), ∝ �̅�1 ∈ 𝑇(𝑀)
Es un subespacio vectorial de M.
Obtención del recorrido de una transformación lineal.
Para determinar el recorrido de una transformación lineal específica podemos aprovechar la
siguiente propiedad:
Sea T:VW una transformación lineal. Si 𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛} es una base de V, entonces el
conjunto 𝐺 = {𝑇(�̅�1), 𝑇(�̅�2), 𝑇(�̅�3), … , 𝑇(�̅�𝑛)} es un generador de T(V).
Sea 𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛} una base de V. Si w es un vector cualquiera de T(V), entonces existe
un vector v V tal que:
�̅� = 𝑇(�̅�)
Como B es una base de V:
�̅� = 𝑇(∝1 �̅�1 +∝2 �̅�2 +∝3 �̅�3 + ⋯ +∝𝑛 �̅�𝑛) Por lo que:
�̅� = 𝑇(∝1 �̅�1) + 𝑇(∝2 �̅�2) + 𝑇(∝3 �̅�3) + ⋯ + 𝑇(∝𝑛 �̅�𝑛) y como T es lineal
�̅� =∝1 𝑇(�̅�1) +∝2 𝑇(�̅�2) +∝3 𝑇(�̅�3) + ⋯ +∝𝑛 𝑇(�̅�𝑛)
en consecuencia 𝐺 = {𝑇(�̅�1), 𝑇(�̅�2), 𝑇(�̅�3), … , 𝑇(�̅�𝑛)} es un conjunto generador de T(V)
Si G es linealmente independiente entonces es una base de T(V) y si es linealmente dependiente
puede obtenerse una base de T(V) a partir de este.
EJEMPLO:
v v v v vn n 1 1 2 2 3 3 ...
Apuntes de Álgebra Lineal
22
TEOREMA de dimensiones: Sea U un espacio vectorial y sea T:UV una transformación lineal, se
tiene que:
Dim U = Dim T(U) + Dim N(T)
Donde U = dominio de la transformación
T(U) = Recorrido de la transformación
N(T) = Núcleo de la transformación
Esto sucede siempre que se trabaja con espacios de dimensión finita, U es un espacio vectorial de
dimensión finita.
EJEMPLO:
EJEMPLO:
3.3 Matriz asociada a una transformación lineal con dominio y codominio de dimensión finita.
MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL.
Existe una forma alternativa para obtener imágenes de una transformación lineal, la cual está
basada en el concepto de matriz asociada a una transformación.
Esta matriz se obtiene por la disposición en columnas de las imágenes de los elementos de una
base canónica del dominio. De esta forma, la imagen de un vector está dada por el producto de la
matriz asociada y el vector dado en forma de columna.
U V
Esto es posible de esta forma, siempre y cuando tanto el dominio como el codominio sean
espacios del tipo Rn.
EJEMPLO:
u
T(u)
Apuntes de Álgebra Lineal
23
Las ideas anteriores pueden generalizarse al caso de espacios vectoriales cualesquiera,
simplemente, reemplazando los vectores imagen por sus respectivos vectores de coordenadas.
T
U V V
U y V cualquier espacio vectorial.
De acuerdo con esto la matriz asociada a la transformación referida a dos bases cualesquiera A y B
respectivamente se representa de la siguiente forma:
U V
T
A B
A es base del dominio
B es base del codominio 𝑀𝐵𝐴(𝑇)
De esta forma se tiene que las columnas de dicha matriz son los vectores de coordenadas, en la
base B, de las imágenes de los elementos que integran la base A.
T: R3 R2
R3 T R2
𝐴 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
Apuntes de Álgebra Lineal
24
Imágenes:
𝑇(�̅�1) → [𝑇(�̅̅�1)]𝐵
𝑇(�̅�2) Como combinación → [𝑇(�̅̅�2)]𝐵
𝑇(�̅�3) lineal de los → [𝑇(�̅̅�3)]𝐵
⋮ elementos de B ⋮
𝑇(�̅�𝑛) → [𝑇(�̅̅�𝑛)]𝐵
∴ 𝑀𝐵𝐴(𝑇) = [[𝑇(�̅�1)𝐵]𝑇 [𝑇(�̅�2)𝐵]𝑇 [𝑇(�̅�3)𝐵]𝑇 ⋯ [𝑇(�̅�𝑛)𝐵]𝑇 ]
TEOREMA: Si T:V W es una transformación lineal, existe una y solo una matriz:
𝑀𝐵𝐴(𝑇) de orden nxn, tal que:
𝑀𝐵𝐴(𝑇) (�̅�)𝐴 = [𝑇(�̅�)]𝐵 ∀ �̅� ∈ 𝑉
Donde A y B son bases de V y W respectivamente.
En toda transformación es posible obtener su matriz asociada.
De acuerdo con este teorema la matriz 𝑀𝐵𝐴(𝑇) nos permite calcular la imagen de un vector
cualquiera v del dominio, mediante el siguiente procedimiento, que podríamos considerar
indirecto.
1) Determinar las coordenadas de v en la base A, (�̅�)𝐴..
2) Multiplicar la matriz 𝑀𝐵𝐴(𝑇) por el vector (�̅�)𝐴.
3) Obtener el vector 𝑇(�̅�) a partir de sus coordenadas en la base B.
Apuntes de Álgebra Lineal
25
Esquematizando:
Aplicando la regla
de correspondencia
𝑇(�̅�)
Cálculo Obtención
de de la
coordenadas imagen
Multiplicando por 𝑀𝐵𝐴(𝑇)
la matriz.
𝑀𝐵𝐴(𝑇) A base del dominio, B base del codominio
EJEMPLO:
TEOREMA: En una transformación lineal, la dimensión del recorrido es igual a la dimensión o
rango de la matriz asociada referida a dicha transformación.
T: V W R(M(T)) = dim T(V)
R(𝑀𝐵𝐴(𝑇))= dim T(V)
EJEMPLO:
3.4 Álgebra de las transformaciones lineales: definición y propiedades de la adición, la
multiplicación por un escalar y la composición de transformaciones.
ALGEBRA DE TRANSFORMACIONES:
Así como se tiene operaciones con funciones también se tienen operaciones con
transformaciones.
1
2
1
3
1
v
Apuntes de Álgebra Lineal
26
Entre otras se tienen las siguientes:
1) Igualdad: Sean S y T dos transformaciones de V en W. Se dice que S y T son iguales, lo cual se
denota mediante S=T, cuando S( )=T( ) V.
2) Adición: Dadas dos transformaciones cuyo dominio es el mismo T:U V y
S:UV. Se tiene como resultado de esta operación: (𝑇 + 𝑆)�̅� = 𝑇(�̅�) + 𝑆(�̅�) ∀ �̅� ∈ 𝑈. En
términos de matrices asociadas se tiene que: M(T + S) = M(T) + M(S).
3) Multiplicación por un escalar: Dada una transformación T:UV y un escalar que pertenece al
campo de definición, se define esta operación de la siguiente forma:
( T)𝑢 ̅ = T(𝑢 ̅ ) U.
En términos de matrices asociadas se tiene: M(T) = M(T)
4) Composición: Dadas las transformaciones T:UV y R:VW, se define a la transformación
S:UW como el resultado de la composición entre las transformaciones R y T, esto es: 𝑆(�̅�) =
(𝑅∘𝑇)�̅�, desarrollando tenemos que 𝑆(�̅�) = 𝑅[𝑇(�̅�)], ∀ �̅� ∈ 𝑈 gráficamente:
U T V R W
R
S( )=R[T( )],
Para que esta operación pueda ser realizada debe existir intersección entre el recorrido de T y el
dominio de R.
La relación entre matrices asociadas está dada por:
M(RT)=M(R)M(T) o MRT=MRMT
Estas operaciones también se aplican a matrices asociadas con diferentes bases:
𝑀𝐶𝐴(𝑅°𝑇) = 𝑀𝐶
𝐵(𝑅)𝑀𝐵𝐴(𝑇)
NOTA: Si R y T son transformaciones lineales, entonces R+T y R también son lineales.
v vv
u
T(u)
R[T(u)]
u u
Apuntes de Álgebra Lineal
27
TEOREMA: El resultado de efectuar las operaciones anteriores con transformaciones lineales es
una transformación lineal.
EJEMPLOS:
PROPIEDADES DE LAS OPERACIONES CON TRANSFORMACIONES:
1) Conmutatividad de la adición: S+T=T+S
2) Asociatividad de la adición: (S+T) + R = S+ (T+R)
3) Homogeneidad del producto por escalares: (T) = ()T
4) Asociatividad de la composición: (S∘T) ∘R = S∘(T∘R)
5) Homogeneidad en la composición: (S∘T) = (S) ∘T = S∘(T)
6) Distributividad de la composición sobre de la adición: S∘(T+R)=(S∘T)+(S∘R)
7) Distributividad entre el producto por un escalar y la adición:
a) (+)T = T + T
b) (T+R)= T + R
3.5 La inversa de una transformación lineal.
TRANSFORMACIÓN INVERSA:
Dada una transformación lineal T:VW existe una transformación inversa T-1:WV, si y solo si, la
transformación original es biyectiva, esto es:
1) Dim V = Dim W
2) Dim N(T) = 0
En términos de matrices asociadas tenemos que:
T MT
T-1 MT-1=(MT)-1
EJEMPLO:
Apuntes de Álgebra Lineal
28
EJEMPLO:
Propiedades de la transformación inversa:
Si F:UV y T:VW son dos transformaciones biyectivas, y es un escalar del campo sobre el que
están definidos V y W entonces:
i) T-1 es única
ii) (T-1)-1 = T
iii) (TF)-1 = F-1 T-1
iv) (T)-1 = -1 T-1 ; si 0
TEOREMA: Sea T: VW una transformación lineal. Si T-1 existe entonces es una transformación
lineal.
TEOREMA: Sean T:VW una transformación lineal, V un espacio de dimensión finita y A, B bases
de V y W respectivamente.
i) T-1 existe si y solo si 𝑀 𝐵𝐴(𝑇) es no es singular
ii) Si T-1 existe, entonces 𝑀𝐴𝐵(𝑇−1) = [𝑀𝐵
𝐴(𝑇)]−1
EJEMPLO:
3.6 Efectos geométricos de las transformaciones lineales.
La transformación T(x, y, z) = (x, y) su interpretación geométrica es (x,y,z) representa un segmento
dirigido cualquiera del espacio cartesiano tridimensional, T transforma dicho segmento en su
proyección sobre el plano XY.
Otro tipo de efectos geométricos de la transformación son la traslación, escalamiento, y rotación.
Al tener la siguiente transformación:
T(x) =Ix+b= x+b si b ≠ 0, esta transformación es no lineal, a esta transformación se le llama
traslación por b.
Una traslación por un vector b ≠ 0 desplaza a una figura sumando b a todos sus puntos. Una
transformación afín es una transformación lineal seguida de una traslación.
Apuntes de Álgebra Lineal
29
El escalamiento consiste en simplemente multiplicar la transformación por un escalar, para
agrandar o empequeñecer la imagen. T(x) = αx, todo dependerá del valor del escalar.
3.7 Definición de operador lineal. Definición y propiedades de valores y vectores característicos de
un operador lineal. Definición de espacios característicos. Caso de dimensión finita: polinomio
característico, obtención de valores y vectores característicos.
OPERADOR LINEAL:
Son transformaciones de un espacio vectorial en sí mismo, esto es, transformaciones del tipo:
T: VV
A las que se les conoce con el nombre de “operadores”
VALORES Y VECTORES CARACTERÍSTICOS.
Para este tipo de transformaciones puede haber vectores que no se modifiquen al aplicar la
transformación, o cuya modificación consista únicamente en quedar multiplicados por un escalar.
𝑇(�̅�) = 𝜆�̅� donde es un escalar
Los vectores no cambian de dirección, sino cambian de tamaño:
T(x,y) = (2x+y, 6x+y) �̅�1 = (1,2) 𝑇(�̅�1) = (4,8) = 4(1,2) = 4�̅�1
A tales vectores se les llama “vectores característicos” del operador T y a los escalares se les
conoce como “valores característicos” de dicho operador. “ay-guen” (egienvalor)
Del ejemplo, 4 es un valor característico, y (1,2) es el vector característico.
Se excluye al vector cero como vector característico. Esto se debe a la conveniencia de que todo
vector característico corresponda a un solo valor característico. Empero, esta definición permite al
escalar cero ser un valor característico.
Algunos ejemplos:
Para la transformación identidad:
I:VV, todos los vectores no nulos de V son vectores característicos
correspondientes al valor 1 puesto que 𝐼(�̅�) = �̅� = 1�̅�; ∀ �̅� ∈ 𝑉
Para la transformación cero:
O:VV, todos los vectores no nulos de V son vectores característicos
correspondientes al valor 0, puesto que: 0(�̅�) = 0 = 0�̅� ∀ �̅� ∈ 𝑉
Apuntes de Álgebra Lineal
30
Para el operador derivación definido por:
D(f)=f’, en el espacio de las funciones reales de variables real, sus valores
característicos son aquellas funciones f no nulas tales que: f’=f para algún R. Esta es una
ecuación diferencial cuyas soluciones están dadas por la expresión:
f(x)= cex
PROPIEDADES DE LOS VALORES Y VECTORES CARACTERÍSTICOS.
1) Los vectores característicos asociados a valores característicos distintos son linealmente
independientes.
2) El escalar es único
3) Si �̅� es un vector asociado a un valor característico , entonces 𝛼�̅� es también un vector
característico, k (campo de definición) con 0.
4) Si �̅� 𝑦 �̅� son vectores característicos asociados a y �̅� ≠ −�̅� entonces �̅� + �̅� es un vector
característico asociado a .
ESPACIO CARACTERÍSTICO:
Es claro que todos los vectores de un espacio vectorial se transforman en vectores del mismo
espacio al aplicarles la transformación.
Si �̅� V entonces 𝑇(�̅�) V.
Si al conjunto de vectores característicos le agregamos el vector nulo, entonces dicho conjunto
define un espacio vectorial al cual llamaremos espacio característico:
𝐸() = {�̅�|�̅� ∈ 𝑉, 𝑇(�̅�) = �̅�} �̅� = 0
OBTENCIÓN DE VALORES Y VECTORES CARACTERÍSTICOS:
En un espacio de dimensión finita, el problema de obtener los valores y vectores característicos de
un operador lineal puede resolverse con ayuda de los determinantes y los sistemas de ecuaciones
lineales, mediante el procedimiento que se presenta a continuación.
Dado un operador lineal T que T: UU para el cual se tiene que T(�̅�)= �̅�; �̅�U, donde �̅� 0,
es un escalar.
Se define a u como un vector característico del operador T y al escalar como un valor
característico de dicho operador.
Apuntes de Álgebra Lineal
31
Para obtener tales elementos, se tiene que:
T(�̅�) = �̅� ....... (1)
Considerando:
MT=A ...... (2)
T(�̅�) = A�̅� ...... (3)
De 1 y 3 tenemos que:
I �̅� = 𝐴 �̅�; donde I es la matriz identidad.
De donde:
𝐴 �̅� − I �̅� = 0
(𝐴 − I)�̅� = 0 … …. (4)
Si obtenemos el determinantes de A- I, esto es: DET (A- I) a esta expresión se le conoce como
“polinomio característico”, de la transformación si se iguala a cero (DET(A- I))=0 y se le llama
“ecuación característica”, la cual nos permite obtener los valores de , es decir los valores
característicos.
Para obtener los respectivos vectores característicos, asociados a los valores de , se utiliza la
ecuación (4), esto es se determina la relación entre los componentes del vector u, para los cuales
se satisface esta ecuación.
EJEMPLO:
EJEMPLO:
Apuntes de Álgebra Lineal
32
3.8 Matrices similares y sus propiedades. Diagonalización de la matriz asociada a un operador
lineal.
MATRICES SIMILARES:
Las matrices asociadas a una transformación lineal en dos bases cualesquiera, pertenecen a un
cierto tipo de matrices cuadradas llamadas similares.
La forma en que se relacionan las matrices asociadas a una transformación lineal está dada por el
siguiente teorema:
TEOREMA: Sea T:VV una transformación lineal sobre un espacio vectorial V de dimensión finita.
Si M es la matriz asociada a T referida a la base A y N es la matriz asociada a T respecto a la base B,
entonces N=P-1MP, donde P es a matriz de transición de B a A.
𝑀 = 𝑀𝐴𝐴(𝑇)
𝑁 = 𝑀𝐵𝐵(𝑇)
𝑃 = 𝑀𝐴𝐵
𝑁 = 𝑃−1𝑀𝑃 ecuación de similaridad
Por consiguiente el teorema puede escribirse de la siguiente manera: “Dos matrices representan a
la misma transformación lineal T de B a B en bases diferentes, si son similares, donde V es el
espacio vectorial de dimensión finita”
Dos matrices representan al mismo operador si y solo si son similares.
Propiedades:
- Si A y B son matrices similares entonces Det A = Det B - Dos matrices similares tienen el mismo polinomio característico y por lo tanto, los mismos
valores característicos.
EJEMPLO:
DIAGONALIZACIÓN DE UNA MATRIZ ASOCIADA A UN OPERADOR LINEAL.
Que la matriz asociada sea de forma sencilla ofrece ciertas ventajas pues, además de que permite
identificar más fácilmente la información contenida en ella, su manejo algebraico se simplifica
Entre los tipos más sencillos de matrices están las diagonales. No siempre es posible encontrar una
representación diagonal para cualquier operador. Las condiciones bajo las cuales existe tal
representación:
Apuntes de Álgebra Lineal
33
Sea V un espacio vectorial de dimensión n y T:VV un operador lineal: existe una matriz diagonal
asociada a T, referida a una base, si y solo si existe una base de V formada por vectores
característicos. En tal caso, la matriz asociada a T, referida a esta base, es una matriz diagonal
cuyos elementos dii son los valores característicos correspondientes.
𝐷 = [𝜆1 0 00 𝜆2 00 0 0
00
𝜆𝑛
]
Para que un operador lineal tenga representación diagonal es condición suficiente que sus valores
característicos sean diferentes, sin embargo tal condición no es necesaria.
Dicho de otra manera, la suma de la dimensión de los espacios característicos debe ser la
dimensión del dominio, de esta forma se comprueba que el operador es diagonalizable; significa
que el operador o transformación se puede representar por una matriz diagonal.
EJEMPLO:
Diagonalización: Es un procedimiento que permite modificar a una matriz cualquiera a efecto de
obtener su matriz diagonal. Para el caso de matrices asociadas a una transformación, la matriz
diagonal que representa al operador se obtiene con la expresión: D=P-1AP
Donde D es la matriz diagonal, P es una matriz formada por vectores característicos dispuestos en
forma de columna y se le llama matriz diagonalizadora, y A es una matriz asociada al operador
referida a una base canónica, llamada matriz diagonalizable.
TEOREMA: Una matriz A de nxn es similar a una matriz diagonal D, si y solo si existe un conjunto
linealmente independiente formado por n vectores característicos de A. En tal caso, existe una
matriz no singular P tal que: D=P-1AP
EJEMPLO:
EJEMPLO:
Apuntes de Álgebra Lineal
34
CAPITULO 4
“ESPACIOS CON PRODUCTO INTERNO”
4.1 Definición de producto interno y sus propiedades elementales
PRODUCTO INTERNO:
Se ha visto que en un espacio vectorial se tiene la posibilidad de establecer varias operaciones,
una operación muy importante es la correspondiente al producto interno entre vectores, la cual se
denota por:
⟨�̅�, �̅�⟩
(�̅�|�̅�)
Si una operación cumple con las siguientes propiedades entonces será un producto interno.
1) Simetría o conmutatividad
(�̅�|�̅�) = (�̅�|�̅�)
2) Distributividad sobre la adición
(�̅� + �̅�|𝑐̅) = (�̅�|𝑐̅) + (�̅�|𝑐̅)
3) Homogeneidad
(∝ �̅�|�̅�) =∝ (�̅�|�̅�)
4) Positividad (�̅�|�̅�) > 0 ; ∀�̅� ≠ 0̅
Siempre y cuando el campo de definición del espacio vectorial sea el campo de los reales.
EJEMPLO:
En el caso de que el campo de definición del espacio vectorial corresponde al de los números
complejos, la definición de producto interno está dada por la verificación de las siguientes
propiedades:
1) (�̅�|�̅�) = (�̅�|�̅�)∗ donde ∗ = conjugado
2) (�̅� + �̅�|𝑐̅) = (�̅�|𝑐̅) + (�̅�|𝑐̅)
3) (∝ �̅�|�̅�) =∝ (�̅�|�̅�)
4) (�̅�|�̅�) > 0; ∀ �̅� ≠ 0̅
Apuntes de Álgebra Lineal
35
TEOREMA.
Sea V un espacio vectorial sobre C y sea (∙ |∙) un producto interno en V, entonces, ∀ �̅�, �̅� ∈
𝑉 𝑦 ∝ ∈ 𝐶:
𝑖) (�̅�|∝ �̅�) =∝̅ (�̅�|�̅�)
𝑖𝑖) (�̅�|�̅�) ∈ 𝑅
𝑖𝑖𝑖) (0̅|�̅�) = 0 = (�̅�|0̅)
𝑖𝑣) (�̅�|�̅�) > 0 ↔ �̅� ≠ 0̅
EJEMPLO:
4.2 Definición de norma de un vector y sus propiedades, vectores unitarios. Desigualdad de
Cauchy-Schwarz. Definición de distancia entre dos vectores y sus propiedades. Definición de
ángulo entre dos vectores. Vectores ortogonales.
NORMA DE UN VECTOR
La idea de magnitud (o tamaño) de un vector se introduce formalmente en un espacio vectorial
con el concepto de norma.
En un espacio vectorial V, el número no negativo definido por la expresión:
‖�̅�‖ = (�̅�|�̅�)1
2⁄
Se denomina norma del vector, sobre un producto interno definido.
La norma de un vector depende del producto interno que se haya elegido. Un mismo vector puede
tener diferentes normas.
Las propiedades que cumple la norma de un vector son las siguientes:
Desigualdad del triangulo
.
v
v
1 0 0
2 0 0
3
4
)
)
)
)
si
si
v v
v v
v v
u v u v
v
Apuntes de Álgebra Lineal
36
EJEMPLO:
EJEMPLO:
EJEMPLO:
VECTORES UNITARIOS:
Se dice que un vector es unitario cuando
Para cualquier vector de un espacio con producto interno, el vector:
(1
‖�̅�‖) �̅� =
�̅�
‖�̅�‖ es un vector unitario.
TEOREMA: DESIGUALDAD DE CAUCHY – SCHWARZ
Sea V un espacio vectorial sobre C y sea () un producto interno en V; entonces:
∀ �̅�, 𝑣 ̅ ∈ 𝑉:
|(�̅�|�̅�)|2 ≤ (�̅�|�̅�) (�̅�|�̅�)
𝑑𝑜𝑛𝑑𝑒 |(�̅�|�̅�)| 𝑒𝑠 𝑒𝑙 𝑚ó𝑑𝑢𝑙𝑜 𝑑𝑒 (�̅� |�̅�)
Además, la igualdad se cumple si y solo si y son linealmente dependientes
Si =0 o =0, es inmediato que la igualdad se verifica.
EJEMPLO:
DEFINICIÓN DE DISTANCIA ENTRE VECTORES.
Empleando el concepto de norma, podemos introducir en un espacio vectorial el concepto de
distancia entre vectores:
Sea V un espacio vectorial con producto interno, y sean, , V. Se llama distancia de
a y se representa con
v 1
d u v v u( , )
v
vu
u v
v
u v
u v
Apuntes de Álgebra Lineal
37
La distancia es el conjunto de los números reales no negativos, y tiene las siguientes propiedades.
1) 𝑑(�̅�, �̅�) ≥ 0
2) 𝑑(�̅�, �̅�) = 0 𝑠𝑖 𝑦 𝑠ó𝑙𝑜 𝑠𝑖 �̅� = �̅�
3) 𝑑(�̅�, �̅�) = 𝑑(�̅�, �̅�)
4) 𝑑(�̅�, �̅�) ≤ 𝑑(𝑢,̅ �̅�) + 𝑑(�̅�, �̅�)
EJEMPLO:
ÁNGULO ENTRE VECTORES
El ángulo entre dos vectores de un espacio vectorial, se obtiene a partir de la siguiente expresión.
�̅�, �̅� 𝑑𝑜𝑠 𝑣𝑒𝑐𝑡𝑜𝑟𝑒𝑠 𝑛𝑜 𝑛𝑢𝑙𝑜𝑠 𝑑𝑒 𝑉
cos 𝜃 =(�̅�|�̅�)
‖�̅�‖‖�̅�‖
Siempre y cuando el campo de definición del espacio vectorial al cual pertenecen y sean los
reales R.
Si el campo de definición es complejo, entonces la expresión que me permite calcular el ángulo es:
cos 𝜃 =𝑅(�̅�|�̅�)
‖�̅�‖‖�̅�‖
Donde R( | ) representa la parte real del número complejo que resulte del producto interno.
El hecho de que dos vectores definan 90° no implica que sean ortogonales.
( | )=2i 0, pero la parte real es 0 entonces =90°
EJEMPLO
VECTORES ORTOGONALES.
En un espacio con producto interno, dos vectores y son ortogonales si:
(�̅�|�̅�) = 0
La ortogonalidad depende de la selección del producto interno. Es posible que dos vectores sean
ortogonales con respecto a un producto interno y que al mismo tiempo no lo sean con respecto a
otro producto interno.
u v
uv
u v
vu
Apuntes de Álgebra Lineal
38
EJEMPLO.
Uno de los resultados más importantes relacionado con la ortogonalidad de dos vectores es la
generalización del llamado “Teorema de Pitágoras”, el cual se enuncia a continuación.
Sea V un espacio con producto interno y sean y V. Si y son ortogonales entonces:
4.3 Conjuntos ortogonales y ortonormales. Independencia de un conjunto ortogonal de vectores
no nulos. Coordenadas de un vector respecto a una base ortogonal. Proceso de ortogonalización
de Gram-Schmidt.
CONJUNTOS ORTOGONALES Y ORTONORMALES.
Se considera que un conjunto es ortogonal, cuando cada uno de sus vectores es ortogonal a los
demás elementos del conjunto, como lo establece la siguiente definición:
Sea V un espacio con producto interno y sea 𝑆 = {�̅�1, �̅�2, �̅�3, . . , �̅�𝑛} un conjunto de vectores de V.
Se dice que S es un conjunto ortogonal cuando:
(�̅�𝑖|�̅�𝑗) = 0; ∀ 𝑖 ≠ 𝑗
Si además el conjunto S es ortonormal.
EJEMPLO:
INDEPENDENCIA LINEAL DE UN CONJUNTO ORTOGONAL DE VECTORES NO NULOS.
TEOREMA. Un conjunto ortogonal de vectores no nulos es linealmente independiente.
En el capítulo II se estableció el concepto de base de un espacio vectorial, considerando
solamente 2 condiciones.
- Independencia lineal - Conjunto generador
u v u v 2 2 2
v ii 1;
u vuv
Apuntes de Álgebra Lineal
39
En este capítulo, se ampliará este concepto al combinarlo con ortogonalidad.
De esta manera, una base ortonormal es aquella base ortogonal en la que todos sus elementos
tienen como valor del producto interno, consigo mismo a la unidad, esto es:
(�̅�𝑖|�̅�𝑖) = 1
Para normalizar un vector, hay que dividirlo entre su norma.
Lo anterior significa que para obtener una base ortonormal, se debe partir de una base arbitraria,
por lo cual se llegue a una base ortogonal y finalmente al dividir cada elemento por su norma
respectiva, se obtenga la correspondiente base ortonormal.
Conjunto Independiente, generador, ortogonal y unitario.
COORDENADAS DE UN VECTOR RESPECTO A UNA BASE ORTOGONAL.
Dado un vector a de un espacio vectorial, en el cual B constituye una base ortogonal,
𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
se tiene que:
Para determinar la coordenada i se procede a efectuar el producto interno de la expresión
anterior, miembro a miembro, considerando como factor al vector vi de la base ortogonal, esto es:
En general el vector de coordenadas de a respecto a una base ortogonal viene dado por:
(�̅�|�̅�𝑖) =∝1 (�̅�1|�̅�𝑖) +∝2 (�̅�2|�̅�𝑖) +∝3 (�̅�3|�̅�𝑖) + … + ∝𝑖 (�̅�𝑖|�̅�𝑖) + ⋯ + ∝𝑛 (�̅�𝑛|�̅�𝑖)
(�̅�|�̅�𝑖) =∝𝑖 (�̅�𝑖|�̅�𝑖)
∝𝑖=(�̅�|�̅�𝑖)
(�̅�𝑖|�̅�𝑖)
(�̅�)𝐵 = [(�̅�|�̅�1)
(�̅�1|�̅�1),
(�̅�|�̅�2)
(�̅�2|�̅�2),
(�̅�|�̅�3)
(�̅�3|�̅�3), … ,
(�̅�|�̅�𝑛)
(�̅�𝑛|�̅�𝑛)]
En el caso de que la base sea ortonormal, entonces el vector de coordenadas vendrá dado por:
(�̅�)𝐵´ = [(�̅�|�̅�1), (�̅�|�̅�2), … , (�̅�|�̅�𝑛)]
Donde:
a v v v vn n 1 1 2 2 3 3 ...
Apuntes de Álgebra Lineal
40
𝐵´ = {�̅�1, �̅�2, … , �̅�𝑛} Es una base ortonormal.
EJEMPLO:
PROCESO DE ORTOGONALIZACIÓN DE GRAM-SCHMIDT
Este se utiliza para obtener bases ortogonales de un espacio vectorial, a partir de una base
cualquiera de dicho espacio.
Entonces, dada la base: 𝐵 = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛} de un espacio vectorial, se tiene que:
𝐵´ = {�̅�1, �̅�2, �̅�3, … , �̅�𝑛}
Representa una base ortogonal del espacio vectorial considerando que:
�̅�1 = �̅�1
�̅�𝑟+1 = �̅�𝑟+1 − ∑(�̅�𝑟+1|�̅�𝑖)
(�̅�𝑖|�̅�𝑖)
𝑟
𝑖=1
�̅�𝑖
Donde r= 1,2,3,…, n-1
�̅�3 = �̅�3 − [(�̅�3|�̅�1)
(�̅�1|�̅�1)�̅�1 +
(�̅�3|�̅�2)
(�̅�2|�̅�2)�̅�2]
�̅�4 = �̅�4 − [(�̅�4|�̅�1)
(�̅�1|�̅�1)�̅�1 +
(�̅�4|�̅�2)
(�̅�2|�̅�2)�̅�2 +
(�̅�4|�̅�3)
(�̅�3|�̅�3)�̅�3]
EJEMPLO:
EJEMPLO.
Apuntes de Álgebra Lineal
41
4.4 Complemento ortogonal. Proyección de un vector sobre un subespacio. El teorema de
proyección.
COMPLEMENTO ORTOGONAL.
Sea V un espacio con producto interno y sea S un subconjunto de V. Se dice que un vector V
es ortogonal al conjunto S si:
(�̅�|�̅�) = 0 ∀ �̅� ∈ 𝑆
𝑆⊥ = {�̅� ∈ 𝑉|(�̅�|�̅�) = 0; ∀ �̅� ∈ 𝑆}
El conjunto de todos los vectores de V ortogonales a S se denota como S (complemento
ortogonal), esto es:
S es un subespacio.
Cerradura suma u̅1, u̅2
(�̅�|�̅�1) + (�̅�|�̅�2) = 0
0 + 0 = 0
Cerradura multiplicación
(∝ �̅�|�̅�) =∝ (�̅�|�̅�)
0 = 0
EJEMPLO:
TEOREMA:
Sea V un espacio con producto interno y sea W un subespacio de V de dimensión finita. Entonces
cualquier vector V puede expresarse en forma única como:
EJEMPLO:
PROYECCIÓN DE UN VECTOR SOBRE UN SUBESPACIO.
Sea V un espacio con producto interno, W un subespacio de V de dimensión finita y
{�̅�1, �̅�2, �̅�3, … , �̅�𝑛} una base ortonormal de W.
v w w
donde w W w W
'
' y
v
v
Apuntes de Álgebra Lineal
42
Si �̅� V, el vector
∑(�̅�|�̅�𝑖)�̅�𝑖 se llama proyección de v̅ sobre W.
𝑛
𝑖=1
EJEMPLO:
TEOREMA DE PROYECCIÓN.
Uno de los resultados de la teoría de los espacios con producto interno es el llamado teorema de
proyección (o teorema de la mejor aproximación).
Se trata de encontrar un vector �̅�0 del plano W que sea “el más cercano” a �̅� (o “el más
aproximado”), en el sentido de que la distancia entre �̅� y �̅�0 sea la menor distancia posible entre
�̅� y cualquier vector de W.
Tal vector existe, es único y es precisamente la proyección de �̅� sobre el subespacio W.
El vector �̅�0 se conoce como la proyección de �̅� sobre el espacio W, debido a que es la suma de las
proyecciones de �̅� sobre cada uno de los elementos de una base de W.
Sea V un espacio con producto interno y sea W un subespacio de V. Para cada vector �̅� V existe
uno y sólo un vector �̅�0 W tal que:
Dicho vector es la proyección de sobre W.
EJEMPLO:
v w v w w W w w 0 0, ,
Apuntes de Álgebra Lineal
43
~x
Ax b~ ~
~x
4.5 MINIMOS CUADRADOS.
Los sistemas inconsistentes surgen con frecuencia en las aplicaciones, aunque generalmente no
con una matriz de coeficientes tan grande. Cuando se necesita una solución y no existe alguna, lo
mejor que se puede hace es encontrar una solución tan cercana a la posible.
Por ejemplo al sistema no homogéneo 𝐴�̅� = �̅�, se debe encontrar una �̃� que haga 𝐴�̃� tan cercana
a �̅� como sea posible.
El término de mínimos cuadrados surge del hecho de que ‖�̅� − 𝐴�̃�‖ es la raíz cuadrada de una
suma de cuadrados.
DEFINICIÓN.
Si A es una matriz de orden mxn y �̅� está en Rn, una solución por mínimos cuadrados de 𝐴�̅� = �̅�
es una �̃� ∈ 𝑅𝑛 tal que: ‖�̅� −𝐴�̃�‖ ≤ ‖�̅� − 𝐴�̅�‖
TEOREMA:
Para cualquier matriz A de mxn y cualquier vector �̅�, hay una solución de mínimos cuadrados de
𝐴�̃� = �̃�. Además, si �̃� es la proyección de �̅� sobre Col A, entonces:
TEOREMA: Si las columnas de una matriz de mxn forman un conjunto ortogonal, entonces ATA es
una matriz diagonal nxn.
TEOREMA:
Si A es una matriz mxn, siempre hay �̃� solución por mínimos cuadrados de 𝐴�̅� = �̅�.
Además,
1. es una solución por mínimos cuadrados de 𝐴�̅� = �̅� si y solo si �̃� es una solución de las
ecuaciones normales
𝐴𝑇𝐴�̃� = 𝐴𝑇�̅�.
El error de mínimos cuadrados se define por: ‖∆‖ = ‖�̅� − 𝐴�̃�‖
Apuntes de Álgebra Lineal
44
2. A tendrá columnas linealmente independientes si y solo si ATA es invertible. En este caso, la
solución por mínimos cuadrados es única y puede calcularse con:
�̃� = (𝐴𝑇𝐴)−1𝐴𝑇�̅�
EJEMPLOS.
Apuntes de Álgebra Lineal
45
CAPITULO 5
“OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO”
5.1 Definición y propiedades elementales del adjunto de un operador.
Existen operadores que se pueden trabajar en espacios vectoriales en el cual se encuentra
definido un producto interno.
Dentro de estos operadores y para una mejor comprensión se puede trabajar con el operador
adjunto.
DEFINICION.
Sea V un espacio con producto interno y sea 𝑇: 𝑉 → 𝑉 un operador lineal. Un operador se dice
que es adjunto de T si:
𝑇∗: 𝑉 → 𝑉
(𝑇(�̅�)|�̅�) = (�̅�|𝑇∗(�̅�)), ∀ �̅�, �̅� ∈ 𝑉
Recordar que siempre hay una relación entre las representaciones matriciales de los operadores T
y T* cuando éstas se encuentran referidas a una base ortonormal.
Esta relación puede emplearse para obtener el adjunto de un operador dado: si A es la
representación matricial de T en una base ortonormal, entonces A* (conjugada transpuesta de A)
es la representación matricial de T* en dicha base. Por lo que se tiene el siguiente teorema:
TEOREMA
Sea V un espacio vectorial e dimensión finita con producto interno y sea B una base ortonormal de
B. Si 𝑇: 𝑉 → 𝑉 es un operador lineal, entonces:
𝑀𝐵𝐵(𝑇∗) = [𝑀𝐵
𝐵(𝑇)]∗
TEOREMA
Si V es un espacio vectorial de dimensión finita y con producto interno, entonces para cada
operador lineal 𝑇: 𝑉 → 𝑉 existe un único adjunto T*, que también es lineal.
EJEMPLO:
Apuntes de Álgebra Lineal
46
TEOREMA: Propiedades elementales.
Sea V un espacio vectorial sobre K, con producto interno. Si S y T son operadores lineales en V y α
es un escalar de K, entonces:
𝑖) (𝑇∗)∗ = 𝑇
𝑖𝑖) (∝ 𝑇)∗ =∝̅ 𝑇∗
𝑖𝑖𝑖) (𝑆 + 𝑇)∗ = 𝑆∗ + 𝑇∗
𝑖𝑣) (𝑆 ∘ 𝑇)∗ = 𝑇∗ ∘ 𝑆∗
5.2 Definición y propiedades elementales de operador normal.
DEFINICIÓN
Sea V un espacio con producto interno y sea 𝑇: 𝑉 → 𝑉 un operador lineal. Se dice que T es
normal si 𝑇 ∘ 𝑇∗ = 𝑇∗ ∘ 𝑇.
De esta definición se sigue de inmediato que si T es normal T* también es normal y viceversa.
TEOREMA: Propiedades elementales.
Sea V un espacio con producto interno y sea 𝑇: 𝑉 → 𝑉 un operador normal:
𝑖) ‖𝑇(�̅�)‖ = ‖𝑇∗(�̅�)‖, ∀ �̅� ∈ 𝑉
𝑖𝑖) 𝑆𝑖 𝑇(�̅�) = 𝜆�̅� 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑇∗(�̅�) = �̅��̅�
𝑖𝑖𝑖) 𝑆𝑖 �̅�1, �̅�2 𝑠𝑜𝑛 𝑣𝑒𝑐𝑡𝑜𝑟𝑒𝑠 𝑐𝑎𝑟𝑎𝑐𝑡𝑒𝑟í𝑠𝑡𝑖𝑐𝑜𝑠 𝑑𝑒 𝑇 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠 𝑎 𝑙𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝜆1, 𝜆2 𝑦
𝜆1 ≠ 𝜆2 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 (�̅�1|�̅�2) = 0
Interpretando lo anterior:
1) Si 𝜆 es un valor característico de T entonces �̅� es un valor característico de T* 2) Todo vector característico de T es también un vector característico de T* (aunque no
necesariamente correspondiente al mismo valor que para T). 3) Para operadores normales, los vectores característicos asociados a valores distintos son
ortogonales.
EJEMPLO:
Apuntes de Álgebra Lineal
47
5.3 Definición y propiedades elementales de operadores simétricos, hermitianos, antisimétricos,
antihermitianos, ortogonales, unitarios y su representación matricial.
Operadores normales reciben nombres especiales debido a que sus características propias son de
interés para la teoría de operadores lineales. Estos operadores suelen distinguirse con diferentes
nombres cuando el espacio vectorial está definido sobre el campo de los números complejos y
cuando está definido sobre el campo de los números reales.
DEFINICIÓN:
Sea V un espacio vectorial sobre C (sobre R) con producto interno y sea 𝑇: 𝑉 → 𝑉 un operador
lineal, se dice que:
i) T es hermitiano (simétrico) si T* = T ii) T es antihermitiano (antisimétrico) si T* = -T iii) T es unitario (ortogonal) si T* = 𝑇−1
Explicándolo de un modo diferente la definición anterior queda de la siguiente manera:
Dado un espacio vectorial con un producto interno y sea 𝑇: 𝑉 → 𝑉 un operador lineal. Se dice que
T es un operador hermitiano si cumple con la siguiente condición:
(𝑇(�̅�1)|�̅�2) = (�̅�1|𝑇(�̅�2))
Por otro lado T es un operador antihermitiano si cumple con la siguiente condición:
(𝑇(�̅�1)|�̅�2) = −(�̅�1|𝑇(�̅�2))
Si V es un espacio vectorial con campo de definición en los reales, al operador hermitiano se le
llama operador simétrico y a los operadores antihermitianos se les llama operadores
antisimétricos.
Conclusiones con respecto a lo anterior:
- Los valores característicos de un operador hermitiano, cuando existen, son números reales, sin embargo un operador puede tener valores característicos reales y no ser hermitiano.
- Si T es un operador hermitiano con un producto interno, puede dejar de serlo con otro producto interno.
- Los valores característicos de un operador antihermitiano, cuando existen, son números imaginarios puros.
- Para operadores antisimétricos el único valor característico posible es el cero.
Apuntes de Álgebra Lineal
48
- Los valores característicos de un operador unitario, de existir, son números complejos cuyo módulo es de tamaño uno.
La representación matricial (matriz asociada) de estos operadores corresponden a la matriz
hermitiana o antihermitiana, o bien, matriz simétrica o antisimétrica respectivamente, siempre y
cuando la base sea ortonormal.
EJEMPLO:
TEOREMA
Sea V un espacio con producto interno, B es una base ortonormal de V, 𝑇: 𝑉 → 𝑉 un operador
lineal y A la representación matricial de T referida a la base B.
i) Hermitiano: T*=T si y solo si A* = A ii) Antihermitiano: T* = -T si y solo si A* = -A iii) Unitario T* = 𝑇−1 si y solo si A* = 𝐴−1
Operadores Unitarios.
Sea V un espacio de dimensión finita sobre Complejos con producto interno, y sea 𝑇: 𝑉 → 𝑉 un
operador lineal. Se tendrá un operador unitario respecto al producto interno definido, si para todo
�̅�1 𝑦 �̅�2 ∈ 𝑉 se cumple que:
(𝑇(�̅�1)|𝑇(�̅�2)) = (�̅�1|�̅�2)
Si V es un espacio definido sobre los Reales es más común decir que T es un operador ortogonal,
cuando T satisface la condición anterior.
TEOREMA: Propiedades.
1.- ‖𝑇(�̅�)‖ = ‖�̅�‖
2.- Los valores característicos tendrán modulo 1.
La representación matricial de estos operadores corresponde a la matriz unitaria y ortogonal
respectivamente, siempre y cuando la base a la cual esté referida sea ortonormal.
Apuntes de Álgebra Lineal
49
EJEMPLO:
5.4 Teorema espectral.
Se verá el método de “descomponer” un operador normal T, expresándolo como una combinación
lineal de ciertos operadores conocidos como proyecciones ortogonales.
Recordando el teorema de proyección hay que remarcar que el resultado de este teorema era un
vector proyectado, con el teorema espectral el resultado será un operador.
DEFINICIÓN.
Sea V un espacio vectorial sobre C (sobre R), de dimensión finita y con producto interno, y sea
𝑇: 𝑉 → 𝑉 un operador normal (simétrico).
Si 𝜆1, 𝜆2, 𝜆3, . . , 𝜆𝑛 son los diferentes valores caracteristicos de T, 𝐸(𝜆𝑖) es el espacio
característico correspondiente a 𝜆𝑖 𝑦 𝑃𝑖 es la proyección ortogonal sobre 𝐸(𝜆𝑖) , entonces:
𝑖) 𝑇 = 𝜆1𝑃1 + 𝜆2𝑃2 + ⋯ + 𝜆𝑛𝑃𝑛
𝑖𝑖) 𝑃1 + 𝑃2 + ⋯ + 𝑃𝑛 = 𝐼
𝑖𝑖𝑖) 𝑃𝑖 ∘ 𝑃𝑗 = 0, 𝑝𝑎𝑟𝑎 𝑖 ≠ 𝑗
A la primer expresión del teorema se le conoce como “descomposición espectral” del operador T,
tal descomposición es única (salvo en el orden de los sumandos).
EJEMPLO:
5.5 Aplicación de los valores propios y los vectores propios a las formas cuadráticas:
Para esta parte del curso lo que se pretende es la aplicación de algunos conceptos estudiados en la
geometría analítica. En particular a lo referente al giro de ejes, para simplificar la identificación de
cónicas o bien la degeneración de ellas.
Apuntes de Álgebra Lineal
50
Una ecuación de la forma:
ax2 + bxy + cy2 + Dx + Ey + F = 0
donde a,b,c,D,E,F ε R, se le llama ecuación cuadrática de las variables x y y. A la expresión formada
por los 3 primeros términos de la expresión anterior se le llama forma cuadrática de las variables
x, y.
ax2 + bxy + cy2
El problema consiste en eliminar el término xy, de la ecuación cuadrática mediante un cambio de
variable de tal manera que la ecuación se reduzca a una de la siguiente forma:
αx´´2 + βy´´2 + σ = 0
A través de un giro de ejes y si es necesario una traslación de los mismos, obteniendo con esto,
una cónica con centro en el origen y sus ejes paralelos o coincidentes con los ejes coordenados.
Una forma cuadrática siempre puede ser expresada en forma matricial de la siguiente manera:
ax2 +bxy + cy2
[𝑥 𝑦] [𝑎
𝑏
2𝑏
2𝑐
] [𝑥𝑦] = �̅�𝑇𝐴�̅�
Se observa que el término xy de la ecuación aparece debido a los elementos que no están en la
diagonal principal de la matriz A.
En cambio, si A fuese una matriz diagonal, el término xy no aparecería.
Por lo tanto para tener una ecuación sin el término xy, se debe hacer un cambio de variable que
diagonalice a la matriz A. Utilizando la ecuación: D=P-1AP, como se sabe la matriz P se forma con
los vectores característicos, sin embargo, es preferible usar vectores unitarios, ya que entonces la
matriz P es ortogonal, y por lo tanto PT=P-1.
Apuntes de Álgebra Lineal
51
Es importante tener presente que el determinante de la matriz P deberá ser igual a 1. Si dicho
determinante fuese igual a -1 basta con invertir el orden de las columnas para tener la condición
buscada.
El nuevo sistema de coordenadas x´, y´, en el cual la cónica carece del término xy, está dado por la
expresión:
[𝑥′
𝑦′] = 𝑃𝑇 [𝑥𝑦] 𝑜 𝑏𝑖𝑒𝑛 �̅�′ = 𝑃𝑇�̅�
Ángulo:
Ax Bxy Cy Dx Ey F
B
A C
2 2
2
tan
EJEMPLO.
Top Related