Libro blanco.1 (1)

download Libro blanco.1 (1)

of 90

Transcript of Libro blanco.1 (1)

  • 8/2/2019 Libro blanco.1 (1)

    1/90

    Capitulo 5

    Diagona Iizaci6n

    Este capitulo trata el llamado "problema de la diagonalizacion". Dadauna transformacion lineal T: V~ V, donde V es un espacio vectorialdimensionalmente finito, buscaremos respuestas a las siguientes interro-gantes:] . i,Existe una base orden ada f 3 para V tal que [T],J sea una matrizdiagonal?2. Si dicha base existe, lcomo puede encontrarse?

    Como en general los calculos que involucran a las matrices diagonales sonsencillos, una respuesta afirmativa a la pregunta 1 nos conducira a unmayor entendimiento de como la transformacion T opera sobre V, y unarespuesta a la pregunta 2 nos permitira obtener soluciones Iaciles a mu-chos problemas de orden practice que pueden formularse dentro delcontexto del algebra lineal. Consideraremos algunos de estos problemasy sus soluciones dentro de este mismo capitulo -vease por ejemplo laSeccion 5.3.

    Una solucion al problema de la diagonalizacion conduce de una mane-ra natural a los conceptos de "eigenvalor" (valor propio 0 caracteristico)y "eigenvector" (vector propio 0 caracteristico ). Aparte del importantepapel que estos conceptos juegan en el problema de la diagonalizaci6n,su utilidad quedara tambien demostrada como valiosas herramientas en elestudio de much as transformaciones no diagonalizables, tal como 10 vere-mos en el Capitulo 6.

    5 .1 E IGENVALORES Y E IGENVECTORESComo el problema de la diagonalizacion implica el estudio de una. trans-formaci6n que mapee a un espacio vectorial en S 1 mismo, es util dar unnombre a tal transformaci6n. En consecuencia, lIamaremos a la transfor-maci6n lineal T: V~ V sobre un espacio vectorial V, un operador linealsobre V.

  • 8/2/2019 Libro blanco.1 (1)

    2/90

    232 O;agona';zac;onPara un operador lineal dado T sobre un espacio vectorial dimensional-mente finito V, nos interesaran las matrices que representen a T de acuerdocon las diferentes bases ordenadas para V.A 10 largo de este capitulo omitiremos en general la palabra "orde-nada" en la expresion "base ordenada",Considerese un operador lineal T en un espacio vectorial dimensional-mente finito V y cualquier par de bases [3 y [3 ' para V. Recuerdese del

    corolario al Teorema 2.27 que las matrices [ T l 1 3 y [ T l w estan relacionadasmediante la expresi6n[ T ] 1 3 ' = = ( 2 - 1 [ T l 1 3 ( 2 ,

    donde ( 2 es la matriz de cambio de coordenadas que transforma lascoordenadas de P ' en coordenadas de [3 . En la Seccion 2.5 definimostales matrices como matrices simi/ares. Un caso especial de utilidad deeste tipo de relaciones se demuestra en el siguiente teorema.

    Teorema 5.1. Sea AEMnxll(F) Y sea y = = {x., X2, , Xn} una base cualquie-ra para Fn. Entonces [LAh = = O"AQ, donde Q es una matriz de n X n enla que la columna j es Xj (j = = 1, 2, ... , n).DEMOSTRACI6N. Sea [3 la base estandar para Fn. Se puede ver facilmenteque la matriz ( 2 es la matriz de cambio de coordenadas que transformalas coordenadas de y en coordenadas de p. Por 10 tanto

    [LAh = = Q-l[LA]13Q = = Q-IA(2..Ejemplo 1. Para ilustrar el Teorema 5.1, sean

    Es muy sencillo verificar que siQ = = ( ! ~ ) .

    entonces

    y por tanto

    - D G ~ ) ( ; 1 ) = = (-112 18 - 8 )13 .Como se rnenciono anteriormente, las matrices que representan al mis-mo operador lineal relativo a bases diferentes son similares. Establecere-mos en seguida el reciproco de este resultado.

  • 8/2/2019 Libro blanco.1 (1)

    3/90

    Eigenva/ores y eigenvecfores 233Teorema 5.2. Sea T un operador lineal en un espacio vectorial V n-dimensio-

    nal, y sea 1 3 una base para V. Si B es cualquier matriz de n X n similara [T](3, entonces existe una base 1 3 ' para V tal que B = [T](3"DEMosTRAcroN. Si B es similar a [T] th entonces existe una matriz inver-tible Q tal que B =Q-l [T] (3Q. Sup6ngase que 1 3 = {x., X2, . , X .. } Y de-finase

    nX'. =~QijXi1 i=l para 1 :::;j :::;.

    Entonces / 3 ' = {x:' x~, ... , X ~ } es una base para V tal que Q es la matrizde cambio de coordenadas que transform a las coordenadas de 1 3 ' en coor-denadas de 1 3 . (Ejercicio 11 de Ia Seccion 2.5.) Por 10 tanto

    [T](3. = Q-l[T](3Q =Bde acuerdo conel corolario del Teorema 2.27.

    EI concepto de similitud es de utilidad en el estudio del problema dela diagonalizacion, pues puede ser utilizado para reformular el problemadentro del contexto matricial. Introduciremos ahora el concepto de dia-gonalizabilidad.Definiciones. Se dice que un operador lineal T sobre un espacio vectorial dimen-sionalmente [inito V es diagonalizable si existe una base 1 3 para V tal que

    [T]/l sea una matriz diagonal.Una matri; cuadrada A es diagonalizable si A es similar a una matrizdiagonal.EI teorema siguiente relaciona estos dos conceptos y conduce a unareformulaci6n del problema de la diagonalizaci6n dentro del contextomatricial.

    Teorema 5.3. Sea T un operador lineal en un espacio vectorial dimensional-mente iinito V. Los siguientes incisos son equivalentes:

    (a) T es diagonalizabie.(b) Existe una base 1 3 para V tal que la matri; [T](3 es diagonalizable.(c) La matri: [T] .y es diagonalizable para cualquier base y para V.

    DEMosTRAcroN. Si T es diagonalizable, entonces existe una base , [ 3 paraV tal que [T113 es una matriz diagonal. Entonces [T](3 es trivialmente diago-naIizable, por 10 que (a) implica a (b).

    Sea [ 3 una base para V tal que [ T ] J 3 es diagonalizable y sea y una basecualquiera para V. Entonces [T](3 y [T] .y son similares. Luego, si [T]t '! essimilar a una matriz diagonal, tam bien [T ].y 10 sera de acuerdo con latransitividad de la relacion de similitud. Y entonces [T] .y es diagonali-zable, demostrando que (b) implica a (c).

  • 8/2/2019 Libro blanco.1 (1)

    4/90

    "234 Diogonalizacion

    Finalmente, si [ T ] y es diagonalizable, existe una matriz diagonal Dsimilar a [Th. Luego, de acuerdo con el Teorema 5.2, existe una base f J 'para V tal que [T ]~ , =D. Por tanto, T es diagonalizable y as! (c) implicaa (a).

    Como una consecuencia inmediata de este Teorema tenemos el siguien-te resultado de gran utilidad.Corolario. Una matri: A es diagonalizable sf y s610 si L A es diagonalizable.

    Como consecuencia del Teorema 5.3 podemos reformular el problemade la diagonalizacion de la manera siguiente.1. i,Es diagonalizable una matriz cuadrada A dada?2. Si A es diagonalizable, i ,como puede determinarse una matriz Q

    invertible tal que Q-1AQ sea una matriz diagonal?Presentaremos ahora el primero de los diferentes resultados que con-ducen a una solucion del problema de Ia diagonalizacion.

    Teorema 5.4. Sea T un operador lineal en un espacio vectorial dimensional-mente [inito V. Entonces T es diagonalizable si y s610 sf existe una basef J ={x., ... , x.} para V y escalares A " . . . , A n (no necesariamente dis-tintos) tales que T(xj) = AjXj, para 1 ~ j ~ n. Bajo estas circunstancias

    , 1 . 1 0 0o , 1 . 2 0[ T J p =

    DEMOSTRACION. Sup6ngase que T es diagonalizable. Entonces existe unabase f 3 para V tal que [T]j3 = D es una matriz diagonal. Sean Aj'= Djj Yf 3 = { X I ' . . . , xn}. Entonces para cada t.

    nT(xj) =.~ DijXi = Djjxj =AjXj.i~

    Reciprocamente, 'supongase que existe una base f J ;= { X I ' . . . , xn} Yescalares A " ' .. , An tales que T (x j ) = A .x : Entonces evidentemente, 1 . 1 0 0o , 1 . 2 0

    [ T J p =

    o 0 IDel Teorema 5,4 se derivan las siguientes definiciones.

  • 8/2/2019 Libro blanco.1 (1)

    5/90

    Eigenva/ores y eigenvectores 235Definiciones. Sea T un operador lineal en un espacio vectorial V. Un elementono nulo x E V se llama eigenvector de T si existe un escalar A tal que

    T(x) =Ax. Al escalar A se Ie llama eigenvalor correspondiente al eigen-vector x.Andlogameme, si A es una matri: de n X n en un campo F, un ele-mento no nulo x E F " se denomina eigenvector de la matriz A, si x es uneigenvector de L.\. Como en el pdrraio anterior, et escalar A se denomina ei-

    genvalor de A correspondiente al eigenvector x.A menudo se usan las palabras vector caracteristico y vector propio

    en lugar de eigenvector. Los terrninos correspondientes para un eigenvalorson valor caracteristico y valor propio.

    Con esta terrninologia vemos que en el Teorema 5.4 la base f 3 constade eigenvectores de T y que los elementos de 1a diagonal de [T]II son loseigenvalores de T , por 10 que el Teorema 5.4 puede ser enunciado denuevo de la manera siguiente: Un operador lineal T en un espacio vectorialdimensionalmente iinito V es diagonalizable si y solo si existe una base f 3para V compuesta por eigenvectores de T . Adernds, si T es diagonalizable,f 3 = {x.. x.; ... , x.} es una base de eigenvectores de T, y D = [T]II; en-lances D es una matri: diagonal y D, i es el eigenvalor correspondiente aX i (i=1, 2, ... , n).

    Antes de continuar con nuestro analisis del problema de la diagonali-zacion consideremos dos ejemplos que involucran eigenvectores y eigen-valores.Ejemplo 2. Sea C' (R) el conjunto de todas las funciones f : R ~ Rque tienen derivadas de todos los ordenes. (Por 10 tanto C'" (R) incluye atodas las funciones polinomiales, las funciones seno y coseno, las funcionesexponenciales, etc.) Es facil ver que C" (R) es un subespacio del espaciovectorial 'J (R, R) de todas las funciones de R en R como se definieron enla Seccion 1.2. Deffnase T : ex (R) ~ C" (R) mediante T(y) =y', dondey' es la derivada de y. Puede verificarse f'acilmente que T es un operadorlineal en C" (R). Procederemos a determinar los eigenvalores y los eigen-vectores de T .

    Si ,\ es un eigenvalor de T , entonces existe un eigenvector y E C'" (R)tal que y' = T (y) = A y. Esta es una ecuacion diferencial de primer ordencuyas soluciones son de la forma yet) = ce" para alguna constante c.En consecuencia, todo numero real A es un eigenvalor de T y los eigen-vectores correspondientes son de la forma ce" para c = 1 - = O. (Notese quesi . A = 0, los eigenvectores son las funciones constantes no nul as. )Ejemplo 3. Sea

  • 8/2/2019 Libro blanco.1 (1)

    6/90

    236 Diagona'izaci6nComo

    Xl es un eigenvector de L A (y por tanto de A). Tambien '\1 = - 2 es eleigenvalor asoeiado con Xl' Ademas ,

    Luego, X2 es un eigenvector de L A (y de A) con A 2 =5 como eigenvalorasociado. N6tese que {i = {Xl> X2} es una base para R 2 , ypor tanto, porel Teorema 5.4

    Finalmente, si

    entonces por el Teorema 5.1,

    El ejemplo anterior muestra una tecnica para diagonalizar una matrizA de n X n: Si {i = {Xl, X2, . , X,,} es una base para F n que consta delos eigenvectores de A, y Q es la matriz de n X n cuya columna j es eleigenvector X j ( j = 1, 2, ... , n), entonces Q-lAQ es una matriz diagonal.Para poder emplear este procedimiento necesitamos de un metodo paradeterminar los eigenvectores de una matriz u operador. Como se veraluego, los eigenvectores se determinan facilmente una vez que se conocenlos eigenvalores, por 10 que principiaremos exponiendo un metodo paracalcular los eigenvalores, Como ayuda en este calculo utilizaremos el teore-rna siguiente para introducir el concepto de "determinante" de un operadorlineal.

    Teorema 5.5. Sea T un operador lineal en un espacio vectorial dimensional-mente jinito V y sean {i y Ii' un par de bases cualesquiera para V . Entoncesdet([T]Il) = det([T]Il').DEMOSTRACION. Sean A = [T ]1 l Y B = [T]I l" Como A y B son similares,existe una matriz invertible Q tal que B =Q-lAQ. Por 10 tanto

    det(B) =det(Q-lAQ) =det(Q-l) . det(A) . det(Q)= [det(Q) ]-1. [det(A)] . [det(Q)] = det(A).

    Este resultado da lugar a la siguiente definicion.

  • 8/2/2019 Libro blanco.1 (1)

    7/90

    Eigenva'ores y eigenvectores 237Definicion. Sea T un operador lineal en un espacio vectorial dimensionalmentejinito V. Delinimos el determinante de T, que denotaremos par det(T), de

    la manera siguieme: Escojase una base 1 3 para V, y deiinase det(T) =det([T]II). Notese que segun el Teorema 5.5 det(T) esui bien deiinido, esdecir, es independiente de fa seleccion de fa base 1 3 .Ejemplo 4. Sea T: Pz(R ) ~ Pz(R ), definida mediante T(f) = i' la de-rivada de i. Para calcular det(T), sea 1 3 = {1, X , X 2 } . Entonces 1 3 es unabase para Pz(R) y

    [T], = (~ ~ ~).,0 0 0

    Por 10 tanto det(T) = det([T]II) = O.Nuestro siguiente resultado establece algunas propiedades del deter-minante de un operador lineal. Notese la semejanza de estas propiedadescon las que demostramos para el determinante de una matriz en el Capi-tulo 4.

    Teorema 5.6. Sea T un operador lineal en un espacio vectorial dimensionalmen-te iniinito V. Entonces

    (a) T es invertible si y solo si det(T) = 1 = O .(b) Si T es invertible, entonces det(T-l) = [det(T)]-l.(c) Si U: V~ V es lineal, entonces det(TU) =det(T) . det(U).(d) Si : es un escalar y 1 3 es una base cualquiera para V, entonces

    det(T - llv)=det(A - lI),donde A = [T]II'

    DEMOSTRACION. Las demostraciones de los incisos (a), (b) y (c) se de-jan como ejercicios. Para demostrar el inciso (d), supongase que .\ es unescalar, 1 3 es una base para V y A =fTk Entonces [lvlj3 = I, Ypor 10 tan-to [T - .\lv]j3 = A - > . .1 . Luego, por definicion det(T - Alv) =det(A -.\/). .El teorema siguiente nos proporciona un metodo para calcular loseigenvalores.

    Teorema 5.7. Sea T un operador lineal en un espacio vectorial dimensionalmen-te [inito V sobre un campo F. Un escalar A E F es un eigenvalor de Tsi y s610 si det(T - AI) =O.DEMOSTRACI6N. Supongase que A es un eigenvalor de T. Entonces existeun eigenvector x EV(x * ' 0) tal que T(x) = .\x. Luego 0 =T(x) - .\x =(T - ,\1) (x). Como x = 1 = 0, T - .\1 no es invertible. Asi, segun el Teorema5.6, det(T - ,\1) =O.

  • 8/2/2019 Libro blanco.1 (1)

    8/90

    238 Diagona/izacionReciprocamente, sup6ngamos que det(T - AI) = o . Entonces, de nue-

    vo por el Teorema 5.6, T - AI no es invertible. Luego existe un vector nonul a xEV tal que xEN(T - AI). Entonces (T - AI)(x) =0, y logica-mente T(x) =AX. Por 10 tanto X es un eigenvector (con A como eigenvalorasociado) de T .

    Corolario J . Sea A una matriz de n X n sobre un campo F. Entonces un esca-lar A E F es un eigenvalor de A si y solo si det(A - A I) = O .DEMosTRAcroN. Ejercicio.Ejemplo s. Sea

    Como

    (1 - ,\det(A - AJ) =det 4 1 ~ A) = A~-- 2,\ - 3 =(A - 3) (A + 1),

    los unicos eigenvalores de A son 3 y - I.Ejemplo 6. Sea T: P 2(R) ~ P 2(R ) el operador lineal definido medianteT(f(x = f(x) + xf'(x) + t'(x), y sea f 3 = {I, X , X 2 } . Entonces f 3 esuna base para PAR) y

    (1 1 0)[ T ] p = 0 2 2 .003

    Comodet(T - A I ) =det([T]p _ U ) =det(l ~ A 2 ~ A ~ )

    o 0 3-A= (l - A )(2 - A )(3 - A )=-(1 - l)(A - 2)(A - 3),

    A es un eigenvalor de T si y s610 si A = 1, 2 a 3.EI Ejemplo 6 hace uso de la siguiente consecuencia evidente del Teo-

    rema 5.6.Corolario 2. Sea T un operador lineal en un espacio vectorial dimensionalmen-te finito V, y sea f 3 una base para V. Entonces A es un eigenvalor de Tsi y solo si es un eigenvalor de [T10-

    En los Ejemplos 5 y 6 el lector habra podido observar que si A esuna matriz de n X n, entonces det(A - AI,,) es un polinomio en A de gra-

  • 8/2/2019 Libro blanco.1 (1)

    9/90

    Eigenva/ores y eigenvectores 239do n con un coeficiente principal (-1)".Los eigenvalores de A sonsencillamente ceros de este polinomio; de manera que la siguiente defi-nicion es apropiada.

    Definicion. Si A EMn xn (F ), el polinomio det(A - tls ) en la incognita t sedenomina polinomio caracteristico de A. *Se puede demostrar facilmente que matrices semejantes tienen el mis-

    mo polinomio caracteristico (ver Ejercicio 12). Este hecho permite ladefinicion siguiente.

    Definicion. Sea T un operador lineal en un espacio vectorial dimensionalmente[inito V con base / 3 . Dejinimos al polinomio caracteristico f(t) de T comoel polinomio caracteristico de A = [T]f3; esto es,

    f(t) =det(A - tI).La observacion que precede a la definicion muestra que esta es inde-

    pendiente de la seleccion de la base / 3 . A menudo representaremos alpolinomio caracterfstico de un operador T mediante det(T - tl).

    EI siguiente resuItado confirma nuestras observaciones sobre los Ejem-plos 5 y 6; puede demostrarse mediante un argumento directo de in-ducci6n.

    Teorema 5.8. El polinomio caracteristico de A EM nxn (F ) es un polinomio degrado n con coeiiciente principal (- 1 ) 11.Las siguientes consecuencias del Teorema 5.8 son inmediatas. (Vease

    tambien el Corolario 2 del Teorema E.2.)Coro/ario 1 . Sea A cualquier matri: de n X n y sea f(t) el polinomio caracte-rlstico de A. Entonces

    (a) Un escalar ,\ es un eigenvalor de A si y solo si )" es un cero delpolinomio f (t ) (es decir, si y s610 si f (),,) =0).

    (b) A tiene como maximo n eigenvalores distintos.Coro/ario 2. Sea T un operador lineal en un espacio vectorial n-dimensional Vcon polinomio caracteristico f (t). Entonces

    (a) Un escalar ,\ es un eigenvalor de T si y solo sf )" es un cero delpolinomio f(t) (es decir, si y solo si f () , , ) = 0).(b) T tiene como maximo n eigenvalores distintos.* El lector observador debe haber notado que los elementos de la matrizA - tin no son elementos del campo F. Sin embargo, son elementos de otro campo

    F(t). (EI campo F(t) es el campo de los cocientes del anillo de los poiinomiosF[t]. Normaimente esto se estudia en cursos de algebra abstracta.) En consecuencialos resultados sobre determinantes demostrados en ei capitulo 4 continuan siendociertos dentro de este contexto.

  • 8/2/2019 Libro blanco.1 (1)

    10/90

    240 OiagonalizacionLos dos corolarios anteriores nos proporcionan un metodo pam deter-

    Minar todos los eigenvalores de una matriz 0 de un operador, y nuestrosiguiente resuItado nos proporciona un procedimiento para detenninar loseigenvectores correspondientes a un eigenvalor dado.

    Teorema 5.9. Sea T un operador lineal en un espacio vectorial V, y sea A uneigenvalor de T. Un vector x EVes un eigenvector de T que correspondea A si y s610 si x = 1 = y xEN(T - AI)DEMOSTRACION. Ejercicio.Ejemplo 7. Para encontrar todos los eigenvectores de Ia matriz

    A =(! Udel Ejemplo 5, recuerdese que A tiene dos eigenvalores, A l =3 Y A 2 = -1.Principiaremos encontrando todos los eigenvectores correspondientes aA l = 3. SeaB = A - A t l = ( ! D-(~ ~)= (- ; - ;).Entonces

    x =G : ) E R 2es un eigenvector correspondiente a A l =3 si Y s610 si x = 1 = 0 Y six E N(LB), esto es' x = 1 = 0 y

    Evidentemente el conjunto de todas las soluciones de la ecuaci6n ante-rior es

    Por 10 tanto x es un eigenvector que corresponde a A l =3 si Y s610 sipara alguna t = = l = O.

    Ahora, supongase que x es un eigenvector de A que corresponde aA 2 = -1. Sea

    B = A - A21 = (! D - ( - ~ _ ~ ) = (! ~) ;entonces

  • 8/2/2019 Libro blanco.1 (1)

    11/90

    Eigenvalores y eigenvedores 241si y solo si x es una solucion al sistema

    {2Xl + X2 =0

    4Xl + 2X2 = o .Por 1 0 tanto

    N (LB) ={ t ( _ ~ ) : t E R }Luego, x es un eigenvector que corresponde a 1 . . 2 =- 1 si Y solo si

    para alguna t = 1 = o .Observese que

    es una base para R 2 que esta formada de eigenvectores de A. Luego, porel Teorema 5.4, L o t (y por 1 0 tanto A) es diagonalizable. De hecho, si

    el Teorema 5.1 implica queQ-1AQ=(~ _~).

    En el Ejemplo 6 vimos que el operador lineal T en P2(R ) definidomediante T(f(x = f(x) + xf'(x) + f 'ex) tiene como eigenvalores a 1,2 y 3. Ahora calcularemos los eigenvectores de T .P2(R) T P2(R)- , L A 1 - ,R 3 R3

    figura S.lRecordemos el diagrama de la Fig. 5.1 que procede de la Seccion 2.4,

    donde p ={I, x, X2} Y

    (1 1 0

    A = rn , = 0 2 2 ) .003

    Demostraremos que v E PAR) es un eigenvector de T correspondientea A si y solo si r p { 3 ( v ) , es un eigenvector de A correspondiente a A . (Este

  • 8/2/2019 Libro blanco.1 (1)

    12/90

    242 Diagonalizacionargumento es valido para cualquier operador en un espacio vectorial di-mensionalmente finito.) Si v es un eigenvector de T que corresponde aA, entonces T(v) = xv, Por 10 tanto

    l'~B(v) = ~BT(v) = ~B(Av) = A~~(v).Ahora bien, ~~(v) = 1 = 0 puesto que ~B es un isomorfismo. Luego ~fl(v)es un eigenvector de t, (y por 10 tanto de A) que corresponde a A . Comoel argumento anterior es reversible, podemos establecer de manera similarque si '~(3( v) es un eigenvector de A que corresponde a A , entonces ves un eigenvector de T que corresponde a A .

    Una formulacion equivalente del resultado demostrado en eI parrafoanterior es que para cualquier eigenvalor .A de A (y por 10 tanto de T),un vector y E R 'l es un eigenvector de A que corresponde a A si y solo si~~' (y) es un eigenvector de T correspondiente a A . Este hecho nos perrnitecalcular los eigenvectores de T tal como 10 hicimos en el Ejernplo 7.

    Sea A , : : : . I y definase

    B = A - ).J= (~ 1 ~).002

    Puede demostrarse f'acilmente que

    Luego los eigenvectores de A que corresponden a A , son de la forma

    para alguna a = 1 = O. En consecuencia, los eigenvectores de T que correspon-den a A , = 1 son de la forma

    para alguna a = 1 = O. Por 10 tanto, los polinomioslos eigenvectores de T que corresponden a A ,.

    Ahora sea A " " " 2 Y definase

    (-1 1

    B = A - Azl = 0 0o 0

    constantes no nulos son

  • 8/2/2019 Libro blanco.1 (1)

    13/90

    Eigenvalores y e;genvedores 243De nuevo puede verificarse facilmente que

    Entonces, los eigenvectores de T que correspond en a A 2 son de la forma~ i ' (i) ) - a~,'(e, + e,) ~ a(1 + x) ~ a I-axpara alguna a 0 : : / = o .Finalmente, considerese A 3 = 3 Y

    1 0 )-1 2o 0

    Como

    cualquier eigenvector de T correspondiente a . A 3 =3 es de la forma~,,(~)~~;'(e, + 2e, + e,) ~ a(J + 2x + x') ~ a+ 2ax + ax'para alguna a r . : : / = O.N6tese tambien que y={I, 1 + x, 1 + 2x + X 2 } es una base paraP2(R) que consta de eigenvectores de T . Luego, T es diagonalizable y

    ( I 0 0 )[T ]y = 0 2 0 .0 0 3Terminaremos esta secci6n analizando los eigenvectores y los eigen-valores desde un punto de vista geometrico. Si x es un eigenvector deloperador lineal Ten V, entonees T(x) = .A x para algun escalar A. Sea W =

    L([x]) el subespacio unidimensional de V generado por x. Si yEW,entonces y =cx para algun escalar c. Entonces

    T(y) =T(cx) =cT(x) = cAX = AY EW.De manera que T mapea a W en si mismo. Si V es un espacio vectorialsobre el campo de los numeros reales, entonces W puede considerarse como

  • 8/2/2019 Libro blanco.1 (1)

    14/90

    244 Diagonalizaci6nuna recta que pasa por el origen de V (0 sea, a traves del cera). El ope-rador T opera en los elementos de W multiplicando a cada elemento porel escalar A . Existen diversas posibilidades para la accion de T depen-diendo del valor de A (vease Fig. 5.2).CASO 1. Si A > 1, entonces T mueve a los elementos de W a puntas maslejanos a1 cero por un factor A .CASO 2. Si,.\ = 1, entonces T opera como la transformacion identidadenW.CASO 3. Si 0 < A< 1 T mueve a los elementos de W a puntas mascercanos a 0 por un factor A.CASO 4. Si x =0 entonces T opera como la transformacion cera en W.CASO 5. Si,.\ < 0 entonces T invierte la orientacion de W; esto es, Tdesplaza los puntas de W de un lado del cera al otro.

    CASe 1. A > 1CASO 2~ x =1

    CASO 3. 0 < x < 1CASO 4.A =0

    CASe 5 .. "\ < 0

    La acci6n de T sobre W= L( (x}) cuando x es un eigenvector de T.figura 5.2

    Para ilustrar estas ideas, considerense los operadores lineales introdu-cidos en los Ejemplos 6, 7 y 5 de la Seccion 2.1. Recuerdese que eIoperador T: R 2 ~ R 2 definido mediante T(xJ, x2) = (x., -x2) es unareflexi6n sobre el eje x. Se ve facilmente que T mapea a ambos ejes en simismos; luego e1 y e, son eigenvectores de T (correspondientes respectiva-

  • 8/2/2019 Libro blanco.1 (1)

    15/90

    Eigenva/ores y eigenvectores 245mente a los eigenvalores 1 y - 1). Observese que T opera como la identidadsobre el eje x e invierte la orientacion del eje y. Luego considerese laproyeccion sobre el eje de las x definida mediante U(x" x") = (x" 0). Denuevo es geometricamente evidente que U actua como la identidad en eleje x y como la transformacion cero en el eje y. Este comportamiento esuna consecuencia del hecho de que e, y e" son eigenvectores de U corres-pondientes respectivamente a los eigenvalores 1 y O. Finalmente, recuerdeseque la rotacion a traves del lingula () es el operador T.: R 2 ~ R 2 definidomediante T.(x), x") =(Xl cose - X2 sen (), Xl sen () + x2 cos ()). Si 0

  • 8/2/2019 Libro blanco.1 (1)

    16/90

    246 Diagonalizaci6n2. Para cada matriz A y base-ri, encontrar [L.t t 3 . Encontrar tambien una matrizinvertible Q tal que [ L A] t 3 =Q-IAQ.

    (a) A = G ~ ) y p = { C ) , ( ~ ) }~ ) A ~ ( ~ ~ - i ) y p ~ { ( : H ~ H D )3 . Para cada una de las siguientes matrices A E M n x n (F) .

    (i)(ii)

    Determinense todos los eigenvalores de A.Para cada eigenvalor A de A, encontrar e l conjunto de eigenvectorescorrespondientes a .A.De ser posibJe, encuentrese una base para F n compuesta por eigenvec-tores de A.Si se tiene exito en encontrar la base en (iii), determinese una matrizQ tal que Q-IAQ sea una matriz diagonal y calculese Q-IAQ.

    (iii)(iv)

    (a) A = G ~ ) para F = RA = (-~ -~

    2 2(b) - 3 )~ para F =R

    A = (~ _~) para F =C4. Sea T : P2(R) ~ P2(R ) definida mediante T/x = f(x) + xt'(x). En-contrar todos los eigenvalores de T y encontrar una base p para P2(R ) tal

    que [ T ] j 3 sea una matriz diagonal.

    (c)

    5. Demostrar los incisos (a), (b) y (c) del Teorema 5.6.6. Demostrar los Coralarios I y 2 del Teorema 5.7.7. Demostrar el Teorema 5.9.8. (a) Demostrar que un operador lineal T en un espacio vectorial dimen-sionalmente finito es invertible si y solo si el cera no es un eigen-valor de T .(b) Sea T un operador lineal invertible. Demostrar que un escalar A esun eigenvalor de T si y solo si A-I es un eigenvalor de T-l.9. Demostrar que los eigenvalores de una matriz triangular M son los elemen-

    tos de la diagonal de M.10. Sea V un espacio vectorial dimensionalmente finito y ,\ un escalar cual-

    quiera.

  • 8/2/2019 Libro blanco.1 (1)

    17/90

    Eigenvalores y e;genvecfores 247(a) Para cualquier base / 3 para V demostrar que [Alv]p= AI.(b) Calcular el polinomio caracteristico de Alv.(c) Demostrar que Alves diagonalizable y que tiene solo un eigen-valor.

    11. Una matri; escalar es una matriz cuadrada de la forma AI para algun esca-lar .A ; 0sea, una matriz escalar es una matriz diagonal en la cual todos loselementos de la diagonal son iguales.(a) Demostrar que si A es similar a una matriz escalar A I, entonces

    A ;:= AI.(b) Demostrar que una matriz diagonalizable que solo tiene un eigen-valor es una matriz escalar.(c) Concluir que la matriz

    no es diagonalizable.12. (a) Demostrar que matrices similares tienen el mismo polinomio carac-

    teristico.(b) Demostrar que la definicion del polinomio caracteristico de un ope-rador lineal en un espacio vectorial dimensionalmente finito V esindependiente de la seleccion de la base para V.13. Demostrar las siguientes aseveraciones hechas en la pagina 241.

    (a) Si v E P2(R) y 4>f3(v) es un eigenvector de A correspondiente al eigen-valor Xentonces v es un eigenvector de T que corresponde al eigenva-lor A .(b) Si A es un eigenvalor de A (y por tanto de T), entonces un vectory E R 3 es un eigenvector de A correspondiente a A si y solo si 4 > / 31(y)es un eigenvector de T correspondiente a A .

    14. * Para cualquier matriz cuadrada A, demostrar que A y At tienen el mismopolinomio caracteristico (y por tanto los mismos eigenvalores).15. * (a) Sea T un operador lineal en un espacio vectorial V, Y sea x un eigen-vector de T correspondiente al eigenvalor A . Para cualquier enteropositivo m, demostrar que x es un eigenvector de T m correspondienteal eigenvalor Am .

    (b) Enunciar y demostrar el resultado para matrices, semejante al delinciso (a).16. (a) Demostrar que matrices similares tienen la misma traza. Sugerencia:UtiIizar el Ejercicio 12 de la Seccion 2.3.

  • 8/2/2019 Libro blanco.1 (1)

    18/90

    248 Oiagonalizacion(b) i,Como se definiria la traza de un operador lineal en un espacio

    vectorial dimensionalmente fin ito? Justificar que la definicion quese de es correcta.

    17. Sea T: MIlXI,{F) ~ MnxlI{F) el mapeo definido mediante T{A) =At, latranspuesta de A.(a) Verificar que T es un operador lineal en MnxnCF).(b) Demostrar que -t- 1 son los iinicos eigenvalores de T .(c) Describir las matrices que sean eigenvectores correspondientes a los

    eigenvalores 1 y - 1, respectivamente.18. Demostrar que para cualesquiera A, B EMllxn(C) tal que B es invertible,

    existe un escalar c ECtal que A + cB no es invertible. Sugerencia: Exa-minar a det(A + eB).

    19. * Sean A y B matrices similares de n X n. Demostrar que existe un. espaciovectorial n-dimensional V, un operador lineal T en V y bases f 3 y y paraV tales que A = [T]jl y B = [Th. Sugerencia: Utilizar el Ejercicio 12 dela Seccion 2.5.

    20. Sea A una matriz de n x neon polinomio caracteristicoj(t) = (-1)nt' + an_I tn-1 + ... + a.t + a o.

    Demostrar que f(O) = ao =det{A). Deducir que A es invertible si y solosi a o = / = - O.

    21. Sean. A y /(t) como en el Ejercicio 20.(a) Demostrarque/(t) = (All - t){A"" - t) ... (Ann - t) + q(t), don-

    de q(t) es un polinomio en t de grado a 10 mas (n - 2).(b) Demostrar que tr(A) = (_l)n-Ian_l.

    22. * Sea T un operador lineal en un espacio vectorial dimensionalmente finito Vsobre el campo F. Demostrar que si g( t) E P(F) Y x es un eigenvector deT correspondiente al eigenvalor A entonces geT) (x) = g(A)x.

    5.2 DIAGONAI.IZABII.IDADEn la Seccion 5.1 hemos presentado el problema de la diagonalizacion yvemos que no todos los operadores lineales ni todas las matrices son diago-nalizables. Aun cuando fuimos cap aces de diagonalizar ciertos operadoresy matrices e incluso obtuvimos una condicion necesaria y suficiente paradiagonalizabilidad (Teorema 5.4), no hemos resuelto el problema de la dia-gonalizacion, Lo que aun se necesita es una prueba sencilla para determinar

  • 8/2/2019 Libro blanco.1 (1)

    19/90

    Diagonalizabilidad 249si un operador 0 matriz puede ser diagonalizado y, si es posible, tener unalgoritmo para obtener una base de eigenvectores. En esta seccion des-arroIlaremos dicha prueba y un algoritmo.

    En el Ejemplo 7 de la Seccion 5.1 obtuvimos una base de eigenvec-tores escogiendo un eigenvector correspondiente a cada eigenvalor. En ge-neral, este procedimiento no proporciona una base, pero el teoremasiguiente muestra que cualquier conjunto construido de esta manera debeser linealmente independiente.

    Teorema 5. J o . Sea T un operador lineal en V y sean A " A 2 , . . . , 4 eigenvaloresde T dijerentes. Si X" X2, , X a t son eigenvectores de T tales que A j corres-ponda a x, (1~ j ~ k), entonces {x., X2, , Xk} es linealmente indepen-diente.DEMOSTRACION. Utilizaremos induccion matematica sobre el mimero k.Supongase que k = 1. Entonces X, * " 0 ya que X, es un eigenvector, yentonces {x.} es linealmente independiente. Supongase que el teorema secumple siempre para k - 1 eigenvectores, donde k - 1 ~ 1 Yque tenemosk eigenvectores Xl> ... , Xk correspondientes a distintos eigenvaloresA" ... , Ak . Deseamos demostrar que {x" ... , Xk } es linealmente inde-pendiente. Sup6ngase que se tienen escalares a" ... , ak tales que

    (1)Aplicando T a ambos lados de la ecuacion (1) obtenemos

    a,T (x 1) + ... + akT(xk) = a ,A,x , + ... + akAkXk =O. (2)Ahora multiplicando ambos lados de la ecuacion (1) por A k obtenemos

    a ,AkX , + ... + akAkxk = O .Luego, restando la ecuaci6n (3) de la ecuacion (2) tenemos

    a1 (A I - A dxl + ... + ak-l (A k-l - A dxk-l =O .Por la hipotesis de induccion {Xl> ... , Xk-l} es linealmente independiente;por 1 0 tanto

    (3)

    a, (A I - A d =... =ak-l (A k-l - A rJ =o .Como A " ... , A k son distintos, se tiene que A i - A k * " 0 para 1 ~ i ~k - 1. As! a1 = ... = ak-l =0, de manera que la ecuaci6n (1) se re-duoe a ~Xk = O . Como Xk * " 0, ak = 0; por tanto, a1 = ... = ak = 0 yentonces {x" ... , Xk } es linealmente independiente.

    Corolario. Sea T un operador lineal en V, un espacio vectorial dimensionalmentejinito de dimension n. Si T tiene n eigenvalores distintos, entonces T esdiagonalizable.DEMOSTRACION. Supongase que T tiene n eigenvalores distintos A " . . . ,A " Y sean x" ... , Xn eigenvectores de T tales que A j corresponde a Xj

  • 8/2/2019 Libro blanco.1 (1)

    20/90

    250 Oiagonalizacionpara 1sis n. Por el Teorema 5.10 { X I , . . . , x,,} es linealmente inde-pendiente y, como dim(V) =n, este conjunto constituye una base para V.Luego, por el Teorema 5.4, T es diagonalizable. Ejemplo 8. Sea

    A = (~ ~) EM2X2(R).EI polinomio caracteristico de A (y por tanto de L A ) es

    (1 - tdet(A - tl) =det 1 l~t)=t(t-2),

    y por 10 tanto los eigenvalores de L A son 0 y 2. Como L A es un operadorlineal en el espacio vectorial bidimensional R2, concluimos del corolarioanterior que L A (y por tanto A) es diagonalizable.

    Aun cuando el corolario del Teorema 5.10 proporciona una condici6nsuficiente para la diagonalizabilidad, esta condici6n no es necesaria. Dehecho, el operador identidad es diagonalizable, pero s610 tiene un eigen-valor, A = 1.Hemos visto que la existencia de eigenvalores es una condicion nece-saria para la diagonalizabilidad. El siguiente resultado nos dice mas.Teorema S.J J. Sea T un operador lineal diagonalizable en un espacio vectorialti-dimensional V , y sea tet) el polinomio caracteristico de T . Entonces t(t)se descompone en un producto de n [actores, todos de grado 1; esto es,existen escalares A t, A 2, ... , A ll (no necesariamente distintos] tales que

    f (t) =(-1"(t - A l)(t - A 2) ... (t - All) 'DEMOSTRACION. Sup6ngase que T es diagonalizable. Entonces existe unabase / 3 para V tal que [T]ff =D es una matriz diagonal. Si

    A l 0 00 A z 0D=

    0 0 A nentoncesA l - t 0 00 A z - t 0

    J(t) =det(D - tI) =deto 0 A n - t

    =(A I - t)(A z - t) .,. (A n - t) =(- J)"(t - A I)(t - A 2)" (t - A.) . I

  • 8/2/2019 Libro blanco.1 (1)

    21/90

    Diagonalizabilidad 251De este teorema cs claro que si T es un operador lineal diagonalizableen un espacio vectorial n-dimensional que no tiene n eigenvalores distintos,entonces el polinomio caracteristico de T debe tener ceros multiples. Esta

    observacion nos conduce a la definicion siguiente.Definicion. Sea A un eigenvalor de un operador lineal 0de una matriz cuyopolinomio caracteristico es f (t): La multiplicidad (algebraica) de A es elmayor entero positivo k para el que (t - A )k es un factor de f(t).

    Ejemplo 9. Sea

    (1 1 0)A = 0 1 3002

    Si H t) es eI polinomio caracteristico de A, entonces HI) = - (I - 1)2( I - 2). Por tanto A= 1 es un eigenvalor de A con multiplicidad 2 yA = 2 es un eigenvalor de A con multiplicidad 1.

    Si T es un operador lineal diagonalizable en un espacio vectorial Vde dimension finita, entonces existe una base f 3 para V formada por eigen-vectores de T. Sabemos del Teorema 5.4 que [T]{:les una matriz diagonalen la que los elementos de la diagonal son los eigenvalores de T. Como elpolinomio caracterfstico de T es det([T]{:l- II ) se ve facilmente que cadaeigenvalor de T debe estar presente como un elemento de la diagonal de[T1{:lexactamente tantas veces como su multiplicidad. Por 10 tanto ( Jcontiene tantos eigenvectores (lineal mente independientes) correspondien-tes a un eigenvalor como la multiplicidad del mismo. A sf vemos que elmimero de eigenvectores linealmente independientes correspondientes a uneigenvalor dado es muy importante para determinar cuando un operadorpuede ser diagonalizado. Recordando del Teorema 5.9 que los eigenvec-tores de T correspondientes al eigenvalor A son los vectores no nulos enel espacio nulo de T - A I es necesario el estudio de este conjunto demanera natural.

    Definicion. Sea T un operador lineal en un espacio vectorial V y sea A un eigen-valor de T. Dejinase a E,\I= {x E V: T(x) = AX} = N(T - Alv). El con-junto E , \ se denomina el eigenespacio de T correspondiente al eigenvalor A.Como es de esperarse, par eigenespacio de una matriz A entendemos eleigenespacio correspondiente del operador LA.

    Es claro que E , \ es un subespacio de V que contiene al vector cero y alos eigenvectores de T correspondientes al eigenvalor A . El mimero deeigenvectores de T linealmente independientes correspondientes al eigenva-lor A es, por tanto, la dimension de E A . Nuestro resultado siguiente rela-ciona esta dimensi6n con la multiplicidad de A .

  • 8/2/2019 Libro blanco.1 (1)

    22/90

    252 DiagonaUzacionTeorema 5.12. Sea T un operador lineal en un espacio vectorial dimensional-

    mente jtnito V. Si > . . es un eigenvalor de T de multiplicidad m, entonces1 ~ dim(EA.) ~ m.DEMOSTRACI6N. T6mese una base {z,... xp} para E.\y extiendase estaa una base f 3 = {r.,... , x.; Xp+h... , X,,} para V. Observese que Xi (1~ i~ p) es un eigenvector de T que corresponde a > . . y sea A = [T]fl. En-tonces

    donde R 1 = > . . I v Y 0 es la matriz cero.Por eI Ejercicio 9 de la Secci6n 4.3, el poIinomio caracteristico deT es

    I(t) = = det(A - tIn) = det ( R 1 - ; a,= = deteR! - tIp ) . deteRs - tIn_v).

    Sea get) =det(R3 - tIn_v) el polinomio caracteristico de R 3 Se ve clara-mente que det(RI - tIp) =( > . . - tv = (-1 ) 1 1 ( t - > , , ) P . Por 10 tantof(t) = = (-I)1 '(t - > ..)Pg(t) , de manera que Ia multiplicidad de > . . es almenos p. Pero dim(EA.)=p por 10 que dimf Ex) ~ m . .Ejemplo 10. Sea T: P2(R ) ~ P2(R ) el operador lineal definido median-te T(I) =1', la derivada de f . La matriz de T con respecto a ]a baseP = {I, X, X2} para P2(R ) es

    (0 1 0)[TJp = 0 0 2 .000

    Consecuentemente el polinomio caracteristico de T es

    det([TJp - t/) = det(-~ -: ~) = _[3.o 0-(Entonces T tiene solamente un eigenvalor (A =0) con multiplicidad 3.Luego EA.= N(T - AI) =N(T). Por 10 tanto EA.es el subespacio de P 2(R )que contiene a lospolinomios constantes. Y en este caso {I} es una basepara EA.y dim(E ... = 1. Consecuentemente no existe una base para P2(R )que conste de eigenvectores de T , de modo que T no es diagonalizable.Ejemplo 11. Sea T un operador lineal en R 3 definido mediante

  • 8/2/2019 Libro blanco.1 (1)

    23/90

    Diagonalizabilidad 253Determinaremos el eigenespacio de T correspondiente a cada eigenvalor.Si f 3 es la base ordinaria para R 3 , entonces

    ( 4 0 1 )[T]p = 2 3 2 .104Por tanto el polinomio caracteristico de T es

    (4-1 0 1 )det([T]p- tI) = det 2 3 - t 2 = -(t - 5)(1- 3)2.

    o 4 - 1De manera que los eigenvalores de T son A 1 =: 5 y A 2 = 3 con multi-

    plicidades 1 y 2, respectivamente.Como

    E A es el espacio de soluciones del sistema de ecuacionesI -XI + X3 =02xI - 2X2 + 2X3 =0XI - X3 =O .Se ve facilmente (utilizando las tecnicas del Capitulo 3) quees una base para EA, . De donde dim (EAJ = 1 .De manera analoga EA. = N C T - A~I) es el espacio de soluciones delsistema I XI + X3 = 02xI + 2X3 =0XI + X3 = o .Y entonces I U H D les una base para E", y dimf Ex,) =2.

  • 8/2/2019 Libro blanco.1 (1)

    24/90

    254 DiagonalizacionEn este caso la multiplicidad de cada eigenvalor A i es igual a la

    dimension del eigenespacio correspondiente E,\;. Observese que

    es una base para R' que consta de eigenvectores de T. En consecuencia Tes diagonalizable.Los Ejemplos lO y 11 sugieren la siguiente conjetura: Si T es un

    operador lineal en un espacio vectorial dimensionalmente finito V tal queel polinomio caracterfstico de T se puede descomponer en un productode factores de grado 1, entonces T es diagonalizable si y solo si la multi-plicidad de cada eigenvalor es igual a la dimension del eigenespacio de Tcorrespondiente a ese eigenvalor. Esta conjetura es, de hecho, cierta, perosu dernostracion implica una cornplicacion que aun no estamos prepa-rados para resolver. La dificultad es que aun no sabemos en general quela union de las bases para cada uno de los eigenespacios sera una basepara V. (Este hecho estuvo claro dentro del contexto del Ejemplo 11pero el caso general no ha sido demostrado.) Notese que el Teorema 5.10no es uti! en este caso a menos que cada eigenespacio sea de dimension 1.As!, debemos apartamos un poco del problema de la diagonalizacion paraestablecer este hecho, el cual requerira de la generalizaci6n del conceptode suma directa (tal como se definio en la Seccion 1.3). Para este finsera conveniente expresar una suma de subespacios Wt, W2, , Wk (nonecesariamente directa ) como

    i_,1Definicion. Sean WI, W2, , Wk subespacios de un espacio vectorial V. Escri-biremos V=WI E B W2 E B . . . E B Wk Y llamaremos a V fa suma directa de

    W I> W 2, , W i< sii:::ly para cada i(l < : : : ; i< k).

    j.t-j

    Ejemplo 12. Sea V = R 4 Y sean W I = {(a, b, 0, 0): a, b ER }, W2 ={ (O , 0, c, 0): c E R } Y W3 ={ (O , 0, 0, d): dE R }. Para cualquierelemento (a, b, c, d) de V(zr,b, c, d) = (a, b, 0, 0) + (0,0, c, 0) + (0,0, 0, d) EWI + W2 + W3Luego entonces

    .JV=~Wi'

    i~l

  • 8/2/2019 Libro blanco.1 (1)

    25/90

    Diagonalizabilidad 255Para demostrar que V es la suma directa de Wh W2 YW3 debemos demostrar que W I n (W 2 + W 3) = {O} , W 2 n (W I + W 3) = {O } Y W 3 nn (W I + W 2) = {O}. Pero estas igualdades son evidentes; de modo queV =W IEB W 2 EB W 3

    Nuestro resultado siguiente contiene varias condiciones que son equiva-lentes a la definicion de suma directa. Notese que este teorema contieneal Teorema 1.6 como un caso especial.Teorema 5.13. Sean W I' W 2, ... , W k subespacios de un espacio vectorial di-mensionalmente jinito V . Las siguientes condiciones son equivalentes:

    (a) V = W I EB W 2 EB ... EB W j,.(b) V = '~~cl Wi y, para vectores x., X2, , x, cualesquiera talesque Xi EWj (i = 1, 2, .. , , k), si Xl + X2 + ... + XI, = 0, en-tonces Xi =0 (i = 1,2, ... , k).(c) Cada vector v en V puede escribirse de manera (mica en la forma

    v =XI + X2 + . .. + Xk, donde Xi E Wi (i=1, 2, . . . , k).(d) Si para toda i= 1, 2, ... , k, Y i es una base ordenada cualquierapara Wi, entonces Y1 U Y2 U ... U Yk * es una base ordenadapara V.(e) Para toda i= 1, 2, ... , k existe una base ordenada Y; para

    Wi (i = 1, 2, ... , k) tal que Yl U Y2 U ... U Yk es una baseordenada para V .DEMOSTRACION. Si (a) es eierta entonces, por definicion,

    kV=.~Wi'Supongase que XI, X2, ... , Xk son vectores tales que Xi EWi(i = 1, 2, ... ,k ) y X, + X 2 + ... + X" =O . Entonces para cualquier i

    -Xi=~XiE~Wj.j ~ j. j / i

    Pero tambien-Xi EWi, Y asi -Xi EWi n (~Wj) = {O}.i= i

    Por 10 tanto Xi =0, 10 que demuestra a (b).Demostraremos en seguida que (b) implica a (c). Puesto que deacuerdo con (b)

    * Consideraremos a Y, U Y2 U ... U y" como una base ordenada de la mane-ra normal ---'los vectores de Yl se enumeran primero (en el mismo orden que en y1),luego los vectores de 12 (en el mismo orden que en y), etc.

  • 8/2/2019 Libro blanco.1 (1)

    26/90

    256 f)iagonalizacioncualquier vector v E V puede ser representado en la forma v =Xl + X2 +... '+ Xl, para algunos elementos Xj E W.j(i = 1, 2, ... , k). Debemosdemostrar que esta representacion es (mica. Supongase par tanto quev =Y I + Y2 + .. , + Y k, donde Y i EWj(i = 1, 2, ... , k). Entonces

    (XL - Y I) + (X" - Y ~) + ... + (X" - Y k) =o .Pero como Xi - Y i EWj, se deduce de (b) que Xi - Y i = O U = 1, 2, ... ,k). Luego Xi = Y i para cada i, 10 que demuestra la unicidad de la repre-sentacion,

    Para demostrar que (c) implica a (d), sea y i una base para Wi (i = 1,2, ... , k). Como de acuerdo can (c)

    kV=~Wi.;'.::1

    es evidente que YI U ye U U y" genera a V. Supongase que existenvectores xij EYj(j = c 1,2, , m, e i= 1,2, ... , k) Yescalares ai, talesque

    ~ aijXji =O .j. j

    HagasenJi

    Y i. =~aijxij;j 1entonces YiEL(y,) =Wi Y

    YI + Y :! + ... + Yk =~aijXij =O.i_ . j

    Puesto que 0 E Wi para toda i y 0 + 0 + ... + 0 =Y I + Y2 + ... + y , , ,la condici6n (c) implica que Y i = 0 para toda i. Luego,

    '1 1 io = Y i=~a ' jX ij 1para toda i. Pero como Y i es linealmente independiente, se obtiene queali = 0 para j = I, 2, ... , m, Y toda i. Par 10 tanto Y I U yo U ... U Y ' ces linealmente independiente y entonces es una base para V.

    Es inmediato que (d) implica a (e).Finalmente, demostraremos que (e) implica a (a). Si Y i es una base

    para W;(i = I, 2, ... , k) tal que Y l U Ye U U Yk es una base paraV, entonces V =L (y, U Y :! U ... U YI . )

    = "L(yd + L(yJ + ... + L(y,.) =~Wji:::.1

  • 8/2/2019 Libro blanco.1 (1)

    27/90

    Diagonalizabilidad 257mediante sucesivas aplieaeiones del Ejereicio 12 de la Secci6n 1.4. Fijeseun indice i y supongase que

    0 = 1 = V EWi n (~Wj).;t'i

    EntoncesvEWi=L(Yi) Y VE~Wi=L(UYj)

    Por 10 tanto v es una combinacion lineal no trivial de Yi y U 1), de ma-)>"nera que v puede expresarse como cornbinacion lineal de Y l U Y 2 U .,. U

    U v en mas de una manera. Pero esas representaeiones contradieen alTeorema 1.9, por 10 que se concluye quej~demostrando (a).

    La razon para discutir sumas directas es para permitimos demostrarque si T es un operador lineal diagonalizable en un espacio vectorial di-mensionalmente finito V, entonees la union de las bases para cada unode los eigenespacios de T es una base para V. EI teorema anterior muestraque esta condicion es equivalente a demostrar que, si T es diagonalizable,entonces V es la suma directa de sus eigenespacios. Ahora fonnalizaremoseste importante resultado.

    Teorema 5.14. Sea T un operador lineal en un espacio vectorial n-dimensionalV. Supongase que el polinomio caracteristico de T se puede descomponeren un producto de [actores de grado 1 y sean A 1 0 A 2 , . , A I < los distintoseigenvalores de T . Entonces los siguientes incisos son: equivalentes:

    (a) T es diagonalizable.(b) V=E ) . , E B E ) . , E B . . . E B E . > . .(e) Si d , = d i m C E . > . ) para 1 : S ; j : s ; k , entonces d 1 + d 2 + .,. ++~= n.(d) Si m, es la multiplicidad de A j para toda j(1 : s ; j : s ; k), entonces

    dim(E'>'J)= mJj =1,2, ... , k).DEMOSTRACION. Primero demostraremos que (a) implica a (b). Si Tes diagonalizable, entonees V tiene una base que consiste en eigenvectoresde T , de donde se deduce facilmente que

    kV=~h,.i= l

    Sean Xi E E . > . ,(i = 1, 2, ... , k ) veetores tales que Xl + X~ + .. , + Xk =O .Ahora bien, cada Xi es 0bien el vector nulo 0un eigenvector de T eorres-pondiente a Iq. Como por el Teorema 5.10 el conjunto de estos vectores

  • 8/2/2019 Libro blanco.1 (1)

    28/90

    258 Diagonalizaci6nno nulos Xi es linealmente independiente, Xl + X2 + ... -t- Xk =0 im-plica que Xl = X2 = .. , =Xk =O . Luego, por el Teorema 5.13 V = E,\. E BE B E,\ , E B . . . E B b .

    Si V = EA.E B EA,E B . . . E B EAt, entonces se infiere del Ejercicio 5 quekns= dim(V) =~dim(EA,) =d, + d + ... + dk

    i= lAsi (b) impIica a (c).

    Demostraremos ahora que (c) implica a (d). Supongase que1

  • 8/2/2019 Libro blanco.1 (1)

    29/90

    Diagonalizabilidad 259

    Una prueba para diagonalizabilidadSea T un operador lineal en un espacio vectorial n-dimensional. EntoneesT es diagonalizable si y solo si se satisfaeen las siguientes dos condiciones.

    J. EI polinomio caracteristico de T se descompone en un productode faetores de grado 1.2. La multiplieidad de A es igual a n - rango(T - AI) para cadaeigenvalor A de T.

    Observese que la condicion 2 queda automaticarnente satisfeeha paraeigenvalores de multipJicidad 1 (Teorema 5.12). Luego, la condicion 2solo debe verificarse para eigenvalores de muttiplicidad mayor que 1.

    Un a'gorilmo para la diagona'izaci6nSea T un operador lineal diagonalizable en un espacio vectorial dimensio-nalmente finito V y sean A" ... , A k los distintos eigenvalores de T. Paracada j, sea f 3 j una base para hj =N(T - Ai l ) Y sea / 3 = /3 1 U 1 3 2 UU ... U 1 3 k . Entonees f 3 es una base para V, y [T](3es una matriz dia-gonal.Ejemplo 13. Probaremos si la matriz

    (3 I 0)A = .0 3 E MJx3(R )004

    es diagonalizable. Como la prueba anterior esta enunciada para operadoreslineales en vez de para matrices, aplicaremos la prueba al operador L.iEl polinomio caracteristico de L A es det(A - tl) = -(t - 4)(t - 3 ) 2 .Por 10 tanto L A tiene como eigenvalores a A1 = 4 Y '\'2 = 3 con multipli-cidades respeetivas 1 y 2. Claramente se satisface la condicion 1 de laprueba de diagonalizabilidad y como '\', tiene multiplicidad 1, la condi-cion 2 se satisfaee para A, por 10 que s610 tenemos que verificar la con-dicion 2 de la prueba para ,\,".Como

    L A - l,l ~ (~ ~ ~)tiene rango 2, 3 - rango(B) = 1. Asi, la condicion 2 de la prueba fallapara '\'2 y en eonseeuencia L A y (por tanto A) no es diagonalizable.

  • 8/2/2019 Libro blanco.1 (1)

    30/90

    260 Diagonalizaci6n

    EjempJo 14. Sea T: R 3 -+ R 3 definida mediante

    ~ D ~ F ~ + ~ : )Probaremos si T es diagonalizable. Siendo v la base estandar para R 3 ,tenemos(0 -2 -3)[ T J y = 1 3 3001

    El polinomio caracteristico de T es - (t - 1) 2 (t - 2). Luego T tiene 2eigenvalores: x, = 1 con multiplicidad 2 y A2 = 2 con multiplicidad 1.N6tese que la condici6n 1 de la prueba para diagonalizabilidad quedasatisfecha. Ahora consideraremos la condici6n 2.

    Para A l = 1,

    (-1

    3 - rango(T - Al l ) = 3 - rango O -22o- 3 )~ =3 - 1= 2.

    Luego la dimensi6n de E A, es la misma que la multiplicidad de AI. ComoA2 tiene multiplicidad 1, la dimensi6n de E A . es igual a la multiplicidadde A2 Por tanto T es diagonalizable.Encontraremos ahora una base p para R 3 tal que [T]1lsea una matrizdiagonal. Dado que

    E" ~ N(T -1,1) ~ {(:} R ', n - ~- ~ ~ : : )E A , es el conjunto de soluciones de

    {-Xl - 2X2 - 3X3 = = 0

    Xl + 2X2 + 3X3 =0,que tiene como base a

    TambienE. ~ N(T - 1,1) ~ {(:} R' n - := ~ ~ : : )0 ) -

  • 8/2/2019 Libro blanco.1 (1)

    31/90

    Diagonalizabilidad 261Luego E A . es el conjunto de soluciones de

    !-2x1 - 2xz - 3X3 = 0XI + Xz + ~X3 = 0

    - X3 = 0,que tiene como base a

    Sea p = / 3 1 U / 3 2 , entonces /3 es una base para V y

    ( 1 0 0 )[T]p= 010002Nuestro siguiente ejemplo es una aplicacion de Ia diagonalizacion quesera. de interes en la Seccion 5.3.

    Ejemplo 15. Sea

    Demostraremos que A es diagonalizable y encontraremos una matriz Qde 2x 2 tal que (rIAQ sea una matriz diagonal. Esta informacion sera.luego utilizada para calcular An para cualquier entero positivo n.Recuerdese que A es diagonalizable si y solo si L A esdiagonalizable.Tenemos que el polinomio caracteristico de L A es (t - 1)( t - 2); portanto, L A tiene dos eigenvalores diferentes y entonces L A (y por tanto A)es diagonalizable. Para encontrar una base 1 3 para R 2 tal que [ L A l l i sea unamatriz diagonal, notese que L A tiene como eigenvalores a A l = 1 Y A2 =2.Puede verse facilmente que

    es una base para E A , y que

    es una base para E A ,. Entonces para la base

  • 8/2/2019 Libro blanco.1 (1)

    32/90

    I262 Diagonalizacion

    tenemos

    Ademas, si

    entonces, por eI Teorema 5.1,Q-IAQ = ( I 0 )2 .

    Finalmente, como

    Q-IAQ = ( 1 0 )o 2 'EntoncesAn = [ Q ( ~ ~ ) Q - I T

    = Q ( b g ) Q - I Q ( ~ g ) Q - l . . . Q ( ~ ~ ) Q - l~ n )Q - l-D(~ ~ n ) ( _ ~ 1 ) ( 2 - 2n-2 - -1+ 2n 2 - 2 n + l )-1+ 2 '1 + 1 .

    ConcIuiremos esta seccion con una aplicacion que utilice Ia diagonaIi-zacion para resolver un sistema de ecuaciones diferenciales.Ejemplo 16. Considerar el sistema de ecuaciones diferenciales

    IX; = 3x 1 + X 2 + X 3X: = 2Xl + 4X2 + 2X3X3 = -Xl - X2 + X3,

    donde, para toda i, Xi =Xi(t) es una funcion diferenciable real, en lavariable real t. Es evidente que este sistema tiene solucion, que es la solu-cion en la que cada x;(t) es Ia funcion cero. Determinaremos todas lassoluciones del sistema.Sea X: R ~ R' la funcion definida mediante

    X(t) =(::~~~).x3(t )

  • 8/2/2019 Libro blanco.1 (1)

    33/90

    Diagonalizabilidad 263La derivada de X se define como la funci6n X', donde

    (X ; ( t ) )

    X'(t) = x;(t) .x;(t)

    HaciendoA = ( ~ 4 ~ )-1 -11

    la matriz de coeficientes del sistema dado, podemos escribir este sistemaen la forma matricial X' =AX, donde AX es el producto matricial deA por X.

    EI lector debera verificar que A es diagonalizable y que si

    Hagase

    Q ~( ~0 ~ ) ,

    -1 -1 -1

    Q-'AQ ~ (~0

    ~ )0( 0 ~ ) ,= 0 2o 0

    entonces

    y sustituyase A =QDQ-' en X' =AX para encontrar X' =QDQ-IX 0,de manera equivalente, Q-IX' =DQ-IX. Definase a Y: R _.,. R 3 medianteY(t) =Q-IX(t). Puede demostrarse que Y es una funci6n diferenciabley que, de hecho, Y' =Q-IX'. Par 1 0 tanto el sistema original puede es-cribirse como Y' = DY.Como D es una matriz diagonal, el sistema Y' = DYes Iacil de resol-ver. Puesto que para

    entonces Y' =DY puede escribirse como

  • 8/2/2019 Libro blanco.1 (1)

    34/90

    264 Diagonalizaci6nLas tres ecuaciones

    y;(t) = 2YI(t)y~(t) = 2yit)y~(t) = 4Y3(t)

    son independientes entre si y por tanto pueden resolverse individualmente.Se ve facilmente (como en el Ejemplo 2 de la Secci6n 5.1) que la solu-cion general de estas ecuaciones es Y1(t) = c.e", Y2(t) =c2e2 t Y Y3(t)=c3eft, donde c1, C2 Y C3 son escalares cualesquiera. Finalmente

    da la solucion general del sistema original. Notese que esta solucion puedeescribirse como

    X(I) ~ e + t ~ )c ~ J ] + + t mLas expresiones en los parentesis rectangulares son senciIIamente elementoscualesquiera de E A, Y E>.., respectivamente, donde A 1 = 2 Y A 2 = 4 . Lue-go, la solucion general del sistema original es X(t) = e2tZ1 + eHz2, dondez. E E A, Y Z 2 E E A, .

    EJERCIC IOS1. Decir si las siguientes afirmaciones son verdaderas 0 falsas.

    (a) Cualquier operador lineal en un espacio vectorial n-dimensional quetiene menos de n eigenvalores distintos no es diagonalizable.(b) Eigenvectores correspondientes al mismo eigenvalor son siempre li-nealmente dependientes.(c) Si unespacio vectorial es la suma directa de subespacios Wb W2, ,W k, entonces Wi n Wj = {O } para i*j.

    (d) SikV = ~ Wi Y Wi n Wj = {O }

    i =lpara i c:j=j.

    entonces V=Wl E B W2 E B . . . E B Wk'

  • 8/2/2019 Libro blanco.1 (1)

    35/90

    Diagona'izabi'idad 265(e) Si A es un eigenvalor de un operador lineal T , entonces cada elemen-to de E.I.es un eigenvector de T .(f) Si A1 Y A2 son eigenvalores distintos de un operador lineal T , entoncesE.I.,n h. = {O} .(g) Sean A E Mnxn (F ) y f 3 ={Xl' . , X .. } una base para F n formada deeigenvectores de A. Si Q es la matriz de n X n cuya columna i es

    Xi(i = 1, 2, ... , n), entonces (!-lAQ es una matriz diagonal.(h) Un operador lineal T en un espacio vectorial dimensionalmente finito

    es diagonalizable si y solo si la multiplicidad de cada eigenvalor Aes igual a la dimension de E.I..(i) Todo operador lineal diagonaIizable tiene al menos un eigenvalor.2. Para cada una de las matrices siguientes A en Mnxn (R) , probar si A esdiagonalizable y, en caso de serlo, encontrar una matriz Q tal que Q-IAQ

    sea una matriz diagonal.(a) (~ i) (b) G D

    (e) ( I ~ - ; )3. Para cada uno de los siguientes operadores lineales T , probar si T es diago-nalizable y, en caso de serlo, encontrar una base f 3 tal que [T]j3 sea unamatriz diagonal.

    (a) T: P3(R) ~ P3(R) definida mediante T(f) = i' + t", donde i' y f"son la primera y segunda derivadas de t. respectivamente.(b) T : P2(R) ~ P2(R) definida mediante T(ax2 + bx + c) =CX2 ++ bx + a.(c) T : R 3 ~ R 3 definida mediante

    T ( : : ) = (-::)a3 2a3

    4. Demostrar la version matricial del corolario al Teorema 5.10: Si A E Mnxn (F)tiene n eigenvalores distintos, entonces A es diagonalizable.5. Sean Wt, W2, , Wk subespacios de un espacio vectorial dimensionalmen-te finito V tal que

    k"2,Wi=V.i= l

  • 8/2/2019 Libro blanco.1 (1)

    36/90

    266 D;agonalizacionDemostrar que V es la suma directa de W"~W2, . , Wk si Y solo si

    kdim(V) =~dim(Wi)'i=l

    6. Sea V un espacio vectorial dimensionalmente finito con una base f 3 = {x "x2 , . . . , xn}, y sea / 3 " 1 3 2 , . . . , 1 3 k una particion de f 3 (esto es, f 3 " 1 3 2 , . . . ,1 3 k son subconjuntos de 1 3 tales que 1 3 = f 3 , U ( 3 2 U ... U 1 3 k Y 1 3 . n f3 j == 0 si i =j). Demostrar que V = L({3I) (J )L ({ 32) E B . . , EBL(f3d.

    7. Enunciar y demostrar la version matricial del Teorema 5.11.8. (a) Justificar la prueba de diagonalizabilidad y el algoritmo para diago-

    nalizacion enunciado en esta seccion.(b) Enunciar el inciso (a) para matrices.9. Si

    encontrar An para cualquier entero positivo n.10. Sea A EM"xn(F) tal que tenga dos eigenvalores distintos A , y A 2 ' Sidim(EA ) = n - 1, demostrar que A es diagonalizable.11 . Sea T un operador lineal en un espacio vectorial V dimensionalmente finito

    para el cual los distintos eigenvalores de T son A " A 2 , . . . , Ak. DemostrarqueL({xE V: x es un eigenvector de T}) = EAtEBb ,E B . . . (J) EA,.

    12. Sea T un operador lineal en un espacio vectorial dimensionalmente finito Voara el eual los distintos eigenvalores A " A 2 ' . . , A l e se presentan con multi-plicidades m, nu, ... , mi, respectivamente. Si 1 3 es una base para Vtal que [T]( l es una matriz triangular, demostrar que los elementos de ladiagonal de [T]( l son A I, A 2, ... , Ak Yque cada A j apareee m, veces (j= 1,2, ... , k).13. Supongase que A es una matriz de n X n cuyo polinomio caracteristico sedescompone en un produeto de faetores de grado 1 y que los distintos eigen-valores de A son A " A 2 , . . . Ak . Para cada i, sea m, la multiplicidad de A j.Demostrar que

    7 ,tr(A) = .~ mjAj.i I

    14. Sea T un .operador lineal invertible en un espacio vectorial dimensionalmen-te finite. Demostrar que T es diagonalizable si y solo si T -' es diagonalizable.

  • 8/2/2019 Libro blanco.1 (1)

    37/90

    Diagonalizabilidad 26715. Sea A E Mn x n (F). Demostrar que A es diagonalizable si y solo si At es

    diagonalizable.16. Encontrar la solucion general del sistema de ecuaciones diferenciales.

    { X ~ = 8x, + 10x2x' = -5x1 - 7X2'217. Sea

    A=all au alna2l a22 a2

    la matriz de coeficientes del sistema de ecuaciones diferencialesx; =allxl + aUx2 +x; = a2lxl + a22x2 +

    + an.x.Supongase que A es diagonalizable y que los distintos eigenvalores de Ason A" A2, ... , Ak . Demostrar que una funcion diferenciable X: R ~ R nes una solucion del sistema si y solo si X es de la forma

    donde z, E E A , para i = 1, 2, . .. k. Concluyase que el conjunto de solu-ciones del sistema es un espacio vectorial real n-dimensional.

    Los Ejercicios 18-20 se ocuparan del tema de la diagonalizacion simultanea.Definiciones. Dos operadores lineales T y U en el mismo espacio vectorial di-mensionalmente iinito V se denominan simultaneamente diagonalizables siexiste una base f 3 para V tal que [T]J3 y [U]J3 son ambas matrices diagonales.De la misma manera A , B EMnxlI(F) se llaman simultanearnente diagonali-

    zables si existe una matriz invertible Q E Mnxn(F) tal que 0-1AQ y Q-IBQson ambas matrices diagonales.18. (a) Si T Y U son operadores lineales sirnultaneamente diagonalizabJes en

    un espacio vectorial dimensionaJmente finito V, demostrar que [ T l { 3y [U](l son matrices simultaneamente diagonalizables para cualquierbase {3 .

  • 8/2/2019 Libro blanco.1 (1)

    38/90

    268 Diagonalizacion(b) Demostrar que si A y B son matrices simultaneamente diagonalizables,

    entonces lA y lB son operadores simultaneamente diagonalizables.19. (a) Demostrar que si T y U son operadores simultaneamente diagonaliza-bles, entonces T y U conmutan: es decir, TU=UT.

    (b) Demostrar que si A y B son matrices simultaneamente diagonaliza-bles, entonces A y B conmutan.Las reciprocas de (a) y (b) se estableceran en el Ejercicio 11 de laSeccion 5.4.

    20. Sea T un operador lineal diagonalizable en un espacio vectorial dimensional-mente finito y sea m cualquier entero positivo. Demostrar que T y T m sonsimultaneamente diagonalizables.

    21. Sean W h W2, K I, K 2, , K p , MI, M2, , Mq subespacios de un espaciovectorial V tales que WI = K IEB K2 E B . . . E B K p YW 2 = MI EB M2 EB ... EBEB Mq. Demostrar que si WI n W 2 = {O},entonces WI ,+ W 2 =WI E E lEB W 2 = K I E B K2 EB ... EB K p EB Ml EB M2 EB .. EB Mq.

    5.3* L lM ITES DE M ATR IC ES Y CADENAS DE MARKOVSi A es una matriz cuadrada con elementos complejos, entonces, para cual-quier entero positivo m, Am es una matriz cuadrada del rnismo tamafioy que tambien tiene elementos complejos. En muchas de las ciencias na-turales y de la vida existen aplicaciones practicas de importanciaque requieren de Ia determinacion del "limite" (si existe alguno) de lasecuencia de matrices A, A 2, A 3, . .. En esta seccion consideraremos taleslirnites y exarninaremos una situacion importanteen la que surge estacIase de lirnites.

    Definiciones. Sean L, AI> A2, As, . .. matrices de n X p con elementos com-plejos. Se dice que fa sucesion AI, A2, A3, converge a fa matriz; L,denominada el limite de la sucesion, si para cada i (1 ~ i~) yj(1 ~ j ~ p) la sucesion de numeros complejos (AI)ij, (A2Li> (A3)ij ...converge a Lj. (EI limite de fa sucesion de numeros complejos { zm :m= 1, 2, ... }, donde Zm = ~m + i S m siendo r m Y Sm numeros reales, que-da deiinido en terminos de los limites de fa sucesion de las partes real eimaginaria como

    Para expresar el hecho de que la sucesion A" A2, A3, converge a L,debemos escribir lim Am = L.

  • 8/2/2019 Libro blanco.1 (1)

    39/90

    Umites de matrices y cadenas de Markov 269Ejemplo 17. Si

    (

    11--mA -m - (;r

    (-!r 3m2 + i(2m + 1 ) )m2 + 1 m - 1( 1 + !r 'entonces

    3 + 2i)e 'donde e es la base de los logaritmos naturales.

    Una sencilla pero muy importante propiedad de los limites de lasmatrices esta contenida en el teorema siguiente. N6tese la analogia con lapropiedad ordinaria de limites de sucesiones de mimeros reales que aseguraque si lim a". existe, entonces

    lim ca =c(lim a".).Teorema 5.15. Sea A" A2, As, ... una sucesi6n de matrices de n X peonelementos compleios tales que

    lim Am=LEMnxp(C).Entonces para cualquier BEMrxn(C) y CEMpx.(C),

    lim BAm =BL Y lim ArnC=LC.

    DEMOSTRACI6N. Para cualquier ;(1S; s r) y j(1 Sj s p),lim [(BAm) ii] = lim [i:Bik(Amhi]m-i'oO m---)I;J\ k:::;1

    n n=~Bki{lim [(Amhj]) =~BikLki = cet.v.;k=l ~oo k=1

    Par 10 tanto lim BAm =BL. La demostracion de que lim AmC =LC essemejante.

    Coro/ario. Sea A EMnxn(C) y sea lim Am1=L. Entonces para cualquier matrizinvertible QEMnxn(C), 1lI~"lim (QAQ-I)m =QLQ-'.m-e ec

    DEMOSTRACI6N. Puesto que

  • 8/2/2019 Libro blanco.1 (1)

    40/90

    270 Oiagonalizaciontenemos, de acuerdo con el Teorema 5.15, quelim [(QAQ-l)m] = lim (QAmQ-l) = Q(lim Am)Q-l =QLQ-l .m-+o oEl siguiente resultado importante proporciona las condiciones necesa-

    rias y suficientes para la existencia de la clase de limite que estamos consi-derando.Teorema 5.J6. Sea A una matriz cuadrada con elementos complejos. Entonceslim Am existe si y solo sf se satisjacen las condiciones siguientes.

    (a) Si A es un eigenvalor de A, entonces I A I ~ 1.(b ) Si A es un eigenvalor de A tal que I A I = 1, entonces A es elmanero real 1.(c) Si 1 es un eigenvalor de A, entonces la dimension del eigenes-pacio correspondiente ales igual a la multiplicidad de 1 comoeigenvalor de A.Desafortunadamente no sera posible demostrar la suficiencia de estascondiciones ni la necesidad de la condicion (c) hasta que estudiemos ]aforma canonica de Jordan. Por esta razon la demostracion del teorema serapospuesta hasta la Seccion 6.2 (Ejercicio 18). Sin embargo, la necesidadde las dos primeras condiciones se infiere Iacilmente del hecho de quelim A m si y s610 si A = 1 0 bien I A I < 1 . (Puede demostrarse que este

    m .. . . o ocaso, que sin duda el lector conoce para los mimeros reales A , tambiense cumple para los complejos.) Supongase entonces que A es un eigenvalorde A para el que las condiciones (a) y (b) falIan,esto es, tal queI A I > 1 0 bien que I A I = 1 pero A = 1 = 1. Sea x un eigenvector de Aque corresponda a A . Considerando a x como una matriz de n X 1 ve-mos que, deacuerdo con el Teorema 5.15,lim (Amx) =Ilim Am)x =Lx,

    donde L = lim Am. Pero lim (Amx) = lim (AmX) es divergente puestom-1GI'J m-too m--+roque lim A m no existe. Por 10 tanto si lim Am existe, entonces las condi-

    ciones (a) y (b) del Teorema 5.16 deben satisfacerse. Aun cuando eneste momenta no seamos capaces de demostrar la necesidad de la terceracondicion, consideremos un ejemplo en el que esta condicion falle. Obser-vese que para la matrizB = ( b ~ }

    el eigenvalor ,\ =1 tiene multiplicidad 2, micntras que dim ( E > . ) 1 .Pero por induccion simple

  • 8/2/2019 Libro blanco.1 (1)

    41/90

    Umites de matrices y cadenas de Markov 271y por 10 tanto lim B no existe. (Veremos mas adelante que si A es una

    m~'"matriz para la que la condicion (c) falla, entonces puede escogerse laforma canonica de Jordan de A de forma tal que su submatriz izquierdasuperior de 2 x 2 sea justamente esta matriz B.)

    Sin embargo, en la mayor parte de las aplicaciones que involucran estetipo de limite, la matriz A es diagonalizable. Cuando la condicion (c) delTeorema 5.16 se sustituye por la condicion de mayor fuerza de que Aes diagonalizable (ver el Teorema 5.14), entonces se puede demostrarfacilmente la existencia del limite.

    Teorema 5.1 7. Sea A E Mn x 11 (C) tal que las condiciones siguientes se satis-[acen:

    (a) Si A es un eigenvalor de A, entonces I A I : : : ; ; 1.(b ) Si A es un eigenvalor de A tal que I A I =1, entonces A es elnumero real 1.(c) A es diagonalizable.

    Entonces existe lim A m .DEMOSTRACION. Como A es diagonalizable, existe una matriz invertibleQ tal que Q-1 AQ =D es una matriz diagonal. Sea

    A I 0 0o A 2 0D=

    o 0 A nDado que x., A", ... , An son los eigenvalores de A, las condiciones (a)y (b) muestran que Ai 1= 1 0 bien I x, I < 1 para 1 :::;;i :::;;. Por 10 tanto

    {1 si A i =1lim Am =m'% i 0 en cualquier otro caso.Pero como AI' 0

    0 AiDm =

    0 0

    oo

    la sucesion D, D", D", ... converge a un limite L. Por 10 tanto, por elcorolario del Teorema 5.15,

    lim Am = lim (QDQ-l)m = QLQ1.

  • 8/2/2019 Libro blanco.1 (1)

    42/90

    "272 DiagonalizacionLa tecnica para calcular lim Am , utilizada en la demostracion del teore-

    m~"rna anterior, es de gran utilidad. Utilizaremos este metodo para calcularlim Am para la matriz

    A = ( ; - : - i ) .4 - i -ljSi

    3-23

    - 1 ) ,-1entonces

    (-1

    D =Q-l(AQ) = -1-5

    - i ) ( I= 0- * 0Por 10 tanto

    lim Am = lim (QDQ-l)m = lim (QDmQ-l) = Q(lim Dm)Q-l~ H - ~= (-~ -~ -~)(~ ~ ~ ) ( = ~~ ~ )=(-~ ~-~).

    2 3 -1 0 0 0 -5 3 7 -2 0 2Consideremos ahora un ejemplo sencillo en el que se presenta el lfrnitede las potencias de una matriz. Supongase que la poblacion de cierta areametropolitana se mantiene constante pero que hay un movimiento

    continuo de gente entre la ciudad y los suburbios. Especificamente, seanlos elementos de la siguiente matriz A las posibilidades de que alguienque vive en la ciudad a en los suburbios el primero de enero estara vivien-do en cada region el primero de enero del afio siguiente.Viven Viven

    actualmente actualmenteen la en losciudad suburbios

    Viviran el proximo ana en la ciudad (Viviran el proximo afio en los suburbios 0.900.10 0.020.98 ) = A

  • 8/2/2019 Libro blanco.1 (1)

    43/90

    Limites de matrices y cadenas de Markov 273Entonces, por ejemplo, la probabilidad de que alguien que vive en laciudad (el primero de enero) estara viviendo en los suburbios el pr6ximoafio (el primero de enero) es 0.10. N6tese que como los elementos decada columna de A representan las probabilidades de residencia en cadauno de los dos sitios, los elementos de A son no negativos. M a s aun, lasuposicion de una poblacion constante en el area metropolitan a requiereque la suma de los elementos de cada columna de A sea 1. Cualquier ma-triz que tenga estas dos propiedades (que los elementos sean no negativosy que la suma de los elementos de cada columna sea 1) se llama matri:de transicion (0 matriz estocdstica). Para una matriz de transicion M den X n arbitraria, los renglones y las column as corresponden a n estadosy el elemento M;j representa la probabilidad de pasar del estado j al esta-do i en una etapa. En nuestro ejemplo, se tienen dos estados (residir enla ciudad y residir en los suburbios), y A 21 representa la probabilidadde emigrar de la ciudad a los suburbios en una etapa (afio ).

    Determinemos ahora la probabilidad de que un residente de la ciudadeste residiendo en los suburbios despues de dos afios, Observese primeroque hay dos maneras diferentes en las que tal cambio puede haberse rea-lizado -ya sea permaneciendo en la ciudad un afio y despues mudandosea los suburbios, 0 mudandose a los suburbios durante el primer afio ypermaneciendo en enos en el segundo (vease Fig. 5.3). La probabilidadde que un habitante de la ciudad permanezca en la ciudad el siguiente afioes 0.90 y la probabilidad de que un habitante de la ciudad se mude a lossuburbios duranteel pr6ximo afio es de 0.10. Por 10 tanto, la probabi-lidad de que un residente de la ciudad permanezca en la ciudad duranteun afio y se mude a los suburbios durante el siguiente es 0.90 (0.10).De la misma manera, la probabilidad de que un habitante de la ciudadse mude a los suburbios durante el primer afio y permanezca ahi duranteel siguiente es 0.10(0.98). De este modo la probabilidad de que un resi-dente de la ciudad este viviendo en los suburbios despues de 2 afios es0.90(0.10) + 0.10(0.98) = 0.188. Observese que este mimero se obtuvo

    0.10Ciudad Suburbios0.90

    Ciudad

    0.10 Suburbios Suburbios0.98

    figura 5 . 3

  • 8/2/2019 Libro blanco.1 (1)

    44/90

    I274 Diagonalizacion

    mediante la misma operacion que la que produce (A2)21; por 10 tanto(A2)21 representa la probabilidad de que un habitante de la ciudad esteresidiendo en los suburbios despues de dos alios. En general, para cual-quier matriz de transicion M (Mm)ij representa la probabilidad de pasardelestado j al estado i en m etapas.Supongase ademas que 70% de la poblacion de 1970 del area metro-politana vivia en la ciudad y 30% vivia en los suburbios. Registremos estainformacion como un vector columna:

    Proporcion de habitantes de la ciudad (0.70) =PProporcion de residentes de los suburbios 0.30 .Notese que los renglones de P corresponden a los estados de residir en Jaciudad y de residir en Jos suburbios, respectivamente -el mismo ordenen que losestados estan registrados en la matriz de transicion A. Obser-vese tambien que P es un vector columna que contiene elementos nonegativos cuya suma es 1; tal vector se denomina vector de probabilidad.En esta terminologia cada columna de una matriz de transicion es unvector de probabilidad.

    Consideremos ahora el significado del vector AP. La primera coorde-nada de este vector esta formada por la operacion 0.90 (0.70) + 0.02(0.30). EI termino 0.90(0.70) representa la proporcion de la poblacionmetropolitana de 1970 que permanecio en la ciudad durante el siguienteafio, y el termino 0.02(0.30) representa la proporcion de la poblacionmetropolitan a de 1970 que se mudo a la ciudad durante el afio siguiente.Por 10 tanto, la primera coordenada de AP representa la proporcion dela poblacion metropolitana que vivia en la ciudad 1 afio despues de 1970.De la misma manera la segunda coordenada de

    AP = (0.636)0.364representa la proporcion de la poblacion metropolitana que vivia en lossuburbios en 1971. Este argumento puede extenderse facilmente para de-mostrar que las coordenadas de

    A 2p = A CAP) = (0.57968)0.42032representan las proporciones de la poblacion metropoIitana que estabanviviendo en cada uno de los sitios en 1972. En general, las coordenadasde Amp representan la proporcion de la poblacion metropolitana que vivi-ra en la ciudad y en los suburbios, respectivamente, despues de m etapas(m alios despues de 1970).l,Si esta tendencia continua se vaciara Ia ciudad? En vista de 10 antesexpuesto es natural definir Ia proporcion eventual de habitantes de laciudad y de los suburbios como la primera y segunda coordenadas, res-

  • 8/2/2019 Libro blanco.1 (1)

    45/90

    Umites de matrices y cadenas de Markov 275pectivamente, de lim Amp. Calculemos este limite. Utilizando la notacionanterior m_'oo

    D = Q-IAQ = ( !luego entonces

    L = lim Am = lim (QDmQ-I ) = Q(l 0) Q-I = ( i i ) .m-~ m-~ 0 t t

    i ) (0.90 0.02) (1-i 0.10 0.98 5

    Por 10 tantolim Amp = LP = ( i ) ;m-~ i

    de manera que 1kde la poblaci6n vivira en la ciudad y % de la poblacionvivira en los suburbios. Es Iacil demostrar que en este ejemplo

    para cualquier vector de probabilidad P. [Por 10 tanto en este ejemplo lasproporciones eventuales de habitantes de la ciudad y de los suburbios sonindependientes de las proporciones iniciales (dadas por el vector P)!Al analizar el problema ciudad-suburbios dimos interpretaciones pro-babilistas de A 2 Y de AP, demostrando que A 2 es una matriz de transi-cion yAP es un vector de probabilidad. Se pueden utilizar argumentossemejantes para demostrar que el producto de dos matrices de transicion esuna matriz de transici6n y que el producto de una matriz de transicionpor un vector de probabilidad es un vector de probabilidad. Una demostra-cion altemativa de estos resultados puede basarse en el teorema siguiente,que caracteriza a las matrices de transicion y a los vectores de proba-bilidad.

    Teorema 5.18. SeaMuna matri: de n X n con elementos (reales) no negativos,sea x un vector columna en R n de coordenadas no negativas y sea u E R nel vector columna en el que todas las coordenadas son iguales a 1. En-tonces:

    (a) M es una matri; de transicion si y solo si M'u =u.(b) x es un vector de probabilidad si y s610si u'x = (1).

    DEMOSTRACION. Ejercicio.Corolario.

    (a) El producto de dos matrices de transicion de n X n es una ma-triz: de transicion de n X n. En particular, cualquier potenciade una matriz de transicion es una matriz de transicion.

  • 8/2/2019 Libro blanco.1 (1)

    46/90

    I276 Diagonalizacion

    (b) El producto de una matri: de transicion por un vector de pro-babilidad es un vector de probabilidad.

    DEMOSTRACION. Ejercicio.Un proceso estocdstico tiene como finalidad predecir el estado de unobjeto que este restringido a estar exactamente en uno de ciertos posibles

    est ados en un instante dado cualquiera, pero que cambia de estado dealguna manera aleatoria. Normalmente, la probabilidad de que el objetose encuentre en un estado particular en un instante dado dependera defactores tales como:

    1. El estado en cuestion.2. EI instante en cuestion.3. Algunos 0 todos los estados anteriores en los cuales estuvo elobjeto.4. Los estados en los que se encuentran otros objetos 0en los que

    se hayan encontrado.Porejemplo, el objeto podria ser un votante americano y el estadodel objeto podria ser su preferencia por algun partido politico, 0el objeto

    podrfa ser una molecula de H"O y los estados podrian ser los estadosffsicos en los cuales el H20 puede existir (1os estados solido, lfquido ygaseoso). En estos ejemplos los cuatro factores antes mencionados influen-ciaran la probabilidad de que los objetos se encuentren en un estado par-ticular en un instante particular.

    Sin embargo, si Ia probabilidad de que un objeto que esta en un estadocambie a otro estado diferente depende unicamente de los dos estados(y no del tiempo, estados anteriores u otros factores), entonces el procesoestocastico se denomina proceso de Markov. Ademas, si el numero deestados posibles es finito, entonces el proceso de Markov se llama cadenade Markov. EI ejemplo anterior del movimiento de poblacion entre laciudad y los suburbios es una cadena de Markov de dos estados.

    Consideremos otra cadena de Markov. Un cierto plantel de bachilleratodesearia obtener informacion sobre la probabilidad de que se graduen lasdistintas clases de estudiantes actualmente inscritos. La escuela cIasifica aun estudiante como de segundo 0 de primer grado dependiendo del mime-ro de creditos que el estudiante haya contabilizado. Los datos con quecuenta la escuela indican que de un semestre de otofio al siguiente segraduarael 40% de los estudiantes de segundo afio, el 30% continuaraen el mismo grado, y el 30% abandonara los estudios definitivamente.Para los de primer afio, los datos muestran que e1 10% se graduara parael proximo otofio, 50% pasara al segundo grado, 20% permanecera en elmismo grado y 20% abandonara definitivamente 1a carrera. En este afioel 50% de los estudiantes de la escuela son de segundo grado y el 50%

  • 8/2/2019 Libro blanco.1 (1)

    47/90

    Limites de matrices y cadenas de Markov 277de primer grado. Suponiendo que la tendencia indicada por los datos seprolonga indefinidamente, la escuela desearia saber

    1. EI porcentaje de los actuales estudiantes que se graduara, el por-centaje de los que pasaran a segundo grado, el porcentaje de losque estaran en el primer grado y el porcentaje de los que aban-donaran definitivamente para el proximo otofio.2. Los mismos porcentajes que en el inciso 1 para el semestre deotofio de aqui a 2 afios.3. EI porcentaje de sus estudiantes actuales que eventualmente segraduara.

    El parrafo anterior describe a una cadena de Markov de cuatro esta-dos que son:

    1. Haberse graduado.2. Estar en el segundo grado.3. Estar en el primer grado.4. Haber abandon ado definitivamente.Los datos antes mencionados nos proporcionan la matriz de tran-

    sicion

    (

    1 0.4 0.1 0)o 0.3 0.5 0A= o 0 0.2 0o 0.3 0.2 1de la cadena de Markov. (Notese que los estudiantes ya graduados 0 quehan abandonado de una manera definitiva se considera que permanecende una manera indefinida en sus estados respectivos, por 10 que un estu-diante del primer grado que abandon a la escuela y que regresa semestresdespues, no se considera que haya cambiado de estado, se supone queel estudiante perrnanecio en el estado de ser de primer grado durante eltiempo que no se inscribio.) Adernas, se nos informa que la distribucionactual de los estudiantes es tal que la mitad de ellos se encuentra respec-tivamente en los estados 2 y 3 Y ninguno en los estados 1 y 4. El vector

    =( O ' ~ )0.5oque describe la probabilidad inicial de estar en cualquier estado se llamavector de probabilidad inicial para la cadena de Markov.

  • 8/2/2019 Libro blanco.1 (1)

    48/90

    278 DiagonalizacionCon el objeto de resolver la primera pregunta debemos determinar la

    probabilidad de que un estudiante actual este en cualquiera de los estadospara el proximo otofio, Como se vio anteriormente, estas probabilidadesestan dadas por las coordenadas del vector

    (0.25)0.40AP= .0.100.25

    Por 10 tanto, para el proximo otofio, el 25% de los estudiantes actualesse graduara, el 40% estara en el segundo grado, el 10% estara en elprimer grado y el 25% abandonara la escuela. De la misma manera

    (0.42)0.17A2p = A(AP) = 0.020.39

    proporciona la informacion requerida para resolver la pregunta 2: dentrode dos afios el 42% de los estudiantes actuales se graduara, el 17% estaraen el segundo grado, 2% estara en el primer grado y el 39% abandonarala escuela.

    Finalmente, la respuesta a la pregunta 3 la proporciona el vector LP,donde L = lim Am. El lector debera verificar que si

    m"'''

    ( I - 4 1 9 0 )o 7 -40 0 ,Q = 0 0 8 0o -3 13 1entoncesD ~ Q-'AQ ~ (~ 1 HI.4 0 . 1I4 19 ~ )tOO 0.3 0.5 0 0 7 -40o too 0 0.2 0 0 0 8t H 1 0 0.3 0.2 1 0 -3 13~ ( ~0 0 ~ ).3 00 0.20 0

  • 8/2/2019 Libro blanco.1 (1)

    49/90

    Umites de matrices y cadenas de Markov 279De donde

    L =lim Am =Q(lim Dm)Q- '-47o

    -3 - ~ ~ ) ( ~~ H ) ( H : ~ )= ( H !~13 1 0 0 0 1 0 ~ !i 1 0 ~ ~ 1De este modo

    y por 10 tanto la probabilidad de que uno de los actuales estudiantes segradiie es de 5%12.En los dos ejemplos anteriores hemos visto que lim Amp, donde A

    es la matriz de transicion y P es el vector de probabilidad inicial de lacadena de Markov, permite conocer las proporciones eventuales en cadaestado. En general, sin embargo, no es necesario que exista el limite delas potencias de una matriz de transici6n. Por ejemplo, si

    M= (~ ~),es evidente que lim M" no existe. (Potencias impares de M son igualesaM, y potencias pares de M son iguales a I.) La raz6n por la cual ellimiteno existe, es que la condicion (b) del Teorema 5.16 no se satisface paraM (-I es uneigenvalor). De hecho, puede demostrarse (vease Ejercicio20 de la Secci6n 6.2) que las {micas matrices de transicion A tales quelim Am no existe son precisamente aquellas matrices en las que la condi-m~~cion (b) del Teorema 5.16 no se cumple.Pero aun cuando exista el limite de las potencias de la matriz de

    transicion, el calculo de dicho limite puede llegar a ser muy diffcil, (Sesugiere al lector realizar el Ejercicio 6 para comprobar la verdad de laultima oracion.) Afortunadamente, existe una c1ase de matrices de tran-sicion grande e importante para las cuales el limite existe y es Iacil decalcular -esta es la clase de matrices "regulates" de transicion.

    Definicion. Si alguna potencia de una matri; de transicion contiene unicamenteelementos positivos, entonces la matri: se llama matriz regular de tran-sicion.

  • 8/2/2019 Libro blanco.1 (1)

    50/90

    I280 Diagonalizaci6n

    Ejemplo 18. La matriz de transici6n

    (0.900.10 0.02)0.98de la cadena de Markov que describe el movimiento de poblaci6n entrela ciudad y los suburbios es cIaramente regular puesto que todos los ele-mentos son positivos. Por otra parte, la matriz de transici6n

    (

    1 0.4 0.1 0)A = 0 0:3 0.5 0.2 0.3 0.2 I

    de la cadena de Markov que describe las inscripciones del plantel de bachi-lIerato no es regular. (Es Iacil demostrar que la primera columna de Ames

    para toda m; de donde (AIIl)4], por ejemplo, no es nunca positiva.)Observese que una matriz regular de transici6n puede contener elemen-

    tos nulos; por ejemplo,

    (0.9 0.5 0)

    M = 0 0.5 0.40.1 0.6

    es regular puesto que todos los elementos de M2 son positivos.En el resto de esta seccion nos dedicaremos principalmente a demos-

    trar que si A es una matriz regular de transici6n, enlonces existe L = lim Amm-x.

    y las columnas de L son identicas, (Recuerdese la forma de L en elproblema ciudad-suburbio.) Con este hecho sera Iacil caIcular el limite.Durante el transcurso de la dernostracion de este resultado obtendremosalgunos teorernas interesantes sobre la magnitud de los eigenvalores decualquier matriz cuadrada. Estas cotas estaran dadas en terminos de lasuma de los val ores absolutos de los elementos de los renglones y de lascolumnas de la matriz. La terrninologia necesaria se introduce en la defini-cion siguiente.

    Deliniciones. Sea A EMJ1xn(C) . Deiinase a piCA) como fa suma de los valoresabsolutos de los elementos del renglon ide A Y "j (A) como la suma delos valores absolutos de los elementos de la columna j de A. Entonces

    "P i (A) = = ~ j Aij Ij 1

    para i=1, 2, ... , n

  • 8/2/2019 Libro blanco.1 (1)

    51/90

    Umites de matrices y cadenas de Markov 281y

    nVj(A) =~ I Aij I para j = 1, 2, ... , n.j = = l

    La suma de renglones de A, denotada por peA) , y la suma de columnasde A denotada por YeA) , se deiinen comopeA) =max {piCA): 1::::; i : : : : ; n} y yeA) =max {vj(A); 1 : : : ; ; j : : : ; ; n}.EjempJo 19. Para la matrizA ~ H -Io ~ ) ,2-IpI(A) = 7, P2(A) = 10, p,,(A) = 6, v,(A) = 8, v2(A) = 3 y v3(A) ==12. Por 1 0 tanto p(A) = 10 Y veAl = 12.

    Nuestros siguientes resultados muestran que el menor de entre p(A)Y v (A) es una cota superior para el valor absoluto de los eigenvaloresde A. En el ejemplo anterior, por ejemplo, A no tiene ningun eigenvalorcuyo valor absoluto sea mayor de 10.

    Teorema 5.J9. Sea A un eigenvalor de AEMnxn (C ) . Entonces I A I : : : : ; peA) .DEMOSTRACI6N. Sea ( ~ I )= .

    X.

    un eigenvector de A para el que A es el eigenvalor correspondiente. Enton-ces x satisface la ecuacion matricial Ax =A x que puede ser escrita comoel sistema de ecuaciones lineales(i=1,2, ... , n). (4)

    j=l

    Supongase que Xk es la coordenada de x que tiene el mayor valor absolutoy sea b = I x I . De la k-esima ecuacion de (4) tenemosn ..I A I b = I A I I Xk I = I A x" 1 = I ~ A"jxj I : : : : ; ~ I A"jxj I

    j=1 j=1 (5)n n~ I A"j I I x, I < ~ I A"i I b =Pk(A)b::::; p(A)b.

    Pero como x que es un eigenvector no nulo, b *O. Luego, dividiendoambos lados de la ecuaci6n (5) por b, se obtiene 1 A I : : : : ; p(A).

  • 8/2/2019 Libro blanco.1 (1)

    52/90

    282 Oiagona/izacionCoro/ario 1. Sea A un eigenvalor de AEMnxnCC) . Entonces I A I : = = ; min {pCA),

    vCA)}.DEMOSTRACION. Como por el Teorema 5.19 I A I : = = ; peA), es suficientedemostrar que I , \ I : = = ; v C A ) .

    EI Ejercicio 14 de la Secci6n 5.1 muestra que ,\ es un eigenvalor deAt. Por 10 tanto, de acuerdo con el Teorema 5.19 , ,\ I : = = ; peA t). Pero losrenglones de At son las columnas de A. Por 10 tanto peAt) =yeA), yasi I A I : = = ; v (A ) .

    Como la suma de los elementos de las columnas de una matriz de tran-sici6n es 1, se obtiene de inmediato la siguiente conclusion a partir delCorolario 1.

    Corolario 2. Si,\ es un eigenvalor de una matriz de transicion, entonces1 , \ 1 : = = ; 1 .EI siguiente resultado muestra que se ha alcanzado la cota superioren el corolario anterior.

    Teorema 5.20. Toda matriz de transicion tiene a 1 como eigenvalor.DEMOSTRACION. Sea A una matriz de transici6n de n X n y sea u ER nel vector columna en donde cada coordenada es 1. Entonces, segun elTeorema 5.18, A'u =u y por tanto u es un eigenvector de At que corres-ponde a] eigenvalor 1. Pero como A y At tienen los mismos eigenvaloresse tiene que 1 tambien es un eigenvalor de A.

    Supongase ahora que A es una matriz de transicion para la que alguneigenvector que corresponde a] eigenvalor 1 tiene unicamente coordenadasno negativas. Entonces algun multiple de este vector sera un vector deprobabilidad P, asi como un eigenvector de A que corresponde al eigen-valor 1. Es interesante observar que si P es el vector de probabilidadinicial de una cadena de Markov que tenga a A como matriz de transi-cion, entonces la cadena de Markov es completamente estatica, pues enesta situacion Amp =P para cualquier entero positivo m y por 10 tantola probabilidad de estar en cada estado nunea cambia. Considerese, porejemplo, e 1 problema ciudad-suburbios con

    Teorema 5.21. Sea A EM nxn (C) una matriz en la que todos los elementos sonpositivos y sea ,\ un eigenvalor de A tal que 1 , \ I =p(A). Entonces)..=peA), y {u} es una base para E A , donde

  • 8/2/2019 Libro blanco.1 (1)

    53/90

    Limites de matrices y cadenas de Markov 283DEMOSTRACI6N. Como 1 . . \ I = p(A) las tres desigualdades de la ecua-cion (5) en la demostraei6n del Teorema 5.19 son realmente igualdades,esto es

    . . ,.(b) ~ I Akj I I Xj I =~ I Akj I b,(e) pk(A) = peA),

    donde x, b y k son los mismos que se definieron en la demostracion delTeorema 5.19.Veremos en el Ejercicio 15(b) de la Seeei6n 7.1 que (a) se satisfacesi y solo si todos los terminos AkiXj(j = 1, 2, ... , n) son multiples nonegativos de algun mimero complejo no nulo z, Sin perdida de generalidad,supondremos que I z I =1. Luego existen mimeros reales no negativosCh ... , Cn tales que

    (6)"Evidentemente (b) se satisface si y solo si para cada j tenemos que

    Akj ;=:: 0 0I x, I = b. Como se supone que cada elemento de A es positive,concluimos que (b) se satisface si y s6lo si

    I Xi 1 = b para j = 1, 2, . . . , n. (7)ASl tenemos que la ecuaei6n (5), Y por tanto el inciso (c) anterior, esvalida para k ;=:: 1, 2, ... , n.

    De la ecuacion (6) vemos que(j = 1, 2, ... , n),

    y por 10 tanto, de la ecuacion (7),

    I c, I c.b = I x, I = .zi:z =_J_Akj Akj (j = 1,2, ... , n).Por tanto x, = b z: para j = 1, 2, ... , n. As!

    y entonees {u} es una base para b.

  • 8/2/2019 Libro blanco.1 (1)

    54/90

    284 DiogonolizocionClaramente se ve que u es un eigenvector de A correspondiente al

    eigenvalor peA) puesto que, de acuerdo con el inciso (c) anterior,1 : Alii-I

    =P ' ( A l ) = ( P ( A l ) = P(A)( I)= p(A)uPn(A ) peA ) 1

    Pero el parrafo anterior muestra que si A es cualquier valor de A tal queI A 1 = peA), entonces u es un eigenvector al que corresponde A. Por 10tanto A=p(A).

    Corolorio 1 . Sea AEMnxn(C) una matri: